研究

位在 AI 系統、安全與可信部署交會處的研究。

我的研究關注的是:當 AI 系統被放進充滿不確定性、證據要求與真實營運成本的環境時,如何仍然保持有用、可檢視且可靠。

目前在做什麼? 目前工作與下一步。 哪些內容能看出研究深度? 近期會議論文與研究主題。 想看實作證據? 從研究主軸延伸到案例研究。 考慮合作? 最快方式是直接使用聯絡頁。

目前工作與研究方向

持續中的工作被整理成少數幾條可延續的研究方向,而不是彼此斷裂的一長串實驗。

進行中研究

證據導向的語音智能流程

開發可從原始對話音訊一路走到結構化、可審閱輸出的系統,同時保留生成結論與來源證據之間的可追溯性。

目前下一步: 持續細化逐字稿品質、檢索行為與審閱者信任感等評估面向。

語音智能ASR可追溯性
進行中研究

有據可循的詐欺對話分析

研究以 RAG 為基礎的工作流程,如何在不依賴缺乏依據的 LLM 推理下支援詐欺對話分析。

目前下一步: 延伸到分析師使用情境下的檢索品質,以及答案是否有據可循的評估。

詐欺分析RAGLLM 系統
持續研究

聯邦學習中的資訊外洩與隱私風險

探索協作式訓練在敏感 AI 場景中,面對真實外洩與隱私假設時的行為特性。

目前下一步: 比較不同威脅模型與部署假設下的攻防取捨。

聯邦學習隱私安全

近期會議論文

近期英文會議論文把研究主軸連到實際部署、威脅建模與可衡量的防禦策略。

Recent conference paper

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era

Presented in English at CISC 2025, this paper analyzes Medusa and CrazyHunter as case studies for AI-era ransomware evolution and connects their tradecraft to a ZTAID-grounded zero-trust defense framework for real operational environments.

Conference: Cryptology and Information Security Conference 2025 (CISC 2025)

Schedule: May 28-29, 2025

Venue: Feng Chia University

Format: Conference Paper · English

RaaSZero TrustZTAIDThreat ModelingSOAR

Recent conference paper

Integration of Threat Pulse Modeling into the ZTAID Zero Trust Maturity Assessment Model

Presented in English at CISC 2025, this paper proposes Threat Pulse Modeling as a way to convert live cyber threat intelligence into pillar-level ZTAID maturity signals for continuous zero-trust assessment and faster operational response.

Conference: Cryptology and Information Security Conference 2025 (CISC 2025)

Schedule: May 28-29, 2025

Venue: Feng Chia University

Format: Conference Paper · English

Threat IntelligenceThreat Pulse ModelingZero TrustZTAIDForecasting

值得信賴的 AI 系統

把可靠性、評估、人類審查與可追溯性視為架構的一部分,而不是事後補上的附加條件。

可靠性評估人工審查
深入這個方向

語音、語言與證據流程

打造 ASR + LLM + RAG 工作流程,用於對話分析、結構化抽取,以及針對長音訊與逐字稿進行有據可循的推理。

ASRLLMRAG
深入這個方向

安全與高風險部署

研究隱私、資訊外洩、對抗風險與治理限制,這些因素如何形塑受規範或安全敏感場景中的 AI 系統。

安全隱私部署
深入這個方向

我在意的問題

  • AI 系統如何在不削弱證據鏈的前提下,支援高風險環境中的人類決策?
  • 除了基準測試表現與流暢輸出之外,什麼才真正讓一個 AI 系統值得信賴?
  • 語音與語言流程該如何為真實營運工作流程而設計,而不是只為理想化展示而存在?
  • 部署限制、治理與安全如何從一開始就被內建進 AI 系統設計?

工作方式

我通常把 AI 視為完整的系統問題,而不是單一模型問題。這代表資料品質、檢索、評估、安全假設、失效分析與人工審查都必須一起被思考。

整個作品網站背後的共同主線其實很簡單:打造不只能力強,而且可檢視、有據可循,並對真實部署條件保持誠實的系統。

AI AgentsTrustworthy AISpeech IntelligenceCybersecurityHigh-Stakes Deployment

未來方向

  • 面向分析師與重視證據工作流程的值得信賴語音系統。
  • 適用於受規範、安全關鍵或營運複雜場域的 AI 部署評估框架。
  • 支援真實決策的安全、多模態且有據可循的系統。

合作與研究契合度

我特別期待與重視技術深度、謹慎評估,以及關注 AI 在可靠性、可審查性與治理要求場景中如何真正落地的人合作。

適合的合作通常來自研究團隊、跨領域實驗室,或想把好點子落成可檢視系統、可評估原型、或會議案例研究的技術團隊。