證據導向的語音智能流程
開發可從原始對話音訊一路走到結構化、可審閱輸出的系統,同時保留生成結論與來源證據之間的可追溯性。
目前下一步: 持續細化逐字稿品質、檢索行為與審閱者信任感等評估面向。
我的研究關注的是:當 AI 系統被放進充滿不確定性、證據要求與真實營運成本的環境時,如何仍然保持有用、可檢視且可靠。
持續中的工作被整理成少數幾條可延續的研究方向,而不是彼此斷裂的一長串實驗。
開發可從原始對話音訊一路走到結構化、可審閱輸出的系統,同時保留生成結論與來源證據之間的可追溯性。
目前下一步: 持續細化逐字稿品質、檢索行為與審閱者信任感等評估面向。
研究以 RAG 為基礎的工作流程,如何在不依賴缺乏依據的 LLM 推理下支援詐欺對話分析。
目前下一步: 延伸到分析師使用情境下的檢索品質,以及答案是否有據可循的評估。
探索協作式訓練在敏感 AI 場景中,面對真實外洩與隱私假設時的行為特性。
目前下一步: 比較不同威脅模型與部署假設下的攻防取捨。
近期英文會議論文把研究主軸連到實際部署、威脅建模與可衡量的防禦策略。
Recent conference paper
Presented in English at CISC 2025, this paper analyzes Medusa and CrazyHunter as case studies for AI-era ransomware evolution and connects their tradecraft to a ZTAID-grounded zero-trust defense framework for real operational environments.
Conference: Cryptology and Information Security Conference 2025 (CISC 2025)
Schedule: May 28-29, 2025
Venue: Feng Chia University
Format: Conference Paper · English
Recent conference paper
Presented in English at CISC 2025, this paper proposes Threat Pulse Modeling as a way to convert live cyber threat intelligence into pillar-level ZTAID maturity signals for continuous zero-trust assessment and faster operational response.
Conference: Cryptology and Information Security Conference 2025 (CISC 2025)
Schedule: May 28-29, 2025
Venue: Feng Chia University
Format: Conference Paper · English
把可靠性、評估、人類審查與可追溯性視為架構的一部分,而不是事後補上的附加條件。
打造 ASR + LLM + RAG 工作流程,用於對話分析、結構化抽取,以及針對長音訊與逐字稿進行有據可循的推理。
研究隱私、資訊外洩、對抗風險與治理限制,這些因素如何形塑受規範或安全敏感場景中的 AI 系統。
我通常把 AI 視為完整的系統問題,而不是單一模型問題。這代表資料品質、檢索、評估、安全假設、失效分析與人工審查都必須一起被思考。
整個作品網站背後的共同主線其實很簡單:打造不只能力強,而且可檢視、有據可循,並對真實部署條件保持誠實的系統。
我特別期待與重視技術深度、謹慎評估,以及關注 AI 在可靠性、可審查性與治理要求場景中如何真正落地的人合作。
適合的合作通常來自研究團隊、跨領域實驗室,或想把好點子落成可檢視系統、可評估原型、或會議案例研究的技術團隊。