研究資料庫|AI Agents|資安

Doctoral Researcher, Artificial Intelligence in Medical Imaging / Signal Analysis Lab

Jason Chia-Sheng Lin

為重視證據的工作打造值得信賴的 AI 系統。

這是一個技術型研究與作品網站,讓研究合作夥伴、招募團隊與活動主辦方,可以快速檢視我在 AI agents、語音智能、資安與受規範部署中的研究脈絡、系統案例、演講與文章。

  • 保留證據與人工審查控制權的 agent 工作流程
  • 為長音訊與對話分析而設計的語音與逐字稿管線
  • 面向受規範場域的安全導向部署思維

所屬研究室

目前於 NYCU 人工智慧於醫學影像與訊號分析實驗室進行博士研究。

公開演講

受邀於 CYBERSEC 2026 官方分論壇分享 AI 醫療器材軟體的資安設計。

論文發表

於 CISC 2025 發表兩篇英文論文,連結安全分析與實際部署防禦。

閱讀網頁版講稿
網站架構

這個網站會像技術系統一樣被組織,而不是鬆散的作品集。

新版借用 Triton 頁面的清楚結構:明確的技術定位、精簡能力列表、清楚的進入路徑,以及可以檢視研究、實作與公開發表的證據區塊。

工作模型

證據從語音、文字、威脅與研究來源進入,經過 grounded AI 工作流程,再走向人工審查或部署判斷。

  1. 01
    擷取

    音訊、逐字稿、證據、威脅訊號

  2. 02
    推理

    檢索、agents、抽取、系統評估

  3. 03
    審查

    可追溯性、不確定性、人工核准

  4. 04
    部署

    安全、治理、受規範工作流程

精選系統

讓架構可以被檢視的案例研究。

每個專案都說明問題、系統設計,以及真實工作中真正重要的證據。

瀏覽全部系統
專案成熟度

每個精選系統都會標出目前成熟度。

這些標籤把早期研究、具體原型、論文支撐工作、接近產品敘事的案例,以及封存成果分開,讓訪客知道應該如何閱讀每個專案。

Research seed

已形成問題、參考文獻與下一步評估方向的研究種子。

Prototype

已具備足夠具體度,可以討論實作路徑的系統或管線方向。

Paper-backed

與論文、正式投稿或會議型成果連結的專案。

Production-style case study

具備部署假設、使用者流程與風險控制說明的完整案例。

Archived

作為參考保留的已完成或歷史成果。

論文 / 演講

面向嚴肅部署的公開技術框架。

近期公開活動涵蓋官方場次與英文會議論文,主題橫跨值得信賴的 AI、資安、威脅情報、語音系統,以及 AI 在重視可靠性與可追溯性場域中的落地問題。

瀏覽演講與主題
官方場次 CYBERSEC 2026

AI 軟體醫材的資安實戰:從美國 FDA 524B 規範到 Threat Modeling 與 Patch SLA 的完整落地

聚焦 AI 醫療器材軟體資安實務的分論壇,從 FDA 524B 出發,串連威脅建模、SBOM、零信任設計與可稽核的風險治理。

May 6, 2026 · 16:15-16:45 Medical Cybersecurity Forum
會議論文 CISC 2025

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era: A Technical and Strategic Analysis Using Medusa and CrazyHunter as a Case Study

英文會議論文,分析 AI 時代的 RaaS 如何透過 BYOVD、LOTL、隱蔽式 C2 與自適應戰術演化,並將其對應到以 ZTAID 為基礎的零信任防禦策略。

May 28-29, 2025 Cryptology and Information Security Conference

超越基準測試的值得信賴 AI

當 AI 被用在錯誤代價很高的場域時,該如何思考可靠性、證據、人類審查與系統行為。

研究團隊、實驗室、跨領域聽眾

AI 時代的勒索軟體與零信任防禦

現代 RaaS 攻擊如何結合自動化、BYOVD、LOTL 與隱蔽式 C2,以及 ZTAID 導向的零信任策略如何落實偵測、圍堵與復原。

資安會議、藍隊、研究所課程

Threat Pulse Modeling 與持續性評估

如何把威脅情報轉換成 pulse event、ZTAID 支柱分數與可量測的成熟度訊號,以支援更快的防禦調整。

資安研究者、零信任計畫、研究所課程

面向營運工作流的 ASR + LLM + RAG

語音與語言流程如何從原始逐字稿走到有據可循、可檢視的分析輸出。

NLP 團隊、語音研究者、應用 AI 實作者

安全導向的 AI 系統設計

為什麼隱私、資訊外洩風險、對抗性思維與部署假設,應被視為核心系統問題,而不是事後才補上的合規要求。

安全團隊、工程團隊、政策相關利害關係人

Jason Chia-Sheng Lin
背景摘要

從調查實務走到 AI 系統研究的跨域路徑。

我的研究方向深受博士研究、系統實作,以及調查工作累積的證據意識與失效分析視角影響。

我結合醫療 AI 研究、系統實作與調查工作中的證據思維,設計在證據、法規與部署限制都重要時,仍然真正有用的 AI 系統。

角色

NYCU 博士生

主題

值得信賴的 AI、語音智能與資安

方法

面向高風險真實場景的證據導向系統設計

聯絡

歡迎研究合作、技術交流與演講邀請。

歡迎就研究合作、值得信賴的 AI、語音與語言系統,以及安全敏感或受規範場景中的 AI 部署與我交流。

最快的方式是寄電子郵件。聯絡頁也整理了哪些背景資訊最能幫助我快速理解你的需求。

研究合作與跨領域實驗室交流

關於值得信賴的 AI、語音系統或資安的演講邀請

招募、技術交流與證據導向 AI 系統設計

第一封訊息建議包含

說明你的背景、這次交流為什麼適合,以及你期待的下一步。

寄信給 Jason 前往聯絡頁 LinkedIn