履歷

面向研究、AI 系統與安全導向技術工作的專業摘要。

Jason Chia-Sheng Lin 是 National Yang Ming Chiao Tung University 的博士生,研究串連值得信賴的 AI、語音智能、資安,以及可部署的系統設計。這一頁是為希望快速掌握整體輪廓的招募經理、技術主管、合作夥伴與主辦方而設計。

目前角色
NYCU 博士生
所屬研究室
Artificial Intelligence in Medical Imaging / Signal Analysis Lab
主要主題
值得信賴的 AI、語音智能與資安
近期公開訊號
1 個官方場次 + 2 篇英文會議論文

專業摘要

我結合醫療 AI 研究、系統實作與調查工作中的證據思維,設計在證據、法規與部署限制都重要時,仍然真正有用的 AI 系統。

在進入博士研究之前,Jason 曾從事網路犯罪偵查。這段背景持續影響他如何理解證據、對抗性行為、可追溯性,以及單一模型看起來不錯和系統在真實世界中仍然可信之間的差距。

目前工作橫跨語音與語言流程、值得信賴的 AI 評估、醫療 AI 資安,以及在重視可審查性與營運限制環境中的部署導向 AI 系統設計。

Jason 能為團隊帶來什麼

扎根研究的系統思維

不把 AI 工作視為孤立的模型問題,而是同時考慮模型、流程、執行環境與營運限制。

具安全意識的技術判斷

把威脅建模、隱私、外洩風險與部署現實帶進系統設計,特別是失敗代價很高的環境。

面向混合受眾的清楚表達

把技術工作整理成演講、案例研究與結構化文章,讓招募方、研究者與技術合作夥伴能快速檢視。

專業經歷

目前

博士生,NYCU 人工智慧於醫學影像與訊號分析實驗室

研究值得信賴的 AI 系統、醫療資安、語音智能、有據可循的 LLM 工作流程,以及面向真實部署的安全評估。

過往

網路犯罪偵查

曾處理數位證據、網路詐欺分析、OSINT 與高風險調查情境中的營運推理。

跨領域

以調查經驗為底的系統思維

把證據意識、對抗性思維與營運紀律帶進 AI 系統設計與評估。

持續進行

研究與技術溝通

持續整理關於值得信賴的 AI、語音系統與部署風險的研究案例、技術寫作與演講內容。

目前工作領域

能在真實部署中派上用場的值得信賴 AI 系統

用於語音智能與證據導向分析的 ASR + LLM + RAG 工作流程

高風險場景 AI 系統中的安全、隱私與評估設計

分析師工作流程中的人工審查、可追溯性與決策支援

面向反詐、醫療與其他受規範領域的 AI 系統設計

代表作品

能呈現系統思維落地能力的代表性專案。

這些案例研究展示 Jason 如何定義問題、建構系統,以及用可被技術與跨功能讀者檢視的方式說明技術選擇。

瀏覽全部專案
Cybersecurity 2026 Active Study

Federated Learning Leakage Study

A research case study on federated learning privacy leakage, gradient inversion risk, and defense trade-offs for sensitive collaborative training.

PyTorchFederated LearningPrivacyGradient LeakageSecure Aggregation
Fraud Analysis 2026 Active Research

Fraud Conversation Analysis with RAG

A research-led case study on retrieval-augmented fraud conversation analysis, designed to keep LLM outputs grounded in transcript evidence for high-stakes review.

PythonRAGLLM PipelinesTranscript AnalysisEvidence Grounding
AI Systems 2026 Active Research

Speech Evidence Intelligence Pipeline

An evidence-aware speech intelligence pipeline using ASR, retrieval, and LLM extraction to turn long-form conversational audio into structured, reviewable outputs.

PythonASRWhisperRAGLLM Pipelines

演講與發表訊號

CYBERSEC 2026

AI 軟體醫材的資安實戰:從美國 FDA 524B 規範到 Threat Modeling 與 Patch SLA 的完整落地

聚焦 AI 醫療器材軟體資安實務的分論壇,從 FDA 524B 出發,串連威脅建模、SBOM、零信任設計與可稽核的風險治理。

CISC 2025 · 會議論文

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era: A Technical and Strategic Analysis Using Medusa and CrazyHunter as a Case Study

英文會議論文,分析 AI 時代的 RaaS 如何透過 BYOVD、LOTL、隱蔽式 C2 與自適應戰術演化,並將其對應到以 ZTAID 為基礎的零信任防禦策略。

CISC 2025 · 會議論文

Integration of Threat Pulse Modeling into the ZTAID Zero Trust Maturity Assessment Model: An Analytical Framework

英文會議論文,提出 Threat Pulse Modeling(TPM)作為把即時威脅情報轉換為 ZTAID 成熟度訊號的方法,以支援持續性的零信任評估。

寫作與技術溝通

essay

從 Flat UI 到 Spatial Interface

Liquid Glass、visionOS 與 AI 指向的未來,未必是 AI 取代 kernel,而是由搜尋、編排、跨 app 協作與工作台式介面共同構成的新 operating surface。

essay

Minimal Disclosure for Fraud Intelligence: Cross-Node Pattern Formation in High-Stakes AI

A research-oriented essay on cross-node fraud intelligence, minimal disclosure, and trustworthy AI design for high-stakes pattern formation under fragmented evidence.

公開實績

  • 跨越博士研究、系統實作與調查經驗思維的跨領域背景。
  • 能在研究、工程協作與跨職能技術對話中自在切換。
  • 公開工作包含 CYBERSEC 2026 官方場次與兩篇 CISC 2025 英文會議論文。

方法與技術工具

AI / Agent Systems

PyTorchTransformersAI AgentsLLM PipelinesRAG Systems

Speech / Language

ASRSpeech IntelligenceTranscript ProcessingEvidence ExtractionConversation Analysis

Security / Operations

CybersecurityDigital ForensicsOSINTFraud AnalysisFederated Learning Security

Research / Evaluation

Experiment DesignEvaluation FrameworksReproducible WorkflowsPythonGitHub Actions

歡迎以下類型的交流

最適合的合作通常來自關心值得信賴的 AI、語音與語言系統、部署敏感工作流程或具資安視角系統設計的團隊、實驗室與主辦方。

研究合作與跨領域實驗室交流

關於值得信賴的 AI、語音系統或資安的演講邀請

招募、技術交流與證據導向 AI 系統設計

聯絡

對於招募對話、研究合作、演講邀請與技術細節交流,寄電子郵件是最好的方式。