経歴

研究、AIシステム、セキュリティ志向の技術活動に関する経歴概要。

Jason Chia-Sheng Lin は National Yang Ming Chiao Tung University の博士課程研究者で、信頼できるAI、音声インテリジェンス、サイバーセキュリティ、実装可能なシステム設計をつなぐ研究と実装に取り組んでいます。このページは、採用担当者、技術リーダー、共同研究者、主催者が短時間で全体像をつかむための要約です。

現在の役割
NYCU 博士課程
拠点
Artificial Intelligence in Medical Imaging / Signal Analysis Lab
主なテーマ
信頼できるAI、音声インテリジェンス、サイバーセキュリティ
最近の公開実績
公式セッション 1 件 + 英語会議論文 2 本

職務概要

医療AIラボでの研究、システム実装、そして調査実務で培った証拠志向の視点を組み合わせ、証拠性・規制・導入制約が重要な場面でも機能するAIシステムを設計しています。

博士研究の前にはサイバー犯罪捜査に従事していました。その経験は、証拠、敵対的行動、追跡可能性、そして単体では良く見えるモデルと現実で信頼できるシステムの差を考える上で、今も影響しています。

現在の取り組みは、音声・言語パイプライン、信頼できるAIの評価、医療AIサイバーセキュリティ、そしてレビュー可能性と運用制約が重要な環境に向けた導入志向のAIシステム設計にまたがります。

チームに持ち込めるもの

研究に根ざしたシステム思考

AI を孤立したモデリング課題としてではなく、モデル、パイプライン、実行前提、運用制約をまたぐ問題として捉えます。

セキュリティを意識した技術判断

失敗コストが大きい環境に向けて、脅威モデリング、プライバシー、漏えいリスク、導入の現実を設計へ組み込みます。

多様な読者への明快な伝達

技術的な取り組みを講演、ケーススタディ、構造化された文章へ変換し、採用担当者、研究者、技術協業相手が素早く確認できるようにします。

職務経験

現在

博士課程研究者、NYCU Artificial Intelligence in Medical Imaging / Signal Analysis Lab

信頼できるAIシステム、医療サイバーセキュリティ、音声インテリジェンス、根拠をたどれるLLMワークフロー、実運用を見据えたセキュリティ評価を研究しています。

以前

サイバー犯罪捜査

デジタル証拠、オンライン詐欺分析、OSINT、高リスクな調査環境での運用判断に携わりました。

学際的

調査経験を土台にしたシステム思考

証拠意識、敵対的思考、運用規律をAIシステムの設計と評価に持ち込んでいます。

継続中

研究と技術発信

信頼できるAI、音声システム、導入リスクに関するケーススタディ、技術文書、講演資料を継続的に整えています。

現在の取り組み

実運用の中で意味を持つ信頼できるAIシステム

音声インテリジェンスと証拠志向分析のための ASR + LLM + RAG パイプライン

高リスク環境向けAIシステムの安全性、プライバシー、評価設計

分析者向けワークフローにおける人間レビュー、追跡可能性、意思決定支援

不正対策、医療、その他の規制領域に向けた実社会のAIシステム設計

代表作

応用的なシステム思考を示す代表プロジェクトです。

これらのケーススタディは、Jason が課題をどう定義し、システムを構築し、技術判断を技術読者にも横断的な読者にも検証可能な形で説明するかを示します。

すべてのプロジェクト
Cybersecurity 2026 Active Study

Federated Learning Leakage Study

A research case study on federated learning privacy leakage, gradient inversion risk, and defense trade-offs for sensitive collaborative training.

PyTorchFederated LearningPrivacyGradient LeakageSecure Aggregation
Fraud Analysis 2026 Active Research

Fraud Conversation Analysis with RAG

A research-led case study on retrieval-augmented fraud conversation analysis, designed to keep LLM outputs grounded in transcript evidence for high-stakes review.

PythonRAGLLM PipelinesTranscript AnalysisEvidence Grounding
AI Systems 2026 Active Research

Speech Evidence Intelligence Pipeline

An evidence-aware speech intelligence pipeline using ASR, retrieval, and LLM extraction to turn long-form conversational audio into structured, reviewable outputs.

PythonASRWhisperRAGLLM Pipelines

講演と発表の実績

CYBERSEC 2026

AI 軟體醫材的資安實戰:從美國 FDA 524B 規範到 Threat Modeling 與 Patch SLA 的完整落地

AI医療機器ソフトウェアのサイバーセキュリティ実務を扱う分科会で、FDA 524B を起点に脅威モデリング、SBOM、ゼロトラスト設計、監査可能なリスク統治を結びます。

CISC 2025 · 会議論文

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era: A Technical and Strategic Analysis Using Medusa and CrazyHunter as a Case Study

AI時代の RaaS が BYOVD、LOTL、秘匿化された C2、適応的な攻撃手口によってどう進化するかを分析し、ZTAID に基づくゼロトラスト防御戦略へ結びつけた英語論文です。

CISC 2025 · 会議論文

Integration of Threat Pulse Modeling into the ZTAID Zero Trust Maturity Assessment Model: An Analytical Framework

Threat Pulse Modeling(TPM)を、ライブ脅威インテリジェンスを ZTAID 成熟度シグナルへ変換する方法として提案し、継続的なゼロトラスト評価を支える英語論文です。

文章と技術コミュニケーション

essay

Flat UI から Spatial Interface へ

Liquid Glass、visionOS、AI が向かわせるのは、AI が kernel を置き換える未来ではなく、検索、オーケストレーション、cross-app 作業を束ねる新しい operating surface である。

essay

Minimal Disclosure for Fraud Intelligence: Cross-Node Pattern Formation in High-Stakes AI

A research-oriented essay on cross-node fraud intelligence, minimal disclosure, and trustworthy AI design for high-stakes pattern formation under fragmented evidence.

公開実績

  • 博士研究、システム実装、調査経験に根ざした思考を横断する学際的なプロフィール。
  • 研究、実装寄りの開発、横断的な技術対話に柔軟に対応できます。
  • 公開活動には CYBERSEC 2026 の公式セッションと CISC 2025 の英語会議論文 2 本が含まれます。

方法と技術スタック

AI / Agent Systems

PyTorchTransformersAI AgentsLLM PipelinesRAG Systems

Speech / Language

ASRSpeech IntelligenceTranscript ProcessingEvidence ExtractionConversation Analysis

Security / Operations

CybersecurityDigital ForensicsOSINTFraud AnalysisFederated Learning Security

Research / Evaluation

Experiment DesignEvaluation FrameworksReproducible WorkflowsPythonGitHub Actions

歓迎しているご相談

信頼できるAI、音声と言語システム、導入に敏感なワークフロー、あるいはセキュリティ志向のシステム設計に近いチーム、ラボ、主催者との対話に特に適合します。

共同研究や学際的なラボとの対話

信頼できるAI、音声システム、サイバーセキュリティに関する講演依頼

採用、技術交流、証拠志向のAIシステム設計

お問い合わせ

採用相談、共同研究、講演依頼、技術的な議論にはメールが最適です。