Research Library | AI Agents | Cybersecurity

Doctoral Researcher, Artificial Intelligence in Medical Imaging / Signal Analysis Lab

Jason Chia-Sheng Lin

証拠が重要な仕事のための、信頼できるAIシステム。

AIエージェント、音声インテリジェンス、サイバーセキュリティ、規制環境での導入に関する研究テーマ、システム事例、講演、文章を、共同研究者・採用担当・イベント主催者が確認しやすい形で整理した技術ポートフォリオです。

  • 証拠と人間レビューの制御を保つエージェントワークフロー
  • 長時間音声と会話分析に向けた音声・文字起こしパイプライン
  • 規制環境を見据えたセキュリティ志向の導入設計

所属研究室

NYCU の Artificial Intelligence in Medical Imaging / Signal Analysis Lab で博士研究を進めています。

登壇実績

CYBERSEC 2026 の公式セッションで、AI医療機器ソフトウェアのセキュリティ設計について講演しました。

論文発表

CISC 2025 で、実運用の防御とセキュリティ分析をつなぐ英語論文を2本発表しました。

Web版講演記録を読む
サイト構造

このサイトは、単なるポートフォリオではなく技術システムのように整理しています。

Triton の明快さを参考に、技術的な約束、能力リスト、入口、研究・実装・発表を確認できる証拠セクションを中心に構成しています。

Working model

証拠は音声、テキスト、脅威、研究ソースから入り、grounded AI ワークフローを通って人間レビューや導入判断へ進みます。

  1. 01
    Capture

    音声、文字起こし、証拠、脅威シグナル

  2. 02
    Reason

    検索、agents、抽出、システム評価

  3. 03
    Review

    追跡可能性、不確実性、人間の承認

  4. 04
    Deploy

    セキュリティ、ガバナンス、規制ワークフロー

代表システム

アーキテクチャを確認できるケーススタディ。

各プロジェクトは、課題、システム設計、実務で重要な証拠を説明します。

すべてのシステム
プロジェクト成熟度

代表システムには、それぞれ成熟度の目印を付けています。

初期研究、具体的なプロトタイプ、論文に支えられた成果、実運用に近いケーススタディ、アーカイブ済み成果を分けて、読み方がわかるようにしています。

Research seed

問い、参考文献、次の評価作業が明確になった研究の種です。

Prototype

実装パスとして議論できる具体度を持ったシステムまたはパイプラインです。

Paper-backed

論文、投稿、会議向け成果物とつながっているプロジェクトです。

Production-style case study

導入前提、ユーザーワークフロー、リスク制御まで説明するケーススタディです。

Archived

参照用に残している完了済みまたは過去の成果です。

論文 / 講演

真剣な導入に向けた公開技術フレーミング。

最近の登壇には公式セッションと英語会議論文の発表があり、主題は信頼できるAI、サイバーセキュリティ、脅威インテリジェンス、音声システム、そして信頼性と追跡可能性が求められる現場でのAI導入です。

講演テーマを見る
公式セッション CYBERSEC 2026

AI 軟體醫材的資安實戰:從美國 FDA 524B 規範到 Threat Modeling 與 Patch SLA 的完整落地

AI医療機器ソフトウェアのサイバーセキュリティ実務を扱う分科会で、FDA 524B を起点に脅威モデリング、SBOM、ゼロトラスト設計、監査可能なリスク統治を結びます。

May 6, 2026 · 16:15-16:45 Medical Cybersecurity Forum
会議論文 CISC 2025

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era: A Technical and Strategic Analysis Using Medusa and CrazyHunter as a Case Study

AI時代の RaaS が BYOVD、LOTL、秘匿化された C2、適応的な攻撃手口によってどう進化するかを分析し、ZTAID に基づくゼロトラスト防御戦略へ結びつけた英語論文です。

May 28-29, 2025 Cryptology and Information Security Conference
会議論文 CISC 2025

Integration of Threat Pulse Modeling into the ZTAID Zero Trust Maturity Assessment Model: An Analytical Framework

Threat Pulse Modeling(TPM)を、ライブ脅威インテリジェンスを ZTAID 成熟度シグナルへ変換する方法として提案し、継続的なゼロトラスト評価を支える英語論文です。

May 28-29, 2025 Cryptology and Information Security Conference

ベンチマークを超えて考える信頼できるAI

誤りのコストが大きい環境でAIを使うとき、信頼性、証拠、人間レビュー、システムの振る舞いをどう捉えるか。

研究グループ、ラボ、学際的な聴衆

AI時代のランサムウェアとゼロトラスト防御

現代の RaaS キャンペーンが自動化、BYOVD、LOTL、秘匿化された C2 をどう組み合わせるか、そして ZTAID に沿ったゼロトラスト戦略でどう検知・封じ込め・復旧するか。

サイバーセキュリティ会議、ブルーチーム、大学院セミナー

Threat Pulse Modeling と継続的評価

脅威インテリジェンスを pulse event、ZTAID の柱ごとのスコア、測定可能な成熟度シグナルへ変換し、防御の適応を速める方法です。

セキュリティ研究者、ゼロトラストプログラム、大学院セミナー

実運用ワークフロー向け ASR + LLM + RAG

生の文字起こしから、根拠を追える検証可能な分析結果へつなぐ音声・言語パイプラインの設計パターンです。

NLP チーム、音声研究者、応用 AI 実務者

セキュリティ志向のAIシステム設計

プライバシー、漏えいリスク、敵対的思考、導入前提を、後付けのコンプライアンスではなく中核の設計課題として扱う理由です。

セキュリティチーム、エンジニアリング組織、政策関連ステークホルダー

Jason Chia-Sheng Lin
プロフィール概要

調査の現場からAIシステム研究へとつながる学際的な歩みです。

博士研究、システム構築、そして調査実務で培った証拠の見方と失敗分析の視点が、現在の研究と実践の土台になっています。

医療AIラボでの研究、システム実装、そして調査実務で培った証拠志向の視点を組み合わせ、証拠性・規制・導入制約が重要な場面でも機能するAIシステムを設計しています。

役割

NYCU 博士課程

主領域

信頼できるAI、音声インテリジェンス、サイバーセキュリティ

アプローチ

高リスクな実環境に向けた証拠志向のシステム設計

お問い合わせ

共同研究、技術的な対話、登壇のご相談を歓迎します。

共同研究、信頼できるAI、音声・言語システム、安全性や規制要件が重要な環境でのAI導入についての対話を歓迎します。

もっとも早いご連絡方法はメールです。お問い合わせページには、最初に共有いただけると助かる情報もまとめています。

共同研究や学際的なラボとの対話

信頼できるAI、音声システム、サイバーセキュリティに関する講演依頼

採用、技術交流、証拠志向のAIシステム設計

最初のメッセージにあると助かること

あなたの背景、今回の対話がなぜ合うのか、どんな次の一歩が有用かを共有してください。

Jason にメール お問い合わせページを開く LinkedIn