研究

AIシステム、セキュリティ、信頼できる導入の交点にある研究です。

不確実性、証拠要件、現実の運用コストを伴う環境にAIを導入したとき、なお有用で検証可能かつ信頼できる状態をどう保つかを研究しています。

今何に取り組んでいるか? 現在の取り組みと次のステップ。 研究の厚みを示すものは? 最近の会議論文とテーマ。 実装の証拠を見たいですか? 研究テーマからケーススタディへ進めます。 共同研究を考えていますか? 最短ルートはお問い合わせページです。

現在の取り組みと方向性

進行中の取り組みは、ばらばらな実験の羅列ではなく、継続性のある少数の研究方向として整理されています。

進行中の研究

証拠志向の音声インテリジェンス・パイプライン

生の会話音声から、構造化されレビュー可能な出力へ至るシステムを開発し、生成結果と元の証拠のあいだの追跡可能性を保ちます。

現在の次の一歩: 文字起こし品質、検索挙動、レビュー担当者の信頼感という観点から評価を磨いています。

音声インテリジェンスASR追跡可能性
進行中の研究

根拠が追える不正会話分析

根拠のない LLM 推論に頼らず、不正関連の会話分析を支援する RAG ワークフローを研究しています。

現在の次の一歩: 分析者の利用場面に合わせて、検索品質と回答の根拠性を評価しています。

不正分析RAGLLM システム
継続研究

連合学習における漏えいとプライバシーリスク

機微なAI環境で、協調学習が現実的な漏えい・プライバシー前提の下でどう振る舞うかを検証しています。

現在の次の一歩: 脅威モデルと導入前提ごとに、攻防のトレードオフを比較しています。

連合学習プライバシーセキュリティ

最近の会議論文

最近の英語会議論文は、研究テーマを実導入、脅威モデリング、測定可能な防御戦略へ接続しています。

Recent conference paper

Evolution and Defense Challenges of Ransomware-as-a-Service in the AI Era

Presented in English at CISC 2025, this paper analyzes Medusa and CrazyHunter as case studies for AI-era ransomware evolution and connects their tradecraft to a ZTAID-grounded zero-trust defense framework for real operational environments.

Conference: Cryptology and Information Security Conference 2025 (CISC 2025)

Schedule: May 28-29, 2025

Venue: Feng Chia University

Format: Conference Paper · English

RaaSZero TrustZTAIDThreat ModelingSOAR

Recent conference paper

Integration of Threat Pulse Modeling into the ZTAID Zero Trust Maturity Assessment Model

Presented in English at CISC 2025, this paper proposes Threat Pulse Modeling as a way to convert live cyber threat intelligence into pillar-level ZTAID maturity signals for continuous zero-trust assessment and faster operational response.

Conference: Cryptology and Information Security Conference 2025 (CISC 2025)

Schedule: May 28-29, 2025

Venue: Feng Chia University

Format: Conference Paper · English

Threat IntelligenceThreat Pulse ModelingZero TrustZTAIDForecasting

信頼できるAIシステム

信頼性、評価、人間レビュー、追跡可能性を、後付けではなくアーキテクチャの一部として設計します。

信頼性評価人間レビュー
この方向を見る

音声・言語・証拠パイプライン

ASR + LLM + RAG を用い、長時間音声や文字起こしに対する会話分析、構造化抽出、証拠志向の推論を行うワークフローを構築しています。

ASRLLMRAG
この方向を見る

セキュリティと高リスク導入

規制環境や安全性が重要な場で使われるAIシステムにおいて、プライバシー、漏えい、敵対的リスク、ガバナンス制約がどう影響するかを研究しています。

セキュリティプライバシー導入
この方向を見る

私が重視する問い

  • 証拠のつながりを弱めずに、高リスク環境で人の意思決定を支えるAIシステムはどう設計できるか。
  • ベンチマーク性能や流暢な出力を超えて、AIシステムを信頼できるものにする要素は何か。
  • 音声・言語パイプラインは理想化されたデモではなく、実際の運用フローにどう合わせるべきか。
  • 導入制約、ガバナンス、セキュリティを最初からAIシステム設計に組み込むにはどうすべきか。

取り組み方

私はAIを単一モデルの問題ではなく、システム全体の問題として捉える傾向があります。データ品質、検索、評価、セキュリティ前提、失敗分析、人間レビューを一体の設計課題として扱います。

このポートフォリオ全体を貫く考え方はシンプルです。能力が高いだけでなく、検証可能で、証拠志向で、実際の導入条件に正直なシステムをつくることです。

AI AgentsTrustworthy AISpeech IntelligenceCybersecurityHigh-Stakes Deployment

今後の方向性

  • 分析者向けで、証拠重視のワークフローを支える信頼できる音声システム。
  • 規制環境、セキュリティ上重要な環境、運用が複雑な環境に向けたAI導入評価フレームワーク。
  • 実際の意思決定支援に向けた、安全で証拠に基づくマルチモーダルシステム。

共同研究と適合性

技術的な深さ、丁寧な評価、そして信頼性・レビュー可能性・ガバナンスが重要な環境へのAI導入を重視する協業に、特に関心があります。

相性が良い共同研究には、強いアイデアを検証可能なシステム、評価可能なプロトタイプ、あるいは会議向けケーススタディへ発展させたい研究グループ、学際ラボ、技術チームが含まれます。