表題番号:2025R-024 日付:2026/02/02
研究課題AIシステム脆弱性の解明とその対策手法の開発
研究者所属(当時) 資格 氏名
(代表者) 理工学術院 基幹理工学部 教授 史 又華
(連携研究者) 理工学術院 助手 GUO, Chao
研究成果概要

近年、人工知能(AI)技術の急速な発展に伴い、エッジ環境において高性能かつ低コスト・低消費電力な推論を実現するため、深層学習モデルに最適化されたAIアクセラレータの重要性が急速に高まっている。モデルの複雑化および多様化に伴い、従来の手作業によるアクセラレータ設計に代わり、AIアクセラレータ自動生成プラットフォームが広く用いられるようになっている。しかしながら、これらのプラットフォーム自体が内在するセキュリティ脆弱性に関する体系的な研究は極めて限定的であった。

そこで本研究では、AIアクセラレータ自動生成プラットフォームのセキュリティ脆弱性に着目し、その脅威モデル、攻撃手法、ならびに防御手法に関する研究を行った。具体的には、勾配情報を用いず、推論過程における出力情報のみを利用して層横断的に攻撃に脆弱なパラメータを探索することで、極めて低オーバーヘッドかつ高い秘匿性を有するハードウェアトロイ(HT)を自動的に探索・生成・挿入可能であることを明らかにした。提案手法を複数の代表的AIモデルに適用した結果、既存手法と比較して攻撃耐性の向上と性能劣化の抑制を両立できることを確認した。さらに、単一FPGAにとどまらず、マルチFPGA設計への攻撃拡張が可能であることも実証した。加えて、攻撃者視点にとどまらず、防御者の立場から悪意ある生成プラットフォームに対抗可能なモデルレベルの防御手法についても提案した。本研究成果は、今後の高信頼・高安全AIシステム構築に向けた基盤技術として有用である。