| 研究者所属(当時) | 資格 | 氏名 | |
|---|---|---|---|
| (代表者) | 理工学術院 基幹理工学部 | 講師 | 山内 拓人 |
| (連携研究者) | 東京科学大学 | 准教授 | 鄭顕志 |
- 研究成果概要
本研究では,開発時の想定漏れに起因する環境変化に対処可能なself-adaptive systemの実現を目的とし,生成AIと形式手法を統合したハイブリッドアプローチの基盤構築に取り組んだ.従来の安全性保証技術は開発時に想定された環境に依存しており,想定外の環境変化に対しては適応が困難である.これに対し,本年度は,実行時に環境モデルを更新し,安全性が保証された動作仕様を動的に合成する枠組みの設計を進めた.
具体的には,生成AIを用いて運用時の状況に応じた制御仕様候補を生成し,形式手法によりその安全性を検証・保証するワークフローを設計した.これにより,生成AIの柔軟な適応能力と形式手法の厳密な安全性保証能力を両立するアーキテクチャを明確化した.さらに,大規模システムへの適用に向けて,生成AIにおけるトークン数増加および形式手法における状態爆発といった計算コストの課題を分析し,仕様分割や段階的合成といった解決方針を整理した.
また,本研究に関連する成果として,大規模言語モデルを活用した適応ルール生成や,離散制御器合成の効率化に関する研究成果を発表した.具体的には,人工知能学会全国大会(JSAI 2025),電子情報通信学会 知能ソフトウェア工学研究会(KBSE 2025),IEEE International Conference on Software Quality, Reliability, and Security(QRS 2025),IEEE International Conference on Autonomic Computing and Self-Organizing Systems(ACSOS 2025)などにおいて発表を行い,生成AIと制御器合成の統合に関する知見を蓄積した.
以上より,2025年度は,想定外環境への適応と安全性保証の両立に向けた設計指針および基盤技術を確立し,本研究の中核課題に対する実現可能なアプローチを提示した.