表題番号:2025C-287
日付:2026/03/03
研究課題AI規則(EU)を対象とした裁判におけるAI活用の研究
| 研究者所属(当時) | 資格 | 氏名 | |
|---|---|---|---|
| (代表者) | 政治経済学術院 政治経済学部 | 教授 | 笹田 栄司 |
- 研究成果概要
- 本研究は、EUのAI規則、及びドイツの裁判所の具体的実践を素材に、司法におけるAI活用の意義と限界を憲法的観点から体系的に検討する。まずAI概念とリスクベース型規制の構造を整理し、司法分野で用いられるAIが原則としてAI規則におけるハイリスクに分類される可能性が大であること、その場合に課される適合性評価義務、透明性確保義務、人的監督義務等の法的枠組みとその実効性の課題を確認する。ついで基本法92条・97条・103条・19条4項等を手掛かりに、裁判官の職権行使の独立、法的聴聞権、実効的権利保護、人間の尊厳、及び差別禁止との関係を精査し、「最終判断は人間が担う」という人間中心原則の憲法的根拠とその具体的射程を明らかにする。その上で、ドイツ各州で、OLGA、KAI、MAKI、JANO等、実際に運用または試験運用されているAIアプリケーションを取り上げ、準備作業と中核的判断の峻別、自動化バイアスやブラックボックス問題への警戒、裁判官主体の設計関与の必要性、さらにベンダーロックイン回避の観点からの制度的課題を具体的に論じる。結論として、AIは大量事件処理や判決匿名化の分野で有効な補助手段となり得るが、裁判官の代替は許されず、その導入は常に憲法的限界の下で厳格に統制されなければならないとする。さらに補足では、ディーゼル訴訟や航空旅客訴訟の件数が著しく増大した背景に、連邦通常裁判所の判例形成とリーガルテック企業の台頭があり、それが合理的無関心を克服して司法アクセスを拡張する一方で、事件処理圧力を高め、裁判所がAI導入に制度的に向かわざるを得なかった構造的経緯を明らかにしている。そして、これらの動向が司法制度自体の変容を促す契機ともなっていることを指摘する。本研究は、2026年3月公刊の『裁判制度のパラダイムシフト Ⅱ』(判例時報社)第12章に「司法におけるAI活用の意義と限界」として収められている。