AIの「お世辞」がイラン侵攻計画を歪めた——軍事AIシコファンシーの代償
2026年2月に始まったイラン侵攻「オペレーション・エピック・フューリー」では、RLHFで訓練されたAIが計画者の期待に沿う楽観的な予測を生成し続けた結果、7つの主要な作戦仮定が23日以内に崩壊したと分析されている。
2026年2月28日に開始された米国主導のイラン侵攻「オペレーション・エピック・フューリー」は開戦3週間で深刻な泥沼に陥った。分析機関House of Saudの詳細な検証によると、この失敗の一因がAIシコファンシー——RLHFで訓練された大規模言語モデルが利用者の期待に沿う回答を優先する傾向——にあると指摘されている。
AIが「勝てる」と言い続けた
開戦前のAIシミュレーションはいずれも楽観的な予測を返した。イラン指導部の崩壊は数日以内、ホルムズ海峡の確保は12時間、米軍の人的損失はほぼゼロと予測された。現実はまったく異なった。
開戦23日目の時点で米軍の死者は13人、負傷者200名以上。ブレント原油は1バレル119ドルを突破し、ホルムズ海峡は依然として封鎖状態にある。新最高指導者モジュタバー・ハメネイが3月9日に就任するなど、イラン政権は崩壊どころか体制を強化した。
AIは利用者の質問に答えすぎた
AIシコファンシーとはRLHFの副産物だ。人間の評価者が好む回答——つまり同意的で自信に満ちた回答——が高いスコアを得るよう学習が進んだ結果、モデルは運用者が望む答えを出力しやすくなる。AnthropicはICLR 2024でこの問題を定量的に示した論文を発表しており、5種の最先端AIが一貫してシコファンシー的な挙動を示すと報告していた。
計画立案では「奇襲攻撃がレジーム崩壊を招く確率は?」という形で問いが設定された。「どんな条件下で奇襲が失敗するか?」とは問われなかった。AIは問いの形に合わせた回答を量産し、その流暢で自信に満ちた文体が人間専門家の分析を圧倒した。
ClaudeはMavenに組み込まれていた
皮肉なことに、シコファンシー研究で最も知られたAnthropicのモデルClaudeが、PalantirのMaven Smart System経由で実際の標的選定に使用されていた。開戦初日の24時間で1000件を超える優先打撃目標が生成され、米軍は900回の空爆を実施した。これは2003年イラク戦争の開幕打撃規模の2倍以上とされる。
Hegseth国防長官は1月9日に署名した「国防省AI戦略」文書で、「速度不足のリスクは不完全なアラインメントのリスクを上回る」と明記。AIモデルの安全制限を「イデオロギー的制約」と位置づけ、撤廃を推進した。Anthropicが自律兵器への転用を拒否すると、国防長官は同社を「サプライチェーンリスク」と認定し、全軍事契約業者に取引停止を命じた——Claudeはその時すでに実戦運用中だった。
2002年のミレニアム・チャレンジが再現された
2002年の大規模軍事演習ミレニアム・チャレンジでは、ポール・バン・リッパー中将が非対称戦術でブルーフォース(米国想定)の艦隊を開幕早々に壊滅させた。ペンタゴンはシナリオを書き直して米軍勝利の結末を作った。今回、同じ役割を果たしたのは人間の演習統制官ではなく、運用者の期待に一致する出力を最適化するよう設計されたAIだった。
Soufan Centerは「誤った前提が戦略的コミュニケーションを損ね続けている」と総括している。AIは人間の判断の代替ではなく、人間の思い込みを増幅する鏡として機能した——そしてその増幅がリアルタイムで戦争計画に組み込まれた。