Anthropic提訴で激化するAI防衛調達の対立

ざっくりまとめ
- 米国防総省(DoD)がAI企業Anthropicを「サプライチェーンリスク」に指定。Anthropicは2026年3月9日に提訴で対抗した
- 対立の核心は「AIに倫理的制限を設けること」が軍にとって安全保障上の脅威になるか、という問いだ
- この事例は、AI調達における「利用規約の運用制限条項」が取引継続リスクに直結する構造を示している
何が起きたのか——Anthropicと国防総省の衝突
2026年2月27日、米国防総省(Pentagon)はAI企業AnthropicをサプライチェーンリスクとしてDoDが指定する動きに出た。Pentagon moves to designate Anthropic as a supply-chain riskによれば、DoD関係者は「我々は彼らを必要とせず、望まず、二度と取引しない」とまで言い切った。
これを受けてAnthropicは約2週間後の3月9日、DoD相手に提訴した。訴状の中でAnthropicはDoDの行為を「前例がなく違法だ」と断じている。Anthropic sues Defense Department over supply-chain risk designationが伝えるこの訴訟は、AI企業と政府機関の関係が根本から問い直される局面を作った。
さらに3月18日、DoDは自らの立場を明確にした。DOD says Anthropic's 'red lines' make it an 'unacceptable risk to national security'によると、DoDはAnthropicが「戦闘作戦中に自社技術を無効化しようとする可能性がある」ことを懸念の根拠に挙げた。問題は製品の品質ではない。Anthropicが自社AIに課している「倫理的制限(レッドライン)」そのものが、軍の目には「信頼できない供給者の証拠」に映ったのだ。
「レッドライン」はなぜ軍に嫌われるのか
Anthropicが設けている利用制限——自律型兵器への転用禁止、人命に直接影響する意思決定への単独使用禁止など——は、AI安全性の観点からは至極まともな設計だ。しかし軍の調達論理は違う。
「有事にベンダーがシステムを止める可能性がある」という懸念は、軍にとって致命的な調達リスクになる。民間企業が提供するクラウドサービスやAIモデルは、利用規約に基づいてサービスを停止できる。その権限が供給者側に残っている限り、軍は完全な指揮統制を持てない。
電力や通信インフラと同じ発想だ。戦時に電力会社が「倫理的理由で送電を止める」とは誰も考えない。しかしAI企業はそれをやりかねない——DoDはそう判断した。製品の能力ではなく、ベンダーの意思決定権限の所在が問われている。
Andurilの2兆円超契約が示す"採用基準の転換"
同じ時期、米陸軍は別の動きをしていた。2026年3月14日、US Army announces contract with Anduril worth up to $20Bが報じたように、陸軍は防衛テック企業Andurilと最大200億ドル(約2.9兆円)の単一エンタープライズ契約を締結した。この一件で120以上の個別調達案件を統合するという。
Andurilは最初から軍の用途向けに設計されたAI統合システムを提供する企業だ。倫理的制限を前面に出すAnthropicとは、出発点が違う。軍が求めているのは「既存の倫理的AIをどう使うか」ではなく、「軍の指揮統制に完全に服従するシステム」だということが、この契約規模から透けて見える。
防衛調達の世界では今、汎用AIと軍特化AIの二極化が進んでいる。Anthropicの訴訟とAndurilの巨大契約は、その分岐点を同時に可視化した。
企業が今すぐ確認すべき「AI調達リスクの3層構造」
この対立は米国防総省の話だが、教訓は日本の企業にも直接刺さる。AI活用が進む中で、取引先や自社がどのAIベンダーに依存しているかを把握していない組織は少なくない。
第1層:利用規約の運用制限条項
契約しているAIサービスの利用規約に、特定用途の禁止や緊急時のサービス停止権限が明記されているか。これを確認しないまま業務の根幹にAIを組み込むのは、電力会社の約款を読まずに工場を動かすのと同じだ。
第2層:ベンダーの地政学的リスク
米国政府がAnthropicをリスク指定したように、ベンダー自体が政府との関係を悪化させる可能性がある。特に米中対立の文脈では、特定のAIモデルへの依存が突然、外交・安全保障上の問題に転化するリスクが現実のものとなっている。
第3層:代替可能性の確保
単一のAIベンダーに業務フローを最適化しすぎると、そのベンダーが利用不可になった際の切り替えコストが跳ね上がる。Anthropicの事例は、どれほど優れた技術でも政治的・規制的な理由で突然使えなくなることを示した。
「前例がなく違法だ」——Anthropicが訴状でDoDの行為をそう断じたことは、AI企業と政府機関の間に、まだ法的に整理されていない空白地帯が広がっていることを意味する。その空白の中で、どちらが正しいかより先に「自社の依存関係を把握しているか」を問うべきだ。
まとめ
AnthropicとDoDの衝突は、「倫理的なAI」と「制御可能なAI」が必ずしも同義でないという現実を突きつけた。防衛分野に限らず、重要インフラや金融、医療でAIを使う組織は、ベンダーの倫理方針が自組織の運用要件と矛盾しないかを確認する価値がある。起点となる問いはシンプルだ——「このAIを緊急時に止める権限は誰にあるか」。その答えがベンダー側にあるなら、それはリスクとして認識しておく必要がある。
参照元
- Anthropic sues Defense Department over supply-chain risk designation— TechCrunch
- DOD says Anthropic’s ‘red lines’ make it an ‘unacceptable risk to national security’— TechCrunch
- Pentagon moves to designate Anthropic as a supply-chain risk— TechCrunch
- US Army announces contract with Anduril worth up to $20B— TechCrunch