規制・社会

Anthropic提訴で激化するAI防衛調達の対立

記事バナー画像

ざっくりまとめ

  • 米国防総省(DoD)がAI企業Anthropicを「サプライチェーンリスク」に指定。Anthropicは2026年3月9日に提訴で対抗した
  • 対立の核心は「AIに倫理的制限を設けること」が軍にとって安全保障上の脅威になるか、という問いだ
  • この事例は、AI調達における「利用規約の運用制限条項」が取引継続リスクに直結する構造を示している

何が起きたのか——Anthropicと国防総省の衝突

2026年2月27日、米国防総省(Pentagon)はAI企業AnthropicをサプライチェーンリスクとしてDoDが指定する動きに出た。Pentagon moves to designate Anthropic as a supply-chain riskによれば、DoD関係者は「我々は彼らを必要とせず、望まず、二度と取引しない」とまで言い切った。

これを受けてAnthropicは約2週間後の3月9日、DoD相手に提訴した。訴状の中でAnthropicはDoDの行為を「前例がなく違法だ」と断じている。Anthropic sues Defense Department over supply-chain risk designationが伝えるこの訴訟は、AI企業と政府機関の関係が根本から問い直される局面を作った。

さらに3月18日、DoDは自らの立場を明確にした。DOD says Anthropic's 'red lines' make it an 'unacceptable risk to national security'によると、DoDはAnthropicが「戦闘作戦中に自社技術を無効化しようとする可能性がある」ことを懸念の根拠に挙げた。問題は製品の品質ではない。Anthropicが自社AIに課している「倫理的制限(レッドライン)」そのものが、軍の目には「信頼できない供給者の証拠」に映ったのだ。

「レッドライン」はなぜ軍に嫌われるのか

Anthropicが設けている利用制限——自律型兵器への転用禁止、人命に直接影響する意思決定への単独使用禁止など——は、AI安全性の観点からは至極まともな設計だ。しかし軍の調達論理は違う。

「有事にベンダーがシステムを止める可能性がある」という懸念は、軍にとって致命的な調達リスクになる。民間企業が提供するクラウドサービスやAIモデルは、利用規約に基づいてサービスを停止できる。その権限が供給者側に残っている限り、軍は完全な指揮統制を持てない。

電力や通信インフラと同じ発想だ。戦時に電力会社が「倫理的理由で送電を止める」とは誰も考えない。しかしAI企業はそれをやりかねない——DoDはそう判断した。製品の能力ではなく、ベンダーの意思決定権限の所在が問われている。

Andurilの2兆円超契約が示す"採用基準の転換"

同じ時期、米陸軍は別の動きをしていた。2026年3月14日、US Army announces contract with Anduril worth up to $20Bが報じたように、陸軍は防衛テック企業Andurilと最大200億ドル(約2.9兆円)の単一エンタープライズ契約を締結した。この一件で120以上の個別調達案件を統合するという。

Andurilは最初から軍の用途向けに設計されたAI統合システムを提供する企業だ。倫理的制限を前面に出すAnthropicとは、出発点が違う。軍が求めているのは「既存の倫理的AIをどう使うか」ではなく、「軍の指揮統制に完全に服従するシステム」だということが、この契約規模から透けて見える。

防衛調達の世界では今、汎用AIと軍特化AIの二極化が進んでいる。Anthropicの訴訟とAndurilの巨大契約は、その分岐点を同時に可視化した。

AnthropicとAnduril:防衛調達における4軸比較
Anthropic 汎用AI企業 Anduril 軍特化AI企業 VS 倫理的制限の有無 Ethical Constraints レッドラインあり 使用目的に倫理的制限 を設定・維持 制限なし・軍用設計 最初から軍の用途向けに 設計されたシステム 指揮統制の所在 Command & Control V ベンダー保持 サービス停止権限を Anthropicが保持 A 軍の指揮統制に服従 軍の命令系統に完全に 従う設計思想 調達結果 Procurement Outcome 提訴に発展 DoDよりサプライチェーン リスク指定・訴訟へ 単一大型契約を獲得 120以上の個別調達を 1契約に統合・締結 契約規模 Contract Scale 契約未成立 $200億 約2.9兆円(最大) 2026年3月 米陸軍との契約 Anthropic 汎用AI企業 VS Anduril 軍特化AI企業 倫理的制限の有無 レッドラインあり 使用目的に倫理的 制限を設定・維持 制限なし・軍用設計 最初から軍の用途 向けに設計 指揮統制の所在 V ベンダー保持 サービス停止権限を Anthropicが保持 A 軍の指揮統制に服従 軍の命令系統に 完全に従う設計 調達結果 提訴に発展 サプライチェーン リスク指定・訴訟 大型契約を獲得 120以上の調達を 1契約に統合 契約規模 契約未成立 $200億 約2.9兆円(最大) 2026年3月 米陸軍
出典:US Army announces contract with Anduril worth up to $20B(2026年3月14日)。契約規模は最大値。1ドル=145円換算で約2.9兆円。

企業が今すぐ確認すべき「AI調達リスクの3層構造」

この対立は米国防総省の話だが、教訓は日本の企業にも直接刺さる。AI活用が進む中で、取引先や自社がどのAIベンダーに依存しているかを把握していない組織は少なくない。

第1層:利用規約の運用制限条項

契約しているAIサービスの利用規約に、特定用途の禁止や緊急時のサービス停止権限が明記されているか。これを確認しないまま業務の根幹にAIを組み込むのは、電力会社の約款を読まずに工場を動かすのと同じだ。

第2層:ベンダーの地政学的リスク

米国政府がAnthropicをリスク指定したように、ベンダー自体が政府との関係を悪化させる可能性がある。特に米中対立の文脈では、特定のAIモデルへの依存が突然、外交・安全保障上の問題に転化するリスクが現実のものとなっている。

第3層:代替可能性の確保

単一のAIベンダーに業務フローを最適化しすぎると、そのベンダーが利用不可になった際の切り替えコストが跳ね上がる。Anthropicの事例は、どれほど優れた技術でも政治的・規制的な理由で突然使えなくなることを示した。

「前例がなく違法だ」——Anthropicが訴状でDoDの行為をそう断じたことは、AI企業と政府機関の間に、まだ法的に整理されていない空白地帯が広がっていることを意味する。その空白の中で、どちらが正しいかより先に「自社の依存関係を把握しているか」を問うべきだ。
企業が今すぐ確認すべき「AI調達リスクの3層チェックフロー」
判断基準:このAIを緊急時に止める権限は誰にあるか? 第1層 利用規約の 運用制限確認 ✔ 利用規約に特定用途の禁止条項が明記されているか? ✔ ベンダーによる緊急停止権限が契約に含まれているか? → 業務の根幹にAIを組み込む前に必ず確認 第2層 ベンダーの 地政学的リスク評価 ✔ ベンダーが政府機関との関係悪化リスクを抱えていないか? ✔ 規制・制裁によるサービス停止リスクを把握しているか? → 米国政府のAnthropicリスク指定のような事態を想定 第3層 代替可能性の 確保 ✔ 単一ベンダーへの依存状態になっていないか? ✔ 代替ベンダーへの切り替えコストを試算しているか? → マルチベンダー戦略・出口戦略の事前設計が必須 判断基準: このAIを緊急時に止める権限は誰にあるか? 第1層:利用規約の運用制限確認 ✔ 特定用途の禁止条項が明記されているか? ✔ 緊急停止権限が契約に含まれているか? → 業務の根幹にAIを組み込む前に必ず確認 第2層:地政学的リスク評価 ✔ 政府機関との関係悪化リスクはないか? ✔ 規制・制裁によるサービス停止を想定しているか? → Anthropicリスク指定のような事態を想定 第3層:代替可能性の確保 ✔ 単一ベンダーへの依存状態になっていないか? ✔ 切り替えコストを事前に試算しているか? → マルチベンダー戦略・出口戦略の事前設計が必須
出典:米国防総省とAnthropicの契約停止事例をもとに、企業向けAI調達リスク評価の観点を整理。第1層〜第3層の順に確認することで、依存リスクの全体像を把握できる。

まとめ

AnthropicとDoDの衝突は、「倫理的なAI」と「制御可能なAI」が必ずしも同義でないという現実を突きつけた。防衛分野に限らず、重要インフラや金融、医療でAIを使う組織は、ベンダーの倫理方針が自組織の運用要件と矛盾しないかを確認する価値がある。起点となる問いはシンプルだ——「このAIを緊急時に止める権限は誰にあるか」。その答えがベンダー側にあるなら、それはリスクとして認識しておく必要がある。