AI企業の軍事関与で何が変わるか

ざっくりまとめ
- AnthropicのAI「Claude」が米軍の標的選定に使用されたと報じられ、同社は「サプライチェーン上のリスク」に指定。創業者は法廷で争う姿勢を示している。
- OpenAIは国防総省と機密契約を急いで締結したが、CEOが「急ぎすぎた」と認め、ロボティクス責任者が約4か月で辞任した。
- AI企業の軍事関与は、倫理・調達・採用の三方向にリスクを波及させる。ベンダー選定の判断基準を実例から整理する。
何が起きているのか――標的選定にClaudeが使われた
2026年3月、米国とイランの軍事衝突の中で、AnthropicのAI「Claude」が標的選定に使われているとワシントン・ポストが報じた。TechCrunchによれば、PalantirのMavenシステムと組み合わせた運用で、「数百の標的」を提案し、位置座標を発行し、重要度に応じて優先順位を付けたという。ワシントン・ポストはこの機能を「リアルタイムの標的照準と優先順位付け」と表現した。
Anthropicがこうした用途を明示的に承認したわけではない。それでも、モデルが戦場の意思決定に組み込まれた事実は消えない。
トランプ大統領はその後、連邦機関に対してAnthropicの使用を6か月の移行期間後に停止するよう指示。国防長官Pete Hegsethは同社を「サプライチェーン上のリスク」として指定すると表明した。創業者Dario Amodeiはこの指定を「法的に根拠がない」として法廷で争う構えを見せている。
OpenAIは「急ぎすぎた」と認めた――契約の中身と批判
AnthropicとペンタゴンTの交渉が決裂した直後、OpenAIは機密環境での運用を認める独自契約を素早く発表した。CEOのサム・アルトマン自身が「definitely rushed(明らかに急いでいた)」「optics don't look good(見え方が良くない)」と認めている。
OpenAIは契約発表のブログで、使用できない領域として3点を明示した。
- 大規模な国内監視
- 自律型の兵器システム
- ソーシャルクレジットのような高リスクな自動化判断
ただし、批評家のMike Masnickはこの契約がExecutive Order 12333などの法律に適合する形でデータ収集を認める可能性があると指摘した。OpenAIの国家安全保障担当Katrina Mulliganは「配備のアーキテクチャこそが重要」と反論し、クラウドAPIに限定することでモデルが兵器システムに直接統合されないと主張した。
契約の文言と実際の運用が乖離しうる構造は、日本企業がベンダーを選ぶ際にも見落とせない。「禁止事項の列挙」と「それを担保する仕組み」は別物だ。
辞任した責任者が示した「採用ブランドの崩壊」
2026年3月7日、OpenAIのハードウェアチームを率いていたCaitlin Kalinowskiが辞任を発表した。元MetaでARグラス開発を指揮し、2024年11月にOpenAIへ入社した人物だ。入社からわずか約4か月での離脱だった。
「国民の監視に対する司法による監督の欠如や、人の承認なしの致死的な自律性は、より多くの検討が必要だった。ガードレールが定義されないまま発表が急いで行われた点が問題だ。」(Kalinowski、Xへの投稿より)
一人の辞任が示す構造は単純だ。軍事契約の発表は、社内の優秀な人材に「ここで働き続けるべきか」という問いを突きつける。採用候補者にも同じ問いが届く。企業の軍事関与は、製品の評判だけでなく「人が集まる場所かどうか」という根本に触れる。
防衛企業はClaudeを切り始めた――調達リスクの連鎖
軍事関与の問題は、AI企業の側だけで完結しない。今度は逆方向の圧力が生まれている。
ロッキード・マーチンなどの防衛請負業者がAnthropicのモデルの入れ替えを開始。CNBCによると、J2 Venturesの幹部は防衛用途でClaudeの使用をやめたポートフォリオ企業が10社あり、別サービスへの切り替えを進めていると述べた。
一方でAmodeiは、「指定の適用範囲は国防総省との直接契約に限定される」と説明した。防衛以外の用途でClaudeを使う大半の顧客は影響を受けないという立場だ。Microsoft・Google・Amazonが非防衛向けに引き続きClaudeを提供すると表明した事実は、クラウドベンダー経由という迂回ルートの存在を示している。
この構造が日本企業に突きつける問いは明確だ。自社が使うAIサービスが、知らぬ間に軍事用途で使われている企業のモデルと同一だった場合、取引先や顧客はどう受け取るか。
AIベンダーを見極める3つの視点
「禁止事項」ではなく「執行の仕組み」を問う
OpenAIは大規模国内監視・自律兵器・高リスク自動化判断の3点を禁止と明示した。だが批評家が指摘したのは、その禁止を誰がどう執行するかという問いだった。「安全対策の裁量が自社にある」というOpenAIの説明は、裏を返せば第三者による検証がない構造でもある。契約書の文言だけでなく、モデルの用途を制限するアーキテクチャ上の仕組みを確認することが、実務上の出発点になる。
人材の動きをシグナルとして読む
Kalinowskiの辞任は、外部からは見えにくい内部の倫理的緊張を可視化した。AI企業における著名な研究者や責任者の離脱は、単なる転職ではなく、組織の方向性への不同意を意味することが多い。ベンダー選定の際、公式発表だけでなく主要人材の動向も判断材料に加える価値がある。
自社の取引先とのつながりを把握する
Anthropicのリスク指定は、同社と契約する防衛企業10社以上に即座に波及した。AI企業が軍事案件に関与したとき、その余波はサプライチェーン全体を伝わる。自社がどのAIサービスを使い、そのサービスがどの軍・政府機関と取引しているかを把握することは、今後のリスク管理の基本になる。
まとめ
AnthropicとOpenAIを巡る一連の動きは、AI企業の軍事関与が「倫理の問題」にとどまらず、調達・人材・ブランドの三方向にリスクを生む構造を示した。ChatGPTのアンインストールが295%増加し、アプリストアのランキングが一夜で動いた事実は、消費者レベルでも反応が出ることを証明している。
日本企業がAIベンダーを選ぶ際に見るべきは、機能と価格だけではない。「禁止事項を誰が執行するか」「主要人材が留まっているか」「自社のサプライチェーンはどこまで連なっているか」――この3点を定期的に確認する習慣が、中長期の信頼を守る実践的な出発点になる。
参照元
- The US military is still using Claude — but defense-tech clients are fleeing— TechCrunch
- OpenAI robotics lead Caitlin Kalinowski quits in response to Pentagon deal— TechCrunch
- Anthropic to challenge DOD’s supply chain label in court— TechCrunch
- OpenAI reveals more details about its agreement with the Pentagon— TechCrunch