規制・社会

Anthropicのサプライチェーンリスク指定から学ぶ、AIベンダー選定の新基準

記事バナー画像

ざっくりまとめ

  • 米国防総省がAnthropicを「サプライチェーンリスク」に正式指定——アメリカ企業として初のケースとなり、AnthropicのCEOは国防総省を提訴すると表明した
  • 政治判断がAIベンダーの契約継続性を一夜で変える時代に入った。日本企業がAIツールを業務の中核に据えるほど、この種のリスクは自社の問題になる
  • 読み終えると、ベンダー選定で確認すべき「地政学・供給網・継続性」の3軸と、今すぐ取れる備えの手順がわかる

※ 本記事は公開情報をもとに執筆しています。法的・契約的判断は専門家にご確認ください。

何が起きたか——「排除」の経緯を30秒で

2026年3月、米国防総省(DoD)はAnthropicをサプライチェーンリスクに正式指定した。アメリカ企業がこのラベルを貼られるのは史上初だ。指定の根拠は公式に詳細開示されていないが、トランプ政権下でのAI企業選別という文脈と切り離せない。

皮肉なのは、DoD自身がイランとの関連業務でAnthropicのAIを引き続き使用しているとされる点だ。「リスク指定しながら使い続ける」という矛盾は、この騒動が純粋な安全保障判断ではなく、政治的な圧力を含む可能性を示唆している。

AnthropicのCEOはDoDを提訴すると表明した。訴訟の決着がどうなろうとも、指定が出た事実は企業の調達担当者の判断に影響し続ける。

なぜ「他社の話」では済まないのか

Anthropicを使っていない日本企業には関係ない——そう読み飛ばすのは早計だ。この事件の本質は特定のAI企業の問題ではなく、政治判断がAIベンダーの事業継続性を短期間で変えうるという構造的なリスクにある。

今日のビジネスにおけるAI活用は深い。契約書レビュー、コールセンター応答、コード生成、社内ナレッジ検索——こうした業務がAI基盤に乗り始めたとき、そのAPIが突然使えなくなったらどうなるか。代替ベンダーへの移行に要する時間は、システム規模によっては数週間から数ヶ月に及ぶ。

専門家は「企業存続の危機も」と指摘する。これはAnthropicへの評価ではなく、依存度が高いベンダーが突然失われるリスクへの警告だ。AIベンダーへの依存は、かつてのクラウドインフラ依存と同じ問いを立てる。BCP(事業継続計画)の中に、AIベンダーリスクは織り込まれているか。

ベンダー選定で見るべき3軸

今回の騒動は、AIベンダー選定の評価軸を整理する機会でもある。機能・価格・使いやすさだけでは足りない。地政学・供給網・継続性の3軸を加えることが、今後の標準になるだろう。

地政学:どの国の法律に縛られているか

AIベンダーが米国企業であれば、米国の輸出規制・政権方針・制裁措置の影響を直接受ける。EUのAI規制(EU AI Act)も施行フェーズに入った。ベンダーが準拠している法域と、自社が事業を展開する法域の関係を確認することが第一歩だ。「どこの法律で動いているか」は、契約書の準拠法条項を見れば即座にわかる。

供給網:誰に依存しているか

AIベンダーの裏側を見ると、多くはクラウドインフラ(AWS、Azure、GCP)に乗っている。Anthropicも例外ではない。ベンダーが正常稼働していても、基盤インフラが止まれば連鎖停止する。政治的な文脈でのAI企業選別は、この多層構造をさらに複雑にする。ベンダーの投資家構成・提携クラウド・主要顧客を確認することが、実質的な依存先の可視化につながる。

継続性:代替手段はあるか

単一ベンダーへの依存は、どのカテゴリの調達でも避けるべき基本だ。AIも同じ。ただし、AIはモデルごとに出力品質が異なるため、「同等の代替」を事前に検証しておく手間がかかる。OpenAI・Gemini・国産LLMなど、主要モデルで同一タスクを試しておくことが、いざというときの切り替えコストを下げる。

AIベンダー選定の3軸チェックフレーム
ベンダー選定 3軸チェック 地政学 準拠法の法域はどこか 輸出規制・制裁の 対象になりうるか 政権交代・政策転換で 契約が止まるリスクは EU AI Act等の 規制準拠状況 → 契約書の準拠法条項を確認 供給網 誰のインフラに乗っているか 基盤クラウドは どこか(AWS/Azure等) 主要投資家・ 資本構成の確認 連鎖停止リスクの シナリオ想定 → 依存レイヤーを図示する 継続性 代替手段を持っているか 同等タスクで代替 モデルを検証済みか 切り替えコスト・ 期間の試算はあるか BCPにAIベンダー 停止シナリオが含まれるか → 代替モデルを今月試す 3軸すべてを社内で共有できる状態が、調達リスク管理の出発点 ベンダー選定 3軸チェック 地政学 準拠法の法域 / 輸出規制・制裁リスク 政権交代で契約が止まるリスク EU AI Act等の規制準拠状況 → 契約書の準拠法条項を確認 供給網 基盤クラウドの把握(AWS/Azure等) 主要投資家・資本構成の確認 連鎖停止リスクのシナリオ想定 → 依存レイヤーを図示する 継続性 代替モデルの事前検証済みか 切り替えコスト・期間の試算 BCPにAIベンダー停止シナリオを含む → 代替モデルを今月試す 3軸を社内共有できる状態が出発点
3軸それぞれに「確認アクション」をセットで持つことで、選定評価が抽象論に終わらなくなる。

「政治リスク」はもはやAIだけの話ではない

トランプ政権によるAI企業選別は、Anthropic一社の問題ではない。政権のAI企業選別には危うさがあるという指摘が出るのは、判断基準が透明でないからだ。今回「アメリカ企業として初」のサプライチェーンリスク指定を受けたAnthropicの次に、別の企業が同じラベルを貼られない保証はない。

日本企業が注視すべきは、このリスクが「米国政府の顧客」に限らない点だ。米国政府がリスク指定した企業をベンダーとして使い続けることは、取引先の米国企業から見てコンプライアンス上の問題になりうる。グローバルなサプライチェーンに組み込まれている企業ほど、間接的な影響を受けやすい。

地政学リスクとAI調達が交差するこの局面——「どのAIを使うか」は、「どの国の政治に乗るか」と同義になりつつある。今回の指定が示した、現実の話だ。

今週できる具体的な一手

挿絵

まず、自社のAI活用状況を棚卸しする。使っているAPIは何か。そのベンダーが突然停止したとき、影響を受ける業務プロセスはどれか。この二点をリスト化するだけで、優先度が見えてくる。

次に、主要ベンダーについて3軸を確認する。準拠法の法域、基盤インフラ、代替候補——この三点の情報は、多くの場合ベンダーの公開ドキュメントや利用規約に記載されている。外部の専門家に頼らずとも調べられる。

最後に、代替モデルを一度だけ試す。今の業務で使っているプロンプトを別のLLMに投げてみる。出力品質の差、コストの差、移行の手間——この体験が、いざというときの判断速度を上げる。準備とは、選択肢を持つことだ。

まとめ

AnthropicへのDoD指定が示したのは、AIベンダーが政治判断で一夜にして「リスク」になりうるという現実だ。機能評価だけでベンダーを選ぶ時代は終わった。地政学・供給網・継続性の3軸を社内で共有し、代替シナリオを持つことが、AI調達の新しい基準になる。まず今週、自社のAI依存マップを一枚の紙に書き出すところから始めてほしい。