規制・社会

Anthropicが中国企業を告発!AI蒸留とペンタゴン衝突が示す地政学リスク

記事バナー画像

ざっくりまとめ

  • 中国のAIスタートアップ3社(DeepSeek・Moonshot・MiniMax)が2万4000件の偽アカウントを使い、AnthropicのAI「Claude」の能力を不正に抽出していたとAnthropicが告発した
  • 同日、米国防長官がAnthropicのCEOをペンタゴンに召喚。軍事利用をめぐる対立が表面化し、「供給業者指定」という圧力カードが切られた
  • 2つの出来事が重なった背景と、日本のビジネスパーソンが押さえるべきAI地政学リスクを解説する

何が起きたのか——2月23日の二重の衝撃

2026年2月23日、Anthropicに関する重大ニュースが2本同時に走った。ひとつは中国AI企業による不正アクセス疑惑。もうひとつは米国防省との衝突だ。偶然の一致ではなく、米中AI覇権争いが臨界点に近づいているサインと見るべきだろう。

Anthropicが告発した内容は具体的だ。DeepSeek・Moonshot・MiniMaxの3社が2万4000件の偽アカウントを使い、Claudeの応答パターンを大量に収集した。これは「蒸留(ディスティレーション)」と呼ばれる手法で、既存の高性能モデルを教師データとして自社モデルを鍛える。開発コストをほぼゼロに抑えながら、競合の技術力を丸ごと吸い上げる行為だ。

同日、米国防長官ピート・ヘグセスがAnthropicのCEO ダリオ・アモデイをペンタゴンに召喚した。軍によるClaude利用をめぐり、ヘグセス長官はAnthropicを「供給業者指定」する可能性を示唆したとされる。AI企業と国家安全保障の関係が、一気に緊張した。

偽アカウント2万4000件——その規模が示す組織的意図

2万4000件という数字は、個人の悪用ではない。組織が資金と人員を投じた、計画的な情報収集だ。Anthropicの利用規約は競合目的の利用を明示的に禁じている。それを知りながら大量の偽装アカウントを用意したとすれば、意図は明白だ。

DeepSeekはすでに2025年初頭、低コストで高性能なモデルを公開し世界を驚かせた。そのコスト効率の一部が、こうした無断蒸留によって生まれていた可能性を、今回の告発は示唆している。

米国が半導体輸出規制でNVIDIA製チップの中国向け販売を制限している最中に、この告発が出た意味は重い。ハードウェアを封じても、ソフトウェア知識を盗まれれば規制の効果は半減する。チップ輸出管理の議論と不正蒸留問題は、同じ構図の表裏だ。

中国AI企業による不正蒸留の構図
Anthropic Claude(高性能モデル) 偽アカウント 24,000件 大量クエリを送信 応答パターンを収集 → 訓練データ化 DeepSeek Moonshot MiniMax 同時進行する米中AI規制の構図 米国:半導体輸出規制 NVIDIAチップの対中販売制限 抜け穴:ソフトウェア知識の窃取 ハード規制を迂回する蒸留攻撃 Anthropicの告発 規制議論の最中に表面化 Anthropic Claude(高性能モデル) 偽アカウント 24,000件 大量クエリ送信→応答収集 → 自社モデルの訓練データ化 DeepSeek Moonshot MiniMax 米中AI規制の構図 米:半導体輸出規制(ハード封鎖) → 蒸留攻撃で迂回される Anthropicの告発が規制議論を加速
Anthropicの告発に基づく構図。3社の関与の程度や意図については現時点で司法判断は下されていない。

ペンタゴンとの衝突——AIガバナンスの断層線

挿絵

国防長官ヘグセスによるアモデイCEO召喚は、AI企業と国家の関係が新局面に入ったことを示す。問題の核心は「軍事利用の範囲」だ。Anthropicは安全性を企業の核心価値に掲げてきた。その姿勢が、軍の要求と正面衝突した形だ。

「供給業者指定」という圧力は、単なる脅しではない。実現すれば、Anthropicは米政府の調達先として義務的な対応を迫られる可能性がある。民間AI企業が国家安全保障の論理に組み込まれるかどうか——その分水嶺が、2026年2月23日に可視化された。

OpenAIがすでに軍・政府向けサービスで関与を深めている文脈では、Anthropicの立場はより際立つ。安全性を旗印にしてきた企業が国防省との交渉テーブルに着かざるを得ない状況は、AI業界全体のガバナンス論に波紋を広げる。

日本企業が今すぐ問うべき3つの論点

この騒動は米国内の話に見えるが、日本のビジネス現場にも直結する。Claude、GPT-4、Geminiといった海外製AIツールを業務に使う企業は、利用規約の「競合目的禁止」条項が自社に適用されないか確認する必要がある。自社が生成したプロンプトや応答データが、知らぬ間に第三者に活用されるリスクも無視できない。

  1. 業務で使うAIツールの利用規約に、データ取り扱い・競合禁止条項は何と書いてあるか
  2. 使用しているAIが地政学的リスクの高い地域のサービスと技術的につながっていないか
  3. 社内の機密情報をAIに入力する際のルールは、国際情勢の変化に対応して更新されているか

「うちは中国製AIを使っていないから関係ない」は甘い。蒸留によって能力を移植されたモデルが別の名前で流通する可能性があるからだ。モデルの出所を確認する習慣が、これからのAIリテラシーの基礎になる。

まとめ

Anthropicをめぐる2つの事件は、AI技術が「ビジネスツール」を超えて地政学の道具になった現実を映している。企業が安全で便利なAIを使い続けるための具体的な一手は、利用規約の確認と情報管理ポリシーの見直しだ。次に注目すべきは「モデルの来歴(プロビナンス)」——どこで誰が何を使って作ったモデルかを問う動きが、2026年中に加速するはずだ。