NVIDIA最高益の裏側とMetaのAMD資本提携。AIチップ調達の劇的な構造変化を追う

ざっくりまとめ
- NVIDIAが2025年11月〜2026年1月期に過去最高益を更新。ジェンスン・ファンCEOはエージェント型AIへの転換点が来たと明言し、需要は"指数関数的"に拡大していると述べた。
- MetaがAMDと大型チップ供給契約を締結。AMDは6ギガワット相当のチップをMetaへ供給し、MetaがAMD株式の最大10%を取得する可能性が浮上している。
- NVIDIA一強からの分散、垂直統合、持分取得——企業のAI投資がチップ調達戦略そのものに直結し始めた構造変化を読み解く。
NVIDIAはなぜまた最高益を出したのか
2026年2月、NVIDIAは2025年11月〜2026年1月期の決算を発表し、再び過去最高益を記録した。ファンCEOは「エージェント型AIへの転換点が到来した」と表現した。
ここで言う"エージェント型AI"とは、指示を受けて単発で回答するだけでなく、複数ステップのタスクを自律的に処理するAIのことだ。検索1回と、複雑な業務フローを自動実行するエージェント1回では、消費する計算量が桁違いになる。需要が"指数関数的"に増えているとファンが言い切った背景には、この用途の質的変化がある。
TechCrunchはこの決算を「記録的な設備投資支出の中での記録的な四半期」と表現した。AI投資が過熱するほどNVIDIAの業績が伸びる——この構造は今のところ崩れていない。その構造に最初に楔を打とうとしているのが、Metaだ。
MetaとAMDの取引が"普通の調達契約"ではない理由
Ars Technicaが報じたところによると、AMDはMetaに対して6ギガワット相当のチップを供給する契約を結んだ。MetaがAMDの株式を最大10%取得する可能性がある、という条件も付いている。
6ギガワットはデータセンター数十棟分の電力消費に相当する規模の計算能力だ。単純な買い付けではなく、サプライヤーの株式を握ることで供給の優先権と価格決定力を同時に確保しようとする——資本提携を使った調達の"囲い込み"である。
Metaが手に入れようとしているのは、チップそのものより「NVIDIAに頼らなくていい選択肢」だ。NVIDIA製GPUは現時点で性能・エコシステムともに優位だが、供給量には上限があり、価格も高止まりしている。AMDとの資本関係を持つことで、Metaは調達交渉の立場を根本から変えられる。
「囲い込み」か「分散」か——企業が直面する調達の岐路
NVIDIAのCUDAエコシステムは、ソフトウェア・ライブラリ・人材まで囲い込む設計になっている。一度NVIDIAで構築したAIインフラをAMDやGoogle TPUに乗り換えるには、コードの書き直しと再検証が必要になる。これがベンダーロックイン(特定製品への依存固定)の実態だ。
Metaがこの取引で狙うのは、コスト削減より「NVIDIAが唯一の選択肢」という状況の解体だ。供給先を複数持てれば、価格交渉でも優先供給でも立場が変わる。AMDとの資本関係はその足がかりになる。
ただし、この戦略を再現できる企業は限られる。6GWの調達規模を持てるのは世界でも数社だ。大半の企業は引き続きNVIDIAのクラウド経由か、AWS・Googleのマネージドサービスを使うことになる。その場合、コスト上昇の恩恵はNVIDIAとクラウド各社が受け取り、利用企業は価格転嫁のリスクを負う側に回る。
日本企業はこの構図をどう読むべきか

AI投資を検討している日本企業にとって、この動きが示す実務的な含意は三つある。
- クラウドベンダーの選択がチップコストに直結する。AWS・Google・Azureのそれぞれがどのチップを主力にしているかを把握し、将来的な価格変動リスクを織り込んで契約形態を決める必要がある。
- NVIDIA一強が続く間は、GPU確保の優先度が競合優位に直結する。調達タイミングの遅れは、モデル開発・推論コストの双方に跳ね返る。
- Meta×AMDのような"調達の資本化"は大企業の戦略だが、その結果としてAMDの供給能力が高まれば、中長期的には競合チップの選択肢が広がる可能性がある。
エージェント型AIが普及するほど計算需要は増え、チップ不足と価格上昇は続く。NVIDIAの好決算はその構造を数字で裏付けている。自社のAI戦略を「どのモデルを使うか」ではなく「どのインフラで動かすか」から逆算して設計することが、今後の競争力を左右する。
まとめ
NVIDIAの記録更新とMeta×AMDの資本提携は、AI競争の主戦場がモデルからチップ調達に移りつつあることを示している。規模を持つ企業は供給源を資本で囲い込み、そうでない企業はクラウド経由のコスト上昇を受け入れるか、早期に調達を確保するかの判断を迫られる。まず自社のAIワークロードがどのインフラ上で動くかを棚卸しし、ベンダーロックインのリスクを定量化するところから始めるべきだ。