AIで日本は本当に儲かるのか? インフラ特需の中、本質を探してみる

AIバブルの恩恵は、AIの外側に落ちている

生成AIブームが続くなか、「日本企業にも追い風」という話をよく耳にする。確かに数字はそれを裏付けている。ただ、よく見ると、儲かっているのはAIそのものを作っている企業ではなく、それを動かすための電力設備、冷却システム、ネットワーク機器を供給する重電・設備メーカーが多い。

AIバブルの恩恵は、AIの「外側」に落ちている。そしてAIモデルを開発している企業は売り上げ規模こそ大きいが、実入りが少ない。これは最近よく聞く言説だ。しかし本当にそうだろうか?

モデル企業の「赤字」は、設備投資と混同されている

「AIモデル企業は儲かっていない」という話は半分正しく、半分は読み違いだ。

OpenAIは2025年前半の6か月だけで43億ドルの収益に対し135億ドルの純損失を計上した。数字だけ見れば確かに大赤字だ。ただこの損失の大半は、データセンター建設とGPU調達への先行投資によるものであり、既存事業が赤字なのではない。製造業で言えば、新工場を建てながら利益が出ていないと嘆くようなものだ。

一方のAnthropicは、2025年のAPI売上が38億ドルに達し、B2B収益が全体の8割を占める構造で、2028年には損益分岐点に到達するとみられている。売上成長の速さと収益の質という点では、モデル企業の中でも明確に差がついている。

「モデル企業は儲からない」という言説は、短期のPLだけを見た話だ。問題は赤字の量より、その赤字が何に使われているか、その先に何があるかのほうが本質的だろう。

国産モデルは追いついているか?

PFN、NTT、富士通、サイバーエージェントなど民間企業、国立情報学研究所(NII)などの機関においても国産LLMの開発は着実に進んでいる。最新モデルとの性能差は縮まっている。4月3日にNIIが公開したLLM-jp-4は、フルスクラッチ開発ながら日本語MT-BenchでGPT-4oのスコアを上回る性能を達成した。

ただ、「うちのモデルが圧倒的に優れている」とは言いにくい状況にある。理由はシンプルだ。AIの根幹を支える技術の多くがオープンソースで公開されている。Qwen、LLaMA、Mistral、Gemmaといった主要モデルのアーキテクチャは誰でも使えるし、誰でも改良できる。先進国間でAI技術格差がつきにくいのは、この構造的な事情が大きい。

米国勢、中国勢が先行しているのは事実だが、アーキテクチャを秘匿しているからではない。学習データの量と質、GPUリソースへのアクセス、研究者の層の厚さが効いている。

OpenAIは必死に金をかき集めている状況を揶揄されがちだが、当初の理念通り、研究結果は営利団体としては異様な量を公開している。追いかける側が「モデルの設計図」を入手するのは難しくない。難しいのは、それを大規模に動かす体力があることだ。

チップを「作れる」より「設計できる」かどうか

ハードウェアの話になると、日本の議論は製造能力に集中しがちだ。ラピダスによる先端半導体の国産化や、東京エレクトロンなど製造装置メーカーの強さは確かに重要だ。

しかしAI時代の競争において、製造と同等かそれ以上に問われているのがアーキテクチャの設計能力だ。

ここでARMの話をしないわけにはいかない。ソフトバンクが2016年に約3兆円で買収し、2023年9月にNasdaqへ再上場(ソフトバンクは約90%を保有継続)させたARMは、AI時代の最大の受益者のひとつになっている。

ARMのCEO Rene Haasは「データセンター向けロイヤリティ収入は前年比100%超で成長しており、数年以内にデータセンターがモバイルを抜いて最大のビジネスになる」と述べている。ARMの2023年9月のIPO価格は51ドルだったが、2026年4月時点では約149ドルと、上場後3年弱で株価は約3倍になっている。

スマートフォンの基盤チップからNVIDIAのAIアクセラレータ、AppleのMシリーズまで、ARMのアーキテクチャはAI時代のあらゆる計算基盤に組み込まれている。GPUを自分で製造しなくても、その設計の根幹にあるISA(命令セットアーキテクチャ)を握ることで、チップ産業全体からロイヤリティが入り続ける。ARMの97%という異次元の粗利益率はこの構造から生まれている。

一方、日本にARMのような「世界的に採用される優れたアーキテクチャを設計する」プレイヤーがいるかというと難しい所だ。製造装置や素材では世界トップレベルの企業が揃っているのに、設計の上流にいない。この非対称性は、AIが長期戦になるほど弱点として際立ってくるだろう。

「中国の戦い方」制約を逆手にとった設計効率

AI競争を語るとき、中国は避けて通れない。米国の輸出規制でNVIDIAの最新チップを入手できない中、中国勢が編み出したのが「制約の中での効率化」という質重視の戦略だ。

2025年1月にDeepSeekが公開したR1モデルは、米国の輸出規制で性能を制限されたH800チップを使いながら、OpenAIのo1と同等水準の推論能力を示し、開発コストはOpenAIの10分の1以下の約560万ドルだったとされる。この発表はNVIDIAの株価を一時17%下落させた。

DeepSeekの何が本質的に重要かというと、性能そのものより、その設計思想だ。MoE(Mixture of Experts)の効率的な活用など、少ないリソースで最大の出力を引き出す工夫が詰め込まれている。「高性能チップがあれば勝てる」という前提を崩したことで、ハードウェアとは別の競争軸が生まれた。

ただし、中国の課題も深刻だ。チップ自給率70%という2025年目標は大幅に未達とみられており、半導体製造装置とEDA(回路設計自動化ツール)の分野では、ASML(オランダ)、東京エレクトロン(日本)、Synopsys(米国)への依存が続いている。モデルの設計は追いついても、製造の基盤は海外に握られている。ちょうど日本と鏡合わせのような構造的弱点が中国にもある。

欧州と韓国、「第三極」の本気度と限界

日本と比較すべき「同じ立場の追いかけ組」として、欧州韓国を見ておきたい。

フランスのMistral AIは欧州の国産LLM代表格になっている。2025年9月には半導体製造装置大手のASMLが主導する17億ユーロの資金調達を完了し、企業評価額は約140億ドルに達した。フランス政府とドイツ政府はMistralとSAPとの提携を通じて、行政システム向けのソブリンAIスタックを構築する計画を進めている。欧州の戦略は「データ主権」と「GDPR準拠」を武器に、米中以外の選択肢として独自の市場を確保するというものだ。

ただし欧州が抱える根本的な課題も明確だ。EU圏のデータセンターで稼働するGPUとAIアクセラレータの90%以上がNVIDIA製であり、先端チップの製造(7nm以下)は自前で持っていない。Mistralがどれほど優れたモデルを出しても、そのモデルを動かすチップの設計はNVIDIA、製造はTSMCという構図は変わらない。

韓国の立ち位置は少し異なる。2025年10月のAPECサミットでNVIDIAが発表した計画では、Samsung、SK Group、Hyundai、NAVERが合計26万枚以上のNVIDIA GPUを導入する方針が示された。加えてSK HynixはHBM(高帯域メモリ)で圧倒的なシェアを持ち、LLM学習に不可欠なメモリを握るという固有の強みがある。ただし韓国もGPU本体の設計はNVIDIAに依存している点では同じだ。

整理すると、アーキテクチャ設計(ARMNVIDIA)、モデル設計(OpenAIGoogleMetaDeepSeekQwen)、チップ製造(TSMCSamsung)、製造装置(ASML東京エレクトロン)という分業構造があり、どの国も全部を握れていない。

日本は製造装置で強い。欧州はモデルとデータ主権で戦う。韓国はメモリで固有のポジションを持つ。中国はAIモデルの質で追う。そして日本に欠けているのは、アーキテクチャとモデル設計の上流だ。

OSSは技術を民主化しているが、エコシステムは民主化していない

AI競争で先進国間の格差がつきにくい背景のひとつに、オープンソースの存在がある。各社独自の取り組みとしてモデルの多くがウェイトごと公開されており、誰でも改良できる。これは参入障壁を確かに下げた。

ただし、OSSが平等化するのはモデルの「設計図」だけだ。それを動かす計算資源、改良するためのデータ、使いこなすエンジニアの層は依然として偏りがあり、集中している。世界のオープンソースLLMのダウンロード数の70〜75%は米国発モデルが占めており、中国発モデルは英語での技術情報が少なく、言語の壁がある。

国産AIモデルを開発する企業にとっても、この壁は大きい。モデルの性能を上げることはできても、それをグローバルなエコシステムに組み込む力は別の話だ。日本語特化モデルが国内市場で使われ続ける未来はあり得る。官公庁で使われるAIは国産LLMだろう。ただ、それはグローバルな競争に打って出るとは違う。

ソフトバンクのAI経済圏「ARMとOpenAI」

孫正義氏が描く「AI経済圏」を理解するには、ソフトバンクという企業単体では難しい。

ARMは単なる設計会社ではなく、デジタル機器が社会実装されるほどロイヤリティが増える構造になっている。RISC-Vなどのオープンソースアーキテクチャは脅威とされているが、現状まだ距離がある。

AIチップが世界中で増産されるたびに、その中に入るARMアーキテクチャのロイヤリティがソフトバンクに入る仕組みは健在だ。

その上で孫氏はOpenAIへの数百億ドル規模の投資も続けている。モデルの覇権がどこに落ちるかはまだ誰も知らない中での大きな賭けだが、ARMという「どこが勝っても儲かる」資産を持ちながら、その上にモデル側のポジションも張るという構造は、日本の他のどの企業にも真似できない形だ。

ソフトバンクはAIによる経済圏の拡大に賭けている。

日本固有の問い 誰がAIの恩恵を受けるか

AIによる経済インパクトを考えるとき、マクロの数字より気になるのは分配の問題だ。「コールセンター、翻訳、書類作成、コーディング補助」自動化が進む業務は増え続けている。それが経済全体の生産性を上げるかどうかは、空いたリソースがどこへ向かうかにかかっている。

少子高齢化による労働力不足を補う手段としてAIへの期待は高く、それ自体は理にかなっている。ただ、デジタル化の遅れが指摘されてきた中小企業がAIを実際に使いこなせるかどうかは、まだ見通せない。大企業とスタートアップがAIで効率化を進める中、取り残される企業との格差が広がる展開は十分にあり得る。

製造装置という強みを持ちながら、アーキテクチャとモデル設計の上流を持たない日本。このポジションが何を意味するかは、AIが日常になればなるほど問われてくる。AIに全ての仕事が取られるまでにはまだ時間的なギャップがある。

インフラ特需で稼げる時間を、次の一手のために使えるかどうか。それが今、日本企業に問われていることかもしれない。

カテゴリ: AI・人工知能
この記事を書いた人
Seita Namba
イグナイトbiz 編集長