この記事の要約
- ソフトバンクが最新AI計算基盤を稼働
- NVIDIA Blackwell GPU 1,224基搭載
- 国産LLM開発や企業への提供を開始
ソフトバンク株式会社は2025年12月22日、NVIDIA製の最新AIシステム「GB200 NVL72」を採用した大規模なAI計算基盤の稼働を開始しました。この基盤は、稼働開始時点で1,224基のBlackwell GPUを搭載しており、将来的には国内最大級となる計算能力への拡張が計画されています。急速に進化するAI技術において、計算資源の確保は企業の経営戦略上の最重要課題となっており、今回のインフラ稼働はソフトバンク自身の事業強化のみならず、日本の産業界全体に大きなインパクトを与えるものです。特に、計算リソースを必要とするスタートアップや、高度なAI機能を組み込んだSaaSビジネスを展開する企業にとって、国内で安定した高性能GPUリソースが利用可能になることは大きなメリットとなります。
最新鋭AI計算基盤「GB200 NVL72」の稼働とスペック詳細

- ソフトバンクは2025年12月22日より、新しいAI計算基盤の稼働を開始しました。
- 採用されたシステムは、NVIDIA製の最新鋭ラックスケールソリューションである「NVIDIA GB200 NVL72」です。
- 稼働開始時点での構成は、NVIDIA Blackwell GPUを合計で1,224基搭載しています。
- このシステムは、NVIDIAのCPU「Grace」とGPU「Blackwell」を1つのラックに統合した設計となっています。
- 「GB200 NVL72」の採用は、従来のシステムと比較して飛躍的な計算処理能力の向上を意味します。
- CPUとGPUを密結合させたアーキテクチャにより、大規模言語モデル(LLM)の学習や推論において、データ転送のボトルネックが解消され、高速な処理が可能となります。
- 1,000基を超える最新GPUの一斉稼働は、国内のAIインフラとして極めて高い水準にあり、即座に大規模な学習タスクに対応できる環境が整いました。
- この基盤は、高度なAI技術を競うグローバル市場において、日本企業が対等に渡り合うための強力な武器となります。
将来的な拡張計画と計算能力の飛躍的向上

- ソフトバンクは、今回稼働した基盤を将来的にさらに拡張する計画を発表しています。
- GPUの搭載数は、現在の約3倍となる4,000基超まで増強される予定です。
- この拡張により、計算能力は10.6エクサフロップス(ExaFLOPS)規模に達することを目指しています。
- 「エクサフロップス」級の計算能力は、スーパーコンピュータの領域に匹敵する極めて巨大な処理性能です。
- GPU数を4,000基規模へ拡張することで、よりパラメータ数の多い複雑なAIモデルの学習や、膨大なデータのリアルタイム処理が可能になります。
- この規模の拡張性は、将来的にAI需要が爆発的に増加した際にも、安定してリソースを供給し続けるための重要な布石となります。
- 長期的な視点でのインフラ投資は、持続可能なビジネス成長を支える基盤となります。
国産LLM「Sarashina」開発への戦略的活用

- 稼働したAI計算基盤は、ソフトバンクが開発を進める国産LLM「Sarashina(サラシナ)」の開発に活用されます。
- 自社グループ内でのAIサービス開発や機能向上に直結する計算資源として位置づけられています。
- 海外製のAIモデルが主流となる中で、日本の商習慣や言語文化に最適化された「国産LLM」の開発は、経済安全保障や文化的観点からも重要視されています。
- 「Sarashina」の開発に最新の計算機パワーを投入することで、モデルの精度向上や学習期間の短縮が期待されます。
- 自社開発のLLMを持つことは、外部ベンダーへの依存度を下げ、独自の付加価値を持ったAIソリューションを展開する上で大きな競争優位性となります。
- これは、AIを単なるツールとして利用する段階から、AIそのものを創出する段階へのシフトを象徴しています。
企業・研究機関へのリソース提供とビジネスエコシステム

- このAI計算基盤は自社利用にとどまらず、国内の企業や研究機関へもサービスとして提供される予定です。
- 顧客向けのGPUリソース提供サービス(MaaS: Machine Learning as a Service等)としての展開が含まれます。
- 高価な最新GPUを自社で調達・運用することが難しいスタートアップや中小企業にとって、必要な分だけリソースを利用できる環境は革新的です。
- 大学や研究機関においては、計算資源不足による研究の遅れを解消し、日本の学術研究の加速に寄与します。
- 様々な企業がこの基盤を利用してAIサービスやSaaSプロダクトを開発することで、国内のAIビジネスエコシステム全体の活性化が期待されます。
- インフラの開放は、ソフトバンクにとっても新たな収益源となり、プラットフォーマーとしての地位を確立する戦略と言えます。
技術的革新性と環境配慮型の液冷システム

- 導入されたシステムは、高密度なAI処理環境での安定稼働を実現するため、液冷方式を採用しています。
- NVIDIA GB200 NVL72は、高い演算性能と電力効率を両立させるよう設計されています。
- 従来の空冷方式と比較して、液冷方式は冷却効率が圧倒的に高く、データセンター全体の消費電力を抑制する効果があります。
- AIチップの発熱量は年々増大しており、効率的な冷却システムの導入は、システムの安定稼働と寿命延長に不可欠です。
- エネルギー効率の追求は、脱炭素社会の実現に向けた企業の社会的責任(CSR)やESG経営の観点からも高く評価されるポイントです。
- 高密度実装が可能になることで、設置スペースあたりの処理能力が最大化され、データセンターの運用効率が向上します。
経済安全保障推進法に基づく政府認定の意義

- 本基盤の整備計画は、経済安全保障推進法に基づく経済産業省の「クラウドプログラム」の供給確保計画として認定を受けています。
- これは、重要物資であるクラウドプログラム(計算資源)の安定供給を国として支援する枠組みです。
- 政府の認定を受けたプロジェクトであることは、この計算基盤が日本のデジタル産業にとって欠かせない社会インフラであることを意味します。
- 国からの支援や認定を受けることで、地政学的なリスクやサプライチェーンの変動に対しても、ある程度の耐性を持った運用が可能になります。
- 利用者側にとっても、政府認定の基盤を利用することは、セキュリティや継続性の面で安心材料となります。
- 官民一体となってAI開発力を強化する動きは、日本の国際競争力を維持・向上させるための国家的なプロジェクトの一環と言えます。
まとめ

ソフトバンクによるNVIDIA GB200 NVL72搭載AI計算基盤の稼働は、日本のAI開発環境を大きく前進させるマイルストーンとなります。1,224基から始まり、将来的に10.6エクサフロップスを目指すこの巨大な計算資源は、国産LLM「Sarashina」の進化を支えるだけでなく、国内のビジネスや研究開発の土台となります。
- 最新技術による圧倒的な計算能力の確保
- 自社開発と外部提供の両輪によるエコシステム形成
- 液冷技術による環境負荷の低減と効率化
- 経済安全保障の観点からのインフラ安定供給
SaaSベンダーやスタートアップを含む多くのプレイヤーがこの基盤を活用することで、日本発の革新的なAIサービスが次々と生まれる未来が期待されます。
参考リンク
- 「NVIDIA GB200 NVL72」を搭載したAI計算基盤が稼働開始 – ソフトバンク株式会社
- ソフトバンクが新たなAI計算基盤を稼働、「NVIDIA GB200 NVL72」採用 国産LLM「Sarashina」開発に活用 – ITmedia AI+
- ソフトバンク、NVIDIA GPU搭載の新たなAI計算基盤 – Sarashina開発などに活用 – TECH+
本記事は生成AIにより複数の公開情報を元に自動生成されています。重要な判断の際は、複数の情報源を参照されることを推奨します。 詳細は免責事項をご確認ください。