オンラインビジネスの力となり、守るサイバーセキュリティおよびクラウドコンピューティング企業、Akamai Technologies(NASDAQ:AKAM)は、グローバルな分散型クラウドインフラストラクチャを強化するため、数千基のNVIDIA Blackwell GPUを取得し、クラウドインスタンスとして展開することを発表しました。これにより、AI の研究開発、ファインチューニング(微調整)、トレーニング後の最適化を統合的に行うプラットフォームが実現します。Akamai の広大なグローバルネットワーク全体で、AI 推論(インファレンス)のワークロードを最適化されたコンピューティングリソースへ、インテリジェントにルーティングできるようになります。このアーキテクチャは、中央集約型のデータセンターに起因するレイテンシー(遅延)やデータ転送コスト(エグレスコスト)の問題を解消し、高速な推論をサポートするように設計されています。

AI の第一波では中央集約的なハブでのモデルトレーニングに焦点が当てられてきましたが、業界はいま、推論がトレーニングと同等に重要視される転換期を迎えています。「MITテクノロジーレビュー」の最近の報告によると、AI の大規模な導入を阻む最大の障壁として、56% の組織がレイテンシーを挙げています。Akamai は世界中を単一の低レイテンシー(低遅延)な基盤として扱うことでこのギャップを埋め、現実世界のスピードで意思決定が求められるフィジカル AI やエージェント型 AI の基盤となるインフラを提供します。

Akamai の Cloud Technology Group 担当 Chief Operating Officer 兼 General Manager である Adam Karon は「ハイパースケーラーが AI 学習の限界に挑み続ける一方で、Akamai は推論時代特有のニーズに応えることに注力しています。中央集約的な『AI ファクトリー』はモデル構築に依然として不可欠ですが、それらのモデルを大規模に実用化するには、分散型の“神経系”が必要です。Akamai は単に容量を増やしているだけではありません。グローバルネットワーク全体に、推論に最適化されたコンピューティングを分散配置させることで、AI を研究室から街角や病床といった場所へ移行させるために必要なスケールを、低レイテンシーで提供しているのです。つまり、実際に作業が行われ、データが存在し、投資対効果(ROI)が生まれる現場へ AI を届けるための基盤です」と述べています。

Blackwell GPU の採用は、AI 推論時代に向けて構築された「グローバル分散型 AI コンピューティンググリッド」という Akamai のビジョンをさらに前進させるものです。AI 処理を中央集約的な AI ファクトリーから高密度の分散型インフラへと拡張することで、自動配送、スマートグリッド、手術支援ロボット、高度な不正検知といった物理システムとの連携が可能になります。これにより、従来のクラウドアーキテクチャのような地理的制限やコストの制約を受けることなく、AI を活用できるようになります。

NVIDIA Blackwell AI インフラストラクチャの統合により、以下のようなことが可能になります。

•予測可能で高性能な推論:専用 GPU クラスターで AI ワークロードを処理し、迅速なレスポンスを生成。•ローカライズされたファインチューニング:大規模言語モデル(LLM)をオンサイトで最適化し、データのプライバシー保護や地域のコンプライアンス要件をサポート。•モデル学習後の最適化:独自のデータに基づいて基盤モデルを微調整・適応させ、特定のタスクにおける精度を向上。

予測可能で高性能な推論:専用 GPU クラスターで AI ワークロードを処理し、迅速なレスポンスを生成。

ローカライズされたファインチューニング:大規模言語モデル(LLM)をオンサイトで最適化し、データのプライバシー保護や地域のコンプライアンス要件をサポート。

モデル学習後の最適化:独自のデータに基づいて基盤モデルを微調整・適応させ、特定のタスクにおける精度を向上。

今回の発表は、AI 推論および汎用的なコンピューティング機能の拡張に向けた Akamai の最近の取り組みに続くものです。2025年 10月には、Akamai Inference Cloud を発表し、AI 推論をユーザーやデバイスの近くで実行することで、AI の利用場所と利用方法を再定義しました。

プラットフォームエンジニアや開発者が AI アプリケーションやデータ集約型のワークロードをエンドユーザーの近くで構築・実行できるツールを提供することで、Akamai は極めて効率的なスループットを実現します。NVIDIA AI インフラストラクチャを活用した Akamai のソリューションは、従来のハイパースケーラーのインフラと比較して、レイテンシーを最大 2.5倍低減し、AI 推論にかかるコストを最大 86% 削減します。

本プラットフォームは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したNVIDIA RTX PRO Server、およびNVIDIA BlueField-3 DPUと、世界 4,400 拠点以上に展開する Akamai の分散型クラウドコンピューティングインフラおよびグローバルエッジネットワークを組み合わせたものです。

Akamai では、NVIDIA RTX PRO 6000 Blackwell Server Edition GPU の初期導入分に対して強い需要を確認しており、クラウドインフラ戦略の一環として、今後も継続的に GPU 容量を増強していく予定です。

Akamai についてAkamai は、オンラインビジネスの力となり、守るサイバーセキュリティおよびクラウドコンピューティング企業です。当社の市場をリードするセキュリティソリューション、優れた脅威インテリジェンス、グローバル運用チームによって、あらゆる場所でエンタープライズデータとアプリケーションを保護する多層防御を利用いただけます。Akamai のフルスタック・クラウド・コンピューティング・ソリューションは、世界で最も分散化されたプラットフォームで高いパフォーマンスとコストを実現しています。多くのグローバル企業が、ビジネスの成長に必要な業界最高レベルの信頼性、拡張性、専門知識を提供できる Akamai に信頼を寄せています。詳細については、akamai.comおよびakamai.com/blogをご覧いただくか、XやLinkedInで Akamai Technologies をフォローしてください。