AIchips & hardwareGoogle TPU
Google、エージェント時代に向けて2つの新しいTPUを発表
SH
Shota Mori
1 週間前7分で読める
GoogleのCloud Next 2026イベントで、AIインフラストラクチャの戦場における意図的な再調整を示す大きなハードウェア転換が明らかになった。彼らは2つの新しいTensor Processing Unit(トレーニング用と推論用)を発表した。これらは「エージェント時代」向けに明確に設計されており、モデルが単にテキストを生成するだけでなく、リアルタイムで推論、計画、外部ツールの操作を行うことを可能にする。これは、アクセラレータ市場におけるNvidiaの支配への直接的な挑戦であり、単なるパフォーマンスの問題ではなく、経済性の問題でもある。エージェントワークロード向けにNvidiaベースのクラスターを運用するコストは天文学的になっており、Googleは、Marvellと提携して推論側を製造した目的特化型チップが、クラウド顧客にとってより優れたTCO(総所有コスト)を提供できると賭けている。arXivの論文を読む者として興味深いのは、アーキテクチャの分割である。トレーニング用と推論用のシリコンを分離する選択は、モデルを構築することと、それをリアクティブでツールを呼び出す環境に展開することのコンピュートプロファイルの違いを認めている。エージェントシステムは、生のFLOPsよりもはるかにレイテンシとメモリ帯域幅によってボトルネックが生じるため、動的グラフと長コンテキストの推論を処理できる推論最適化TPUは、真の差別化要因となり得る。Googleは自社のGeminiモデルを動かすとともに、サードパーティにもシリコンを提供する。これは、AWS Nitroのプレイブックを再現しようとする試みであり、単にコンピュートを販売するのではなく、移行を粘着性にする垂直スタックを構築することを意味する。Nvidiaは依然としてソフトウェアエコシステムと幅広いモデルサポートにおいて大きなリードを保っているが、Googleの動きは長期的なヘッジであり、市場を断片化し、Nvidiaに単なる総力戦以外の競争を強いる可能性がある。エージェントへのシフトは現実のものとなっている(LangChainの採用、OpenAIの関数呼び出し、Anthropicのツール使用)。勝つハードウェアは、それらのループの摩擦を最小限に抑えるものになるだろう。これはAIチップ戦争の第二戦線における最初の一撃であり、テラフロップスだけでなく、レイテンシとコストをめぐって戦われている。.
#TPU
#Google
#AI chips
#hardware
#Nvidia
#inference
#training
#custom silicon
#cloud computing
#AI agents
#editorial picks
関連ニュース
コメント
静かですね...最初のコメントを残して会話を始めましょう。