1. Nachrichten
  2. ai
  3. Google stellt zwei neue TPUs für das agentische Zeitalter vor
post-main
AIchips & hardwareGoogle TPU

Google stellt zwei neue TPUs für das agentische Zeitalter vor

TI
Tim Neumann
vor 1 Woche7 Min. Lesezeit
Auf der Google Cloud Next 2026 gab es eine wichtige Hardware-Wende, die eine bewusste Neukalibrierung des KI-Infrastruktur-Schlachtfelds signalisiert. Google hat zwei neue Tensor Processing Units vorgestellt – eine für das Training, eine für die Inferenz – die explizit für das sogenannte „agentische Zeitalter“ entwickelt wurden, in dem Modelle nicht nur Text generieren, sondern in Echtzeit argumentieren, planen und externe Werkzeuge manipulieren.Dies ist ein direkter Angriff auf Nvidias Vormachtstellung auf dem Beschleunigermarkt, und es geht nicht nur um Leistung, sondern auch um Wirtschaftlichkeit. Die Kosten für den Betrieb von Nvidia-basierten Clustern für agentische Workloads sind astronomisch geworden, und Google setzt darauf, dass zweckgebaute Chips, die für die Inferenzseite in Partnerschaft mit Marvell gefertigt werden, Cloud-Kunden eine bessere Gesamtbetriebskosten bieten können.Was mich, als jemanden, der arXiv-Papiere liest, interessiert, ist die architektonische Trennung: Die Trennung von Trainings- und Inferenz-Silizium ist eine Entscheidung, die die unterschiedlichen Rechenprofile des Modellbaus im Vergleich zum Einsatz in einer reaktiven, werkzeugaufrufenden Umgebung anerkennt. Agentische Systeme werden weitaus stärker durch Latenz und Speicherbandbreite als durch reine Rechenleistung eingeschränkt, sodass ein inferenzoptimierter TPU, der dynamische Graphen und schlussfolgernde Verarbeitung langer Kontexte bewältigen kann, ein echter Unterschiedsmacher sein könnte.Google wird seine eigenen Gemini-Modelle betreiben und auch das Silizium Dritten anbieten, was bedeutet, dass sie versuchen, das AWS-Nitro-Playbook zu replizieren – nicht nur Rechenleistung zu verkaufen, sondern einen vertikalen Stack aufzubauen, der Migration erschwert. Nvidia hat immer noch einen enormen Vorsprung im Software-Ökosystem und bei der breiten Modellunterstützung, aber Googles Schritt ist eine langfristige Absicherung, die den Markt fragmentieren und Nvidia zwingen könnte, nicht nur auf rohe Gewalt zu setzen.Der agentische Wandel ist real – LangChain-Adoption, OpenAIs Funktionsaufrufe, Anthropics Werkzeugnutzung – und die Hardware, die gewinnt, wird diejenige sein, die die Reibung dieser Schleifen minimiert. Dies ist der Auftakt zu einer zweiten Front im KI-Chip-Krieg, und er wird auf Latenz und Kosten geführt, nicht nur auf Teraflops.
#TPU
#Google
#AI chips
#hardware
#Nvidia
#inference
#training
#custom silicon
#cloud computing
#AI agents
#editorial picks

Bleiben Sie informiert. Handeln Sie klüger.

Erhalten Sie wöchentliche Highlights, wichtige Schlagzeilen und Experteneinblicke – und setzen Sie Ihr Wissen dann in unseren Live-Prognosemärkten ein.

Kommentare
A
Hier ist es ruhig...Beginnen Sie die Konversation, indem Sie den ersten Kommentar hinterlassen.