Google-CEO Sundar Pichai kündigte auf der Cloud Next 2026 die Einführung der achten Generation der Tensor Processing Unit (TPU) an und stellte erstmals separate Chips für Training und Inferenz vor. Die TPU 8t, die für das Training entwickelt wurde, kann 9.600 Chips in einem Super-Knoten verbinden und liefert 121 ExaFlops Rechenleistung sowie 2 PB gemeinsamen Speicher, was die Leistung der vorherigen Ironwood-Generation verdreifacht. Die TPU 8i, die auf Inferenz spezialisiert ist, verbindet 1.152 Chips pro Pod, verbessert den Speicher erheblich und reduziert die Latenz mit der neuen Boardfly-Netzwerktopologie. Beide Chips werden später im Jahr 2026 auf dem Google Cloud AI Hypercomputer verfügbar sein.