Alphabet’i Google’i osakond tutvustas kolmapäeval kahte spetsialiseeritud kunstliku intelligentsi protsessorit, mis tähistab esimest korda, kui selle tensoriprotsessori arhitektuur on eraldatud eraldi kiipideks treeningu ja järelduste (inference) operatsioonide jaoks.
TPU 8t on disainitud konkreetsete AI-mudelite treenimiseks, samas kui selle partnerkiip TPU 8i keskendub ainult järeldustele – treenitud mudelite rakendamisele reaalajas rakendustes. Broadcom oli kaasarenduspartner, laiendades üle kümne aasta pikkust koostööd.
Alphabet Inc., GOOGL
See tähendab strateegilist pöördepunkti varasematest lähenemistest. Varasemad TPU versioonid ühendasid treeningu ja järelduste võimalused ühes ja samas protsessoris. Google seob selle muudatuse agendi AI süsteemide (agentic AI systems) tekkimisega – see on autonoomne mudel, mis toimib pidevates tagasiside tsüklites minimaalse inimliku järelevalvega – ning nendele on vaja rohkem sihtotstarbelist silikooni.
Järeldustele orienteeritud TPU 8i sisaldab iga protsessori kohta 384 megabaiti SRAM-i – kolm korda rohkem kui Ironwood. Google väitel eemaldab see arhitektuuriline täiendus „ootesaali“ kitsariba, vähendades viivitusnäitajaid, mis tekivad, kui mitu kasutajat pärib sama mudelit korraga.
Võrreldes Ironwood’iga saavutab TPU 8i 80% parema kuluefektiivsuse. Operatsioonilisel tasandil saavad organisatsioonid kohandada peaaegu kahekordset kasutajate nõudlust ilma oma eelarvet suurendamata.
Kiip näitab ka kuni 2-kordset parandust energiatõhususes wattis, mille võimaldab dünaamiline võimsusjuhtimise tehnoloogia, mis reguleerib energiatarbimist reaalajas töökoormuse nõudmistele vastavalt.
Esimest korda kasutavad mõlemad protsessorid Google’i Axion CPU-d kui host-protsessorit, võimaldades optimeerimist süsteemi arhitektuuri tasandil, mitte piirdudes üksikute kiipide jõudluse parandustega.
Treeninguvõimaluste osas toetab TPU 8t superpod konfiguratsioon kuni 9600 protsessorit koos 2 petabaiti kõrgkiirusega mäluga. See tähendab kahekordset sisemise kiibi suhtlusribalaiust võrreldes Ironwood’iga ja Google väitel võimaldab see piirjoone mudelite arendusaja lühendada kuudest vaid nädalatesse.
Treeninguprotsessor pakkub 2,8-kordset arvutusjõudlust võrreldes seitsmenda põlvkonna Ironwood’i arhitektuuriga samal hinnatasemel.
Varane kasutuselevõtt saab kiiresti tempot. Citadel Securities arendas kvantitatiivseid teadusuuringute platvorme Google’i TPU infrastruktuuri abil. Kõik seitse-teist Ameerika Ühendriikide Energiaministeeriumi riiklikku laborit kasutavad neid protsessorid AI-kaasuurijate (AI co-scientist) rakenduste jaoks. Anthropic on andnud kohustuse kasutada mitmeid gigavatte Google’i TPU arvutusvõimsust.
DA Davidsoni analüütikud prognoosisid septemberis, et Google’i TPU jaotus koos Google DeepMind’iga võiks saavutada ligikaudu 900 miljardi dollari suuruse väärtuse.
Google järgib TPU-de jaoks eksklusiivset levitamismudelit – nad pole otseselt ostetavad ja neile saab ligi ainult Google Cloud teenuste kaudu. Nvidia jätkab GPU-haardvaravarustuse tarnimist Google’ile ja ettevõte kinnitas, et see kuulub algsete pilveteenusepakkujaite hulka, kes pakkuvad Nvidia uut Vera Rubin platvormi, kui see käivitub hiljem sel aastal.
Protsessorid on disainitud tihe koostöös Google DeepMind’iga, kes on kasutanud neid Gemini keelemudelite treenimiseks ning Search ja YouTube platvormide aluseks olevate algoritmide optimeerimiseks.
Google teatas, et TPU 8t ja TPU 8i jõuavad 2025. aasta hilisemast poolest üldkasutatavaks pilveteenuste klientidele.
Postitus „Alphabet (GOOGL) avaldas kahe otstarbega 8. põlvkonna TPU kiibid, mida arendas Broadcom“ ilmus esmakordselt Blockonomil.


