A Google új Virgo Network nevű adatközponti hálózata arra készült, hogy extrém méretű AI-rendszereket kössön össze, és a vállalat szerint akár 134 000 TPU-t egyetlen fabricben, illetve több mint 1 millió TPU-t egyetlen logikai tréningklaszterben is össze tud kapcsolni. A cél nem csak a nyers sávszélesség növelése, hanem a jobb skálázás, alacsonyabb késleltetés és magasabb „goodput”, vagyis a ténylegesen hasznos AI-munka arányának javítása.
Mit jelent ez
A Virgo Network lényegében a Google AI Hypercomputer új, skálázási rétege, amely az AI-gyorsítók közötti forgalmat kezeli, külön a tárolási és általános számítási forgalomtól. Ezzel a hálózat a nagy modellek tanításánál fontos kelet-nyugati adatmozgást optimalizálja, nem pedig a hagyományos adatközponti „minden mindennel” hálózatot próbálja általánosítani.
Fő műszaki számok
A Google szerint a rendszer egyetlen hálózatban 134 000 TPU 8t chipet tud összekötni, és akár 47 petabit/másodperc nem blokkoló bisection sávszélességet kínál. A cég azt is állítja, hogy ez a megoldás chipenként akár négyszeres sávszélességet és 40%-kal alacsonyabb üresjárati késleltetést ad az előző generációhoz képest.
Miért fontos
Ez a méret azért számít, mert a modern AI-modellek tanítása egyre inkább nem a chip teljesítményén, hanem a chip-ek közti kommunikáción akad el. A Virgo Network a hibák izolálására, a megakadások gyorsabb kezelésére és a széteső klaszterek helyett nagy, egyben működő tréningkörnyezetekre épít, ami különösen fontos több százezer vagy akár millió chip esetén.
Kapcsolódó TPU-váltás
A hálózat bejelentése egybeesik a Google nyolcadik generációs TPU-ival, köztük a 8t jelű, tréningre fókuszáló chippel. A Google szerint a Virgo, a JAX és a Pathways együtt lehetővé teszi, hogy több mint 1 millió TPU egyetlen logikai tréningklaszterként működjön.
Mi a lényeg egy mondatban
A Google ezzel azt jelzi, hogy az AI-infrastruktúra következő versenye már nem csak a chipekről szól, hanem arról, ki tudja a legtöbb chipet a leghatékonyabban egyetlen, jól skálázódó rendszerbe szervezni.
Hozzászólások
Jelentkezz be a hozzászóláshoz.
Még nincs hozzászólás. Legyél az első!