Virgo Network logikai tréningklaszter
Hírek

Virgo Network logikai tréningklaszter

A Google új Virgo Network nevű adatközponti hálózata arra készült, hogy extrém méretű AI-rendszereket kössön össze.

Mark De Leon Szerző: Mark De Leon 2026. április 23. 00:00 1 perc olvasás

A Google új Virgo Network nevű adatközponti hálózata arra készült, hogy extrém méretű AI-rendszereket kössön össze, és a vállalat szerint akár 134 000 TPU-t egyetlen fabricben, illetve több mint 1 millió TPU-t egyetlen logikai tréningklaszterben is össze tud kapcsolni. A cél nem csak a nyers sávszélesség növelése, hanem a jobb skálázás, alacsonyabb késleltetés és magasabb „goodput”, vagyis a ténylegesen hasznos AI-munka arányának javítása.

Mit jelent ez

A Virgo Network lényegében a Google AI Hypercomputer új, skálázási rétege, amely az AI-gyorsítók közötti forgalmat kezeli, külön a tárolási és általános számítási forgalomtól. Ezzel a hálózat a nagy modellek tanításánál fontos kelet-nyugati adatmozgást optimalizálja, nem pedig a hagyományos adatközponti „minden mindennel” hálózatot próbálja általánosítani.

Fő műszaki számok

A Google szerint a rendszer egyetlen hálózatban 134 000 TPU 8t chipet tud összekötni, és akár 47 petabit/másodperc nem blokkoló bisection sávszélességet kínál. A cég azt is állítja, hogy ez a megoldás chipenként akár négyszeres sávszélességet és 40%-kal alacsonyabb üresjárati késleltetést ad az előző generációhoz képest.

Miért fontos

Ez a méret azért számít, mert a modern AI-modellek tanítása egyre inkább nem a chip teljesítményén, hanem a chip-ek közti kommunikáción akad el. A Virgo Network a hibák izolálására, a megakadások gyorsabb kezelésére és a széteső klaszterek helyett nagy, egyben működő tréningkörnyezetekre épít, ami különösen fontos több százezer vagy akár millió chip esetén.

Kapcsolódó TPU-váltás

A hálózat bejelentése egybeesik a Google nyolcadik generációs TPU-ival, köztük a 8t jelű, tréningre fókuszáló chippel. A Google szerint a Virgo, a JAX és a Pathways együtt lehetővé teszi, hogy több mint 1 millió TPU egyetlen logikai tréningklaszterként működjön.

Mi a lényeg egy mondatban

A Google ezzel azt jelzi, hogy az AI-infrastruktúra következő versenye már nem csak a chipekről szól, hanem arról, ki tudja a legtöbb chipet a leghatékonyabban egyetlen, jól skálázódó rendszerbe szervezni.

MEGOSZTÁS
HIRDETÉS

728 × 90

Hozzászólások

Még nincs hozzászólás. Legyél az első!