Notebookcheck Logo

NVLink Fusion utökar beräkningsstrukturen med låg latens till processorer och acceleratorer från tredje part

Nvidia öppnar NVLink Fusion för ett bredare kiselekosystem. På bilden: Nvidias Endeavor-kontor (Bildkälla: Nvidia)
Nvidia öppnar NVLink Fusion för ett bredare kiselekosystem. På bilden: Nvidias Endeavor-kontor (Bildkälla: Nvidia)
Nvidias NVLink Fusion tar med sig NVLink-datafabriken med låg latens och hög bandbredd utanför chipet som en liten chiplet. Den ger upp till 14 gånger högre bandbredd än en PCIe-bana samtidigt som den bevarar minnessemantisk åtkomst mellan enheter.

Nvidia har introducerat NVLink Fusion, ett gränssnitt på chipnivå som utökar företagets egenutvecklade NVLink-struktur bortom processorerna. Det nya kislet, som presenterades på Computex 2025, gör det möjligt för tredjeparts-processorer och anpassade acceleratorer att dela samma väg med låg latens och hög bandbredd som redan länkar samman Nvidias GPU:er i "AI-fabriker" i rackskala

NVLink Fusion flyttar tekniken från en kort-till-kort-anslutning till en liten chiplet som designers kan placera bredvid sina egna beräkningsdies. Länken bygger fortfarande på den välkända PCIe-signaleringen, men ger upp till 14 gånger högre bandbredd än en standard PCIe-kanal samtidigt som den bevarar den semantiska minnesåtkomsten mellan enheterna. Denna uppskalningsbara fabric kompletterar Nvidias befintliga Spectrum-X Ethernet- och Quantum-X InfiniBand-produkter, som hanterar uppskalning av trafik över racks.

Flera partners har redan skrivit på. MediaTek, Marvell, Alchip, Astera Labs, Cadence och Synopsys kommer att leverera anpassade ASICs, IP-block eller designtjänster som använder det nya protokollet. På processorsidan planerar Fujitsu att koppla ihop sin kommande 2 nm, 144-kärniga Monaka-processor med NVLink Fusion, medan Qualcomm kommer att koppla gränssnittet till sin Arm-baserade serverprocessor. Båda leverantörerna siktar på att placera sina chip i Nvidias referenssystem i rackskala utan att ge upp direkt GPU-åtkomst.

Hyperscale-molnoperatörer kan blanda dessa NVLink Fusion-aktiverade delar med Nvidias egna Grace-processorer och GPU:er i Blackwell-klassoch sedan sammanfoga stora GPU-öar via 800 Gb/s-nätverk. Resultatet är en modulär väg till kluster som omfattar tusentals eller till och med miljontals acceleratorer utan de prestandaförluster som är typiska för konstruktioner med enbart PCIe.

Genom att licensiera en central del av sin stack positionerar Nvidia sig som bindväv för heterogen AI-hårdvara snarare än en leverantör av slutna lådor. Konkurrenter som kämpade för att matcha NVLinks bandbredd kan nu använda den istället, men de måste göra det inom Nvidias bredare mjukvaru- och nätverksramverk.

Källa(n)

Nvidia (på engelska)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 05 > NVLink Fusion utökar beräkningsstrukturen med låg latens till processorer och acceleratorer från tredje part
Nathan Ali, 2025-05-20 (Update: 2025-05-21)