Notebookcheck Logo

Samsung bryter 16 Gbps-barriären med HBM4E som presenteras på GTC 2026

Samsung använde Nvidia GTC 2026 för att visa upp kommersiellt HBM4 för Vera Rubin och förhandsgranska HBM4E som nästa steg för minnen med hög bandbredd.
ⓘ Global.news.samsung.com
Samsung använde Nvidia GTC 2026 för att visa upp kommersiellt HBM4 för Vera Rubin och förhandsgranska HBM4E som nästa steg för minnen med hög bandbredd.
Samsung har presenterat HBM4E på Nvidia GTC 2026 och visade samtidigt kommersiell HBM4 för Vera Rubin-plattformen, tillsammans med bredare planer för AI-minne, lagring och AI-fabriker.

Samsung använde Nvidia GTC 2026 för att förhandsvisa sin färdplan för nästa steg inom AI-minnen, där HBM4E gjorde sitt första framträdande på mässan tillsammans med företagets nyligen kommersialiserade HBM4. Företaget sa att HBM4 nu är i massproduktion för Nvidia Vera Rubin-plattformen, medan HBM4E visas som dess efterträdare med högre bandbredd för nästa generations datacenter-arbetsbelastningar.

Samsung sätter HBM4 och HBM4E i centrum för sitt GTC-meddelande

I centrum för Samsungs monter på GTC 2026 står HBM4, som enligt företaget nu är i massproduktion och utformad för Nvidias Vera Rubin-plattform. Samsung sa att minnet ger en standardbearbetningshastighet på 11,7 Gbps, över branschens baslinje på 8 Gbps som det citerade, och kan drivas till 13 Gbps.

Den nyare HBM4E är den större framåtblickande avslöjandet. Samsung säger att de visar upp delen för första gången på GTC 2026, med prestandamål på 16 Gbps per stift och 4,0 TB/s bandbredd. Företaget visar också hybridteknik för kopparbindning, som enligt företaget kommer att göra det möjligt för framtida HBM-stackar att nå 16 lager eller mer samtidigt som värmebeständigheten minskas med mer än 20% jämfört med termisk kompressionsbindning.

Tillkännagivandet breddar också Samsungs Nvidia infrastruktur pitch

Samsung använder minnestillkännagivandet för att positionera sig som en bredare leverantör för Nvidia-centrerad AI-infrastruktur snarare än bara en HBM-leverantör. I den separata Nvidia-fokuserade delen av sin monter sa Samsung att de också lyfter fram SOCAMM2-serverminne och PM1763 SSD-lagring utformad för Nvidia AI-system, medan PM1753 SSD visas som en del av Nvidias BlueField-4 STX-referensarkitektur för accelererad lagringsinfrastruktur på Vera Rubin.

Samsung sa att SOCAMM2 redan är i massproduktion och beskrev det som en DRAM-baserad serverminnesmodul med låg effekt som syftar till nästa generations AI-infrastruktur. För lagring sa företaget att PM1763 använder PCIe 6.0 för snabbare överföringar och högre kapacitet, medan PM1753 lanseras kring energieffektivitet och systemprestanda för inferensarbetsbelastningar.

Samsung kopplar lanseringen till AI-fabriken och lokala AI-ambitioner

Utöver datacenterminne använder Samsung också GTC 2026 för att lyfta fram hur dess halvledar- och tillverkningsverksamhet ansluter till Nvidias AI-mjukvarustack. Företaget sa att det planerar att använda Nvidia accelererad databehandling och Omniverse-bibliotek för att skala sina AI Factory-insatser och påskynda digital-tvillingbaserad tillverkning över sina minnes-, logik-, gjuteri- och avancerade förpackningsverksamheter.

Samsung använde också tillkännagivandet för att prata om lokal AI-hårdvara. På GTC sa företaget att det visar upp PM9E3 och PM9E1 NAND för Nvidia DGX Spark, tillsammans med LPDDR5X och LPDDR6-minne för premiummobila och edge-AI-enheter. Samsung säger att LPDDR5X kan nå upp till 25 Gbps per pin med upp till 15% lägre strömförbrukning, medan LPDDR6 är inriktat på 30 till 35 Gbps per pin med extra strömhanteringsfunktioner för framtida edge-AI-arbetsbelastningar.

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2026 03 > Samsung bryter 16 Gbps-barriären med HBM4E som presenteras på GTC 2026
Darryl Linington, 2026-03-18 (Update: 2026-03-18)