Notebookcheck Logo

Kina presenterar SpikingBrain 1.0, en hjärninspirerad LLM som körs på inhemska MetaX-chip

På bilden: 3D-rendering av byggnaden för China Academy of Sciences (Bildkälla: CAS)
På bilden: 3D-rendering av byggnaden för China Academy of Sciences (Bildkälla: CAS)
Chinese Academy of Sciences har introducerat SpikingBrain 1.0, den första "hjärnliknande" stora språkmodellen som är utformad för energieffektivitet. Den körs helt på kinesisktillverkade MetaX-chip och utlovar upp till 100 gånger snabbare prestanda än konventionella system.

Chinese Academy of Sciences' Institute of Automation i Peking har nyligen presenterat sin nyaste stora språkmodell SpikingBrain 1.0. Denna LLM påstås vara världens första "hjärnliknande" LLM, utformad för att använda betydligt mindre energi än konventionella AI-system, såsom ChatGPT. I stället för att förlita sig på Nvidia-hårdvara drivs det helt och hållet av kinesisktillverkade MetaX-chips, vilket innebär ett betydande framsteg inom neuromorfisk databehandling.

Systemet använder sig av "spiking computation"-teknik, som efterliknar den mänskliga hjärnans avfyrningsmönster. Denna teknik gör att endast de nödvändiga nervcellerna aktiveras, snarare än hela nätverket, som i traditionella modeller. Det händelsestyrda tillvägagångssättet gör också systemet energieffektivt, vilket minskar strömförbrukningen. Systemet kan också lära sig från endast två procent av den träningsdata som krävs jämfört med konventionella system. Två versioner har utvecklats: en med 7 miljarder och en annan med 76 miljarder parametrar.

Forskarna rapporterar upp till hela 100 gånger snabbare prestanda jämfört med traditionella modeller i vissa uppgifter, där den mindre modellen svarar på en fråga med 4 miljoner symboler minst 100 gånger snabbare än standardsystem. Dessutom är det en 26,5-faldig hastighetsförbättring jämfört med konventionella Transformer-arkitekturer för första token-generering. Den nya modellen tränades på cirka 150 miljarder tokens, vilket bara är en bråkdel av de typiska kraven för konventionella system. Trots denna reducerade träningsdata presterar systemet fortfarande jämförbart bra med andra populära alternativ med öppen källkod.

Det nya systemet har strategisk betydelse för Kina, med tanke på att LLM fungerar helt inom Kinas egenutvecklade AI-ekosystem och använder MetaX-chipplattformen. Detta blir särskilt viktigt när USA skärper exportkontrollen av avancerade AI-chip. Forskningen visar också att det är möjligt att träna en effektiv stor modell på plattformar som inte är från Nvidia. Den ledande forskaren Li Guoqi lyfter också fram optimering för kinesisk chiparkitektur. Potentiella tillämpningar för sådana system inkluderar juridiska dokument, medicinska journaler och till och med vetenskapliga simuleringar.

Teamet har gjort den mindre versionen av modellen tillgänglig för allmänheten, medan den större versionen endast är tillgänglig online för offentlig testning via en demosida. Forskningen publiceras också som ett icke peer-reviewed papper på arXiv-arkivet, så det är bäst att ta alla dessa påståenden med en saltkorn. Icke desto mindre kan detta genombrott bana väg för mer energieffektiva AI-system och främja hjärninspirerade databehandlingsmetoder.

Källa(n)

SCMP (på engelska)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 09 > Kina presenterar SpikingBrain 1.0, en hjärninspirerad LLM som körs på inhemska MetaX-chip
Nathan Ali, 2025-09-12 (Update: 2025-09-12)