Notebookcheck Logo

Meta krossar kiselcykeln: Fyra nya AI-chip senast 2027

Meta säger att fyra nya MTIA-chipgenerationer är på väg när de utökar sin interna AI-infrastruktur.
ⓘ about.fb.com
Meta säger att fyra nya MTIA-chipgenerationer är på väg när de utökar sin interna AI-infrastruktur.
Meta avslöjar en aggressiv AI-kiselvägkarta och distribuerar fyra MTIA-generationer fram till 2027. Upptäck hur anpassade MTIA 500-chips kommer att driva GenAI i stor skala.

Meta har beskrivit en ambitiös ny färdplan för sina egna AI-chips och säger att de utvecklar och distribuerar fyra nya generationer av Meta Training och Inference Accelerator-hårdvara inom de närmaste två åren.

I ett inlägg sa företaget att den nya MTIA-sortimentet kommer att stödja rankning, rekommendationer och generativa AI-arbetsbelastningar, med anpassad kisel som nu sitter i centrum för sin bredare AI-infrastrukturstrategi.

MTIA 300 är redan i produktion

Den tydligaste detaljerna på kort sikt är att MTIA 300 redan är i produktion. Meta sa att detta chip kommer att användas för rankning och rekommendationsutbildning, vilket markerar en bredare roll för MTIA än enkel inferensacceleration.

Företaget tillade att MTIA 400, 450 och 500 kommer att kunna hantera alla arbetsbelastningar, även om Meta förväntar sig att använda de senare generationerna främst för generativ AI-inferens på kort sikt och till 2027.

Det ger Meta en mycket snabbare offentlig chipkadens än vad som är typiskt i AI-utrymmet. Företaget sa att fyra-chip-planen kommer att rulla ut under två år, vilket det beskrev som en snabbare takt än standardchipcykler.

Meta vill att sina egna chips ska spela en mycket större roll

Meta introducerade först MTIA 2023 som en familj av specialbyggda chips för AI-arbetsbelastningar, men företagets senaste uppdatering klargör att projektet inte längre är en sidoinsats. Meta sa att det redan distribuerar hundratusentals MTIA-chips för inferensarbetsbelastningar över organiskt innehåll och annonser i sina appar, och det hävdade att dessa chips är mer beräkningseffektiva och mer kostnadseffektiva än kisel för allmänt bruk för företagets avsedda användningsområden.

Det bredare meddelandet är enkelt: Meta vill ha mer kontroll över hårdvaran som kör sina AI-system. Istället för att bara förlita sig på externa leverantörer försöker företaget bygga mer av sin egen stack för de arbetsbelastningar som betyder mest för sina plattformar.

Oberoende från kiseljättarna

Medan Meta nyligen tecknade ett avtal på flera miljarder dollar för Nvidias senaste GPU: erär denna färdplan en tydlig signal om att Menlo Park är trött på att vänta på externa leveranskedjor. Genom att flytta sina massiva inferensarbetsbelastningar - som står för huvuddelen av sina AI-kostnader - till anpassad MTIA-hårdvara, utmanar Meta direkt marknadsdominansen hos tredjepartsleverantörer. Det är ett skifte från att vara en "köpare" till en "arkitekt", vilket gör att företaget för första gången kan diktera sina egna infrastrukturmarginaler.

Nästa chips fokuserar starkt på inferens

Meta sa att dess chipstrategi prioriterar snabb iteration, en inferens-första designmetod och enklare antagande genom industristandardprogramvara och hårdvaruekosystem. I praktiken betyder det att MTIA 450 och 500 optimeras först för generativ AI-inferens, med förmågan att stödja andra arbetsbelastningar efter behov, inklusive rankning och rekommendationsträning och inferens samt generativ AI-utbildning.

Det fokuset är meningsfullt för ett företag som driver tjänster i Metas skala. Inferens är där stora AI-produkter kan bli särskilt dyra, och Meta utformar tydligt dessa senare generationer för att bättre matcha den efterfrågan.

Snabbare utveckling är en del av planen

Meta sa också att den har byggt sin MTIA-vägkarta kring kortare utgivningscykler. Medan branschen ofta lanserar ett nytt AI-chip vartannat till vartannat år, sa Meta att man nu har kapacitet att släppa nya MTIA-generationer var sjätte månad eller mindre genom att återanvända modulära mönster. Företaget sa att detta skulle hjälpa det att anpassa sig snabbare till förändrade AI-tekniker och minska kostnaden för att bygga och distribuera ny hårdvara.

En annan praktisk fördel är kompatibilitet med befintlig infrastruktur. Meta sa att modulariteten i dess kisel gör att de nya chipen kan släppas in i den nuvarande infrastrukturen för racksystem, vilket skulle hjälpa till att påskynda distributionen.

AI-infrastruktur är nu slagfältet

AI-infrastruktur blir en av de viktigaste slagfälten inom teknik, och Metas tillkännagivande visar hur seriöst det behandlar chipdesign som en del av den kampen. Fyra nya MTIA-generationer på två år är en aggressiv färdplan på papper, men den större takeawayen är att Meta inte längre pratar om anpassad kisel som ett experiment. Det presenterar nu MTIA som en central del av hur Facebook, Instagram och dess andra plattformar kommer att hantera ranking, rekommendationer och generativa AI-arbetsbelastningar framöver.

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2026 03 > Meta krossar kiselcykeln: Fyra nya AI-chip senast 2027
Darryl Linington, 2026-03-13 (Update: 2026-03-13)