Notebookcheck Logo

DeepSeeks senaste AI-modeller med öppen källkod utmanar GPT-5 och Gemini 3.0 Pro

DeepSeek, logotypen på bilden, är tillbaka med två nya AI-modeller med öppen källkod. (Bild med tillstånd: DeepSeek)
DeepSeek, logotypen på bilden, är tillbaka med två nya AI-modeller med öppen källkod. (Bild med tillstånd: DeepSeek)
DeepSeek är tillbaka med nya AI-modeller med öppen källkod: DeepSeek V3.2 och V3.2-Speciale. Dessa sägs utmana både OpenAI och Googles skapelser. Här är vad som är känt om dem hittills.

Efter att ha tagit världen världen med storm och fick de amerikanska aktiemarknaderna att rasa i januari 2025, har DeepSeek nu tillkännagivit två nya AI-modeller med öppen källkod: DeepSeek V3.2 och DeepSeek V3.2-Speciale.

Lanseringen markerar en fortsättning på företagets distinkta strategi i AI-vapenkapplöpningen. Medan OpenAI och Google har hällt miljarder dollar i beräkningar för att träna sina gränsmodeller och prioriterat prestandavinster till varje pris, har DeepSeek tagit en annan väg. Dess tidigare R1-modell var anmärkningsvärd för att den lyckades uppnå prestanda i nivå med GPT 4o och Gemini 2.5 Pro genom smarta förstärkningstekniker, trots att den tränades på mindre avancerade chips.

Övergår GPT-5 samtidigt som den matchar Googles Gemini 3 Pro

Standard DeepSeek-V3.2 positioneras som en balanserad "daglig förare", som harmoniserar effektivitet med agentisk prestanda som företaget hävdar är jämförbar med GPT-5. Det är också den första DeepSeek-modellen som integrerar tänkande direkt i verktygsanvändningen, där det senare är tillåtet i både tänkande och icke-tänkande lägen.

Det är dock den högkomputerade varianten DeepSeek V3.2-Speciale som kommer att få rubrikerna. DeepSeek hävdar att Speciale-modellen överträffar GPT-5 och konkurrerar med Googles Gemini 3.0 Pro i ren resonemangsförmåga. Den uppnådde till och med guldmedalj i den internationella matematikolympiaden (IMO) 2025 och den internationella informatikolympiaden (IOI). Och för att bevisa att det inte bara är marknadsföringsfluff, säger DeepSeek att de har släppt sina slutliga bidrag till dessa tävlingar för verifiering av samhället.

DeepSeek tillskriver prestandavinsterna "DeepSeek Sparse Attention" (DSA), en mekanism som är utformad för att minska beräkningskomplexiteten i scenarier med långa kontexter, och ett skalbart ramverk för förstärkningsinlärning.

Det som kanske är mest intressant för utvecklare är fokus på agenter. DeepSeek har byggt en "Large-Scale Agentic Task Synthesis Pipeline" för att träna modellen på över 85.000 komplexa instruktioner. Resultatet är en modell som kan integrera "tänkande" processer direkt i scenarier för verktygsanvändning.

Tillgänglighet

DeepSeek V3.2 är nu tillgänglig på webben, i mobilappar och via API. Under tiden är V3.2 Speciale för närvarande endast API och levereras med en strikt tillfällig slutpunkt som löper ut den 15 december 2025. Speciale är dessutom en ren resonemangsmotor och stöder inte verktygsanrop. Om du är intresserad av att köra dessa modeller lokalt har företaget detaljerade instruktioner för det här.

DeepSeeks nya AI-modeller, i synnerhet V3.2 Speciale, överträffar GPT-5 i flera benchmarks. (Bilden är hämtad med tillstånd av DeepSeek)
DeepSeeks nya AI-modeller, i synnerhet V3.2 Speciale, överträffar GPT-5 i flera benchmarks. (Bilden är hämtad med tillstånd av DeepSeek)

Källa(n)

DeepSeek, HuggingFace (1), (2)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 12 > DeepSeeks senaste AI-modeller med öppen källkod utmanar GPT-5 och Gemini 3.0 Pro
Kishan Vyas, 2025-12- 3 (Update: 2025-12- 3)