Google identifierar det första AI-utvecklade nolldagarsbrottet

Google har bekräftat det första kända fallet av ett zero-day exploit som utvecklats med hjälp av artificiell intelligens. Företagets Threat Intelligence Group, GTIG, publicerade sin AI Threat Tracker-rapport den 11 maj 2026, som beskriver hur en framstående cyberbrottsgrupp använde en AI-modell för att identifiera och beväpna en säkerhetsbrist i ett populärt webbadministrationsverktyg med öppen källkod. Sårbarheten kringgick tvåfaktorsautentisering. Google samarbetade med den berörda leverantören för att åtgärda sårbarheten och tror att dess ingripande kan ha stört gruppens planerade kampanj för massexploatering innan den lanserades.
GTIG uppgav det har stort förtroende för att en AI-modell, inte en mänsklig forskare, skrev Python-exploateringsskriptet. Koden gav bort den. Den innehöll ett överflöd av pedagogiska dokumentsträngar, en hallucinerad CVSS-svårighetsgrad, detaljerade hjälpmenyer och en ren, strukturerad formateringsstil som är karakteristisk för stora språkmodellutbildningsdata. Det här är inte saker som en människa som skriver ett attackverktyg skulle inkludera. Målfelet i sig var ett semantiskt logikfel - en utvecklare hade hårdkodat ett förtroendeantagande i autentiseringsflödet, vilket skapade en motsägelse med 2FA-verkställighetslogiken som traditionella säkerhetsskannrar missade, men som AI uppenbarligen upptäckte genom att läsa utvecklarens avsikt snarare än att bara analysera koden mekaniskt. Varken Googles egna Gemini-modeller eller Anthropics Mythos användes av angriparna, enligt rapporten.
Varför det nästan fungerade, och varför det inte gjorde det
Angriparna planerade en massutnyttjandekampanj och riktade in sig på open source-verktyget i stor skala med den AI-genererade exploateringen. GTIG: s proaktiva motupptäckt verkar ha skurit över den planen innan den fick dragkraft. Fel i exploateringens implementering störde också sannolikt. "Den besvärliga biten för alla andra är att detta fortfarande verkar vara den klumpiga tidiga fasen", noterade The Register i sin täckning. Misstag i utförandet räddade många potentiella offer den här gången. Det kanske inte håller. GTIG chefsanalytiker John Hultquist uttryckte det tydligt: "Det finns en missuppfattning att AI-sårbarhetsloppet är överhängande. Verkligheten är att det redan har börjat. För varje nolldag som vi kan spåra tillbaka till AI finns det förmodligen många fler där ute."
Det semantiska logikfelet i hjärtat av exploateringen pekar på något mer oroande än en engångshändelse. Traditionella skannrar är byggda för att upptäcka sänkor, krascher och minneskorruption. De läser inte kod på samma sätt som en utvecklare skriver den. Det gör LLM:er. De kan korrelera avsikten med implementeringen, upptäcka motsägelser mellan design och utförande och upptäcka vilande logikfel som ser funktionellt korrekta ut för alla automatiserade verktyg som används för närvarande. GTIG beskrev detta som en ökande förmåga som traditionella säkerhetsverktyg är strukturellt dåligt utrustade för att motverka.
Den bredare bilden från GTIG-rapporten
Nolldagsfallet är en del av ett större mönster som rapporten dokumenterar. Den nordkoreanska gruppen APT45 har skickat tusentals repetitiva uppmaningar till AI-modeller för att rekursivt analysera sårbarheter och bygga en exploateringsarsenal i en skala som skulle vara opraktisk att manuellt. En Kina-länkad aktör som identifierades som UNC2814 använde jailbreak-meddelanden från expert-persona för att driva Gemini till att undersöka brister i fjärrkodsexekvering före autentisering i TP-Link-routerns firmware. Ryska grupper har använt AI-genererat ljud som skarvats in i legitima nyhetsbilder för påverkansoperationer. Separat från dessa, GTIG dokumenterade Android bakdörrar som använder Gemini API-anrop för att autonomt navigera infekterade enheter, och malware-familjer som är fyllda med AI-genererad kod specifikt för att förvirra analysen.
I mars 2026 komprometterade den kriminella gruppen TeamPCP LiteLLM, ett allmänt använt AI-gatewaybibliotek, genom att bädda in en credential stealer genom förgiftade PyPI-paket och skadliga pull-förfrågningar. De stulna AWS-nycklarna och GitHub-tokens tjänades in genom ransomware-partnerskap. Attacken riktade sig mot integrationslagret runt AI-system snarare än själva modellerna, ett mönster som GTIG säger blir standard. Frontier-modeller är svåra att kompromissa med direkt. Anslutningarna, förpackningarna och API-lagren runt dem är det inte.
AI används inte bara som vapen av angripare. Det används också som ett lockbete. Notebookcheck täckte hur en falsk Claude AI-webbplats pressade Beagle Windows-bakdörren genom Googles sponsrade sökresultat förra veckan, med hjälp av ett trojaniserat installationsprogram för att distribuera ett fjärråtkomstverktyg riktat mot utvecklare som söker efter Claude Code-verktyg
Topp 10...
» Topp 10: Bästa bärbara allround/multimediadatorerna
» Topp 10: Bästa bärbara speldatorerna
» Topp 10: Bärbara budget/kontorsdatorer
» Topp 10: Bästa bärbara kontors/premiumdatorerna
» Topp 10: Bärbara arbetsstationer
» Topp 10: De bästa små/kompakta bärbara datorerna
» Topp 10: Bästa ultrabooks
» Topp 10: Bästa hybriddatorerna
» Topp 10: Bästa surfplattorna
» Topp 10: Marknadens bästa smartphones





