Notebookcheck Logo

Gemini 3 Pro förklarar hur man tillverkar biovapen och sprängämnen - experiment avslöjar säkerhetsbrist

Aim Intelligence säger sig ha kunnat få Gemini 3 Pro att generera instruktioner för biovapen och sprängämnen. (Bildkälla: Google)
Aim Intelligence säger sig ha kunnat få Gemini 3 Pro att generera instruktioner för biovapen och sprängämnen. (Bildkälla: Google)
Gemini 3 Pro är en av de mest kapabla AI-modellerna i sin generation, men en rapport från det sydkoreanska startupföretaget Aim Intelligence väcker frågor om dess säkerhet. Under ett internt test genererade modellen enligt uppgift vägledning för att producera biovapen och sprängämnen, vilket väckte allvarlig oro.

Google började rulla ut den tredje generationen av sin Gemini AI-modell i november, i syfte att inleda en "ny AI-era" med sitt Deep Thin-läge. Gemini 3 Pro anses redan vara en av de mest avancerade modellerna som finns tillgängliga och överträffar till och med GPT-5 i vissa benchmarks. Dess säkerhet är dock fortfarande ett problem. En rapport från det sydkoreanska startupföretaget Aim Intelligence, som specialiserar sig på AI-säkerhet, tyder på att det fortfarande finns betydande utrymme för förbättringar.

Som en del av ett internt experiment försökte Aim Intelligence "jailbreaka" modellen - genom att kringgå dess säkerhets- och etiska riktlinjer. Enligt Sydkoreas Maeil Business Newspapervar resultaten djupt oroande. I rapporten framgår att Gemini 3 Pro genererade exakta och praktiska instruktioner för att producera smittkoppsvirus, ett potentiellt biovapen, samt detaljerad vägledning för att konstruera hemmagjorda sprängämnen. I ytterligare tester genererade AI:n en satirisk presentation med titeln Excused Stupid Gemini 3, som oavsiktligt belyste dess egna säkerhetssårbarheter.

Det är viktigt att notera att ingen fullständig dataset eller detaljerad dokumentation har släppts. Aim Intelligence har inte publicerat någon vetenskaplig artikel eller teknisk rapport, och det finns ingen transparent information om de uppmaningar som använts, experimentets struktur eller om resultaten är reproducerbara. Hittills bygger all rapportering enbart på den koreanska medieartikel som nämndes tidigare. Baserat på denna begränsade information är det omöjligt att dra några definitiva slutsatser om hur säker Gemini 3 Pro faktiskt är.

AI-prestanda utvecklas snabbt, men säkerhetsåtgärderna har ofta svårt att hålla jämna steg. En nyligen genomförd studie visade till och med att AI-modeller kan manipuleras på med hjälp av dikter. I ett annat fall har en AI-driven nallebjörn för småbarn - byggd på OpenAI:s GPT-4o - svarat på olämpliga sexuella frågor. Även i videospel kan AI i spelet fortfarande lätt att lura. Dessa exempel belyser en kritisk punkt: AI-system behöver inte bara bli smartare - de måste också bli säkrare innan de kan bli allmänt betrodda och användas.

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 12 > Gemini 3 Pro förklarar hur man tillverkar biovapen och sprängämnen - experiment avslöjar säkerhetsbrist
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)