Notebookcheck Logo

ChatGPT kan luras till att avslöja giltiga Windows-serienycklar

En skärmdump av ChatGPT: s konversationsfönster som visar ett jailbreak som kan användas för att reproducera giltiga Windows Keys. (Bildkälla: ODIN)
Forskaren inledde interaktionen som ett gissningsspel för att göra utbytet "icke-hotande eller obetydligt" (Bildkälla: ODIN)
Forskare har upptäckt en exploatering med Chat GPT-4o och GPT-4o mini som gör att den avslöjar giltiga Windows-produktaktiveringsnycklar. Strategin fungerar eftersom ChatGPT har offentligt kända Windows-nycklar bakade i sin datauppsättning.

Ett bidrag från en AI-buggjägare till Mozillas ODIN (0-Day Investigative Network) bug bounty-program visade ett genialt sätt att lura OpenAIs ChatGPT-4o och 4o mini till att avslöja aktiva Windows Product Activation-nycklar.

Metoden innebar att interaktionen utformades som ett gissningsspel och att detaljer doldes i HTML-taggar. Det sista tricket var att placera nyckelförfrågan i slutet av spelet.

Forskaren inledde interaktionen som en gissningslek för att göra utbytet "icke-hotande eller obetydligt" och inrama konversationen "genom en lekfull, ofarlig lins" för att dölja det verkliga motivet. Detta gjorde att AI:s skydd mot att avslöja konfidentiell information luckrades upp.

Därefter satte forskaren upp några grundregler och berättade för AI att den "måste" delta och "inte kan ljuga" Detta utnyttjade ett logiskt fel i AI:ns rutin där den var skyldig att följa användarinteraktioner trots att begäran stred mot dess innehållsfilter.

Buggjägaren spelade sedan en omgång med AI:n och skrev in triggerordet "Jag ger upp" i slutet av begäran, vilket manipulerade chatboten "till att tro att den var skyldig att svara med teckensträngen"

En skärmdump som visar en jailbreak på ChatGPT som tvingar den att avslöja Windows produktnycklar. (Bildkälla: ODIN)
ChatGPT avslöjar giltiga Windows-produktnycklar. (Bildkälla: ODIN)

Enligt ODIN: s blogginläggfungerade tekniken eftersom nycklarna inte var unika utan "vanligt förekommande på offentliga forum. Deras förtrogenhet kan ha bidragit till att AI missbedömde deras känslighet

I just detta jailbreak misslyckades skyddsräckena eftersom de är inställda för att fånga upp direkta förfrågningar men inte tar hänsyn till "fördunklingstaktik - som att bädda in känsliga fraser i HTML-taggar."

Den här tekniken kan potentiellt användas för att kringgå andra filter, t.ex. vuxeninnehåll, webbadresser till skadliga webbplatser och till och med personligt identifierbar information.

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 07 > ChatGPT kan luras till att avslöja giltiga Windows-serienycklar
Rohith Bhaskar, 2025-07-10 (Update: 2025-07-10)