
Från data till vanföreställningar: Hur AI-hallucinationer faktiskt inträffar
Darryl Linington (översatt av Ninh Duy) Publicerad 🇺🇸 🇵🇱 ...
Vad är en hallucination? I AI-termer, i alla fall
Så här ligger det till. Du frågar din chatbot något. Den ger dig ett svar som låter smart, använder alla de rätta orden och till och med innehåller ett citat eller två. Sedan slår du upp det och det är fullständig fiktion.
Välkommen till den underbara världen av AI-hallucinationer.
Det här är inte en bugg. Det är inte ditt fel. Och nej, AI:n "försöker inte ljuga" Den gör bara... vad den är designad att göra: rada upp ord som statistiskt sett verkar höra ihop. Det är allt.
Det är inte att "tänka" Det är att leka Mad Libs.
De här språkmodellerna - ChatGPT, Claude, Gemini, allihop - förstår inte fakta. De vet ingenting. De har läst miljarder ord och nu spelar de det här oändliga autocomplete-spelet. Det är egentligen allt de gör.
Så vad händer när det finns en lucka i det som de har "sett" under utbildningen? De gissar. Ibland vilt. Men alltid med självförtroende.
Så här går det egentligen till under huven
Stora språkmodeller (LLM) tränas på svindlande mängder text - tänk böcker, webbplatser, Reddit-retorik, akademiska tidskrifter, allt mixat i en mixer. Modellen "minns" inte den här informationen på samma sätt som vi gör. Istället lär den sig mönster: vilka ord som tenderar att följa andra ord, vilka begrepp som ofta förekommer tillsammans, vilka meningsstrukturer som ser "korrekta" ut och så vidare.
När du skriver en uppmaning börjar modellen förutsäga, en token (del av ett ord) i taget. Den planerar inte ett stycke eller kontrollerar om det som sägs är korrekt. Den försöker sätta ihop ett statistiskt troligt svar... ingen medvetenhet, ingen kontroll, inget samvete.
Om träningsdatan inte täckte din fråga ordentligt - eller om den gjorde det, men modellen inte riktigt "minns" den - blir det knepigt. Den kan börja härleda svaret baserat på saker som låter likadant. Tänk på det som autokomplettering på steroider, som bara uppfinner anslutningar.
Ett exempel? Om du frågar om ett rättsfall som låter bekant kan modellen blanda detaljer från liknande fall som den såg under utbildningen. Plötsligt får du ett Frankenstein-avgörande från en domare som inte existerar om en lag som aldrig antogs.
Vad är problemet? Den vet inte att det är fel. Den byggdes inte för att veta. Det byggdes för att gissa.
Några vanliga sätt som detta går av rälsen:
- Det finns inte tillräckligt med data om ämnet → AI fyller i tomrummen med nonsens.
- Du ställer en vag eller komplicerad fråga → den hittar på ett svar som låter bra för att verka hjälpsam.
- Den vill låta smart → så den härmar hur smarta människor skriver, även om den hittar på allt.
- Den har sett en miljon citat → så den formaterar falska citat på ett vackert sätt.
Det här är inte hypotetiskt - folk har blivit brända
Du har förmodligen redan sett det här i aktion. Men om inte, så ser det ut så här:
- Falska akademiska studier: Ser äkta ut. Har författare, en titel, en tidskrift. Finns inte.
- Påhittade rättsfall: Riktiga advokater har lämnat in dessa i inlagor. Domarna var... inte glada.
- Påhittade medicinska råd: Boten kanske säger att grönkål interagerar med ibuprofen. Det gör det inte. (Förmodligen.)
Och ja, folk tror på det här. För att det låter rätt. Det är det som är fällan.
Det kan till och med gaslighta dig
Och här är den riktiga kickern: om du trycker tillbaka? Fråga den: "Är du säker?" AI:n kan komma att dubblera. Omformulera lögnen. Mjukar upp den. Citera en annan falsk källa. Den är inte illvillig, den vet bokstavligen bara inte bättre. Den tänker: "Vill du ha en mer välklingande version av den senaste hallucinationen? Säg inget mer."
Välkommen till gasljusparaden, nu med citat.
Vad görs åt det (förutom att handskas med det)
I rättvisans namn försöker utvecklare fixa det. Ingen vill att deras verktyg ska bli känt för att självsäkert sprida lögner. Här är vad som är i spel:
1. Human-in-the-loop training (RLHF)
I grund och botten: riktiga människor ger feedback på AI: s svar och poängsätter dem som dåliga Yelp-recensioner. Hjälper, på sätt och vis.
2. Attlåta AI:n "slå upp saker" (RAG)
I stället för att bara förlita sig på minnet hämtar vissa modeller nu data direkt från Wikipedia eller kunskapsbaser. Det är som att ge praktikanten tillgång till internet i stället för att låta dem gissa.
3. Tillägg för faktagranskning
Vissa plattformar lägger till faktagranskare eller vägrar att svara om AI:n inte är säker. Detta är nytt och fortfarande lite hit-or-miss.
4. Smartare frågor = mindre BS
Om du ställer en tydlig, specifik fråga är det mindre sannolikt att du får AI-improvisationsteater. Exempel: "Ge mig fem peer-reviewed källor om fördelarna med drakfrukt" är bättre än "Är drakfrukt hälsosamt?"
5. Förtroendefilter
Vissa AI:er kommer nu att säga "Jag är inte säker på det" istället för att hitta på något. Vilket ärligt talat är en lättnad.
Varför detta inte bara är en rolig egenhet
Det här är viktigt. En hallucination i en avslappnad konversation är vad som helst. Men i rätten? På en nyhetsredaktion? På ett sjukhus? Det är en enda röra.
Föreställ dig en student som flaggas för plagiering eftersom AI uppfann en källa. Eller att en patient får dåliga råd. Eller att ett affärsbeslut fattas baserat på statistik som roboten har tagit från tomma intet.
Dessa modeller håller på att byggas in i sökmotorer och affärsverktyg. Risken är redan här.
Slutord
AI är fantastiskt. Den kan hjälpa dig att brainstorma, sammanfatta, skriva om, översätta... ja, vad som helst. Men glöm aldrig att den inte vet vad den säger. Den vill bara låta övertygande.
Om du inte skulle lita på en vältalig främling i en bar som "läst något en gång", lita inte heller blint på din chatbot.
Använd den. Men faktakolla allt. Alltid.
För när den har fel kommer den inte att tveka. Den kommer bara att visa en skrattande Emoji och fortsätta prata.
Källa(n)
Egen forskning och erfarenhet
Bildkälla: Valeria Nikitina - Unsplash
Topp 10...
» Topp 10: Bästa bärbara allround/multimediadatorerna
» Topp 10: Bästa bärbara speldatorerna
» Topp 10: Bärbara budget/kontorsdatorer
» Topp 10: Bästa bärbara kontors/premiumdatorerna
» Topp 10: Bärbara arbetsstationer
» Topp 10: De bästa små/kompakta bärbara datorerna
» Topp 10: Bästa ultrabooks
» Topp 10: Bästa hybriddatorerna
» Topp 10: Bästa surfplattorna
» Topp 10: Marknadens bästa smartphones