Notebookcheck Logo

Studie finner: Användare är den verkliga orsaken till AI-hallucinationer

Enligt en ny studie påverkas AI-hallucinationer av hur användarna kommunicerar. (Bildkälla: Pexels/Ketut Subiyanto)
Enligt en ny studie påverkas AI-hallucinationer av hur användarna kommunicerar. (Bildkälla: Pexels/Ketut Subiyanto)
En nyligen publicerad studie visar att de uppmaningar som ges till AI-assistenter spelar en viktig roll för förekomsten av så kallade AI-hallucinationer. Detta är goda nyheter för användarna, eftersom det tyder på att de aktivt kan minska antalet falska eller fabricerade svar genom en mer effektiv utformning av uppmaningarna.

Fiktiva fakta, påhittade citat eller källor som verkar helt fabricerade - AI kan vara otroligt användbart, men det finns fortfarande en risk för hallucinationer. Enligt OpenAI:s forskare är en viktig faktor en enkel belöningsmekanism som uppmuntrar AI:n att göra gissningar. En studie från https://www.arxiv.org/pdf/2510.02645 som publicerades den 3 oktober på arXiv.org antyder också att användarna själva kan spela en roll i att utlösa dessa hallucinerade svar.

Studien med titeln "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" tyder på att många så kallade AI-hallucinationer kan ha sitt ursprung i hur användarna kommunicerar. Forskarna analyserade över 13.000 konversationer mellan människor och 1.357 verkliga interaktioner mellan människor och AI-chattbottar. Resultaten visar att användare tenderar att skriva mycket annorlunda när de pratar med AI - meddelandena är kortare, mindre grammatiska, mindre artiga och använder ett mer begränsat ordförråd. Dessa skillnader kan påverka hur tydligt och självsäkert språkmodellerna svarar.

Analysen fokuserade på sex språkliga dimensioner, bland annat grammatik, artighet, ordförråd och informationsinnehåll. Medan grammatik och artighet var mer än 5% respektive 14% högre i konversationer mellan människor, var den faktiska informationen som förmedlades nästan identisk. Med andra ord delar användare samma innehåll med AI - men i en märkbart hårdare ton.

Forskarna kallar detta för ett "stilskifte" Eftersom stora språkmodeller som ChatGPT eller Claude är tränade på välstrukturerat och artigt språk kan en plötslig förändring i ton eller stil orsaka feltolkningar eller fabricerade detaljer. Med andra ord är det mer sannolikt att AI:er hallucinerar när de får otydlig, ohövlig eller dåligt skriven input.

Möjliga lösningar på både AI- och användarsidan

Om AI-modellerna tränas i att hantera ett bredare spektrum av språkstilar förbättras deras förmåga att förstå användarnas avsikter - med minst 3%, enligt studien. Forskarna testade också ett annat tillvägagångssätt: att automatiskt omformulera användarens inmatning i realtid. Detta försämrade dock prestandan något, eftersom känslomässiga och kontextuella nyanser ofta gick förlorade. Författarna rekommenderar därför att stilmedveten träning görs till en ny standard för finjustering av AI.

Om du vill att din AI-assistent ska producera färre påhittade svar föreslår studien att du behandlar den mer som en människa - genom att skriva i fullständiga meningar, använda korrekt grammatik, hålla en tydlig stil och anta en artig ton.

Källa(n)

Arxiv.org (Studie / PDF)

Bildkälla: Pexels / Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 10 > Studie finner: Användare är den verkliga orsaken till AI-hallucinationer
Marius Müller, 2025-10-18 (Update: 2025-10-18)