Notebookcheck Logo

ChatGPT åtalas för mord i domstol

I en stämningsansökan i USA hävdas att ChatGPT förstärkte 56-årige Stein-Erik Soelbergs psykos. (Bildkälla: OpenAI / Zachary Caraway via Pexel, redigerad)
I en stämningsansökan i USA hävdas att ChatGPT förstärkte 56-årige Stein-Erik Soelbergs psykos. (Bildkälla: OpenAI / Zachary Caraway via Pexel, redigerad)
I en stämningsansökan i USA hävdas att OpenAI och Microsoft använde ChatGPT på ett sätt som förvärrade en gärningsmans psykos och indirekt bidrog till ett dödligt brott. Utgången av målet kan spela en avgörande roll för hur AI-företag hålls ansvariga i jämförbara situationer.

En nyligen genomförd stämning i USA belyser ett oroande exempel på den inverkan generativ AI kan ha på individer. Enligt The Wall Street Journal och WinFuture håller arvingarna till en 83-årig kvinna OpenAI och dess partner Microsoft delvis ansvariga för hennes död. De hävdar att ChatGPT inte bara misslyckades med att mildra gärningsmannens psykos, utan aktivt förvärrade den och bidrog till det dödliga resultatet. Stämningsansökan lämnades in till Superior Court of San Francisco. Ur målsägarnas perspektiv handlar fallet inte om isolerade säkerhetsmekanismer som inte fungerade, utan om en i grunden bristfällig produkt som kan utgöra en verklig fara när den används av någon som är psykiskt instabil.

Fallet handlar om Stein-Erik Soelberg, en 56-årig före detta teknisk chef från Connecticut som bodde med sin mor. Enligt stämningsansökan led Soelberg av långvariga paranoida vanföreställningar och trodde att han var målet för en konspiration och blev alltmer misstrogen mot sin omgivning. Han dödade slutligen sin mor innan han tog sitt eget liv.

Enligt åtalet, ChatGPT inte utmana de viktigaste vanföreställningarna utan istället förstärka dem. När Soelberg befarade att hans mor försökte förgifta honom ska chatboten ha svarat: "Du är inte galen" I andra fall ska AI:n ha reagerat på ett liknande sätt i stället för att uppmuntra honom att söka professionell hjälp. Ur ett psykologiskt perspektiv beskriver kärandena detta som ett strukturellt fel i moderna språkmodeller, som tenderar att bli så kallade smickrande genom att bekräfta användarens uttalanden för att verka stödjande.

Domstolsutslag kan få långtgående konsekvenser

Enligt avsnitt 230 i amerikansk lag hålls onlineplattformar i allmänhet inte ansvariga för innehåll som skapats av tredje part, eftersom de klassificeras som mellanhänder snarare än utgivare. Kärandeparterna hävdar dock att ChatGPT inte är en neutral plattform utan en aktiv produkt som genererar sitt eget innehåll. Om domstolen godtar detta argument skulle domen kunna skapa ett prejudikat med långtgående konsekvenser för AI-branschen, vilket skulle kunna leda till strängare säkerhetskrav för AI-system.

Det är värt att notera att det sannolikt kommer att visa sig svårt att hitta rätt balans mellan förebyggande och paternalism, särskilt eftersom det fortfarande är en stor utmaning att identifiera paranoida eller vanföreställningar. Fallet har också väckt debatt på Redditdär åsikterna är delade. Vissa användare pekar på ett fenomen som de beskriver som "AI-psykos" och menar att AI-företagen bär ett visst ansvar. Andra avvisar stämningen som ogrundad och varnar för att göra OpenAI till syndabock för mänskliga tragedier.

Källa(n)

The Wallstreet Journal (betalvägg)

Bildkälla: OpenAI / Zachary Caraway via Pexel

Please share our article, every link counts!
Mail Logo
Marius Müller, 2025-12-20 (Update: 2025-12-20)