Notebookcheck Logo

Dataskydd granskas: Studie utvärderar och rankar AI-modeller med avseende på användarnas integritet

Dataskydd sätts på prov: Vilka AI-modeller respekterar dina data mest? (Bildkälla: GPT-image-1)
Dataskydd sätts på prov: Vilka AI-modeller respekterar dina data mest? (Bildkälla: GPT-image-1)
I en nyligen genomförd studie av Incogni utvärderades nio ledande AI-plattformar med avseende på deras sekretesspraxis. Rankningen visar att Le Chat från Mistral AI, ChatGPT från OpenAI och Grok från xAI är de mest pålitliga, medan Meta AI, Gemini och Copilot från Microsoft är mindre pålitliga.

Användningen av artificiell intelligens (AI) i vardagen ökar, och därmed också vikten av dataskydd. Dataskyddsanalytiker på Incogni har nyligen utvärderat nio ledande Large Language Models (LLM) för att avgöra vilka plattformar som respekterar användarnas integritet mest. I studien utvärderas AI-modellerna utifrån elva kriterier som är indelade i tre huvudkategorier: datainsamling för utbildning, transparens samt användning och delning av data.

Topplaceringar

Le Chat från Mistral AI leder rankningen. Enligt Incogni samlar modellen in förhållandevis lite användardata och erbjuder en mycket dataeffektiv metod, både under träningsfasen och i skarp drift. Tätt efter kommer ChatGPT från OpenAI, som främst får poäng för sin transparens. Användare kan i sitt konto specifikt ange om deras chattar kan användas för att vidareutveckla modellen, och om historiken avaktiveras förhindras lagring. På tredje plats kommer Grok från xAI, som också imponerar med sin transparenta dataskyddspraxis.

Sist i rankingen

Längst ner i rankningen finns Meta AI, Googles Gemini och Microsofts Copilot. Enligt Incogni samlar dessa plattformar in omfattande data utan att erbjuda användarna tydliga opt-out-alternativ. DeepSeek, en kinesisk modell, presterar också dåligt. Dessa leverantörer erbjuder inte tydliga alternativ för att utesluta användardata från träning.

Metodik

Incognis analytiker utvärderade plattformarna baserat på elva kriterier indelade i tre kategorier: datainsamling för utbildning, transparens samt användning och delning av data. Kategorin "användning och delning av data" stod för 50% av det totala betyget, medan "transparens" stod för 30% och "utbildningsdata" för 20%. Endast fyra av de nio testade verktygen gör det möjligt för användarna att aktivt utesluta sina data från utbildning.

Slutsats

Undersökningen visar att dataskydd ännu inte är standard överallt i AI-världen. Användarna bör därför aktivt bekanta sig med leverantörernas integritetspolicy, särskilt när det gäller känsligt innehåll, konfidentiell kundinformation eller personuppgifter. De som värdesätter dataskydd kommer att hitta rimliga alternativ i Le Chat, ChatGPT eller Grok. Men verkligt dataeffektiva LLM-företag kommer fortfarande att vara undantag 2025

Dataskydd sätts på prov: Vilka AI-modeller respekterar dina data mest? (Bildkälla: GPT-image-1)
Dataskydd sätts på prov: Vilka AI-modeller respekterar dina data mest? (Bildkälla: GPT-image-1)

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 09 > Dataskydd granskas: Studie utvärderar och rankar AI-modeller med avseende på användarnas integritet
Ulrich Mathey, 2025-09-26 (Update: 2025-09-26)