Notebookcheck Logo

Forskare varnar för AI-svärmar som skapar falsk opinion

En dekorativ bild som visar ett chip med akronymen
ⓘ Igor Omilaev via Unsplash
En dekorativ bild som visar ett chip med akronymen "AI" skriven på det
Ett internationellt forskarteam har utfärdat en varning för farorna med AI-svärmar när det gäller att skapa falska offentliga samförstånd, och konstaterar att det kanske redan har hänt.

Föreställ dig en värld där en stor grupp människor kan prata om ett visst ämne och få det att bli en trend på nätet. Eller en värld där dessa människor kan tvinga offentliga personer till handling eller till och med sprida felaktig information. Föreställ dig nu en värld där "människorna" i själva verket är AI-drivna profiler som agerar unisont och härmar unika mänskliga röster.

Det är denna fara som forskare från en mängd institutioner runt om i världen nu varnar oss för i en ny publikation i tidskriften Science.

Ett internationellt forskarlag har beskrivit hur sammanslagningen av stora språkmodeller (LLM) med multi-agentsystem gör det möjligt att skapa skadliga AI-svärmar. Till skillnad från traditionella, lätt identifierbara copy-paste-botar består dessa avancerade svärmar av AI-kontrollerade personligheter som upprätthåller bestående identiteter, minne och samordnade mål. De kan dynamiskt anpassa sin ton och sitt innehåll baserat på mänskligt engagemang och verkar med minimal tillsyn på flera plattformar.

Det främsta hotet från dessa nätverk är skapandet av "syntetisk konsensus" Genom att översvämma digitala utrymmen med fabricerat men mycket övertygande prat skapar dessa svärmar en falsk illusion av att en specifik synvinkel är allmänt accepterad. Forskarna konstaterar att detta fenomen äventyrar grunden för den demokratiska diskursen, eftersom en enda illvillig aktör kan maskera sig som tusentals oberoende röster.

Detta ihållande inflytande går utöver att skifta tillfälliga åsikter; det kan i grunden förändra ett samhälles språk, symboler och kulturella identitet. Dessutom hotar denna samordnade produktion att förorena träningsdata för vanliga modeller för artificiell intelligens, vilket utvidgar manipulationen till etablerade AI-plattformar.

För att motverka detta hot menar experter att traditionell moderering av innehåll post för post inte längre är effektiv. Försvarsmekanismerna måste inriktas på att identifiera statistiskt osannolik samordning och spåra innehållets ursprung. Forskarna betonar också nödvändigheten av att tillämpa beteendevetenskap för att studera AI-agenters kollektiva handlingar när de interagerar i stora grupper. Lösningsförslagen inkluderar att använda integritetsskyddande verifieringsmetoder, dela bevis genom ett distribuerat AI Influence Observatory och begränsa de ekonomiska incitament som driver oäkta engagemang.

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2026 02 > Forskare varnar för AI-svärmar som skapar falsk opinion
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)