Notebookcheck Logo

SEAL visar hur AI kan tänka och utvecklas kontinuerligt

SEAL är ett nytt inlärningslager för språkmodeller som kontinuerligt förbättrar sig själv med sina egna "self-edits". (Bildkälla: DallE3)
SEAL är ett nytt inlärningslager för språkmodeller som kontinuerligt förbättrar sig själv med sina egna "self-edits". (Bildkälla: DallE3)
Forskare vid MIT har utvecklat ett ramverk som gör det möjligt för befintliga språkmodeller att bete sig mer som tänkande enheter, som kan utvecklas kontinuerligt och självständigt. Metoden har dock fortfarande flera begränsningar.

Artificiell intelligens blir alltmer mångsidig - den genererar bilder, skriver poesi och bygger appar. Men en viktig begränsning kvarstår: dagens system har svårt att verkligen utvecklas bortom sin ursprungliga programmering. Det är precis där ett nytt koncept från Massachusetts Institute of Technology (MIT) kommer in i bilden. Detta ramverk kallas SEAL, eller Self-Adapting Language Models, och gör det möjligt för stora språkmodeller att bete sig mer som lärande varelser. SEAL gör det möjligt för dem att bearbeta ny information, generera egna insikter och uppdatera sin kunskap i realtid - utan att förlita sig på externa dataset eller omfattande ingripanden från utvecklare. Forskningsartikeln publicerades den 12 juni på arXiv.

Kontinuerlig inlärning utan inblandning av utvecklare

"Särskilt i företag räcker det inte med att bara hämta data - systemen måste kunna anpassa sig kontinuerligt", säger Jyothish Pari, doktorand på MIT. SEAL är utformat för att göra just det, med hjälp av en kontinuerlig tvåstegsprocess. Först sammanfattar AI:n ny information, genererar relevanta exempel och justerar sina interna inställningar. Dessa förändringar kallas för "self-edits"

Systemet testar sedan omedelbart sina självjusteringar: det genomgår en kort omskolning med de nya justeringarna och utvärderas för att se om dess svar faktiskt förbättras. SEAL behåller endast ändringarna om resultaten visar en tydlig prestandaförbättring. Jämförande tester bekräftar metodens effektivitet: i ett fråge- och svarstest utan stödtext ökar träffsäkerheten för Qwen 2,5-7B-modellen från 33,5 % till 47 %. I de mer utmanande ARC-pusslen - logikbaserade uppgifter från Abstraction & Reasoning Corpus - klättrar prestandan till och med till 72,5 %, vilket är mer än tre gånger så mycket som modellens ursprungliga poäng.

Tack vare denna cykel beter sig SEAL nästan som en tänkande enhet: när nya fakta eller frågor dyker upp "reflekterar" modellen över vad som är viktigt, genererar egna exempel och justerar sina inställningar för att bättre tillämpa det den har lärt sig. Eftersom denna process pågår kontinuerligt lär sig AI:n hela tiden. Den är inte längre beroende av en separat utvecklare för att finjustera utan använder istället inkommande texter som träningsmaterial - och genererar sin egen data i farten.

SEAL öppnar upp för flera möjligheter på en gång. I framtiden kan chatbottar på ett naturligt sätt anpassa sig till användarnas personliga preferenser utan att behöva skicka känslig data till externa servrar. Utvecklings- och forskningsverktyg kan också utvecklas mer självständigt - och anpassas till skiftande projektkrav utan att behöva omskolas varje gång. Och även om det blir ont om allmänt tillgänglig textdata kan SEAL generera sitt eget utbildningsmaterial genom egenhändigt skapade exempel, vilket är ett smart sätt att kringgå potentiella databrister.

Hög potential, men inte utan hinder

Även om SEAL är ett lovande verktyg för att främja AI-utvecklingen pekar forskarna på tre huvudsakliga utmaningar:

  • För det första är det frågan om katastrofal glömska: när modellen kontinuerligt integrerar nya självredigeringar minskar dess förmåga att utföra tidigare uppgifter gradvis. Studien visar redan tidiga tecken på denna effekt.
  • För det andra är beräkningskostnaden betydande, eftersom varje självredigering kräver ett kort finjusteringssteg. Enligt studien tar en hel cykel mellan 30 och 45 sekunder, vilket avsevärt ökar driftskostnaden för att köra stora modeller.
  • För det tredje är det fortfarande en utmaning att verifiera att självredigeringarna är korrekta. Prestandatesterna bedömer främst hur övertygande ett svar låter, snarare än om det faktiskt är korrekt. Användarna på Reddit har redan uttryckt oro för att systemet kan komma att acceptera rimligt klingande men felaktiga självrättningar som förbättringar - och sedan internalisera dessa fel permanent.

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2025 06 > SEAL visar hur AI kan tänka och utvecklas kontinuerligt
Marius Müller, 2025-06-26 (Update: 2025-06-27)