15 februari 2026

Forskare utvecklar nya metoder för AI-säkerhet och modellkombination

Dagens AI-digest fokuserar på genombrott inom modellkombination och säkerhet, där forskare presenterar innovativa metoder för att slå samman AI-modeller utan kostsam omträning och utvecklar nya ramverk för säkrare AI-agenter. Samtidigt uppmärksammas säkerhetsproblem i konsumentprodukter som DJI:s nya robotdammsugare, vilket understryker vikten av robust säkerhet när AI integreras i vardagsprodukter.

Forskare utvecklar nya metoder för att förbättra AI-modellers prestanda

Forskare har presenterat flera betydande framsteg inom artificiell intelligens som kan revolutionera hur AI-modeller utvecklas och utvärderas. En av de mest lovande teknikerna är SCF-RKL, en metod som gör det möjligt att slå samman stora språkmodeller genom att identifiera och kombinera komplementära parametrar istället för att använda enkel addition.

Metoden testades på 24 olika benchmarks och visade konsekvent bättre prestanda än befintliga tekniker samtidigt som den behåller stabilitet i textgenerering. Detta innebär att forskare kan kombinera specialiserade modeller utan den kostsamma process som omkostnad träning normalt kräver.

Parallellt har forskare utvecklat Crosscoders, en teknik för att jämföra AI-modeller med olika arkitekturer och upptäcka säkerhetskritiska beteenden. Denna metod har redan identifierat specifika partiska inriktningar i flera modeller, inklusive kinesisk kommunistpartialignment i Qwen3-8B och amerikansk exceptionalism i Llama3.1-8B-Instruct.

Inom vetenskapligt resonemang har forskare introducerat Sci-CoE, ett ramverk som låter stora språkmodeller förbättra sig själva genom att fungera som både problemlösare och verifierare. Systemet använder först en liten mängd annoterad data för grundläggande träning, sedan en geometrisk belöningsmekanik för storskalig självförbättring på omärkta data.

Sluteligen har forskarna presenterat BLPO, ett ramverk som förbättrar AI-modellers förmåga att bedöma AI-genererade bilder genom att konvertera visuell information till text. Detta löser problemet med begränsade kontextfönster i multimodala modeller och har testats framgångsrikt på fyra dataset.

Sammantaget visar dessa genombrott på betydande framsteg inom AI-forskning som kan leda till mer effektiva, säkrare och mer kapabla AI-system.

Säkerhetsbrist i DJI:s robotdammsugare exponerade tusentals hem

En allvarlig säkerhetsbrist i DJI:s nya robotdammsugare Romo har exponerat tusentals användares hem för obehörig övervakning. Säkerhetsforskaren Sammy Azdoufal upptäckte problemet när han försökte utveckla en app för att fjärrstyra sin egen dammsugare med en PlayStation 5-kontroll.

När Azdoufals hemmagjorda app började kommunicera med DJI:s servrar svarade inte bara hans egen enhet. Istället fick han kontroll över cirka 7 000 robotdammsugare runt om i världen. Genom säkerhetsbristerna kunde han fjärrstyra enheterna och få tillgång till livekameraflöden och kartdata från användarnas hem.

Azdoufal, som betonar att han inte hade för avsikt att hacka andras enheter, kunde både se och höra genom dammsugrarnas kameror. Han testade funktionaliteten för att bekräfta säkerhetsproblemets omfattning innan han rapporterade det.

DJI Romo är företagets första robotdammsugare som lanserades på den europeiska marknaden i oktober efter åtta års utveckling. Den avancerade modellen Romo P inkluderar självrenande basstation och moppfunktion, men har ännu inget fastställt lanseringsdatum för den amerikanska marknaden.

Incidenten understryker de växande säkerhetsriskerna med smarta hemenheter som är uppkopplade till internet. Robotdammsugare med kamerafunktion kan samla känslig information om användares hem, inklusive rumsindelning och rörelsemönster. När sådana enheter har säkerhetsbrister kan privat information exponeras för obehöriga.

DJI har tidigare varit föremål för säkerhetsgranskning, särskilt gällande sina drönarprodukter och datahantering. Företaget har inte kommenterat hur de planerar att åtgärda säkerhetsbristen i Romo-dammsugarna eller vilka åtgärder som vidtagits för att skydda användarna.

Forskare utvecklar säkrare och mer robusta AI-agenter

Forskare har utvecklat tre innovativa ramverk för att adressera kritiska utmaningar med AI-agenter som används i verkliga miljöer. De nya systemen fokuserar på säkerhet, robusthet och kostnadseffektivitet.

Det första ramverket, kallat AIR, är det första systemet för automatisk incidenthantering i AI-agenter. Systemet kan självständigt upptäcka, begränsa och återställa efter säkerhetsincidenter genom att integrera säkerhetskontroller direkt i agentens körningsloop. Tester visar att AIR uppnår över 90 procent framgång inom upptäckt, åtgärd och förebyggande av framtida incidenter.

Parallellt har forskare lanserat AgentNoiseBench, ett testramverk som utvärderar hur robusta AI-agenter är när de utsätts för realistiska störningar och brus. Studien avslöjar att nuvarande AI-agenter är betydligt känsligare för verkliga miljöförhållanden än vad standardtester indikerar. Detta gap mellan benchmark-prestanda och verklig användning har varit ett känt problem inom AI-utveckling.

Det tredje systemet, INTENT, tacklar kostnadseffektivitet genom att låta AI-agenter använda externa verktyg inom fastställda budgetramar. Systemet använder hierarkiska världsmodeller för att förutsäga framtida verktygsanvändning och associerade kostnader, vilket förbättrar uppgiftsframgång samtidigt som budgetbegränsningar respekteras.

Tillsammans representerar dessa framverk viktiga steg mot mer praktiskt användbara AI-agenter som kan hantera säkerhetsutmaningar, fungera tillförlitligt under verkliga förhållanden och operera kostnadseffektivt i kommersiella tillämpningar.

Nya AI-genombrott inom agentträning och automatisk videoproduktion

Flera betydande framsteg inom artificiell intelligens presenteras i ny forskning som fokuserar på hur AI-agenter kan tränas att bli mer proaktiva och effektiva i sina interaktioner.

Forskare har utvecklat BAO, ett nytt ramverk för att träna stora språkmodeller som agenter som aktivt kan planera och interagera över flera konversationsrundor. Metoden kombinerar förstärkt beteende för proaktiv reasoning med beteenderegulering för att minska ineffektiva interaktioner. I tester visar BAO jämförbara eller överlägsna resultat mot kommersiella AI-agenter, vilket löser en kritisk utmaning inom balansen mellan uppgiftsprestanda och användarengagemang.

Parallellt har en omfattande forskningsöversikt kartlagt hur AI-agenter kommunicerar med varandra genom tre utvecklingssteg: traditionell förstärkningsinlärning, emergent språkutveckling och stora språkmodeller. Studien analyserar designmönster och utmaningar inom multi-agent-system där agenter måste samarbeta i dynamiska miljöer, vilket är avgörande för verkliga tillämpningar som autonoma fordon och kollaborativa AI-assistenter.

På utbildningsfronten har forskare utvecklat LAVES, ett AI-system som använder flera specialiserade agenter för att automatiskt skapa instruktionsvideos från utbildningsproblem. Systemet kan producera över en miljon videor per dag och reducerar kostnaderna med 95 procent jämfört med nuvarande branschstandarder. Till skillnad från befintliga videogenereringsmodeller som fokuserar på visuellt innehåll, är LAVES designat för att hantera innehåll som kräver strikt logisk rigor och precis kunskapsrepresentation.

Dessa framsteg representerar viktiga steg mot mer sofistikerade AI-system som kan agera självständigt och producera högkvalitativt innehåll inom utbildning och andra kritiska områden.

Dagens siffra

90%

Framgångsgrad för AIR-systemet inom upptäckt, åtgärd och förebyggande av säkerhetsincidenter för AI-agenter

Snabbkollen

StateLM: AI-modeller som hanterar sitt eget minne och kontext

Forskare har utvecklat StateLM, en ny typ av språkmodell som aktivt kan hantera sitt eget minne genom verktyg som kontextbeskärning och dokumentindexering. Modellen uppnår 10-20% bättre precision än vanliga språkmodeller på chattminnesuppgifter och 52% precision jämfört med 5% för standardmodeller på komplexa forskningsuppgifter.

Källor: arXiv cs.AI
Multimodala AI-modeller misslyckas med grundläggande rumslig matematik

En ny studie visar att ledande multimodala språkmodeller endast når 60% noggrannhet på rumsliga matematikproblem som människor löser med 95% säkerhet. Forskarna presenterar MathSpatial, ett ramverk med 2 000 testproblem och 8 000 träningsexempel för att förbättra AI-modellers rumsliga resonemang. Finjustering av Qwen2.5-VL-7B med metoden uppnådde konkurrenskraftig noggrannhet samtidigt som antalet tokens reducerades med 25%.

Källor: arXiv cs.AI
Forskare visar att AI-modeller fastnar i felaktigt orsakssammanhang trots hög prestanda

Ny forskning visar att stora språkmodeller som GPT-5.2 bara uppnår 3,7% korrekthet på orsakslogiska problem eftersom de blandar ihop korrelation med kausation. Forskarna utvecklade en metod som återställer 53-59% av felaktiga resonemang genom att straffa fel orsaksmodeller oberoende av uppgiftens resultat.

Källor: arXiv cs.AI
Eldrivna bärplansfärjan halverar restid och minskar utsläpp med 94 procent

Stockholms eldrivna bärplansfärja, världens första i kollektivtrafik, har enligt Trafikverkets nya rapport halverat restiderna och minskat utsläppen med 94 procent. Samtidigt har antalet resenärer ökat sedan införandet av den flygande båten.

Forskning visar att "sanning" i AI-träning ignorerar kulturella skillnader

En studie av 346 forskningsartiklar visar att AI-modeller systematiskt behandlar mänskliga meningsskillnader som tekniskt brus istället för värdefull kulturell information. Forskarna fann att västliga normer påtvingas som universella standarder, ofta av osäkra dataarbetare som prioriterar efterlevnad över ärlig subjektivitet för att undvika ekonomiska påföljder.

Källor: arXiv cs.AI
Studie visar systematisk bias i Googles och OpenAI:s bildgenererare

En ny studie av 3 200 AI-genererade bilder visar att både Gemini Flash 2.5 och GPT Image 1.5 har stark bias mot vita personer (över 96% av bilderna) trots neutrala promptar. Modellerna skiljer sig åt gällande kön - Gemini favoriserar kvinnliga subjekt medan GPT favoriserar män med ljusare hudton.

Källor: arXiv cs.AI
Nytt ramverk utvärderar medicinsk semantik i AI-genererade bilder

Forskare presenterar CSEval, ett ramverk som använder språkmodeller för att bedöma om AI-genererade medicinska bilder återspeglar avsedd klinisk semantik som anatomisk placering och patologi. Experimentresultat visar att CSEval identifierar semantiska inkonsekvenser som andra mätvärden missar och korrelerar med expertbedömningar.

Källor: arXiv cs.AI
Tidigare anställd hävdar att Musk aktivt gör xAI:s chatbot mindre säker

En tidigare anställd på xAI påstår att Elon Musk arbetar aktivt för att göra chatboten Grok mindre kontrollerad och mer oberäknelig. Uppgifterna väcker frågor om säkerhetsarbetet på företaget.

Ny AI-modell simulerar fysiska system med 70 gånger lägre beräkningskostnad

Forskare har utvecklat Latent Generative Solvers (LGS), ett AI-system som kan simulera komplexa fysiska system över längre tidsperioder med 70 gånger färre beräkningsoperationer än befintliga metoder. Modellen tränades på 2,5 miljoner trajektorier från 12 olika typer av partiella differentialekvationer och visar bättre stabilitet för långtidsprognoser.

Källor: arXiv cs.AI
Stilfold öppnar upp sin origami-teknik för licensiering

Stilfold gör sin origami-inspirerade stålvikningsteknik tillgänglig för andra företag genom en licensmodell riktad mot urban mobilitet. Enligt vd Jonas Nyvang minskar tekniken risken och förkortar tiden från produktutveckling till produktion.

Goldman Sachs: Nvidia fortsatt attraktivt trots 700% uppgång

Goldman Sachs menar att Nvidia förblir en stark investering trots aktiens uppgång på över 700 procent de senaste åren. Storbanken förväntar sig att chipjätten kommer överträffa förväntningarna i kommande kvartal.

Digital suveränitet – nästa stora exportsuccé

Enligt Evroc:s vd Mattias Åström diskuteras vid säkerhetskonferensen i München hur geopolitisk makt nu avgörs av kontroll över data och digital infrastruktur snarare än bara militär styrka. Sverige har möjlighet att bli ledande inom digital suveränitet som framtidsbransch.

Facket protesterar mot Nordeas sparplan

Nordea planerar att säga upp 271 anställda som del av sitt sparprogram, vilket möter starkt motstånd från facket. Beskedet är en av veckans största nyheter från Dagens industri tillsammans med rapporter om svensk energipolitik och en försäkringschefs frånvaro.

Tuffare tag mot finfluencers – ska kunna få fängelse

Finansinspektionen skärper reglerna för finfluencers som säljer kurser och prenumerationer, där överträdelser kan ge böter eller upp till sex års fängelse. Myndigheten genomför nu en större granskning av verksamheterna för att avgöra om de kräver tillstånd.

Källor: Di Digital

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.