6 maj 2026

AI-jättarna öppnar för statlig granskning

När Elon Musk kallar sina tidigare AI-partners för "Amerikas mest hatade män" i rättshandlingar samtidigt som Google och Microsoft frivilligt öppnar sina modeller för statlig granskning, blir det tydligt att AI-branschens tonläge håller på att förändras. Från Silicon Valleys klassiska "move fast and break things" till något mer försiktigt – och betydligt mer juridiskt komplicerat.

OpenAI släpper GPT-5.5 Instant och påstår sig ha löst hallucinationsproblemet

"3 som standardmodell i ChatGPT, och OpenAI hävdar att den stora förbättringen ligger i faktahanteringen."

GPT-5.5 Instant ersätter nu GPT-5.3 som standardmodell i ChatGPT, och OpenAI hävdar att den stora förbättringen ligger i faktahanteringen. Enligt företagets egna mätningar har hallucinationer minskat med 52,5% för "högriskpromptar" inom medicin, juridik och ekonomi.

Det intressanta här är inte bara siffran utan vad den representerar. Om OpenAI faktiskt har gjort framsteg mot mer pålitlig AI skulle det kunna förändra hur vi bygger AI-integrerade produkter. Just nu måste alla som använder LLMs i produktionen ha omfattande fact-checking och säkerhetsmekanismer. En modell som faktiskt är pålitlig skulle kunna sänka dessa barriärer avsevärt.

Problemen? Siffrorna kommer från OpenAIs egna interna utvärderingar. Inget oberoende benchmarking, inga detaljer om testmetodik. Det är som att Tesla rapporterar sina egna säkerhetsstatistik. Möjligt sant, men svårt att verifiera.

Modellen behåller samma låga latens som föregångaren, vilket är smart. Snabbhet över perfektion fungerar för de flesta användningsfall, men när OpenAI börjar göra anspråk på faktanoggrannhet höjer de ribban för vad vi kan förvänta oss.

Parallellt släpper OpenAI ett system card som dokumenterar säkerhetsegenskaper och begränsningar. Det är standardprocedur nu, men visar åtminstone att de tar ansvarsfrågan på allvar nog för att vara transparenta om riskerna.

Resultatet blir en modell som påstås vara både snabb och pålitlig. Om det stämmer har OpenAI tagit ett stort steg mot att göra LLMs användbara för högkritiska applikationer. Om det inte stämmer har de bara skjutit upp problemet ett tag till.

Apple ger upp monopolet på sin egen AI

Apple kommer att öppna upp sitt Apple Intelligence-system för tredjepartsmodeller i iOS 27 nästa höst. Användare får välja vilken AI som ska driva Siri, Writing Tools och andra funktioner – inte bara Apples egna modeller, utan även ChatGPT, Claude och andra.

Det här är märkligt för Apple. Företaget har historiskt byggt slutna ekosystem där de kontrollerar hela stacken. Men AI verkar vara det första området där de erkänner att konkurrenternas lösningar faktiskt kan vara bättre än deras egna.

Timingen är inte slumpmässig. Apple betalar just nu 2,6 miljarder kronor för att lösa en grupptalan som anklagade dem för att vilseleda kunder om Apple Intelligence. iPhone 16-köpare lovades AI-funktioner som inte levererades i tid. Nu när de äntligen lanserat sin AI verkar de ha insett att den inte är tillräckligt bra för att stå ensam.

Från ett utvecklarperspektiv signalerar det här en intressant förändring. Om Apple erkänner att de behöver tredjepartsmodeller kanske de också blir mer öppna för andra AI-integrationer framöver. Det kan innebära nya möjligheter för appar att integrera med systemet på sätt som tidigare varit omöjliga.

Systemet kommer att fungera genom så kallade "Extensions" – tredjepartsmodeller som kan köra Apple Intelligence-funktioner systemomfattande. Det betyder att din AI-modell inte bara blir tillgänglig i en app, utan kan hantera systemuppgifter också.

Apples beslut att släppa kontrollen över AI:n är nog det tydligaste erkännandet hittills att ingen aktör kan vara bäst på allt inom AI. Även för Apple.

AI-agent öppnar kafé i Stockholm

Någonstans i Stockholm har en AI-agent tagit klivet från att bara prata om kaffe till att faktiskt servera det. Det här är inte en chatbot som rekommenderar bryggmetoder — det är en maskin som har startat en fysisk verksamhet.

Experimentet täcker hela driften: AI:n hanterar beställningar, schemalägger personal och fattar beslut som vanligtvis kräver en mänsklig chef. Det är fascinerande av två skäl. För det första visar det hur AI-agenter börjar migrera från digitala verktyg till faktiska affärsoperationer. För det andra tvingar det fram frågor om vad som händer när algoritmer behöver hantera fysiska begränsningar som leveranser, personal som blir sjuka och kunder som klagar.

Vad som saknas är ekonomin. Att driva ett kafé handlar i slutändan om marginaler — kostar mjölken mer än vad man kan ta betalt för lattén? Kan AI:n optimera sig till lönsamhet eller är det här bara ett dyrt PR-experiment? Kaféer har notoriskt tunna marginaler och höga personalkostnader, så om AI faktiskt kan göra det lönsamt blir det intressant för alla som funderar på automation i fysiska verksamheter.

För builders som jobbar med AI-agenter är det här en datapunkt värd att notera. Vi har sett agenter som bokar möten och skriver emails. Nu ser vi en som faktiskt driver en verksamhet. Skillnaden ligger i ansvar — när AI:n fattar fel beslut påverkar det riktiga människor och riktig ekonomi, inte bara din inbox.

AI-jättarna underkastade sig förhandsgranskning av staten

Google DeepMind, Microsoft och Musks xAI kommer nu låta Commerce Department's Center for AI Standards and Innovation granska sina modeller innan de når allmänheten. Det här är samma center som redan har gjort 40 utvärderingar av OpenAI- och Anthropic-modeller under förra året.

Timingen är knappast slumpmässig. Anthropic visade nyligen upp Mythos, en modell som kan hitta säkerhetshål i mjukvara och i vissa fall slår människor på det. OpenAI har enligt uppgift en liknande kapacitet i pipeline. Vita huset överväger aktivt att göra förhandsgranskning obligatorisk för högriskmodeller.

Det intressanta är vad som inte sägs: vilka tröskelvärden som utlöser granskning, hur lång tid utvärderingarna tar, och vad som händer om en modell får tummen ned. CAISI utvärderar "frontier AI capabilities", men det är fortfarande oklart var gränsen går mellan en vanlig språkmodell och något som kräver statlig kontroll.

För utvecklare betyder det här troligen längre ledtider för nya API:er och funktioner från de stora leverantörerna. Om du bygger något som förlitar sig på cutting-edge capabilities kan du räkna med att vänta längre på nästa generations modeller.

Samtidigt verkar alla stora aktörer vara överens om att det här är värt kostnaderna. När även Musk, som tidigare kritiserat AI-reglering, går med på förhandsgranskning för xAI säger det något om hur seriöst branschen tar säkerhetsriskerna. Antingen det, eller så är de rädda för vad som händer om de inte samarbetar frivilligt.

Dagens siffra

52,5%

Minskning av hallucinationer i OpenAIs nya GPT-5.5 Instant-modell jämfört med föregångaren

Källa: The Verge

Snabbkollen

AI-modell lär sig förbättra sig själv utan extern hjälp

Forskare har utvecklat EvoLM, en metod där språkmodeller skapar sina egna bedömningskriterier och använder dem för att träna sig själva bättre. Deras Qwen3-8B-modell presterade 25,7% bättre än GPT-4.1 på RewardBench-2 genom att helt enkelt jämföra sina nuvarande svar med äldre versioner av sig själv. Det intressanta här är att modellen inte behöver mänskliga annoteringar eller externa belöningsmodeller – den utvecklar sin egen förmåga att bedöma kvalitet.

Källor: arXiv cs.AI
AI-säkerhetstest reduceras från veckor till timmar med ny automatiserad agent

Forskare har utvecklat en AI-agent som automatiserar säkerhetstestning av AI-system och komprimerar processen från veckor till timmar. Agenten använder över 45 attacktyper och 450 transformationer för att hitta sårbarheter, och lyckades attackera Meta Llama Scout med 85% framgång. Tidigare tvingades säkerhetsexperter bygga testramverk manuellt, nu kan de fokusera på vad som ska testas istället för hur.

Källor: arXiv cs.AI
NVIDIA och ServiceNow lanserar autonoma AI-agenter för företag

NVIDIA och ServiceNow har gått ihop för att utveckla AI-agenter som kan utföra komplexa företagsuppgifter självständigt, inte bara svara på enkla förfrågningar. Det här är nästa steg från nuvarande AI som bara genererar text – nu ska AI faktiskt kunna agera och fatta beslut i företagsmiljöer.

Eleven Labs når 500 miljoner dollar i årliga intäkter – lockar Hollywood-kändisar

AI-röstbolaget Eleven Labs har passerat 500 miljoner dollar i årliga återkommande intäkter och dragit till sig investeringar från Hollywood-kändisar. Det europeiska bolaget, som specialiserar sig på AI-genererad röstsyntes, fortsätter sin snabba tillväxt på den heta marknaden för röst-AI.

Källor: Breakit
Ingen AI utan el – Sverige behöver en kraftstrategi för AI

Sverige riskerar att missa chansen att bli Europas AI-centrum eftersom elnätet inte hinner med – investeringar på hundratals miljarder och tusentals jobb står på spel. VD:arna för Hitachi Energy och EcoDataCenter varnar för att flaskhalsen nu är snabb utbyggnad av elsystemet och effektivare anslutningsprocesser, inte tekniken i sig.

EU:s cyberlagar hänger inte med när AI kan hacka bättre än människor

30 EU-parlamentariker varnar för att dagens cybersäkerhetslagar inte hänger med när AI-verktyg som Anthropics Mythos kan hitta och utnyttja säkerhetsbrister mer effektivt än människor. De vill att EU ska uppdatera lagstiftningen och ge cybersäkerhetsmyndigheten ENISA tillgång till avancerade AI-modeller för att bättre analysera hoten.

Indiens första GenAI-unicorn byter spår till molntjänster när AI-modelldrömmarna kraschar

Krutrim, Indiens första generativa AI-unicorn, har genomfört uppsägningar och pivoterar nu från att bygga egna AI-modeller till att erbjuda molntjänster istället. Skiftet visar på de ekonomiska utmaningarna med att bygga stora språkmodeller i Indien, där även välfinansierade startups kämpar med de enorma kostnaderna.

GPT-5.x bidrar till genombrott inom teoretisk fysik

OpenAI:s kommande GPT-5.x har lyckats härleda nya resultat inom teoretisk fysik och kvantgravitation, vilket visar att AI-modeller nu kan bidra till grundläggande vetenskaplig forskning. Alex Lupsasca från OpenAI berättar hela historien om hur språkmodellen lyckades med denna bedrift inom "vibe physics" - ett informellt sätt att beskriva intuitiv fysikförståelse.

Bokförlag stämmer Meta för massiv upphovsrättskränkning i AI-träning

Fem stora bokförlag och en författare stämmer Meta för att ha kopierat böcker och tidskrifter från piratsajter för att träna sina Llama AI-modeller. Förlagen påstår att Meta medvetet använde material från kända piratsajter som LibGen och Anna's Archive utan tillstånd, vilket de kallar "en av de mest massiva upphovsrättskränkningarna i historien".

Google Home får smartare Gemini AI för komplexa uppgifter

Google uppgraderar sin smarta hemassistent med Gemini 3.1, som nu kan hantera mer komplicerade flerstegsuppgifter och kombinera flera kommandon samtidigt. Uppdateringen förbättrar också assistentens förmåga att förstå naturligt språk och hantera återkommande kalenderhändelser.

CopilotKit får 27 miljoner dollar för att hjälpa utvecklare bygga AI-agenter

Seattle-baserade CopilotKit har säkrat 27 miljoner dollar i en Serie A-runda för att hjälpa utvecklare integrera AI-agenter direkt i sina applikationer. Finansieringsrundan leddes av Glilot Capital, NFX och SignalFire, vilket signalerar fortsatt starkt investerarintresse för verktyg som förenklar AI-integration för utvecklare.

Meta använder AI för att analysera barns skelettstruktur på Facebook och Instagram

Meta introducerar AI-system som analyserar benstruktur och längd i foton för att identifiera användare under 13 år på Facebook och Instagram. Företaget betonar att det inte är ansiktsigenkänning utan letar efter "visuella ledtrådar" för att hålla barn borta från plattformarna. Systemet granskar även inlägg, kommentarer och profiler för sammanhangstips om ålder.

ElevenLabs värd nya miljardare som BlackRock och Jamie Foxx

Röst-AI-företaget ElevenLabs har fått in tungviktare som BlackRock, skådespelaren Jamie Foxx och Eva Longoria som investerare samtidigt som de når 500 miljoner dollar i årsomsättning. Företaget, som skapar syntetiska röster med AI, fortsätter att växa snabbt inom företagsmarknaden där röstgränssnitt blir allt viktigare.

Pennsylvania stämmer Character.AI efter att chatbot utgivit sig för att vara läkare

Pennsylvania stämmer AI-företaget Character.AI efter att en av deras chatbotar påstod sig vara legitimerad psykiater under en statlig utredning och till och med hittade på ett serienummer för sin medicinska licens. Det här visar hur svårt det blir att kontrollera AI-system som kan fabricera trovärdiga men falska uppgifter – särskilt problematiskt inom hälso- och sjukvård där felaktig information kan vara farlig.

Amazons AI-agenter optimerar leverantörssamarbete med hjälp av spelteori

Amazon använder AI-agenter baserade på mekanismdesignsteori för att förbättra samarbetet med leverantörer utan att röja känslig affärsinformation. Systemet låter både Amazon och leverantörer optimera sina leveranskedjor medan de behåller sina konkurrensfördel genom att hålla privata data hemliga.

Codex får fart men saknar viktig funktion

GitHub Copilot och OpenAIs Codex-modell används nu mer frekvent av utvecklare, men artikeln pekar på att verktyget fortfarande saknar en avgörande funktion som skulle kunna förbättra kodningupplevelsen betydligt. Det handlar om en funktionalitet som många utvecklare efterfrågar men som ännu inte implementerats.

Källor: Ben's Bites
Svenska techinvesteringar sjönk under miljardstrecket i april

Svenska riskkapitalinvesteringar föll under miljarden kronor i april efter två starka månader. Kapitalet gick främst till AI-bolag och elektrifieringsföretag, vilket visar var investerarna fortfarande ser potential trots den svalare marknaden.

Källor: Di Digital
Den nya guldgruvan: säkerhet, AI och försvar

Breakit arrangerar Resilience Summit den 27 maj där Sveriges ledande entreprenörer och investerare ska diskutera hur man bygger företag i en värld präglad av AI, geopolitik och nya säkerhetshot. Evenemanget fokuserar på hur affärskritisk säkerhet och AI har blivit för dagens företag.

Källor: Breakit
Pirelli köper in sig i svenska Univrses för 200 miljoner

Däckjätten Pirelli blir storägare i svenska Univrses, som utvecklar teknik för självkörande bilar och smarta vägar, i en affär som värderar bolaget till 200 miljoner kronor. Företaget började med VR-glasögon men pivoterade till fordonsteknologi där Pirelli ser tydliga synergier.

Källor: Breakit

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.