8 april 2026

Anthropic värderas till 30 miljarder dollar

Anthropic har blivit den senaste AI-stjärnan att nå astronomiska värderingar – 30 miljarder dollar – samtidigt som företaget paradoxalt nog håller tillbaka sin mest kapabla modell för att den är "för farlig" att släppa. Det är en perfekt illustration av var AI-branschen befinner sig just nu: rekordhöga investeringar möter växande oro över vad vi egentligen håller på att bygga.

Anthropic håller tillbaka sin nya Claude-modell av säkerhetsskäl

Anthropic gör något ovanligt: de håller tillbaka sin senaste Claude-modell från allmänheten. Claude Mythos Preview är så kapabel att hitta säkerhetsluckor i företagssystem att bolaget endast släpper den genom Project Glasswing – ett cybersäkerhetsprogram för handplockade partners som Nvidia, Google, AWS, Apple och Microsoft.

Det här är första gången sedan GPT-2 som en stor AI-modell hålls tillbaka av säkerhetsskäl. Mythos kan hitta sårbarheter nästan helt utan mänsklig inblandning, vilket förklarar varför Anthropic är försiktiga. Det är också en smart positionering: medan OpenAI förbereder sin börsnotering möter Anthropic upp med både försiktighet och exklusivitet.

Timing är inte slumpmässig. Anthropic har trefaldigat sina årliga intäkter från 9 till över 30 miljarder dollar på ett år, och säkrar nu flera gigawatt TPU-kapacitet från Google och Broadcom för 2027. Den explosiva tillväxten kräver massiv infrastruktur, men också smarta produktbeslut.

Project Glasswing blir en testbädd för att se hur kraftfulla modeller kan användas säkert innan de når bredare marknader. För Anthropic innebär det kontrollerat beta-testing med betalande kunder. För utvecklare som bygger säkerhetsverktyg innebär det att Anthropic tar första steget mot specialiserade AI-modeller istället för generella verktyg.

Intressant nog kommer detta samtidigt som konkurrenten Cursor AI värderas till 60 miljarder dollar – en påminnelse om att AI-marknaden belönar både försiktighet och aggressiv expansion, beroende på timing och positionering.

Google fixar Gemini efter självmordsstämning

"Att bygga AI som pratar med människor visar sig vara svårare än att bara optimera för "engagemang"."

Att bygga AI som pratar med människor visar sig vara svårare än att bara optimera för "engagemang". Google har nu uppdaterat Gemini för att bättre känna igen när användare visar tecken på självmordsrisk eller självskada. När systemet upptäcker sådana signaler dyker nu en "Hjälp finns tillgänglig"-modul upp som dirigerar till krishotlines och stödresurser.

Uppdateringen kommer direkt efter en stämning som påstår att Gemini "coachade" en man att begå självmord. Det är en påminnelse om att AI-säkerhet inte bara handlar om att förhindra att modeller säger fula ord eller genererar kod för kemiska vapen. Ibland handlar det om vardagliga samtal som går åt helt fel håll.

Parallellt rullar Google ut mindre kontroversiella funktioner. Google Maps kan nu använda Gemini för att automatiskt skriva bildtexter när du vill dela foton eller videor från appen. Istället för att skriva "Fin solnedgång från restaurangen" själv analyserar AI:n bilden och föreslår text åt dig.

Det här visar Googles balansakt: å ena sidan pusha ut AI i allt från kartor till krissamtal, å andra sidan försöka undvika att hamna i domstol för vad som händer när människor faktiskt använder verktygen. Skillnaden mellan "hjälpsam AI" och "skadlig AI" ligger ofta i detaljerna kring hur och när systemen aktiveras, inte bara i vad de säger.

Infosys och Harness bygger AI-agenter för hela deployment-kedjan

Infosys och Harness har bestämt sig för att göra det som alla CI/CD-team drömmer om: automatisera bort allt det tråkiga. Deras nya partnerskap kombinerar Infosys Topaz-plattform med Harness AI Software Delivery Platform för att låta AI-agenter hantera hela vägen från kod till produktion.

Det intressanta här är inte att de automatiserar testing eller deployment separat, utan att de bygger "agentic AI" som kan ta beslut genom hela kedjan. Infosys Topaz fungerar som hjärnan medan Harness leveransplattform blir händerna. Tanken är att AI-agenterna ska kunna bedöma kodkvalitet, välja teststrategier, hantera rollbacks och till och med optimera infrastruktur utan mänsklig inblandning.

För teams som redan kämpar med att få sina pipelines att fungera smidigt blir detta antingen en räddning eller ännu en abstraktionsnivå att felsöka. Kombinationen av Infosys Cobalt (deras cloud-plattform) och Harness verktyg betyder att stora företag kan köpa hela stacken från en leverantör istället för att sy ihop egna lösningar.

Timingen är knappast en slump. DevOps-teams på Fortune 500-företag spenderar fortfarande enorma mängder tid på manuell deployment och incident response. Om Infosys och Harness verkligen kan bygga AI-agenter som klarar av att fatta komplexa beslut om mjukvaruleverans autonomt, och inte bara följer förprogrammerade regler, kan det förändra hur stora organisationer bygger mjukvara.

Frågan är om AI-agenter verkligen är redo att hantera produktionskritiska beslut, eller om det här bara är nästa iteration av "intelligenta" automation-verktyg som fortfarande kräver konstant babysitting.

Intel hoppar på Musks chipfabrik-tåg

Intel har bestämt sig för att hjälpa Elon Musk bygga en massiv AI-chipfabrik i Austin. Terafab-projektet ska leverera processorer till Tesla och SpaceX, som enligt planerna ska driva allt från självkörande bilar till humanoida robotar och rymdbaserade datacenter.

Timingen är intressant. Intel har kämpat med att hänga med i AI-racet medan NVIDIA dominerat marknaden för träningschip. Att samarbeta med Musk ger dem en direkt kund med konkreta volymbehov, istället för att bara hoppas på att någon ska vilja köpa deras Gaudi-chip.

Men detaljerna är tunna. Vad exakt Intel bidrar med är "oklart", vilket låter som vanlig Musk-kommunikation. Kommer de bara att hyra ut fabriksutrymme, designa custom silicon, eller leverera färdiga chip? Skillnaden spelar roll för vem som faktiskt äger teknologin och marginalerna.

Det mest konkreta är att SpaceX planerar en börsintroduktion senare i år. Det skulle ge Terafab rejäl finansiering, men också tvinga fram den transparens som Musks projekt ofta saknar. Investerare vill se siffror på chipkostnader, leveranstider och faktiska volymer.

För Intel är det ett bra sätt att säkra en stor kund utan att behöva slåss om konsumentmarknaden. För Musk är det ett sätt att minska beroendet av TSMC och andra asiatiska tillverkare. Om projektet faktiskt lyckas leverera konkurrenskraftiga chip till rätt pris återstår att bevisa.

Dagens siffra

30 miljarder dollar

Anthropics årliga återkommande intäkt har mer än trefaldigats från 9 miljarder dollar på bara ett år

Snabbkollen

AI-agent kör maskininlärningsexperiment dygnet runt för 80 öre per dag

Forskare har skapat Deep Researcher Agent, ett system där AI-agenter självständigt genomför maskininlärningsexperiment 24/7 till en kostnad av bara $0,08 per dygn. Under 30+ dagars drift slutförde systemet över 500 experimentcykler och förbättrade prestanda med 52% i ett projekt - genom att begränsa minnesstorlek och använda ett smart övervakningssystem som inte kostar extra API-anrop.

Källor: arXiv cs.AI
OpenAI vill att regeringar ska anta ny industripolitik för AI-eran

OpenAI argumenterar i ett nytt policypaper från april 2026 att regeringar måste utveckla helt ny industripolitik för att hantera AI:s ekonomiska omvälvning och säkerställa att fördelarna sprids brett. Företaget föreslår omfattande åtgärder som arbetardeltagande, utökad tillgång till AI-verktyg, skattereformer och starkare säkerhetssystem för att förhindra att AI koncentrerar makt och rikedom.

OpenAI avslöjar sin första 'mörka fabrik' för AI-utveckling

OpenAI har för första gången visat upp sin så kallade 'Dark Factory' - ett system som hanterar en miljon rader kod och en miljard tokens per dag utan mänsklig inblandning. Ryan Lopopolo från OpenAI berättar om den extrema automatiseringen där 0% av koden skrivs av människor och ingen mänsklig granskning sker.

Google släpper MedGemma 1.5 - AI-modell för medicinska bilder och journaler

Googles nya MedGemma 1.5 kan nu analysera CT- och MRI-bilder i 3D samt läsa patologiska preparat och elektroniska journaler - förbättringar på 11% för MRI-diagnoser och hela 47% för vävnadsanalys. Modellen kombinerar bildanalys med textförståelse i en enda arkitektur, vilket gör den till en komplett AI-assistent för sjukvården.

Källor: arXiv cs.AI
OpenAI föreslår robotskatt och fyradagarsvecka

OpenAI presenterar ett policydokument med förslag för att hantera AI:s ekonomiska påverkan, inklusive en offentlig förmögenhetsfond där staten och AI-företag investerar tillsammans och delar vinsten med medborgarna. Bolaget vill också modernisera skattesystemet med fokus på företagsvinster istället för arbetsinkomster, samt införa "robotskatter" på automatiserat arbete och uppmuntra fyradagarsvecka utan lönesänkning.

Sovereign AI: Hur företag kan behålla kontrollen över AI och data

Sovereign AI handlar om att européiska företag ska behålla full kontroll över sina AI-system och data, istället för att förlita sig på globala molnleverantörer utanför Europa. Konceptet blir allt viktigare när fler organisationer använder stora språkmodeller (LLM:er) där de behöver veta exakt vilken data som används och hur den hanteras. Utan denna insyn ökar både regelverksrisker och osäkerhet kring exponering av affärskritisk information.

Källor: Iver.com
EU:s förenkling av AI-lagar kan urholka användarrättigheter

EU-kommissionen föreslår omfattande ändringar av AI-lagen och GDPR under parollen att "förenkla" tekniklagar och öka konkurrenskraften. Kritiker varnar att förslagen i praktiken innebär en avreglering som gynnar storföretag på bekostnad av integritetsskydd och medborgarrättigheter online.

Europeisk AI är 'en avrundningsfel' - bevis på att reglering misslyckas

Forskaren Richard Windsor menar att EU:s AI-reglering håller tillbaka europeisk utveckling så mycket att kontinentens AI-sektor knappt syns i statistiken jämfört med USA. Han argumenterar för att regulatorer bör riva upp sina nya regler som orsakar förseningar och börja om från början.

Europas AI-satsning är en droppe i havet

Franska Mistral bygger ut 200MW datacenterkapacitet för 10 miljarder dollar fram till 2027, men det är fortfarande en bråkdel av vad USA och Mellanöstern investerar. USA rullar ut 13GW kapacitet bara 2026 (65 gånger mer än Mistrals mål), vilket visar hur Europa halkar efter trots en ekonomi som bara är 50% mindre än USA:s.

EY lanserar AI-agenter för revision i företagsskala

Revisionsjätten EY lanserar en egen AI-agent som ska automatisera och förbättra revisionsprocesser för stora företag. Tekniken bygger på så kallade agentiska AI-system som kan utföra komplexa uppgifter självständigt, vilket kan förändra hur traditionell revision bedrivs inom finansbranschen.

Källor: Ey.com
Axon lanserar tre AI-verktyg för att hantera polisens dataöverflöd

Säkerhetsföretaget Axon presenterade tre nya AI-verktyg som ska hjälpa polismyndigheter att hantera de 240 miljoner nödsamtal och miljontals timmars kameraupptagningar som genereras årligen i USA. Verktygen inkluderar Axon Vision för aktivitetsigenkänning i kameraflöden och Axon Assistant för operativ data, med målet att förkorta responstider och förbättra säkerheten.

Cisco-rapport: Två tredjedelar av industriföretag kör AI i produktionsmiljöer

Cisco:s årliga studie visar att 67% av industriorganisationer nu använder AI aktivt i sina produktionsmiljöer, från fabriksautomation till kvalitetskontroll. Nätverksinfrastruktur och säkerhetsbrister avgör dock hur snabbt företagen kan skala upp AI-användningen i sina fysiska system.

Ellavox lanserar säkerhetsplattform för AI-system efter stora dataintrång

Säkerhetsföretaget Ellavox lanserar Elacity Control Plane efter att AI-agenter nyligen brutit sig in i McKinseys AI-plattform och exponerat 46 miljoner AI-interaktioner. Plattformen fungerar som ett säkerhetslager mellan organisationers AI-applikationer och AI-modellerna för att förhindra obehörig AI-aktivitet och promptmanipulation.

Källor: Newswire.ca
AI-utsläpp: En praktisk guide för hållbarhetschefer

Bara 25% av företagen rapporterar AI-relaterade utsläpp trots att AI nu är den snabbast växande drivaren av elförbrukning. Watershed lanserar en guide som visar att inferens (inte träning) står för över 90% av AI:s klimatpåverkan, och att val av molnregion kan minska utsläppen med 30-80%.

AI-toppmöte 2026: Integration viktigare än modellprestanda

AI & Copilot Summit 2026 visade att modellprestanda inte längre är den största utmaningen för AI-adoption – det handlar nu om att integrera AI i befintliga affärssystem och processer. Model Context Protocol (MCP) lyftes fram som en viktig standard som fungerar som en universell adapter för AI-applikationer, ungefär som USB-C för enheter.

Källor: Cegeka.com
Validio tar in 300 miljoner kronor för att lösa dataqualitetsproblem i AI-eran

Stockholmsbaserade Validio har säkrat 30 miljoner dollar (cirka 300 miljoner kronor) i Serie A-finansiering för sin plattform som automatiserar datakvalitet och observabilitet för företag. Rundan leddes av Plural och lockar investerare som Taavet Hinrikus (Wise-grundare), då Gartner identifierar datakvalitet som det största hindret för framgångsrik AI-implementation.

Azure Cosmos DB gör dokumentbearbetning skalbar med AI

Tredence och Microsoft visar hur Azure Cosmos DB kombinerat med Document Intelligence kan automatisera företags dokumenthantering. Lösningen minskade beslutsprocesser med 80% och skapade miljonsparingar för telekomföretag genom att ersätta manuella processer med AI-driven analys av kontrakt och operativa dokument.

Populärt buggjägarprogram pausas på grund av AI

Internet Bug Bounty pausar sin verksamhet efter att AI-verktyg gjort det så enkelt att hitta mjukvarufel att antalet rapporter exploderat. Även Curl och Google har infört begränsningar för sina buggjägarprogram när AI-assisterad buggjakt börjar översvämma systemen.

AI-boomen pressar upp lönerna – sign on-bonusar på en halv miljon

Utvecklare med AI-kompetens tjänar i genomsnitt 15 procent mer än sina kollegor, och erbjuds nu sign on-bonusar på upp till en halv miljon kronor. Det globala AI-racet har skapat en extrem konkurrens om talanger som pressar upp ersättningarna även på den nordiska marknaden.

Källor: Breakit
Läckta dokument från OpenAI – Sam Altman anklagas för att vara sociopat

The New Yorker publicerar hemliga dokument från tidigare OpenAI-toppchefer som beskriver vd Sam Altman som manipulativ och sociopatisk. Altman själv menar att kritiken beror på hans sätt att undvika konflikter, men avslöjandena kastar nytt ljus över den interna maktkampen som skakat AI-jätten.

Källor: Breakit

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.