10 april 2026

Meta satsar 196 miljarder på AI-infrastruktur

Tekjättarnas AI-kapprustning når nya höjder när Meta släpper 196 miljarder dollar på infrastruktur och CoreWeave låser fast dem med ett 21 miljarder-avtal. Samtidigt visar Anthropics nya Mythos-modell varför vissa AI-förmågor kanske är lite väl imponerande för sitt eget bästa – den är så duktig på att hitta säkerhetsbrister att företaget valde att stoppa den.

Meta skriver 196 miljarder kronors check till CoreWeave

Meta skriver en check på 21 miljarder dollar till CoreWeave för AI-infrastruktur. Det är inte bara mycket pengar – det är en av de största molninvesteringarna någonsin och visar hur brutalt dyrt det har blivit att spela i AI-ligan.

Timing är intressant. CoreWeave lanserar samtidigt NVIDIA HGX B300 som ska leverera 3,42 gånger högre token-generering än H200-generationen. På Kimi K2.5 alltså, vilket är en ganska specifik benchmark. Men det är den typen av prestanda-hopp som gör att Meta är villig att skriva så här stora checkar.

CoreWeave är inte AWS eller Google Cloud – de är specialiserade på GPU-tunga workloads och har byggt sin verksamhet runt just AI-träning och inferens. Meta kunde ha byggt allt själva (de har resurserna) eller gått till de stora molnjättarna. Istället väljer de en specialist, vilket säger något om hur komplicerat det här har blivit.

Nivån på investeringen visar också var Meta tror att konkurrensen avgörs. Inte i algoritmer eller data längre – utan i ren beräkningskraft. 21 miljarder dollar är mer än många länders hela IT-budgetar. Det är också mer än vad de flesta AI-startups kan dröma om att spendera under sin hela livstid.

För mindre aktörer blir signalen tydlig: antingen hittar du en nisch där du inte behöver konkurrera på ren skala, eller så får du acceptera att spela på andrahand.

Anthropic släpper AI som är för bra på att hacka

Mythos, Anthropics senaste AI-modell, kan hitta säkerhetshål bättre än de flesta människliga experter. Så bra att företaget nu begränsar tillgången till den.

På papperet låter det ansvarsfullt. Anthropic säger att modellen upptäckt tusentals sårbarheter och att den helt enkelt är för farlig att släppa lös. Men timing och kommunikation runt beslutet får en del att höja på ögonbrynen.

För utvecklare som jobbar med säkerhet blir det här komplicerat på flera plan. Å ena sidan visar Mythos vad AI faktiskt kan prestera inom cybersäkerhet just nu, inte om fem år. Förmågan att systematiskt hitta buggar och exploits i befintlig kod skulle kunna förändra hur vi tänker kring säkerhetstestning.

Å andra sidan: varför stoppa nu? Anthropic har släppt kraftfulla modeller förut utan att trycka på pausknappen så här hårt. Det här är antingen genuint ansvarstagande eller så döljer det något annat, som prestanda- eller stabilitetsproblem som företaget inte vill prata om öppet.

Kyndryl, som kommenterat utvecklingen genom sina säkerhetschefer Cory Musselman och Tony De Bos, pekar på att detta skapar ett nytt paradigm för företagssäkerhet. När AI kan hitta sårbarheter snabbare än människor kan patcha dem, förskjuts hela spelplanen.

För tillfället får vi nöja oss med att spekulera om Mythos verkliga kapacitet. Men faktum kvarstår: någonstans sitter det en AI-modell som kan hitta säkerhetsbrister bättre än experter, och den kommer inte att förbli ensam länge.

Google satsar på Intel för att bryta Nvidias dominans

"Google har tecknat ett flerårigt avtal för att använda Intels kommande AI-chips, vilket ger Intel ett välbehövligt lyft i kampen mot Nvidias marknadsdominans."

Google har tecknat ett flerårigt avtal för att använda Intels kommande AI-chips, vilket ger Intel ett välbehövligt lyft i kampen mot Nvidias marknadsdominans. Timingen är intressant: medan de flesta hyperscale-aktörer fortfarande står i kö för Nvidias H100-chips, placerar Google en säker bet på Intels framtida arkitektur.

Det här är inte bara en inköpsorder utan ett strategiskt drag. Google får tillgång till alternativa processorer för sina AI-tjänster när chipbristen fortsätter att bita, medan Intel får den validering som behövs för att bevisa att deras AI-satsning är mer än bara hopp.

Medan Google och Intel fördjupar sitt samarbete, går Amazon-chefen Andy Jassy till attack i sitt årliga aktieägarbrev. Han använder hela 200 miljarder dollar i kapitalutgifter som vapen mot konkurrenter, inklusive både Intel och Nvidia. Brevet läser mer som en diss-track än traditionell företagskommunikation, där Jassy försvarar Amazons massiva investeringar genom att peka på rivalernas brister.

Det är uppenbart att AI-infrastruktur har blivit ett nollsummespel mellan teknikjättarna. Google diversifierar sina leverantörer, Amazon försöker bygga egen kapacitet medan de attackerar konkurrenterna, och Intel kämpar för att bevisa relevans på en marknad som Nvidia dominerat.

För mindre aktörer blir valet av AI-infrastruktur allt mer komplext. Nvidias chips är fortfarande guldstandarden, men väntetiderna är långa och priserna höga. Intels kommande arkitektur kan erbjuda alternativ, men det kräver tillit till deras execution.

EU predikar AI-etik medan medlemsländer testkör dödsmaskiner i Ukraina

EU röstar för FN-resolutioner mot autonoma vapensystem medan medlemsländerna diskret kör sina egna AI-experiment på Ukrainas slagfält. En färsk analys av EU:s ramverk för ansvarsfull militär AI avslöjar vad många misstänkte: det är mest papper utan genomdrivningsmekanismer.

Ukraina har blivit det perfekta testlaboratoriet för militär AI. Medan EU:s politiker håller tal om ansvarsfull utveckling, skickar samma länders försvarsindustrier sina senaste AI-system till fronten för verkliga stresstester. Det är svårt att argumentera för "ansvarsfull utveckling" när dina produkter testas under verkliga stridsförhållanden.

Problemet blir extra tydligt när man ser på EU:s interna splittring. Ungerns utrikesminister ringde sin ryske kollega mitt under ett EU-toppmöte om Ukraina, vilket Frankrike kallar "ett svek". Om EU inte kan hålla sina egna möten hemliga, hur ska de genomdriva AI-regler mot medlemsländer som tjänar miljarder på vapensystem?

För teknikföretag som bygger AI-system är signalerna blandade. EU säger en sak offentligt men tillåter sina medlemsländer att göra något helt annat. Det skapar en regelverksosäkerhet där företag inte vet vilka standarder som faktiskt gäller när politiken krockar med verkligheten.

Regelverket fungerar bra för pressmeddelanden men dåligt för att styra hur AI faktiskt används när det verkligen räknas. Ukraina-konflikten visar vad som händer när policydokument möter geopolitisk verklighet: dokumenten förlorar.

Dagens siffra

3,42

gånger högre token-generering än föregående generation med NVIDIA HGX B300

Källa: CoreWeave

Snabbkollen

Meta lanserar AI-modellen Muse Spark

Meta har lanserat Muse Spark, en ny AI-modell från deras Superintelligence Labs som ska konkurrera med OpenAI och Google. Modellen har ett "Contemplating"-läge som kan använda flera AI-agenter samtidigt och planeras att helt ersätta Llama-serien som inte längre anses hålla måttet. För att använda Muse Spark krävs Facebook- eller Instagram-konto, vilket väcker frågor om träning på användardata.

Forskare avslöjar att stora språkmodeller inte är så oberoende som vi tror

En ny studie visar att populära AI-modeller som GPT och Llama delar så många gemensamma träningsdata och tekniker att de gör liknande fel – vilket undergräver system som använder flera modeller för att kontrollera varandras svar. Forskarna utvecklade ett statistiskt ramverk som mäter denna "beteendemässiga sammanflätning" och fann att när modeller är mer beroende av varandra, blir de sämre på att bedöma kvalitet med upp till 71% korrelation mellan beroende och felaktig överövertygelse.

Källor: arXiv cs.AI
ReflectRM: Ny belöningsmodell förbättrar AI-träning genom självreflektion

Forskare har utvecklat ReflectRM, en ny typ av belöningsmodell som tränar AI-system genom att både bedöma slutresultat och analysera själva tankeprocessen. Modellen använder självreflektion för att identifiera sina mest tillförlitliga analyser, vilket gav 3,7% högre träffsäkerhet på Qwen3-4B och reducerade positionsbias med 10,2% jämfört med befintliga modeller. Det intressanta är att den här tekniken kan göra AI-träning mer transparent och tillförlitlig genom att låta systemet granska sitt eget resonemang.

Källor: arXiv cs.AI
EU:s AI-lag riskerar att bygga på föråldrade tröskelvärden från 2023

EU:s AI-lag blir verkställbar i augusti, men tröskelvärdet för att klassificera AI-modeller som "systemrisk" baseras på teknik från 2023 - tiotals nya modeller väntas överskrida gränsen inom kort. Trots att experter och EU-regeringar begärt uppdateringar har Europeiska kommissionen inte förbundit sig till ändringar, vilket skapar ett tidigt test av lagens förmåga att hänga med i den snabba utvecklingen.

Källor: Mlex.com
Identitetsautentisering blir nyckeln för AI-regelefterlevnad

Okta varnar för ett "attribueringsgap" där företag inte kan bevisa vem som auktoriserade AI-agenter eller vad de fick göra när skada uppstår. Med Colorado AI Act som träder i kraft 30 juni 2026 och EU:s AI-förordning i december 2027, kommer sex befintliga regelverk redan idag kräva tydliga identitetsspår för AI-system som hanterar lån, juridisk rådgivning och patienttriage.

Källor: Okta.com
Deepl-chefen varnar för AI-bubbla

Deepls vd Jarek Kutylowski varnar för en AI-bubbla och kritiserar branschens kortsiktighet, där avkastningen från dagens språkmodeller fortfarande inte är fullt bevisad. Han menar att det är 'otroligt dumt' med energislukande AI-modeller och tvivlar på att branschen redan hittat 'den heliga graalen'.

Källor: Di Digital
Tysklands högst värderade AI-företag varnar för bubbla

DeepL:s vd Jarek Kutylowski varnar för en AI-bubbla och menar att avkastningen från dagens språkmodeller fortfarande inte är fullt bevisad. Det tyska översättningsföretaget, som är en het börskandidat, oroar sig för branschens kortsiktighet och risken att teknikens löften inte infrias.

Källor: Di Digital
Gemini får ny projektfunktion – Notebooks

Google lanserar "notebooks" i Gemini som låter användare samla chattar, dokument och instruktioner kring specifika projekt för att ge AI:n bättre kontext. Funktionen integreras med NotebookLM och rullas först ut till betalande användare på webben – smart drag för att hantera mer komplexa arbetsflöden än vanlig chattande.

USA:s AI-exportrestriktioner skapar spänningar i transatlantiska relationen

USA:s exportkontroller på AI-teknik, främst riktade mot Kina, skapar problem för Europas digitala suveränitet och innovationsambitioner. Atlantic Council varnar för att EU-USA-samarbetet riskerar att utvecklas till "hanterat beroende" med asymmetrisk makt istället för strategisk samordning, särskilt eftersom amerikanska och europeiska positioner gentemot Kina skiljer sig åt.

Experter diskuterar styrning av AI-system man inte fullt ut kontrollerar

I ett podcastavsnitt diskuterar experter hur AI-styrning måste utvecklas för att möta verkligheten med autonoma system och hybridarbetskrafter. Fokus ligger på hur ledare kan bygga förtroende och möjliggöra värdeskapande i stället för bara att begränsa risker.

Källor: Kyndryl.com
EU:s och Storbritanniens digitala regelverk otillräckliga mot AI-översikters påverkan på nyhetsmedia

Tänketankar varnar att EU:s Digital Markets Act och Digital Services Act, samt Storbritanniens Online Safety Act, inte klarar av att hantera hur AI-översikter påverkar nyhetsmedia. Utan ingripanden riskerar AI-driven sökning att undergräva mediemångfald och nyhetspublicerares ekonomiska hållbarhet, medan konkurrenslagstiftning blir den mest effektiva vägen att begränsa Googles makt över nyhetsdistribution.

Källor: Mlex.com
Aurora Mobile lanserar Modellix.ai - plattform för AI-mediaskapande

Aurora Mobile har lanserat Modellix.ai, en multimodal AI-plattform som förenklar åtkomsten till avancerade verktyg för bild- och videogenerering. Plattformen syftar till att lösa fragmenteringen inom generativ AI genom att standardisera API:er och erbjuda transparent fakturering för företag.

Källor: Af.net
AI gör publicering till en konversation

Markus Karlsson förklarar hur AI-verktyg som Claude förändrar mediabranschen genom att göra hela publiceringsprocessen konversationell - från forskning till distribution. Istället för att hoppa mellan olika verktyg kan journalister nu bara beskriva vilken typ av artikel de vill skapa och få hjälp med allt från struktur till bilder.

Solita lanserar AI-verktyg för autonom mjukvaruutveckling

Solita har lanserat RoadCrew Agentic Orchestrator, ett multi-agent AI-verktyg som ska automatisera mjukvaruutveckling i stora organisationer. Verktyget använder flera AI-agenter som arbetar tillsammans för att skriva kod självständigt, vilket skulle kunna påskynda utvecklingsprocesser avsevärt.

AI-automatisering hotar 93% av alla jobb enligt ny studie

Ny forskning från Cognizant visar att 93% av alla jobb är exponerade för AI-automatisering baserat på dagens teknik, medan 32% av stora amerikanska företag redan integrerat AI i sina huvudprocesser. Trots den snabba adoptionen är amerikaner mer oroade än entusiastiska över AI:s roll i vardagen, särskilt efter medierapporter om stora uppsägningar kopplade till automation.

Nordiska AI-mognad 2026: Stark teknik men svag strategi

Deloittes undersökning av 170 nordiska chefer visar att organisationerna har bra teknisk grund men saknar strategisk beredskap - strategisk mognad har fallit från 61% till 43% på ett år. Medan 69% implementerat AI inom IT-säkerhet i stor skala, har endast 14% tillräcklig kompetens för att verkligen dra nytta av tekniken.

Anthropic byggde en modell för farlig för att släppas och Meta gör ett oväntat inträde

Anthropic har utvecklat en AI-modell som företaget anser vara för riskabel för att släppa till allmänheten. Samtidigt gör Meta ett oväntat drag inom AI-området, vilket visar hur spänningarna mellan innovation och säkerhet fortsätter att forma branschen.

Källor: Ben's Bites
MeetKai och AICTO lanserar pilotprojekt för suverän AI i fem arabländer

MeetKai och den arabiska IT-organisationen AICTO startar ett pilotprojekt för att hjälpa fem arabländer bygga egna AI-system med full kontroll över data, modeller och infrastruktur. Målet är att länderna ska kunna utveckla AI-lösningar som följer lokala lagar och kulturella värderingar, istället för att förlita sig på utländska system.

AI-startup Nava samlar in 220 miljoner kronor för GPU-molntjänster

AI-infrastrukturbolaget Nava har säkrat 22 miljoner dollar (cirka 220 miljoner kronor) i finansiering ledd av Greenoaks Capital. Pengarna ska användas för att bygga ut bolagets GPU-molntjänster och datacenterinfrastruktur, med fokus på expansion i Asien-Stillahavsregionen.

Källor: Af.net
AI Sweden presenterar årsrapport och nya initiativ för AI-transformation

AI Sweden, Sveriges nationella center för tillämpad AI, lanserar nya program för att accelerera AI-transformation bland sina över 170 partners från privat och offentlig sektor. Organisationen presenterar också LeakPro 2, ett verktyg för att bedöma integritetsrisker i AI-modeller, och deltog i en statsbesök till Polen för att diskutera AI:s roll inom försvar och beredskap.

Källor: ai-sweden

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.