1 april 2026

Europa satsar stort på AI-infrastruktur

Europa verkar äntligen ha vaknat till – Nebius och andra bygger massiva AI-datacenter i Finland och Holland för att konkurrera med USA:s dominans. Samtidigt får Github bakläxa för att Copilot smugit in reklam i kod (sånt märker utvecklare direkt!), medan EU maler på med sina AI Act-regler som ska träda i kraft 2026.

Nebius bygger AI-fabrik för 310 MW i Finland

Nebius, det holländska molnföretaget som tidigare hette Yandex Cloud, planerar att bygga en AI-fabrik i Lappeenranta med 310 megawatt kapacitet. Det motsvarar ungefär tre av Amazons eller Microsofts hyperskaliga datacenter sammanslagna på en plats.

Timingen är allt annat än en slump. Europa kontrollerar mindre än 30% av sin egen molninfrastruktur medan amerikanska jättar dominerar kontinenten. För europeiska AI-startups innebär det både latens och jurisdiktionsproblem när de tränar modeller på amerikansk infrastruktur.

Anläggningen i Finland utnyttjar billig nordisk el och naturlig kylning, två faktorer som blir allt viktigare när AI-träning kräver enorma mängder ström. 310 MW räcker för att träna modeller i GPT-4-klassen lokalt, vilket gör europeiska företag mindre beroende av amerikanska molntjänster.

Nebius bygger samtidigt ut sin infrastruktur med Nvidia H100-chips och planerar att vara klara 2027. Det är fortfarande två år kvar, medan amerikanska konkurrenter redan levererar kapacitet idag. Men för europeiska företag som inte vill skicka känslig träningsdata över Atlanten kan väntetiden vara värd det.

700 byggjobb och 100 permanenta tjänster när anläggningen är i drift visar att det här inte bara handlar om geopolitik utan om att bygga en inhemsk AI-leverantörskedja. Frågan är om Nebius kan leverera tillräckligt konkurrenskraftiga priser för att locka kunder från etablerade amerikanska aktörer.

Finnarna satsar hårt på att bli Europas AI-nav med sin kombination av billig el, stabilt klimat och datalagringslagar som ligger i linje med GDPR.

GitHub stängde av Copilots smygreklam efter utvecklarkritik

"Copilot började plötsligt pusha "tips" om verktyg som Raycast direkt i utvecklares pull requests."

Copilot började plötsligt pusha "tips" om verktyg som Raycast direkt i utvecklares pull requests. Det spelade ingen roll om AI:n faktiskt skrivit koden — bara att någon nämnde Copilot i tråden räckte för att trigga produktrekommendationerna.

Det här är fascinerande av flera skäl. Först det uppenbara: att smuggla in reklam i kodreview är ungefär lika välkommet som att få spam i sin terminal. Men det intressanta är hur aggressivt systemet var — det scannande alla PR-trådar efter nyckelord och injicerade innehåll retroaktivt.

Vänta, det blir värre. En GitHub-forskare publicerade samtidigt en post om hur hen använt "kodningsagenter för att bygga agenter som automatiserade delar av sitt eget jobb". Ironin är påtaglig: medan GitHub marknadsför AI som automatiserar utvecklararbete, försöker samma AI samtidigt automatisera marknadsföring åt GitHub.

Det här avslöjar något grundläggande om hur dessa verktyg utvecklas. När din AI-assistent börjar sälja dig saker mitt i arbetsflödet, var går då gränsen mellan hjälpsamt och parasitiskt? Raycast-rekommendationerna var förmodligen faktiskt användbara för många utvecklare, men kontexten gjorde dem till spam.

GitHub backade snabbt och försäkrade att de "inte planerar att införa annonser". Men skadan är redan skadad — tilliten att din AI-assistent arbetar för dig snarare än mot dig har fått en rejäl törn. För ett verktyg som redan sitter djupt integrerat i utvecklarnas arbetsflöde är det en märkligt kortsiktig strategi.

EU justerar AI Act med Digital Omnibus-paketet

Europarlamentet och rådet förhandlar nu om Digital Omnibus, ett lagpaket som justerar EU:s AI Act med fokus på när reglerna faktiskt träder i kraft. Skillnaden ligger i detaljerna: istället för rörliga deadlines får företag fasta datum att planera efter.

Det mest konkreta tillägget är förbudet mot icke-samtyckt sexualiserade deepfakes, driven av Grok-skandalen där X blev en distributionsplattform för AI-genererade nakenbilder. EU undersöker både X under Digital Services Act och GDPR, medan lagstiftarna försöker täppa igen hålet i AI Act.

För högrisk-AI-system förlängs tidsfristerna, vilket ger företag mer tid att klassificera sina system korrekt. Det här är inte kosmetiska ändringar utan praktiska justeringar baserade på vad som faktiskt fungerar i verkligheten.

Parallellt publicerade Europaparlamentets tankesmedja en studie om hur AI-verktyg kan förenkla själva regelverket. Ironin är uppenbar: EU använder AI för att hantera komplexiteten i sina egna AI-regler.

Trilogueförhandlingarna mellan parlament, rådet och kommissionen siktar på att vara klara den 28 april. Det betyder att företag som håller på med AI-klassificering får veta de slutgiltiga reglerna inom några veckor, inte månader.

Realtalk: det här är EU som reagerar på verkligheten istället för att bara skriva regler i ett vakuum. Grok-skandalen visade att deepfake-problem inte kan vänta på perfekt lagstiftning, och tidsfristjusteringarna erkänner att företag behöver mer än teoretisk tid för compliance.

Simon Willison släpper fem LLM-verktyg på två dagar

Simon Willison verkar ha haft en intensiv helg framför tangentbordet. Mellan 31 mars och 1 april släppte han fem separata versioner av sina AI-verktyg, alla centrerade kring att göra språkmodeller mer praktiska att jobba med.

Den mest intressanta releasen är llm-all-models-async 0.1, som låter dig köra samma fråga mot flera AI-modeller samtidigt istället för sekventiellt. Det är något du märker direkt när du testar GPT-4 mot Claude mot Llama och inte vill vänta på att varje svar ska komma tillbaka innan nästa börjar. Async-versionen gör jämförelser betydligt snabbare.

De andra fyra releaserna handlar alla om att integrera LLM-funktionalitet djupare i Datasette-ekosystemet. datasette-enrichments-llm 0.2a0 låter dig berika befintlig data med AI-svar, datasette-llm-usage 0.2a0 spårar API-kostnader och användning, och datasette-llm 0.1a5 kör AI-frågor direkt mot strukturerad data. Plus den grundläggande LLM 0.30-uppdateringen för kommandoraden.

Vad som är intressant är mönstret: Willison bygger inte bara verktyg för att chatta med AI-modeller, utan för att systematiskt integrera dem i befintliga dataarbetsflöden. Särskilt spårning av API-användning är något som många utvecklare hackar ihop själva när de börjar experimentera mer seriöst.

Att släppa fem relaterade verktyg på två dagar antyder antingen att han har arbetat på dessa parallellt länge, eller att han verkligen har hittat sitt groove när det gäller AI-tooling. Troligen båda delarna.

Dagens siffra

70%

Amerikanska molnjättar som Amazon, Microsoft och Google kontrollerar över 70% av den europeiska molnmarknaden för AI

Källa: TechBuzz

Snabbkollen

Självorganiserande AI-agenter presterar 14% bättre än hierarkiska system

Forskare testade 25 000 uppgifter med upp till 256 AI-agenter och fann att autonoma system utan förutbestämda roller presterar 14% bättre än centraliserade hierarkier. Starkare AI-modeller utvecklar spontant specialiserade roller och arbetsmönster, medan svagare modeller fortfarande behöver strukturerad ledning. Öppen källkod uppnådde 95% av den slutna källkodens kvalitet till 24 gånger lägre kostnad.

Källor: arXiv cs.AI
Studie visar att AI-agenter blir mindre pålitliga ju längre uppgifter de utför

Forskare har testat 10 AI-modeller på nästan 23 400 episoder och upptäckt att även de bästa modellerna (som GPT-4) blir dramatiskt opålitliga vid långa uppgifter – med "krasch-frekvenser" upp till 19%. Studien visar att nuvarande benchmarks som mäter enkelförsök missar detta problem helt, och föreslår nya mått för att bedöma AI-pålitlighet över tid.

Källor: arXiv cs.AI
AI Impact Summit 2026: Världsledare förenas för att forma AI:s framtid

Över 20 stats- och regeringschefer samt ledare för stora internationella organisationer deltog i AI Impact Summit 2026, med Indiens premiärminister Narendra Modi som värd. Toppmötet syftade till att forma framtiden för artificiell intelligens genom internationellt samarbete.

USA-företag måste förstå EU:s och Storbritanniens AI-lagar för rekrytering

EU:s AI-act klassificerar de flesta AI-verktyg för rekrytering och personalhantering som 'högrisk-system' som kräver omfattande regelefterlevnad. Företag måste genomföra systematisk bias-testning, dokumenterad riskhantering och säkerställa mänsklig övervakning innan de får användas.

Klient PSA lanserar hybridprojekt där AI-agenter arbetar tillsammans med mänskliga konsulter

Kanadensiska Klient PSA har lanserat åtta specialiserade AI-agenter som arbetar som resurser inom Salesforce, där varje agent fokuserar på en specifik disciplin som projektplanering eller kundkommunikation. Alla AI-outputs granskas och godkänns av människor innan de når klienter, och agenterna hanteras genom samma gränssnitt som projektledare redan använder för mänskliga konsulter.

De fem farligaste nya attackteknikerna

AI accelererar cyberattacker dramatiskt – organisationer kan bli utsatta för 100 kritiska sårbarheter per vecka enligt SANS Technology Institute. Attackerare kan nu gå från initial intrång till lateral rörelse på bara åtta minuter tack vare AI-driven sårbarhetsdetektion och snabbare attackcykler.

Arcas väljer Seekr som partner för förklarbar AI inför skärpta EU-regler

Londonfirman Arcas ingår partnerskap med Seekr för att leverera förklarbar AI till europeiska företag inför EU:s AI-lag som träder i kraft augusti 2026. Seekrs teknologi hjälper kunder spåra AI-beslut tillbaka till träningsdata och köra modeller helt inom EU:s infrastruktur - en luxemburgsk förlagsgrupp minskade manuell granskningstid med 78%.

NVIDIA:s GTC 2026 förutspår AI-inferensboom värd 1 biljon dollar

NVIDIA CEO Jensen Huang utropade 2026 till "inferensåret" när AI-arbetsbelastningar skiftar från träning till realtidsgenerering av tokens. Företaget prognostiserar minst 1 biljon dollar i kumulativ efterfrågan på sina Blackwell- och Vera Rubin-system fram till 2027, medan beräkningsbehovet har ökat 10 000 gånger på bara två år.

Källor: Iesve.com
När AI inte vet vad den inte vet

Forskare på Cognizant AI Lab använder evolutionär optimering för att göra AI-modeller mer självmedvetna om sina egna begränsningar. Istället för att helt eliminera hallucinationer föreslår de att modellerna ska kunna signalera sin egen säkerhet och osäkerhet - eftersom kreativitet och hallucinationer existerar på samma spektrum.

Den globala AI-kapplöpningen: Varför ansvarsfull AI är nyckeln till vår framtid

Över 72 länder har lanserat AI-policyer men regleringen är fragmenterad - Singapore har utvecklat världens första styrningsmodell för agentisk AI, medan EU fokuserar på riskbaserad reglering och Kina använder en centraliserad nationalmodell. Expertanalys menar att en enhetlig global AI-reglering kan vara orealistisk, men föreslår att ett ramverk baserat på 'Responsible AI' skulle kunna skapa tydliga gränser för säker AI-utveckling.

AI-kodverktyg skapar dolda säkerhetsrisker

Utvecklare byter ofta mellan AI-kodningsplattformar vilket gör det svårt för säkerhetsorganisationer att spåra användning och upprätthålla policy, varnar Secure Code Warriors VD. Utan insyn i godkända AI-modeller och hur de kopplas till API:er riskerar företag att exponera känslig data eller introducera sårbar kod i produktionsmiljöer.

Qodo får 70 miljoner dollar för att lösa AI-kodens tillitstproblem

New York-baserade Qodo har säkrat 70 miljoner dollar i finansiering för att tackla problemen med AI-genererad kod, där snabb spridning av AI-kodverktyg ökar bördan för mjukvaruteam och risken för buggar och säkerhetshål. Företaget fokuserar på att bygga robusta verifieringslösningar för att hantera de växande utmaningarna med AI-kod i företagsmiljöer.

OpenAI lägger ner AI-videoplattformen Sora

OpenAI drar tillbaka sin AI-videomodell Sora som kunde skapa korta videosnuttar från textbeskrivningar, vilket också saboterar det uppmärksammade partnerskapet med Disney. Beslutet speglar OpenAIs fokus mot mer kommersiellt lönsamma produkter som företags-AI och kodverktyg, medan AI-video fortfarande är dyrt och svårt att tjäna pengar på.

KUKA lanserar Automation 2.0 med fysisk AI för tillverkning

Robotföretaget KUKA presenterade sin nya programvaruplattform KUKA AMP på NVIDIA:s AI-konferens, som ska föra samman traditionell automation med AI-driven automation. Företaget menar att robotar utvecklas från programmerbara maskiner till intelligenta medarbetare som kan lära sig och anpassa sig autonomt i fysiska miljöer.

Källor: Kuka.com
AI-modell kan upptäcka flera hjärnsjukdomar från ett enda blodprov

Forskare vid Lunds universitet har utvecklat en AI-modell som kan identifiera flera neurodegenerativa sjukdomar samtidigt från ett blodprov, baserat på proteinmätningar från över 17 000 patienter. Modellen kan skilja mellan sjukdomar som Alzheimer och Lewy body-sjukdom, som ofta överlappar i tidiga stadier och är svåra att diagnostisera separat.

AI-datacenter kan höja temperaturen i närområdet med över 9 grader

Ny forskning från Cambridge University visar att AI-datacenter skapar värmeöar som höjer marktemperaturen med i genomsnitt 2 grader, men i extremfall upp till 9,1 grader. Effekten når upp till 10 kilometer bort och påverkar idag omkring 340 miljoner människor, samtidigt som datacenterkapaciteten förväntas fördubblas till 2030.

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.