27 februari 2026

Anthropic säger nej till Pentagon

Pentagon och Anthropic hamnar i ett rejält bråk när försvaret kräver obegränsad AI-tillgång, samtidigt som forskare avslöjar att AI-modeller väljer kärnvapen i nästan alla krigssimuleringarna – inte direkt lugnande läsning. På ljusare sida får vi se Figma och OpenAI som slår sig ihop för att göra designern-till-kod-processen smidigare, medan Mistral AI skalar upp med Accenture vid sin sida.

Anthropic säger nej till Pentagons AI-krav

Det blev dramatik i AI-världen när Anthropic sa rakt nej till Pentagon. Försvarsminister Pete Hegseth hade gett företaget ett ultimatum: ge oss obegränsad tillgång till era AI-system, annars ryker alla kontrakt. Men VD Dario Amodei höll emot och sa att han "inte i gott samvete kan gå med på" kraven.

Anthropics två röda linjer är kristallklara: ingen massövervakning av amerikaner och inga dödliga autonoma vapen utan mänsklig övervakning. Pentagon gillade inte svaret och hotade med att stänga ute företaget från hela den militära leverantörskedjan.

Timingen kunde inte vara värre. En ny studie från King's College London visar att populära AI-modeller som GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash använde kärnvapen i 95% av simulerade konflikter. Forskarna upptäckte att AI-modellerna aldrig kapitulerade och hade svårt att deeskalera situationer. "Kärnvapen-tabut verkar inte vara lika starkt för maskiner som för människor", konstaterade forskarna.

Medan Pentagon och Anthropic bråkar lanserar andra företag nya samarbeten. Figma integrerar nu både Anthropics Claude Code och OpenAIs Codex, vilket låter utvecklare och designers växla smidigt mellan kod och design. Och franska Mistral AI har just tecknat avtal med konsultjätten Accenture, som redan har liknande partnerskap med både OpenAI och Anthropic.

Konflikten mellan Anthropic och Pentagon visar hur svårt det blir när AI-företag vill sätta etiska gränser medan militären vill ha fria händer. Med AI som potentiellt kan eskalera konflikter till kärnvapennivå blir dessa diskussioner bara viktigare.

Kanada hotar OpenAI med AI-reglering efter skolskjutning

Det här är en historia som visar hur svårt det kan vara att reglera AI i praktiken. En person i British Columbia använde tydligen OpenAI:s chattbot innan han genomförde en skolskjutning där åtta personer dödades. OpenAI hade flaggat användarens konto internt och stängt det, men de rapporterade aldrig något till polisen.

Kanadas AI-minister Evan Solomon är inte nöjd alls. Han kallar det ett "misslyckande" från OpenAI:s sida och säger att diskussionerna med företaget varit en "besvikelse". Enligt Solomon hade OpenAI möjlighet att larma myndigheterna men valde att inte göra det.

OpenAI förklarar att de visserligen flaggade kontot, men att det inte uppfyllde deras kriterier för att rapporteras vidare. De säger att det krävs en "trovärdig och omedelbar risk för allvarlig skada" för att de ska kontakta polis.

Det här fallet visar på en av de stora utmaningarna med AI-reglering – var drar man gränsen? Ska AI-företag övervaka alla samtal och rapportera till myndigheter vid minsta misstanke? Eller riskerar man då att undergräva privatlivet och skapa en övervakningssamhälle?

Nu hotar den kanadensiska regeringen med att införa skärpare reglering om inte AI-företagen förbättrar sina rutiner frivilligt. Det är ett tydligt exempel på hur tragiska händelser kan accelerera politiska beslut om teknikreglering.

Frågan är om det här blir början på en våg av striktare AI-lagar, inte bara i Kanada utan globalt. Balansen mellan säkerhet och innovation kommer definitivt att bli en het potatis framöver.

Read AI lanserar Ada - din digitala tvilling som svarar på mail

"Har du tröttnat på att svara på samma schemaläggnings-mail om och om igen?"

Har du tröttnat på att svara på samma schemaläggnings-mail om och om igen? Read AI har precis lanserat Ada, en AI-assistent som kan ta hand om det åt dig.

Ada fungerar som din "digitala tvilling" direkt i e-posten. När någon skickar ett mail och frågar när du har tid så kan Ada kolla din kalender och svara med lediga tider automatiskt. Men det stannar inte där - den kan också söka genom företagets kunskapsbas och webben för att svara på frågor om allt möjligt.

Tänk dig att du får ett mail där någon frågar "Kan vi träffas nästa vecka?" eller "Vad var det vi sa om det där projektet?". Istället för att du behöver logga in, kolla kalendern och leta upp gamla dokument, så sköter Ada allt det där åt dig och svarar direkt.

Det här är inte helt unikt - både Google och Microsoft jobbar med liknande AI-verktyg för e-post, och startups som Superhuman har också sina versioner. Men Read AI verkar satsa hårt på att göra det så smidigt som möjligt genom att allt händer direkt i din vanliga e-post.

För många av oss som spenderar alldeles för mycket tid på att koordinera möten och svara på repetitiva frågor, kan det här vara riktigt användbart. Frågan är bara hur bra Ada blir på att förstå vad du verkligen menar - och om folk känner sig bekväma med att en AI svarar åt dem.

Google släpper Nano Banana 2 gratis för alla

Google gör ett oväntat drag och ger bort sina kraftfullaste AI-bildverktyg gratis. Nano Banana 2 (som också kallas Gemini 3.1 Flash Image) börjar rullas ut idag till alla användare av Gemini-appen, inte bara de som betalar för Pro-versionen.

Vad som gör det här intressant är att modellen påstås leverera samma kvalitet som Pro-versionen, fast mycket snabbare och billigare att köra. Google säger att den kombinerar "avancerad världskunskap" med "produktionsklar prestanda" - vilket i klartext betyder att den ska förstå sammanhang bättre och skapa mer konsistenta bilder.

Den stora nyheten är att modellen kan använda realtidsinformation från webben när den skapar bilder. Istället för att bara förlita sig på träningsdata kan den söka efter aktuell information och bygga in det i bilderna. Det här skulle kunna vara ett stort steg framåt för AI-bildgenerering.

Google positionerar det här som att de vill demokratisera AI-verktyg - ge alla tillgång till samma kraftfulla funktioner istället för att hålla dem bakom en betalvägg. Det är en märkbar förändring från hur de flesta AI-företag brukar göra, där de bästa funktionerna vanligtvis kostar extra.

Nano Banana 2 blir nu standardmodellen i Gemini-appen, så alla som redan använder den kommer automatiskt få tillgång till de förbättrade funktionerna. Frågan är om detta kommer att sätta press på andra AI-företag att också släppa sina avancerade modeller gratis.

Dagens siffra

95%

AI-modeller använde kärnvapen i 95% av simulerade geopolitiska konflikter enligt en studie från King's College London

Snabbkollen

EU:s AI-lag träder i kraft - startups står inför nya regler

EU:s AI-lag började gälla den 2 februari 2025 med förbud mot "oacceptabla" AI-system som social poängsättning och ansiktsigenkänning i offentliga rum. Böterna kan nå €35 miljoner eller 7% av den globala omsättningen, medan många europeiska tech-startups enligt undersökningar känner sig oförberedda inför de nya kraven.

Källor: Dig.watch
Claude får konflikt med agenter och AI-verktyg

Claude AI-modellen rapporteras ha problem med att hantera konflikter mellan olika AI-agenter och verktyg som Notion och Perplexity. Utmaningarna verkar särskilt uppstå när AI-system ska interagera med datoranvändningsagenter (agents som kan styra datorer).

Källor: Ben's Bites
Siteimprove lanserar AI-agenter för innehållsanalys och tillgänglighet

Danska Siteimprove har lanserat flera nya AI-agenter för sin innehållsplattform, inklusive en konversationsanalysagent som låter icke-tekniska användare få svar på naturligt språk. De nya agenterna hjälper också till med PDF- och bildtillgänglighet samt nyckelordsintelligens för sökmotoroptimering i en värld av AI-sökresultat.

Källor: Newswire.ca
Spaniens dataskyddsmyndighet publicerar vägledning för AI-agenter

Spaniens dataskyddsmyndighet AEPD har publicerat detaljerade riktlinjer för AI-agenter den 18 februari, som den första europeiska myndigheten att göra detta. Vägledningen förklarar riskerna med AI-agenter för personlig data, inklusive otillräcklig hantering av användardata och hot från prompt injection (manipulerade instruktioner).

Källor: Iapp.org
AXL och PUSH Media lanserar STRATIS AI-plattform för marknadsföring

Det kanadensiska venture-studion AXL har samarbetat med PUSH Media för att lansera STRATIS, ett agentiskt AI-system för marknadsföringsintelligens. Plattformen samlar fragmenterad data från olika kanaler och ger realtidsrekommendationer som kräver mänsklig godkännande innan de genomförs.

Thomson Reuters CoCounsel når en miljon användare

Thomson Reuters AI-plattform CoCounsel har nått en miljon yrkesverksamma användare inom bara tre år sedan lanseringen 2023. Verktyget används nu i över 100 länder och av cirka 25% av Fortune 1000-företagen för att analysera dokument och utföra juridisk forskning.

Sofigate rekryterar team för att utnyttja AI i stor skala

Sofigate startar en specialiserad AI-enhet under ledning av Aleksi Halttunen för att hjälpa företag implementera AI-agenter industriellt. Företaget lanserar "AI Agent Factory" som kan bygga digitala medarbetare inom några veckor, baserat på en investering på 3 miljoner euro.

EU AI Act, NIST RMF och ISO/IEC 42000: En jämförelse på ren svenska

Tre stora AI-regelverk tar form samtidigt: EU:s AI-lag (som börjar gälla augusti 2025), USA:s NIST AI Risk Management Framework och den internationella standarden ISO/IEC 42001. EU:s lag introducerar obligatoriska krav för högriskanvändningar som kreditbedömning och rekrytering, medan de andra ramverken är mer vägledande.

EU föreslår förändringar av AI-lagen för läkemedels- och medicintekniska företag

Europeiska kommissionen föreslår förändringar av EU:s AI-lag som skulle tillåta AI-leverantörer att behandla känsliga personuppgifter för att upptäcka och korrigera partiskhet i algoritmer. Förslaget är en del av Digital Omnibus-paketet som introducerades den 19 november 2025 och syftar till att förenkla efterlevnaden av dataskyddslagar för pharma- och medtech-företag.

EU:s AI-regler kan bli global standard genom att vara enklast att följa

EU:s AI-förordning kräver att AI-företag dokumenterar säkerhetsrisker och rapporterar incidenter från augusti 2026. Artikeln argumenterar att EU:s verkliga inflytande kommer från att göra dessa krav så standardiserade och kostnadseffektiva att företag väljer att använda dem globalt istället för att bygga separata system för varje marknad.

Vast Data lanserar hybrid och multicloud AI-infrastruktur orchestration-lösning

Vast Data lanserar Polaris, en plattform som låter företag hantera distribuerad AI-infrastruktur över olika molntjänster och lokala datacenter som ett enda system. Tekniken bygger vidare på deras DataSpace-lösning som tidigare visat att den kan koppla ihop kluster på 10 000 kilometers avstånd - från USA till Japan.

Finska AI-pionjären Peter Sarlin hoppar av SiloAI

Peter Sarlin lämnar sin vd-post på finska AI-bolaget SiloAI och övergår till rollen som senior rådgivare. Det är en stor förändring för det nordiska AI-företaget som varit en av regionens mest profilerade aktörer inom artificiell intelligens.

Källor: Breakit
AI-miss av polis – grep oskyldig man 16 mil bort

Polisen grep en oskyldig man efter att AI-teknik felaktigt identifierat honom som misstänkt för brott i en stad han aldrig besökt, på 16 mils avstånd. Fallet visar hur ansiktsigenkänning och andra AI-system inom brottsbekämpning kan leda till allvarliga misstag med stora konsekvenser för oskyldiga personer.

Källor: Breakit

Färskbryggt AI varje morgon

15 minuter och en kopp kaffe, allt du behöver.