Studie visar systematisk bias i Googles och OpenAI:s bildgenererare
En ny studie av 3 200 AI-genererade bilder visar att både Gemini Flash 2.5 och GPT Image 1.5 har stark bias mot vita personer (över 96% av bilderna) trots neutrala promptar. Modellerna skiljer sig åt gällande kön - Gemini favoriserar kvinnliga subjekt medan GPT favoriserar män med ljusare hudton.
Djupdykning
En ny forskningsstudie avslöjar omfattande demografiska fördomar i två ledande AI-bildgeneratorer – Googles Gemini Flash 2.5 och OpenAIs GPT Image 1.5 – där så kallade "neutrala" prompter ger allt annat än neutrala resultat. Genom att analysera 3 200 fotorealistiska bilder med avancerade hudtonsmätningsmetoder visar forskningen att båda modellerna uppvisar en stark "standard vit" bias med över 96% av bilderna föreställande vita personer, medan de skiljer sig åt gällande kön där Gemini favoriserar kvinnliga ansikten och GPT föredrar manliga. Studien är särskilt betydelsefull eftersom den utmanar grundantagandet att neutralt språk leder till inkluderande representation i AI-system, något som får stora konsekvenser när dessa verktyg används för allt från marknadsföring till utbildningsmaterial. Resultaten visar att AI-modellernas träningsdata och algoritmer bär på djupt rotade samhälleliga fördomar som reproduceras och förstärks när användare förväntar sig objektiva resultat. För svenska företag och organisationer som implementerar dessa verktyg blir det tydligt att aktiva åtgärder krävs för att motverka oavsiktlig diskriminering i AI-genererat innehåll. Nyckelinsikt: Neutrala prompter fungerar som diagnostiska verktyg som avslöjar AI-modellernas inbyggda fördomar snarare än att producera inkluderande representation.