När AI inte vet vad den inte vet
Forskare på Cognizant AI Lab använder evolutionär optimering för att göra AI-modeller mer självmedvetna om sina egna begränsningar. Istället för att helt eliminera hallucinationer föreslår de att modellerna ska kunna signalera sin egen säkerhet och osäkerhet - eftersom kreativitet och hallucinationer existerar på samma spektrum.
Djupdykning
AI-forskaren Risto Miikkulainen från Cognizant AI Lab utmanar den vanliga synen på AI-hallucinationer genom att argumentera att dessa inte bör elimineras helt, eftersom kreativitet och hallucinationer existerar på samma spektrum. Det verkliga problemet ligger inte i att AI-modeller ger felaktiga svar, utan att de saknar självkännedom – de kan inte signalera hur säkra de är på sina svar eller om de bara gissar. Hans team har använt evolutionär optimering för att utveckla modeller som kan utvärdera sin egen tillförlitlighet, vilket är avgörande för att bygga förtroende i affärskritiska tillämpningar. Detta perspektiv är viktigt eftersom det flyttar fokus från att göra AI "perfekt" till att göra den mer transparent och självmedveten, vilket kan vara nyckeln till säkrare AI-implementationer inom företag. Nyckelinsikt: AI behöver inte vara felfri, utan självmedveten – att veta när man inte vet är viktigare än att alltid ha rätt.