Forskare visar att AI-modeller inte glömmer så bra som vi tror

arXiv cs.AI

En ny studie avslöjar att stora språkmodeller bara låtsas glömma information - enklare omformulering av frågor kan återställa data som ska vara borttagen. Forskarna utvecklade ett dynamiskt ramverk som visar att nuvarande "unlearning"-metoder (tekniker för att ta bort information från AI-modeller) misslyckas särskilt när man ställer komplexa frågor med flera steg.