Forskare visar att AI-modeller inte glömmer så bra som vi tror
arXiv cs.AI
En ny studie avslöjar att stora språkmodeller bara låtsas glömma information - enklare omformulering av frågor kan återställa data som ska vara borttagen. Forskarna utvecklade ett dynamiskt ramverk som visar att nuvarande "unlearning"-metoder (tekniker för att ta bort information från AI-modeller) misslyckas särskilt när man ställer komplexa frågor med flera steg.