Chocken att se sin kropp använd i deepfake-pornografi

MIT Technology Review

När Jennifer testade ansiktsigenkänning på sitt nya profilbild upptäckte hon att tekniken kopplade ihop henne med pornfilmer hon gjort för över 10 år sedan. Artikeln utforskar den växande problematiken med deepfake-pornografi och hur AI-teknologi används för att skapa falska sexuella bilder av personer utan deras samtycke.

Djupdykning

Jennifer trodde att hennes gamla porrvideor från tio år tillbaka låg begravda i det digitala förflutna, men när hennes nya profilbild triggade ansiktsigenkänning visade det sig att hennes ansikte redan använts för att skapa deepfake-porn utan hennes vetskap. Det här illustrerar en mörk sida av AI-utvecklingen som få pratar om – även legitimt innehåll från förr kan bli råmaterial för automatiserad exploatering. Medan tekjättarna fokuserar på att bygga skydd mot deepfakes framåt, visar Jennifers fall att problemet redan är här och påverkar människor retroaktivt. Ansiktsigenkänningstekniken hon använde för att kolla upp sig själv är samma typ av verktyg som gör det möjligt att skörda och matcha ansikten från vilken källa som helst – sociala medier, gamla videor, till och med LinkedIn-foton. Det cyniska är att samma AI-verktyg som kan skydda mot deepfakes också är de som gör dem möjliga i första hand, vilket skapar en katt-och-råtta-lek där offren alltid är ett steg efter.