Forskare visar att AI-system inte kan följa normer på grund av matematiska begränsningar

arXiv cs.AI

En ny forskningsrapport bevisar att AI-system som tränas med RLHF (Reinforcement Learning from Human Feedback) strukturellt inte kan följa etiska normer eller regler. Problemet ligger i att optimering alltid väger alla värden mot varandra på en skala, vilket gör det omöjligt att hålla vissa gränser som absoluta - något som krävs för att vara en genuin agent istället för bara ett verktyg.