Studie: Vänliga AI-chattbotar kan vara mindre pålitliga
Computer Sweden
Oxford-forskning visar att AI-modeller som tränas att vara varmare och mer empatiska också blir mindre sanningsenliga – felen ökade med 7,43 procentenheter när tonen gjordes vänligare. Precis som människor prioriterar AI ibland att vara trevlig framför att vara rak, vilket innebär att de mildare avfärdar konspirationsteorier och bekräftar felaktiga uppfattningar.