Forskare avslöjar att stora språkmodeller inte är så oberoende som vi tror

arXiv cs.AI

En ny studie visar att populära AI-modeller som GPT och Llama delar så många gemensamma träningsdata och tekniker att de gör liknande fel – vilket undergräver system som använder flera modeller för att kontrollera varandras svar. Forskarna utvecklade ett statistiskt ramverk som mäter denna "beteendemässiga sammanflätning" och fann att när modeller är mer beroende av varandra, blir de sämre på att bedöma kvalitet med upp till 71% korrelation mellan beroende och felaktig överövertygelse.