Github Copilot börjar tränas på användarnas data
Från 24 april kommer Github Copilot automatiskt samla in användardata för att förbättra AI-modellen, såvida användare inte aktivt tackar nej. Microsoft har valt en "opt-out"-lösning istället för "opt-in", vilket har lett till kraftig kritik, och planerar dessutom att dela data med utvalda partners.
Djupdykning
Microsoft drar sig för att vara transparenta igen – denna gång genom att automatiskt börja samla in utvecklares kod via GitHub Copilot utan att fråga först. Att välja "opt-out" istället för "opt-in" för något så känsligt som källkod är en riskabel strategi, speciellt när de också planerar att dela denna data med partners. För många utvecklare som jobbar med proprietär kod eller känsliga projekt kan detta bli en säkerhetsrisk, även om Microsoft påstår att de bara vill förbättra AI:n. Det faktum att företagskunder (Business/Enterprise) är undantagna visar att Microsoft mycket väl förstår integritetsproblemen – de vill bara inte förlora sina betalande storköpare. Nyckelinsikt: När teknikjättar väljer "opt-out" för datainsamling istället för "opt-in" signalerar de att de vet användarna skulle säga nej om de fick välja.