Amerikansk domstol: DOGE använde ChatGPT på olagligt sätt
Trumps Department of Government Efficiency använde ChatGPT för att avgöra om forskningsprojekt var relaterade till mångfald och jämställdhet – och stoppade sedan över 100 miljoner dollar i bidrag baserat på detta. En federal domare kallade metoden både dum och grundlagsstridig, eftersom den diskriminerade mot skyddade grupper.
Djupdykning
DOGE:s användning av ChatGPT för att sålla bort DEI-relaterade bidrag visar på en fundamental missförståning av både AI:s begränsningar och konstitutionell rätt. Att låta en språkmodell avgöra vad som kvalificerar som mångfald, rättvisa och inkludering är som att låta en ordbok bestämma vad som är konst – tekniken kan identifiera nyckelord men saknar helt förmågan att förstå sammanhang, nyans eller juridiska implikationer. Det här är inte bara en fråga om dåligt omdöme, utan ett symptom på något större: den naiva tron att AI kan ersätta komplicerade mänskliga bedömningar med enkla ja/nej-svar. Judge McMahons uttalande att DOGE "använde enbart förekomsten av särskilda, skyddade egenskaper" för att diskvalificera bidrag avslöjar hur algoritmisk diskriminering kan se ut i praktiken – inte medveten ondska, utan lat automatisering av komplexa beslut. Ironin är att en avdelning som heter "Government Efficiency" skapade mer ineffektivitet genom att försöka korta ner beslutsprocesser med verktyg som inte förstår vad de gör. Nu riskerar denna rättsprocess att sätta prejudikat för hur myndigheter får och inte får använda AI i framtiden.