AI-jätten Anthropic rekryterar vapenexpert

Di Digital

Anthropic söker nu en expert på kemiska vapen och sprängämnen för att förhindra att deras AI-teknik missbrukas för vapenframställning. Rekryteringen visar hur AI-bolag aktivt arbetar med säkerhetsfrågor när deras modeller blir alltmer kapabla.

Djupdykning

Anthropic tar nu ett proaktivt grepp om säkerhet genom att anställa en expert på kemiska vapen och sprängämnen – ett tecken på att AI-företagen börjar inse hur deras teknik kan missbrukas. Detta följer en trend där stora språkmodeller blivit allt bättre på att ge detaljerade instruktioner om potentiellt farliga ämnen, även när de programmeras att inte göra det. Att ha en vapenexpert i teamet betyder att Anthropic kan bygga säkerhetsfilter baserade på verklig kunskap om vilken information som faktiskt är farlig, snarare än att bara gissa. Det visar också hur AI-säkerhet utvecklas från teoretiska diskussioner till konkreta åtgärder med specialister från olika områden. Nyckelinsikt: AI-företagen går från allmänna säkerhetsriktlinjer till att anställa experter inom specifika riskområden för att förstå sina modellers faktiska faror.