Svensk AI-expert utvecklar energisnålt alternativ till stora språkmodeller
Den svenske AI-experten Emil Romanus, grundare av Farang, utvecklar ett energisnålare alternativ till dagens stora språkmodeller och kritiserar AI-jättarna för att förväxla produktivitet med äkta intelligens. Han ifrågasätter var gränsen går för produktivitetsökningen och hur energiförbrukningen påverkar byggandet av serverhallar.
Djupdykning
Emil Romanus pekar på en fundamental brist i hur vi mäter AI-framsteg - vi har blivit så fixerade vid imponerande outputs att vi glömt bort att fråga om systemen faktiskt förstår vad de gör. Hans kritik träffar rätt i hjärtat av en bransch som kört över sig själv med "bigger is better"-mentaliteten, där GPT-modellerna bara blir större och energikrävande medan den underliggande arkitekturen förblir densamma. Det är lite som att bygga snabbare bilar medan man ignorerar att motorn fortfarande går på ånga. Medan Big Tech tävlar om vem som kan bygga de mest energislukande datacentralerna råkar Romanus vara ute efter något mer fundamentalt - modeller som faktiskt kan resonera istället för bara härma mönster från träningsdata. Hans svenska perspektiv på energieffektivitet känns särskilt relevant när EU börjar reglera AI:s klimatpåverkan och elräkningarna för ChatGPT börjar bli astronomiska.