Snapchat låser fast AI-promptar i Lens Studio

Snapchat rullar ut AI Clips i Lens Studio, som tar ett stillbild och pumpar ut en femsekunders video. Grejen är att det är ett "slutet prompt-system" – utvecklarna får inte skriva egna AI-instruktioner utan måste jobba med fördefinierade kommandon.
Det är en intressant kompromiss. Snapchat får behålla kontrollen över vad AI:n faktiskt gör (ingen risk för olämpligt innehåll eller off-brand resultat), medan AR-utvecklarna får tillgång till videogenereringsmagi utan att behöva träna egna modeller eller betala OpenAI-räkningar.
Men det begränsar också kreativiteten rejält. Istället för att kunna prompt:a "gör vattnet lila och lägg till regnbågar" så är du fast vid vad Snapchat tyckte var rimliga alternativ när de byggde systemet. Det påminner om tidiga App Store-dagarna – kraftfulla verktyg, men inom strikta ramar.
För AR-utvecklare är det ändå en no-brainer att testa. Videogenerering från stillbilder har gått från forskningsprojekt till produktfunktion på typ två år, och nu kan du baka in det i dina Lenses utan att förstå hur diffusion models funkar.
Snapchat satsar tydligt på att bli plattformen där kreativa experient med AI utan att behöva bli AI-experter. Smart drag – de flesta vill bara att det ska funka, inte konfigurera hyperparametrar.


