Runway AI è stata la prima azienda a portare sul mercato una suite di prodotti di intelligenza artificiale generativa pensata per i videomaker. Ha iniziato già due anni fa, prima proponendo Gen-1, un modello di IA video to video, poi Gen-2, un modello sia text to video che image to video. Ora ha presentato Gen-3 che si concentra sul text to video, portando i risultati ad un nuovo livello.
In realtà, da un anno a questa parte, l’azienda sembrava in un fase di stasi. Poi, l’annuncio a sorpresa di Sora, un modello video molto innovativo, da parte di OpenAI, ha dato la scossa a questo mercato lento, ancora in fase nascente. È emerso Pika, dalla sua fase alpha, e poi è spuntato Dream Machine di Luma. A chiudere, è arrivata l’applicazione Kling AI, del colosso cinese Kuaishou (social rivale di TikTok).
Insomma, gli spiriti competitivi di Cristóbal Valenzuela e soci devono essersi risvegliati, tanto da lanciare, in fretta e furia, una versione alpha di Runway Gen-3.
Io l’ho testato in anteprima, una settimana in anticipo sugli altri, perché faccio parte del Creative Partner Program di Runway, ed ho potuto apprezzarne i miglioramenti rispetto a Gen-2. Certo, è ancora una versione alpha che presenta diversi tipi di allucinazione (persone che appaiono o scompaiono all’improvviso, movimenti strani dei corpi, ecc.), ma il realismo è di buona qualità. Al momento, l’interfaccia è basilare (ma è già stato detto che non è quella definitiva) e i video che si possono ottenere hanno una durata di 5 o 10 secondi ed una qualità di soli 720p. La mia prova in questo video!