Pochi giorni fa KLING di Kuaishou. Prima ancora Veo di Google, Higgsfield AI di Diffuse ed LTX Studio di Lightricks. Senza dimenticare il precursore, Sora di OpenAI.
Le IA generative hanno rivoluzionato il mondo con la loro capacità di creare testi e immagini, e lo faranno ancora di più creando dei video. Già, ma a partire da quando? Questa è una bella domanda: a fronte di un Kling, che è possibile provare già ora, Veo, Higgsfield AI, LTX Studio e Sora non sono ancora disponibili al pubblico.
Insomma, l’unico modo fino a oggi di godere l’ebbrezza del text-to-video era la soluzione cinese. Ma diciamo “era” perché la risposta occidentale arriva da Palo Alto, California, e più precisamente da Luma Labs, che ha appena presentato Dream Machine.
Si tratta di un modello di intelligenza artificiale capace di creare video clip realistici e di alta qualità, partendo da prompt testuali o immagini. Dream Machine è già disponibile al pubblico e può generare clip di 5 secondi basandosi su prompt testuali o immagini di riferimento, garantendo una notevole fluidità, coerenza e movimenti di camera realistici.
Questo modello di tipo transformer è addestrato su contenuti video, così da ottenere risultati più coerenti che simulano meglio le interazioni e le leggi fisiche del mondo reale. E sulla carta è piuttosto veloce. Secondo Luma, infatti, Dream Machine è in grado di produrre 120 fotogrammi di video in 120 secondi. Al momento del lancio, però, i tempi di attesa sono stati più lunghi a causa dell’elevata domanda.
Il servizio è stato lanciato con un piano gratuito che permette di generare 30 video, mentre l’opzione a pagamento consente di creare fino a 2.000 video al mese.


