Pubblicato il 15/03/2024
OpenAI ha fornito ulteriori dettagli sul suo strumento di Intelligenza Artificiale (IA) generativa Sora, capace di generare scene video realistiche a partire da istruzioni testuali, che sarà lanciato pubblicamente verso la fine di quest'anno, anche se la data esatta non è stata specificata.
La compagnia ha introdotto Sora un mese fa, menzionando che si tratta di un modello che consente la creazione di scene "altamente dettagliate", così come un movimento di camera "complesso" e l'integrazione di più personaggi.
Per creare questi video, che possono durare fino a 60 secondi, gli utenti devono solo scrivere una serie di istruzioni dettagliando quali caratteristiche la scena deve includere, come i personaggi, le azioni che svolgeranno, l'ambientazione, il clima e i movimenti di camera che devono essere ricreati.
In quel momento, OpenAI ha commentato che questo modello era disponibile solo per i membri del team rosso dell'azienda, ovvero il team dedicato alla ricerca del servizio, allo scopo di testarlo e vedere quali difetti presenta e quali potrebbero essere i suoi rischi potenziali.
La direttrice tecnologica di OpenAI, Mira Murati, ha ora anticipato in un'intervista con The Wall Street Journal che OpenAI non lancerà pubblicamente Sora fino alla fine di quest'anno, poiché questo team di sviluppo sta ancora lavorando per rilevare vulnerabilità, pregiudizi e altri risultati dannosi.
Senza entrare nel dettaglio su come questa IA viene addestrata, ha menzionato che utilizza "dati disponibili pubblicamente e dati con licenza", così come contenuti da Shutterstock, anche se ha affermato di non sapere se parte di essi provenga da video di YouTube o piattaforme come Instagram e Facebook.
Inoltre, ha indicato che questo strumento segue il percorso di Dall-E nel senso che non permette la generazione di immagini di figure pubbliche, oltre al fatto che la compagnia sta lavorando con gli artisti per determinare "barriere e limitazioni senza ostacolare la creatività".
COMMENTI
Nessun commento dei clienti per il momento.