OpenAI ha da poco presentato Sora, un modello di intelligenza artificiale in grado di generare video estremamente realistici. Dopo l’avvento di ChatGPT per la produzione di testo e DALL-E per la creazione di immagini, è infatti arrivato il momento in cui è possibile generare dei video partendo da una descrizione testuale.
La domanda che sorge naturale casi è: “ma questa tecnologia potrebbe realmente sostituire i videomaker?“. Dopo gli scrittori e gli artisti, sembra essere arrivato anche il turno dei videomaker. Ovviamente, anche in questo caso lo strumento dà il meglio di sé se viene utilizzato da professionisti in grado di gestire correttamente questo tipo di contenuto.
Ma diamo un’occhiata ad alcuni esempi che ci fanno capire, allo stato attuale, la potenza di Sora.
Il prompt del seguente video è: “Un trailer cinematografico che presenta le avventure di un cosmonauta trentenne che indossa un casco da motociclista di lana rossa, sotto un cielo blu, nel deserto di sale, in stile cinematografico, girato su pellicola 35mm, con colori vividi.”
Prompt: A movie trailer featuring the adventures of the 30 year old space man wearing a red wool knitted motorcycle helmet, blue sky, salt desert, cinematic style, shot on 35mm film, vivid colors. pic.twitter.com/zoki4BgtO5
— Dogan Ural (@doganuraldesign) February 15, 2024
Nel caso seguente, la descrizione è ancora più approfondita: “Visuale aerea di onde che si infrangono contro le scogliere frastagliate lungo la spiaggia di Garay Point a Big Sur. Le acque blu in tumulto creano onde con creste bianche, mentre la luce dorata del tramonto illumina la costa rocciosa. Un piccolo isolotto con un faro si erge in lontananza, e arbusti verdi ricoprono il bordo della scogliera. La ripida discesa dalla strada fino alla spiaggia è uno spettacolo drammatico, con i bordi della scogliera che si protendono sul mare. Questa è una vista che cattura la bellezza selvaggia della costa e il paesaggio aspro della Pacific Coast Highway.”
Prompt: Drone view of waves crashing against the rugged cliffs along Big Sur’s garay point beach. The crashing blue waters create white-tipped waves, while the golden light of the setting sun illuminates the rocky shore. A small island with a lighthouse sits in the distance, and… pic.twitter.com/KLUL7DJfVI
— Dogan Ural (@doganuraldesign) February 15, 2024
Per questo terzo e ultimo esempio, invece, è stata usata una descrizione più semplice: “Un giovane ragazzo ventenne è seduto su un pezzo di nuvola nel cielo, mentre legge un libro.”
Prompt: A young man at his 20s is sitting on a piece of cloud in the sky, reading a book. pic.twitter.com/9Gs89SfxCI
— Dogan Ural (@doganuraldesign) February 15, 2024
Insomma, Sora sembra riuscire a comprendere appieno i dettagli imposti dalle descrizioni che vengono fornite allo strumento.
I possibili utilizzi di un modello di intelligenza artificiale come Sora possono essere svariati: pensiamo a dei trailer cinematografici, oppure a delle semplici sequenze da utilizzare per i video sui social, fino a dei contenuti in stile cartone animato.
Sam Altman, CEO di OpenAI, ha affermato che il modello è attualmente disponibile solo ad alcuni gruppi di persone, i quali si occupano di valutare i potenziali danni e rischi e di fornire feedback utili al team di sviluppo. Non è quindi ancora disponibile al pubblico, ma immaginiamo che non ci voglia molto prima che anche questo strumento possa diventare accessibile a ogni tipologia di utente.
Attendiamo ulteriori aggiornamenti per quanto riguarda Sora. Nel frattempo, è utile cercare di comprendere come utilizzare questi modelli per facilitare il proprio lavoro, in qualsiasi campo si operi.
Scrivi un commento