"Povijesni dan": Ove videe nisu napravili ljudi, nego AI. Nemoguće je vidjeti razliku

Foto: Sofa

OpenAI, svjetski lider na polju umjetne inteligencije i kompanija koja stoji iza popularnog ChatGPT-ja, predstavila je novi AI model nazvan Sora, za koji tvrdi da može stvoriti "realistične i maštovite" videozapise.

Kompanija je u jučerašnjoj objavi na svom službenom blogu navela da je Sora sposobna generirati videozapise u trajanju do 60 sekundi iz tekstualnih uputa (promptova), dodajući da može kreirati scene s više likova, specifičnim vrstama pokreta i jasnim pozadinskim detaljima. "Model razumije ne samo što je korisnik tražio u upitu već i kako te stvari izgledaju u fizičkom svijetu", stoji u objavi na blogu OpenAI-ja.

Na društvenim mrežama pojavio se i niz primjera koji pokazuju moć modela Sora, pri čemu korisnici masovno komentiraju da ih je nemoguće razlikovati od snimki stvarnog svijeta. "Ovo je povijesni dan za AI", komentirao je jedan programer i autor koji se bavi primjenom AI-ja.

 

OpenAI je rekao da namjerava uvježbati svoje AI modele kako bi mogli "pomoći ljudima u rješavanju problema koji zahtijevaju interakcije u stvarnom svijetu".

Sora je najnoviji model tvrtke koja stoji iza viralnog chatbota ChatGPT, koji je zaslužan za eksploziju pokreta generativne umjetne inteligencije. Iako takozvani multi-modalni modeli nisu novi, a modeli koji pretvaraju tekstualne upute u video već postoje, ono što Soru čini iznimnom je duljina trajanja videa i preciznost pretakanja tekstualnih uputa u video koji je teško ili nemoguće razlikovati od stvarnih snimki.

Reecee Hayden, viši analitičar u tvrtki za istraživanje tržišta ABI Research, kaže da bi ove vrste AI modela mogle imati velik utjecaj na tržišta digitalne zabave s novim vrstama personaliziranog sadržaja.

“Jedan očit slučaj upotrebe je na televiziji, odnosno kreiranje kratkih scena koje podržavaju narativ”, rekao je Hayden. "Model je još uvijek ograničen, ali pokazuje smjer u kojem će tržište ići."

Usprkos impresivnim primjerima, OpenAI navodi da se na Sori još uvijek radi te da model ima "očite slabosti", osobito kada su u pitanju prostorni detalji uputa. Konkretno, model ima problema miješanjem lijeve i desne strane te uzroka i posljedice. Dao je primjer stvaranja videozapisa na kojem netko grize kolačić, ali odmah nakon toga nema traga ugriza.

Sigurnost prije svega

Za sada poruke OpenAI-ja ostaju fokusirane na sigurnost. Tvrtka je rekla da planira surađivati s timom stručnjaka na testiranju najnovijeg modela i pomno promatrati različita područja uključujući dezinformacije, širenje govora mržnje i pristranosti. Tvrtka je rekla da također gradi alate za pomoć u otkrivanju dezinformacija.

Sora će najprije biti dostupna profesorima kibernetičke sigurnosti, takozvanim "crvenim timovima", koji mogu procijeniti potencijale pojedinih modela da nanesu štetu ili stvore rizike. Pristup će biti omogućen i vizualnim umjetnicima, dizajnerima i filmašima kako bi se prikupile povratne informacije o tome kako bi ga kreativni profesionalci mogli koristiti.

 

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.