AI videi ubrzavaju ruske dezinformacijske kampanje: "Ovo je politička revolucija"
POPUT svakog redovitog korisnika društvenih mreža, profesor Alan Read s King's Collegea u Londonu nije pridavao previše pažnje povremenim deepfake videozapisima koji bi mu se pojavili u feedu. Ponekad bi ih prijavio, a ponekad jednostavno ignorirao. Sve se promijenilo kada ga je jednog dana nepoznati račun označio u videu u kojem se pojavilo njegovo lice.
U snimci je sintetički glas, gotovo identičan glasu profesora Reada, iznio politiziranu tiradu protiv francuskog predsjednika Emmanuela Macrona, nazivajući njega i druge zapadne čelnike putnicima "na Titaniku na čijem trupu piše 'Europska unija'". Taj je video dio novog vala sadržaja povezanog s Rusijom koji se posljednjih mjeseci širi društvenim mrežama, izazivajući zabrinutost stručnjaka za sigurnost, piše BBC.
"Gotovo sve u tom videu je nečuveno i grozno za slušati", rekao je za BBC dr. Read, ugledni profesor teatrologije bez ikakvih veza s politikom. "Zvuči mi... posve strano."
Revolucija u političkom utjecaju
Avatar dr. Reada, koji je postao nesvjesni sudionik kampanje, pojavio se usred sve veće zabrinutosti da se Zapad mora pripremiti za bitku protiv utjecaja Kremlja na fronti umjetne inteligencije. "Ovdje se ne radi samo o porastu broja deepfakeova, već o promjeni u načinu na koji se ostvaruje utjecaj", rekao je Chris Kremidas-Courtney, analitičar za obranu i sigurnost pri think-tanku European Policy Centre.
"Suočeni smo sa sustavima koji mogu masovno generirati uvjerljiv sadržaj, i to za sitan novac. Po meni, ovo je revolucija u političkom utjecaju, a nijedan naš postojeći sustav upravljanja nije spreman nositi se s time."
Videozapisi, od kojih neki prikupljaju stotine tisuća pregleda, diskreditiraju institucije EU i optužuju vladu u Kijevu za korupciju, i to baš u trenutku dok se ona bori za financiranje od zapadnih partnera u petoj godini ruske invazije punog opsega.
Dostupnost tehnologije
Nedavni porast događa se nekoliko mjeseci nakon što je tvrtka OpenAI objavila Sora2, najnoviju verziju svog softvera za generiranje videa koji je donio velik iskorak u realizmu.
U sjeni tehnološkog diva, bezbrojne manje aplikacije natječu se za tržišni udio privlačeći korisnike nižim cijenama ili ukidanjem sigurnosnih mjera poput vodenih žigova, kojima Sora2 označava svoje videozapise kako bi ih se razlikovalo od stvarnih snimki.
"Moraju privući korisnike", rekao je ruski stručnjak za umjetnu inteligenciju Arman Tuganbaev, dodajući da dok OpenAI pokušava spriječiti stvaranje videozapisa određenih ljudi, "aplikacije drugog reda dat će vam tu mogućnost".
Iz OpenAI-ja su za BBC poručili da poduzimaju mjere protiv računa koji se bave obmanjujućim aktivnostima osmišljenim za nanošenje štete, uključujući lažno predstavljanje podrijetla sadržaja. Ova tehnološka utrka potaknula je stalan rast volumena i sofisticiranosti stranih kampanja utjecaja, jačajući poziciju Rusije u njezinom hibridnom sukobu sa Zapadom.
Kampanje diljem Europe
Krajem prosinca, mnoštvo videozapisa generiranih umjetnom inteligencijom postalo je viralno na TikToku. Prikazivali su mlade Poljakinje koje pozivaju na "Polexit", odnosno izlazak Poljske iz EU. "Nema sumnje da je riječ o ruskoj dezinformaciji", rekao je Adam Szlapka, glasnogovornik poljske vlade.
Poljska je pozvala Europsku komisiju da istraži TikTok zbog ovog incidenta. Iz TikToka, koji je u međuvremenu uklonio sporne isječke i račune, naveli su da su tijekom 2025. godine uklonili više od 75 tajnih operacija utjecaja diljem svijeta.
U Ujedinjenom Kraljevstvu zastupnici su raspravljali o zabrinutosti da bi ruski deepfakeovi mogli utjecati na lokalne izbore u svibnju. "Vidjeli smo da se masovno koriste na izborima diljem svijeta, stoga nema razloga pretpostaviti da će Britanija biti iznimka", rekao je zastupnicima Vijay Rangarajan, glavni izvršni direktor britanskog Izbornog povjerenstva.
Britanski Zakon o sigurnosti na internetu ne klasificira izričito dezinformacije kao štetu, već obvezuje platforme da uklone materijal za koji mogu dokazati da je dio stranog utjecaja - proces koji često traje predugo u online okruženju gdje videozapisi postaju viralni u roku od nekoliko sati.
Tko stoji iza napada?
Iako je objavama teško ući u trag, zapadni istraživači kažu da mnoge od njih dijele zajedničke karakteristike - od stilskih elemenata do obrazaca distribucije - koje ih povezuju s organiziranim dezinformacijskim jedinicama povezanim s Kremljom.
Vjeruje se da je jedna kampanja, nazvana Matrjoška ili Operacija Preopterećenje, orkestrirala val sintetičkih videa koji su diskreditirali moldavsku predsjednicu Maiu Sandu tijekom njezine izborne kampanje 2025. godine. NewsGuard, organizacija koja prati online dezinformacije, uočila je zajedničke obrasce koji sugeriraju da je ista mreža vjerojatno stajala i iza videa s dr. Readom.
Naziv operacije - matrjoške su ruske babuške - odražava njezinu metodu, koja izvornu lažnu tvrdnju oblaže slojevima ponovnih objava sa starih ili hakiranih računa na društvenim mrežama.
Za razliku od tradicionalnih ruskih propagandnih medija poput RT-a i Sputnika, koje je Zapad brzo sankcionirao, takve kampanje "omogućuju određenu razinu uvjerljivog poricanja odgovornosti, što komplicira napore u suzbijanju takvog utjecaja", rekla je Sophie Williams-Dunning, istraživačica pri think-tanku Royal United Services Institute.
Istraživači sa Sveučilišta Clemson povezali su zasebnu mrežu, koju je Microsoftov Centar za analizu prijetnji nazvao Storm-1516, s veteranima kremaljske "tvornice trolova" koju je vodio Jevgenij Prigožin, vođa plaćeničke skupine Wagner, prije njegove smrti 2023. godine. U nadolazećoj studiji u koju je BBC imao uvid, akademici su prikazali brzinu kojom se lažne vijesti šire.
Svaki put kada bi kampanja Storm-1516 objavila lažnu priču o tome da je Volodimir Zelenski "korumpiran", ta bi priča zauzela otprilike 7.5% svih rasprava o ukrajinskom predsjedniku na platformi X u idućem tjednu. "To je rezultat kojim bi se ponosila svaka marketinška tvrtka", rekao je Darren L. Linvill, jedan od autora studije.