ISIS i druge ekstremističke skupine koriste AI za lažni sadržaj i regrutiranje
DOK SVIJET istražuje goleme mogućnosti umjetne inteligencije, istom tehnologijom za svoje ciljeve sve se više koriste i militantne skupine. Stručnjaci za nacionalnu sigurnost i obavještajne agencije upozoravaju kako ekstremističke organizacije, uključujući ISIS, eksperimentiraju s AI programima za regrutiranje novih članova, stvaranje uvjerljivih lažnih sadržaja i unaprjeđenje kibernetičkih napada, piše Euronews.
Jednostavan alat za širenje propagande
Da je umjetna inteligencija postala dio operacija terorističkih skupina, svjedoči i poziv objavljen prošlog mjeseca na internetskoj stranici pro-Islamske države, gdje je jedan korisnik poticao druge pristaše na njezino korištenje. "Jedna od najboljih stvari kod AI-a je koliko je jednostavan za korištenje", napisao je. "Neke obavještajne agencije brinu da će AI doprinijeti regrutiranju. Stoga pretvorite njihove noćne more u stvarnost."
Stručnjaci ističu da ne iznenađuje što IS, decentralizirani savez militantnih skupina, testira AI, s obzirom na to da su prije mnogo godina prepoznali društvene medije kao moćno sredstvo za regrutaciju i dezinformacije.
Za slabo povezane i resursima ograničene ekstremističke skupine, ili čak pojedince, AI omogućuje masovno širenje propagande i takozvanih deepfakeova, čime se značajno povećava njihov doseg i utjecaj.
"Za svakog protivnika, AI uistinu olakšava stvari", izjavio je John Laliberte, bivši istraživač u Nacionalnoj sigurnosnoj agenciji (NSA), a sada direktor tvrtke za kibernetičku sigurnost ClearVector. "Uz AI, čak i mala skupina koja nema puno novca i dalje može ostvariti utjecaj."
Lažne slike i deepfake snimke u akciji
Militantne skupine počele su koristiti umjetnu inteligenciju čim su alati poput ChatGPT-a postali široko dostupni. U godinama koje su uslijedile, sve su se više okretale generativnim AI programima za stvaranje realističnih fotografija i videozapisa.
Manipulacijom algoritama društvenih mreža, takav lažni sadržaj može pomoći u regrutiranju novih pristaša, zbuniti protivnike i širiti propagandu u razmjerima koji su donedavno bili nezamislivi. Primjerice, prije dvije godine takve su skupine širile lažne slike rata između Izraela i Hamasa, prikazujući krvave i napuštene bebe u bombardiranim zgradama.
Slike su potaknule bijes i polarizaciju, zamagljujući stvarne strahote rata, a nasilne skupine na Bliskom istoku, kao i antisemitske skupine u SAD-u i drugdje, koristile su ih za vrbovanje novih članova.
Sličan scenarij dogodio se i prošle godine nakon napada u koncertnoj dvorani u Rusiji, u kojem je ubijeno gotovo 140 ljudi, a odgovornost je preuzeo ogranak IS-a. U danima nakon napada, propagandni videozapisi stvoreni pomoću AI-ja masovno su kružili internetskim forumima i društvenim mrežama, pozivajući na pridruživanje.
Prema istraživačima iz SITE Intelligence Group, tvrtke koja prati ekstremističke aktivnosti, IS je također stvorio deepfake audio snimke svojih vođa kako recitiraju svete tekstove te je koristio AI za brzo prevođenje poruka na više jezika.
Prijetnja koja će samo rasti
Iako takve skupine tehnološki zaostaju za državama poput Kine, Rusije ili Irana, a sofisticiranije primjene AI-ja su im još uvijek "aspirativne", rizici su preveliki da bi se ignorirali, smatra Marcus Fowler, bivši agent CIA-e i sadašnji direktor u tvrtki za kibernetičku sigurnost Darktrace Federal. On upozorava da će prijetnja rasti s daljnjim širenjem jeftine i moćne umjetne inteligencije.
Hakeri već koriste sintetički audio i video za takozvane phishing kampanje, u kojima se lažno predstavljaju kao visoki poslovni ili vladini dužnosnici kako bi dobili pristup osjetljivim mrežama. Također, AI im može poslužiti za pisanje zlonamjernog koda ili automatizaciju dijelova kibernetičkih napada.
Još više zabrinjava mogućnost da bi militantne skupine mogle pokušati koristiti AI za pomoć u proizvodnji biološkog ili kemijskog oružja, čime bi nadoknadile nedostatak stručnog znanja.
Taj je rizik naveden i u najnovijoj procjeni prijetnji američkog Ministarstva domovinske sigurnosti. "ISIS je rano došao na Twitter i pronašao načine kako iskoristiti društvene medije u svoju korist", podsjetio je Fowler. "Uvijek traže sljedeću stvar koju će dodati svom arsenalu."
Zakonodavci traže hitnu akciju
Suočeni s rastućom prijetnjom, američki zakonodavci predložili su nekoliko mjera, ističući hitnu potrebu za djelovanjem. Mark Warner, vodeći demokrat u Senatskom obavještajnom odboru, rekao je kako SAD mora olakšati developerima AI sustava da dijele informacije o tome kako njihove proizvode koriste zlonamjerni akteri, bilo da se radi o ekstremistima, hakerima ili stranim špijunima.
"Očito je od kraja 2022. godine, s javnim objavljivanjem ChatGPT-a, da će se ista fascinacija i eksperimentiranje s generativnom umjetnom inteligencijom koju je imala javnost primijeniti i na niz zlonamjernih aktera", rekao je Warner.
Tijekom nedavnog saslušanja, zastupnici su doznali da su IS i al-Qaida održavali radionice kako bi obučili pristaše za korištenje AI-ja. Zakon koji je prošlog mjeseca prošao u Zastupničkom domu zahtijevao bi od dužnosnika domovinske sigurnosti godišnju procjenu rizika koje predstavljaju takve skupine.
August Pfluger, zastupnik iz Teksasa i predlagatelj zakona, poručio je kako se zaštita od zlonamjerne upotrebe AI-ja ne razlikuje od priprema za konvencionalne napade. "Naše politike i sposobnosti moraju ići ukorak s prijetnjama sutrašnjice", zaključio je.