Eksperiment koji je uzdrmao sajber svet: AI virus pokazao razmere opasnosti digitalnih pretnji
16.09.2025 | 15:08
Bez adekvatnog nadzora i regulacije, veštačka inteligencija može postati izvor rizika
Kada se u javnosti pojavila vest o prvom ransomware-u napravljenom uz pomoć veštačke inteligencije, bezbednosna industrija našla se u stanju šoka. Iako se zapravo radilo o istraživačkom projektu, priča se proširila internetom kao dokaz da je nova generacija malvera već među nama. Stručnjaci su u neverici komentarisali potencijal takve pretnje, a mediji širom sveta prenosili senzacionalističke naslove, što je dodatno podgrejalo paniku.
Tim istraživača sa Univerziteta u Njujorku (NYU) želeo je da ukaže na ozbiljan problem – da li bi veštačka inteligencija, kada se ukrsti sa sofisticiranim malverom, mogla da kreira potpuno novu eru sajber pretnji? Njihov cilj nije bio da stvore oružje, već da prikažu koliko su rizici realni i koliko je industrija nespremna za takav scenario. Upravo taj spoj naučnog rada i pogrešne percepcije javnosti pretvorio je eksperiment u globalnu vest.
„Ransomware 3.0” – istraživački eksperiment koji je zvučao zastrašujuće realno
Doktorand Md Raz i njegov tim sa NYU odlučili su da ispitaju šta se dešava kada se najnoviji oblici ransomware-a ukrste sa velikim AI modelima. Njihov dokaz-koncepta (PoC) zamišljen je kao eksperiment, ali rezultati su bili toliko ubedljivi da su mnogi poverovali kako je reč o stvarnom malveru.
Za razvoj prototipa korišćeni su OpenAI-jevi modeli gpt-oss-20b i gpt-oss-120b, pri čemu se manji model pokazao „poslušnijim” u izvršavanju zadataka. Veštačka inteligencija pokazala se sposobnom da ne samo kreira maliciozni kod već i da ga stalno menja, prilagođava i personalizuje. Tako je „Ransomware 3.0” postao veran prikaz onoga što bi mogla da bude budućnost sajber pretnji.
Funkcionalnosti koje su zabrinule industriju
Eksperimentalni prototip bio je osposobljen da:
- generiše Lua skripte prilagođene svakom pojedinačnom računaru,
- mapira IT sisteme i prepoznaje najvrednije fajlove,
- koristi polimorfni kod, koji se menja pri svakom pokretanju i time otežava detekciju,
- kreira personalizovane poruke o otkupu, koristeći stvarne podatke o žrtvi.
Panika ili upozorenje?
Iako se eksperiment nikada nije pretvorio u stvarnu pretnju, vest o „AI ransomware-u” odjeknula je kao upozorenje. Istraživači sa NYU naglasili su da njihov cilj nije bio da stvore novo oružje, već da pokažu koliko je svet ranjiv ukoliko ovakve tehnologije padnu u pogrešne ruke.
Diskusija koju je projekat otvorio još traje. Stručnjaci sada ozbiljno razmatraju scenarije u kojima bi AI mogao da unapredi sajber kriminal do nivoa koji prevazilazi današnje zaštitne mehanizme. Ako je „Ransomware 3.0” samo eksperiment, jasno je da industriju tek očekuje prava borba protiv budućih hakerskih napada pokretanih veštačkom inteligencijom.
YouTube donosi veliku promenu: Kreatori mogu da dodaju zvuk na više jezika i tako povećaju gledanost
BONUS VIDEO: