Razotkriveno: Pogledajte kako veštačka inteligencija falsifikuje video-pozive u realnom vremenu!
Razotkrivena je AI manipulacija u video-pozivima putem aplikacije Signal. Stručnjak demonstrirao kako se lažni audio i video prikazuju u realnom vremenu.
Snimak koji je napravljen uz pomoć veštačke inteligencije, a čiju su autentičnost mnogi do sada dovodili u pitanje tvrdeći da takva tehnologija ne može da se primeni u realnim video-pozivima, sada je dobio svoju praktičnu potvrdu. Upravo kroz ovaj primer pokazano je da je zloupotreba AI tehnologije u komunikacionim aplikacijama ne samo moguća, već i tehnički izvodljiva.
Stručnjak iz oblasti informacionih tehnologija detaljno je objasnio i demonstrirao kako se ovakva manipulacija sprovodi u praksi. Prema njegovim rečima, u slučajevima zloupotrebe veštačke inteligencije ovakva vrsta prevare zahteva napredna tehnička znanja, ali ne nužno i skupu ili nedostupnu opremu.
„Ovakva manipulacija može da se izvrši uz korišćenje naprednih alata, kako open source rešenja, tako i komercijalnih alata namenjenih ovoj svrsi. U konkretnom slučaju, ceo scenario je mogao da se simulira isključivo pomoću open source alata, tako što se definišu ulazni i izlazni modeli audiovizuelnog sadržaja sa kojim se manipuliše“, objašnjava stručnjak.
Proces podrazumeva treniranje modela – i audio i video komponente – na osnovu unapred pripremljenih podataka, nakon čega se generisani signali ubacuju u komunikacioni kanal. U ovom slučaju, manipulacija je izvršena unutar aplikacije Signal, tako da se sagovorniku u realnom vremenu prikazuje lažni, veštački generisan audiovizuelni sadržaj, bez njegove svesti da je u pitanju prevara.
Ovaj primer jasno pokazuje koliko su granice između stvarnog i veštački generisanog sadržaja postale tanke, ali i koliko su potencijalne zloupotrebe AI tehnologije ozbiljan bezbednosni izazov, naročito u kontekstu privatne komunikacije, poslovnih razgovora i poverljivih informacija.
Kako veštačka inteligencija falsifikuje video-pozive u realnom vremenu
FAQ – Najčešća pitanja
Kako je moguće da AI lažira video-poziv uživo?
Korišćenjem naprednih modela za obradu slike i zvuka, veštačka inteligencija može u realnom vremenu da generiše lažno lice i glas, koji se zatim ubacuju direktno u kanal komunikacije.
Da li su za ovakvu manipulaciju potrebni skupi alati?
Ne nužno. Stručnjaci upozoravaju da se slične manipulacije mogu izvesti i pomoću open source alata, uz dovoljno tehničkog znanja i obuke modela.
Da li su bezbedne aplikacije za šifrovanu komunikaciju?
Šifrovanje štiti prenos podataka, ali ne može da spreči da se u komunikaciju ubaci veštački generisan audio-vizuelni sadržaj pre samog slanja.
Kako korisnici mogu da prepoznaju AI obmanu?
Zašto je ovo ozbiljan bezbednosni problem?
Zato što ovakve tehnologije mogu biti zloupotrebljene za prevare, ucene, lažno predstavljanje i kompromitovanje privatnih i poslovnih razgovora.
Instalirajte našu iOS ili android aplikaciju – 24sedam Vest koja vredi
Komentari