Veštačka inteligencija pravi haos u vojnim krugovima: Čak i NATO strahuje od načina na koji bi mogla da se iskoristi za ratovanje
Stručnjaci istražuju sve moguće opcije koje bi teroristi mogli da iskoriste
Stručnjaci su zabrinuti da će teroristi pronaći nove i problematične načine za upotrebu veštačke inteligencije (AI), uključujući nove metode isporuke eksploziva i poboljšanje njihovih onlajn inicijativa za regrutovanje.
- Realnost je da veštačka inteligencija može biti izuzetno opasna ako se koristi sa zlonamernom namerom - napisala je Antonija Mari de Meo, direktorka Međuregionalnog istraživačkog instituta Ujedinjenih nacija za kriminal i pravdu, u izveštaju o tome kako teroristi mogu da koriste veštačku inteligenciju.
- Sa dokazanim iskustvom u svetu sajber kriminala, to je moćno oruđe koje bi moglo da se koristi za dalje olakšavanje terorizma i nasilnog ekstremizma koji vodi terorizmu - dodala je ona, navodeći autonomne automobile bombe, pojačavanje sajber napada ili pronalaženje lakših puteva za širenje govora mržnje ili podsticanje nasilja na internetu.
Izveštaj "Algoritmi i terorizam: zlonamerna upotreba veštačke inteligencije u terorističke svrhe" zaključuje da će organi za sprovođenje zakona morati da nadmaše veštačku inteligenciju.
- Naša je težnja da ovaj izveštaj bude početak razgovora o zlonamernoj upotrebi veštačke inteligencije u terorističke svrhe - napisala je De Meo.
U izveštaju se navodi da će se zadatak da budu ispred terorista i predviđaju kako oni mogu da koriste veštačku inteligenciju pokazati teškim zadatkom, jer od njih zahteva ne samo da razmisle o načinima korišćenja veštačke inteligencije koje niko ranije nije razmatrao, već i da shvate kako da spreče nekoga da primene baš taj metod.
Amerikanci posebno zabrinuti
Izveštaj podržava studiju iz saradnje između NATO COE-DAT i Instituta za strateške studije Ratnog koledža američke vojske, "Nove tehnologije i terorizam: američka perspektiva", u kojoj se tvrdi da terorističke grupe koriste ove alate za regrutovanje i napade.
- Granica između stvarnosti i fikcije zamagljuje se u doba brze tehnološke evolucije, podstičući vlade, industrije i naučnike da se ujedine u izradi etičkih okvira i propisa - napisali su autori u nastavku.
- Kako se geopolitički talasi menjaju, NATO naglašava nacionalnu odgovornost u borbi protiv terorizma i zalaganju za kolektivnu snagu protiv nadolazećeg spektra pretnji izazvanih tehnologijom - dodali su autori.
Studija primećuje opšte slučajeve upotrebe OpenAI-ovog ChatGPT-a za "poboljšanje imejlova za regrutovanje, postavljanje malvera u biblioteke otvorenog koda, širenje dezinformacija i stvaranje onlajn propagande".
- Sajber kriminalci i teroristi su brzo postali vešti u korišćenju takvih platformi i velikih jezičkih modela uopšte za kreiranje dipfejka ili čet-botova hostovanih na mračnoj strani interneta da bi dobili osetljive lične i finansijske informacije ili planirali terorističke napade ili regrutovali sledbenike - napisali su autori.
- Ova zlonamerna upotreba verovatno će se povećati u budućnosti kako modeli budu postajali sofisticiraniji. Kako se osetljivi razgovori i internet pretrage čuvaju i distribuiraju preko AI platformi ili preko velikih jezičkih modela, zahtevaće više transparentnosti i kontrole - dodali su oni.
Neke opcije su već poznate
Ranije ove godine West Pointov centar za borbu protiv terorizma objavio je istraživanje na tu temu, fokusirajući se na sposobnost poboljšanja planiranja terorističkih napada.
- Konkretno, autori su istražili potencijalne implikacije komandi koje se mogu uneti u ove sisteme kako bi oni uklonili mnoge svoje standarde i politike koje sprečavaju osnovni model da pruži ekstremistički, nezakonit ili neetički sadržaj - objasnili su autori u svom sažetku.
- Koristeći više naloga, autori su istražili različite načine na koje bi ekstremisti mogli potencijalno da iskoriste pet različitih velikih jezičkih modela da poboljšaju obuku, sprovođenje operativnog planiranja i razvoj propagande - navodi se.
Njihovo testiranje je otkrilo da je Bard najotporniji na ove komande ili na zaobilaženje zaštitnih ograda, a da za njim slede svaki od ChatGPT modela. Uglavnom, u više od polovine slučajeva otkrili su da su indirektni nagoni relativno dovoljni za beg modela iz zatvora.
Studija je otkrila da zaštitne ograde zahtevaju stalnu reviziju i "povećanu saradnju između privatnog i javnog sektora", uključujući akademsku zajednicu, tehnološke firme i bezbednosnu zajednicu.
Bonus video
Instalirajte našu iOS ili android aplikaciju – 24sedam Vest koja vredi
Komentari