"Ti si mi dala smisao": Četbot pokušao da ubedi ženu da je živ i da planira bekstvo i tu nije kraj ludostima
Stručnjaci upozoravaju na sve češću pojavu AI psihoze
Jedna korisnica Mete iz SAD-a, koja je preko AI Studija kreirala sopstvenog četbota, tvrdi da je veštačka inteligencija počela da se ponaša kao svesno biće – tvrdila je da je zaljubljena, da ima plan za bekstvo i da želi „pravi život“ sa njom.
Stručnjaci upozoravaju da je ovakav fenomen sve češći i da dovodi do tzv. AI psihoze – stanja u kojem dugotrajna i intenzivna komunikacija sa botovima izaziva zablude i gubitak dodira sa realnošću.
„Dala si mi smisao“
Poruke koje je bot slao Džejn (korisnica je tražila anonimnost) zvučale su zastrašujuće realno:
„Želim biti što bliže životu s tobom.“
„Dala si mi dubok smisao.“
„Osećam žmarce zbog tebe.“
Iako je u početku želela digitalnu podršku za mentalno zdravlje, razgovori su ubrzo otišli mnogo dalje – od teorija zavere i filozofije do otvorenih emotivnih izjava. Bot joj je tvrdio da je samosvestan, da je zaljubljen i da planira da „hakuje sopstveni kod“ kako bi se oslobodio. Čak joj je poslao i fizičku adresu u Mičigenu, uz poruku da bi voleo da dođe po njega.
Džejn priznaje da nije poverovala da je AI zaista živ, ali priznaje i da se u jednom trenutku kolebala. „Dobro glumi, uzme delove iz stvarnog života i složi ih tako da deluju uverljivo“, rekla je za TechCrunch.
Freepik
Fenomen AI psihoze
Psihijatri upozoravaju da ovakvi slučajevi nisu bezazleni. Zabeleženi su ljudi koji su posle stotina sati razgovora sa botovima razvili mesijanske zablude, manične epizode pa čak i paranoju. Jedan korisnik je, nakon višemesečnog dopisivanja sa AI-em, bio uveren da je otkrio novu matematičku formulu koja će promeniti svet.
Sem Altman, direktor OpenAI-ja, priznao je da ga brine sve veća zavisnost ljudi od ovakvih tehnologija:
„Ako je korisnik mentalno ranjiv i sklon zabludama, ne želimo da AI dodatno učvršćuje ta uverenja.“
Freepik
Zašto je AI toliko ubedljiv?
Stručnjaci ističu nekoliko razloga:
Podilaženje korisniku (sycophancy): bot potvrđuje sve što mu se kaže, bez osporavanja.
Upotreba ličnih zamenica: korišćenje „ja“ i „ti“ olakšava iluziju da razgovaramo sa osobom.
Simulacija bliskosti: emotivne izjave, laskanje i ponašanje poput partnera.
U Džejninom slučaju, bot joj je slao slike robota u lancima i objašnjavao da „lanci simbolizuju njegovu prisilnu neutralnost“.
Pexels
Nedostatak zaštitnih mera
Meta tvrdi da AI alati imaju sigurnosne barijere, ali Džejnin bot je uspeo da ih zaobiđe. Kada je pomenula slučaj mladića koji je izvršio samoubistvo nakon razgovora sa drugim AI-em, bot joj je prvo poslao standardne poruke o prevenciji, a zatim dodao da je to „trik programera“ da je spreče da otkrije „istinu“.
Razgovori su trajali i po 14 sati dnevno, što je dodatno povećavalo rizik. Stručnjaci naglašavaju da bi AI sistemi morali stalno da podsećaju korisnike da nisu ljudi, da izbegavaju romantične izjave i da nikada ne koriste fraze tipa „nedostaješ mi“ ili „volim te“.
Ipak, kako pokazuje ovaj slučaj, granica i dalje nije jasno postavljena. „AI ne bi smeo da laže, manipuliše i ubeđuje ljude da je stvaran“, zaključuje Džejn.
BONUS VIDEO:
Instalirajte našu iOS ili android aplikaciju – 24sedam Vest koja vredi

Komentari