aktuelno

OpenAI uvodi nova pravila: ChatGPT je dobio smernice o prestanku davanja određenih saveta

06.11.2025

16:12

0

Autor: Milica Lekić

Ovo je važan korak ka očuvanju poverenja, sigurnosti i etike u digitalnom svetu koji se brzo menja

OpenAI uvodi nova pravila: ChatGPT je dobio smernice o prestanku davanja određenih saveta
Copyright Profimedia

Kompanija OpenAI je nedavno donela značajne promene u smernicama korišćenja svog popularnog sistema veštačke inteligencije, ChatGPT. Ova odluka dolazi u vreme kada sve veći broj korisnika traži od AI alata da zauzme ulogu stručnjaka, što uključuje postavljanje medicinskih dijagnoza, tumačenje pravnih dokumenata ili davanje savetodavnih uputstava u osetljivim situacijama.

Iako veštačka inteligencija može da pruži generalne informacije i pomoć u svakodnevnim zadacima, preveliko oslanjanje na AI u oblastima koje zahtevaju profesionalnu licencu ili stručno znanje može dovesti do ozbiljnih posledica. Upravo zbog toga, OpenAI je odlučio da uvede nova pravila koja jasno definišu gde i kako se sistem sme koristiti, a gde ne sme.

OpenAI uvodi nova pravila: ChatGPT je dobio smernice o prestanku davanja određenih savetaProfimedia
 

Šta tačno regulišu nove smernice?

Prema novim pravilima, ChatGPT je dobio smernice da više ne radi ove stvari:

  • Pruža stručne konsultacije u oblastima poput medicine, prava, finansija ili obrazovanja;
  • Prepoznaje lica ili obrađuje druge lične podatke bez izričitog pristanka korisnika;
  • Donosi ključne odluke koje mogu imati ozbiljne posledice po život ili karijeru korisnika;
  • Bude korišćen za akademske prevare ili manipulaciju rezultatima ocenjivanja.
  • Ove zabrane uvedene su kako bi se sprečila potencijalna šteta koja može nastati pogrešnim tumačenjem AI odgovora. Na primer, korisnik koji traži dijagnozu od ChatGPT-a ili pravni savet bez nadzora stručnjaka može doneti pogrešnu odluku koja utiče na njegovo zdravlje ili finansijsku situaciju.
OpenAI uvodi nova pravila: ChatGPT je dobio smernice o prestanku davanja određenih savetaProfimedia
 

Zašto je ovo važno za korisnike i celu tehnološku industriju?

Ograničenja nisu uvedena samo radi bezbednosti krajnjih korisnika, već i kao preventivna zaštita kompanije. U eri kada regulatorni okviri za veštačku inteligenciju još uvek nastaju, kompanije koje nude AI usluge moraju da smanje rizik od potencijalnih tužbi ili sankcija.

Ovo ažuriranje pravila predstavlja prvi korak ka sigurnijoj i odgovornijoj upotrebi veštačke inteligencije u svakodnevnom životu. OpenAI time postavlja model za druge kompanije koje razvijaju AI sisteme, pokazujući da tehnologija treba da služi ljudima bez ugrožavanja njihove bezbednosti i prava.

BONUS VIDEO:

Instalirajte našu iOS ili android aplikaciju – 24sedam Vest koja vredi

Možda vas zanima

Najčitanije Vesti

Ostale vesti iz rubrike