Tehnologija

OpenAI planira da uvede mjeru roditeljskog nadzora u servisu ChatGPT

OpenAI planira da uvede mjeru roditeljskog nadzora u servisu ChatGPT

Standard

05/09/2025

09:19

Matična kompanija ChatGPT-a, OpenAI, saopštila je da planira da pokrene roditeljski nadzor za svog popularnog AI asistenta „u narednom mjesecu“ nakon optužbi da su ova kompanija i drugi chatbotovi doprinjeli samopovređivanju ili samoubistvima među tinejdžerima.

Kontrole će uključivati mogućnost da roditelji povežu svoj nalog sa nalogom svog tinejdžera, upravljaju načinom na koji ChatGPT odgovara maloljetnim korisnicima, onemoguće funkcije poput memorije i istorije razgovora i primaju obavještenja kada sistem otkrije „trenutak akutne nevolje“ tokom korišćenja. OpenAI je ranije rekao da radi na roditeljskom nadzoru za ChatGPT, ali je u utorak precizirao vremenski okvir za objavljivanje, prenosi N1 Sarajevo.

„Ovi koraci su samo početak“, napisao je OpenAI u utorak u objavi na blogu. „Nastavićemo da učimo i unapređujemo naš pristup, vođeni stručnjacima, s ciljem da ChatGPT učinimo što korisnijim.“

Objava dolazi nakon što su roditelji šesnaestogodišnjeg Adama Reina podnijeli tužbu protiv OpenAI-ja tvrdeći da je ChatGPT savjetovao tinejdžera o samoubistvu. Prošle godine, majka sa Floride tužila je platformu za chatbotove Character.AI zbog navodne uloge u samoubistvu njenog četrnaestogodišnjeg sina. Takođe, raste zabrinutost zbog korisnika koji razvijaju emocionalne veze sa ChatGPT-ijem, što u nekim slučajevima dovodi do deluzija i otuđenja od porodica, kako su naveli The New York Times i CNN.

OpenAI nije direktno povezao svoje nove roditeljske kontrole s ovim navodima, ali je prošle sedmice u objavi na blogu rekao da su ga „nedavni, srceparajući slučajevi ljudi koji koriste ChatGPT usred akutnih kriza“ podstakli da podijeli više detalja o svom pristupu bezbjednosti.

ChatGPT je već uključivao mjere, poput upućivanja ljudi na krizne linije za pomoć i druge resurse, naveo je ranije portparol OpenAI-ja u izjavi za CNN.

Ostavite komentar

Komentari (0)

X