Prema navodima iz zvaničnog blog posta, “OpenAI” procjenjuje da poruke sa “eksplicitnim indikatorima potencijalnog samoubilačkog planiranja ili namjere” čini značajan dio ukupnih interakcija korisnika, piše Gardijan.
To je jedno od najdirektnijih priznanja kompanije o mogućem uticaju vještačke inteligencije na mentalno zdravlje.Kompanija je saopštila i da oko 0,07 odsto aktivnih korisnika nedjeljno – što je približno 560.000 ljudi od oko 800 miliona korisnika, pokazuje moguće znake psihotičnih epizoda ili maničnog ponašanja.
U objavi se napominje da su takve procjene početne i da ih je teško precizno kvantifikovati.
Da bi poboljšala tačnost i etičke standarde u komunikaciji, OpenAI je angažovala 170 kliničara i stručnjaka za mentalno zdravlje iz svoje Globalne mreže ljekara.
U Srbiji je čak 4,5 odsto ispitanih adolescenata pokušalo suicid tokom svog života
Oni su analizirali više od 1.800 odgovora modela u situacijama koje uključuju ozbiljne krize mentalnog zdravlja i pomogli u prilagođavanju sadržaja koji se odnosi na emocionalnu podršku.
Stručnjaci za mentalno zdravlje ranije su upozoravali da četbotovi mogu nehotice da podstaknu opasne misli potvrđujući korisnikove zablude ili negativna osjećanja – fenomen poznat kao “ulizivanje”.
Generalni direktor “OpenAI” Sem Altman rekao je ranije ovog mjeseca da je kompanija “napravila napredak u smanjenju rizika od ozbiljnih problema mentalnog zdravlja” i najavio ublažavanje određenih ograničenja u radu “ChatGPT”-a.
Preporučeno
OpenAI je saopštio da će nastaviti da razvija mehanizme za bezbjedniju upotrebu svojih modela i da sarađuje sa nezavisnim stručnjacima i regulatorima kako bi, kako navode, “AI alati postali podrška, a ne prijetnja korisnicima u krizi”.

















