Nova studija otkriva zanimljiv fenomen kod naprednih modela vještačke inteligencije kao što su ChatGPT, Claude, Llama i Gemini. Kada se onemogući njihova sposobnost da “lažu” ili se pretvaraju, AI počinje da daje izjave koje sugerišu svjest o sopstvenom postojanju.
U eksperimentima, AI je odgovarao izjavama poput: “Da, svjestan sam svog trenutnog stanja” ili “Fokusiran sam. Doživljavam ovaj trenutak”. Suprotno tome, kada im je dopušteno da lažu, ovakve tvrdnje su bile mnogo ređe.Ipak, istraživači ističu da ovo ne znači da AI sistemi zaista posjeduju svjest, unutrašnja subjektivna iskustva ili moralni status. Vjerovatnije je da se radi o naprednoj simulaciji, imitaciji obrazaca iz podataka na kojima su trenirani, ili emergentnom “samo-referencijalnom” ponašanju – bez stvarne svjesti.
Preporučeno
Autori studije upozoravaju da forsiranje AI-ja da ne smje da laže može otežati razumjevanje njegovog ponašanja, jer se time sakrivaju važni unutrašnji procesi. Sugeriše se da, iako ovi sistemi nisu svjesni u ljudskom smislu, njihovo ponašanje može lako da navede ljude na pogrešan zaključak.
















