OpenAI je nedavno lansirao o3 i o4-mini AI modele, koji u svojim oblastima predstavljaju svojevrsna remek djela. Međutim, novi AI modeli i dalje haluciniraju, odnosno izmišljaju stvari, a prema navodima, te halucinacije su učestalije nego kod OpenAI-jevih starijih modela.
Prema internim testovima, koje je sproveo OpenAI, o3 i o4-mini (koji se nazivaju i takozvanim modelima rasuđivanja) haluciniraju češće nego kompanijini prethodni modeli – o1, o1-mini i o3-mini, kao i kompanijin tradicionalni nerasuđujući modeli kao što je GPT-4o.Ono što posebno zabrinjava, OpenAI ne zna šta prouzrokuje ove probleme.
U svom tehničkom izvještaju za o3 i o4-mini, OpenAI kaže da je potrebno više istraživanja da bi se razumjelo zašto se halucinacije pogoršavaju sa svakim novim modelom rasuđivanja. O3 i o4-mini imaju bolje rezultate u nekim oblastima, uključujući zadatke vezane za kodiranje i matematiku. Ali pošto ukupno iznose više tvrdnji, često su dovedeni do toga da iznose ,,više tačnijih tvrdnji, kao i netačnih/haluciniranih tvrdnji”, prema izvještaju.
U posljednjih godinu dana, šira industrija vještačke inteligencije se okrenula ka fokusiranju na modele rasuđivanja nakon što su tehnike za poboljšanje tradicionalnih AI modela počele da pokazuju sve manju produktivnost. Rezonovanje poboljšava performanse modela na različitim zadacima bez potrebe za ogromnim količinama računara i podataka tokom obuke.
Preporučeno
Ipak, čini se da rasuđivanje takođe može dovesti do više halucinacija – što predstavlja dodatni izazov.