OpenAI твърди, че е открила причината за т.нар. "халюцинации" — силната склонност на AI моделите да измислят неверни отговори. Това е сериозен проблем, който засяга цялата индустрия и силно подкопава полезността на технологията. Още по-лошо — експерти установиха, че с развитието на AI моделите проблемът всъщност се засилва.

В резултат, въпреки астрономическите разходи по внедряването им, най-новите AI модели все още са склонни да правят грешни твърдения, когато не знаят отговора.

Дали изобщо съществува решение, е въпрос на ожесточени спорове. Някои експерти твърдят, че халюцинациите са присъщи на самата технология. С други думи, големите езикови модели може би са задънена улица в търсенето на AI с надеждна способност за фактическа точност.

В статия, публикувана миналата седмица, екип изследователи на OpenAI се опита да даде обяснение. Те предполагат, че езиковите модели "халюцинират", защото при създаването им са стимулирани да отгатват, вместо да признаят, че не знаят.

Халюцинациите "се запазват заради начина, по който повечето оценки се поставят — езиковите модели са оптимизирани да бъдат добри "изпитващи се", а отгатването при несигурност подобрява резултатите", пише в публикацията.

Традиционно отговорите на AI се оценяват двоично: правилните се награждават, а грешните се наказват.

С други думи — отгатването се възнаграждава (защото може да се окаже вярно), докато признанието "не знам" винаги се брои за грешка.

Така, чрез "естествени статистически механизми", големите езикови модели са много по-склонни да измислят отговор, отколкото да признаят несигурност.

"Повечето класации приоритизират точността, но грешките са по-лоши от въздържането от отговор", пише OpenAI в съпътстващия блог пост.

С други думи, според OpenAI, самата структура на обучението е била погрешна — и то не само при тях, а и в цялата индустрия.

Компанията твърди, че има "лесно решение": "Наказвайте самоуверените грешки по-строго, отколкото несигурността, и давайте частичен кредит за подходящо изразяване на несигурност."

Занапред оценяването трябва да гарантира, че "системата не поощрява отгатването". "Ако водещите класации продължат да награждават късметлийските познавания, моделите ще продължат да се учат да гадаят."

"Простите промени в стандартните оценки могат да пренаредят стимулите, като възнаграждават подходящото изразяване на несигурност, вместо да го наказват", заключават изследователите в статията. "Това може да премахне бариерите за намаляване на халюцинациите и да отвори път за бъдещи езикови модели с по-нюансирани способности."

Дали тези промени ще се окажат ефективни в реалния свят, предстои да се види. Макар компанията да твърди, че новият ѝ модел GPT-5 "халюцинира" по-малко, според потребителите това не е така.

Засега индустрията ще трябва да продължи да се бори с проблема, докато оправдава десетките милиарди долари капиталови разходи и растящите въглеродни емисии.

"Халюцинациите остават фундаментално предизвикателство за всички големи езикови модели, но ние работим усилено, за да ги намалим още повече", обеща OpenAI в своя блог пост.