В статия, публикувана по-рано този месец, изследователи от OpenAI съобщиха, че са открили причината защо дори най-мощните AI модели продължават да страдат от масови "халюцинации" — случаи, в които чатботовете уверено правят неверни твърдения.

Те установили, че начинът, по който се оценят резултатите на големите езикови модели (като тези, които движат ChatGPT), ги прави стимулира да дават отговор на случайна база, когато не са сигурни дали са прави. Причината е, че това подобрява резултатите им във вътрешни тестове.

С други думи, създателите на AI ги стимулират да "отгатват", вместо да признават, че не знаят — стратегия, която може да работи на изпит, но е опасна, когато става дума за високорискови съвети в области като медицина или право.

В придружаваща блог публикация OpenAI твърди, че "има лесно решение" — като се променят оценките така, че "по-строго да се наказват самоуверените грешки, отколкото несигурността, и да се дава частичен кредит за уместни изрази на съмнение". Но според един експерт подобен подход може да доведе до тежки бизнес последици.

В есе за The Conversation, Уей Син, преподавател в Университета в Шефилд и специалист по AI оптимизация, аргументира, че индустрията няма икономически стимул да прави тези промени, тъй като това би увеличило драстично разходите.

Още по-лошо, ако AI започне често да признава, че не може да отговори достатъчно уверено, това може да отблъсне потребителите, които обичат категоричните отговори — дори когато са грешни.

Дори ако ChatGPT признаваше, че не знае отговора само в 30% от случаите, потребителите бързо биха се разочаровали и преминали към друга услуга, твърди Син.

"Потребителите, свикнали да получават уверени отговори на почти всеки въпрос, вероятно биха изоставили такива системи много бързо", пише той.

И макар че вече има "утвърдени методи за измерване на несигурността", прилагането им би изисквало "значително повече изчислителна мощ, отколкото сегашния подход", защото моделите трябва да разгледат множество възможни отговори и да оценят нивото на увереност.

"За система, която обработва милиони заявки дневно, това означава драстично по-високи оперативни разходи," отбелязва Син.

Натрупването на разходи в този момент може да се окаже катастрофално. AI компаниите вече са заложили огромни средства на мащаб, разширявайки инфраструктурата си, за да поддържат все по-енергоемки модели. Но възвръщаемостта на инвестициите изглежда е въпрос на много години, ако не десетилетия. Засега капиталовите разходи за десетки милиарди долари далеч надвишават сравнително скромните приходи.

С други думи, увеличаването на вече колосалните оперативни разходи — като същевременно се отблъснат потребителите — може да се превърне в още един огромен проблем за компании като OpenAI, които бързат да уверят инвеститорите, че бизнес моделът им е устойчив в дългосрочен план.

Син твърди, че предложените от компанията решения за "халюцинациите" може да са приложими за "AI системи, управляващи критични бизнес операции или икономическа инфраструктура", където "цената на грешките е далеч по-голяма от разхода за модели, които решават дали са твърде несигурни".

"Но потребителските приложения все още доминират приоритетите на AI развитието", добавя той. "А потребителите искат системи, които дават уверени отговори на всеки въпрос."

Предоставянето на по-несигурен отговор по-бързо е по същество по-евтино за компаниите, което ги демотивира да избират по-внимателен подход с по-малко халюцинации.

Как ще се развият нещата в дългосрочен план е трудно да се прогнозира, особено когато пазарните сили се променят и компаниите намират по-ефективни начини за работа на моделите си.

"С две думи, статията на OpenAI неволно изтъква една неудобна истина," заключава Син. "Бизнес стимулите, които движат потребителското AI развитие, са фундаментално несъвместими с намаляването на халюцинациите."

"Докато тези стимули не се променят, халюцинациите ще продължат, дори да е ясно как могат да се премахнат" добавя той.