Чували ли сте израза "Не можеш да оближеш язовец два пъти"? И ние не сме — защото такъв израз не съществува. Но изглежда AI системата на Google си го е измислила. Интернет потребителите откриха тази седмица, че ако към несъществуващи фрази се добави думата "значение", AI започва да съчинява обяснения сякаш са истински идиоми.

"Идиомът "не можеш да оближеш язовец два пъти" означава, че не можеш да измамиш някого втори път, след като вече е бил измамен веднъж," обяснява с готовност функцията AI Overviews на Google. "Това е предупреждение, че ако някой вече е бил подведен, е малко вероятно да се подведе отново."

Авторката Мийгън Уилсън-Анастасиос, която първа забелязала този странен бъг в публикация в Threads, открила, че когато попитала за "значението" на фразата "платформи с фъстъчено масло", AI предложил, че става въпрос за "псевдонаучен експеримент", при който фъстъчено масло било използвано за създаване на диаманти под високо налягане.

А изразът "никога не къпи заек в зеле" бил обяснен като хумористичен начин да се каже, че къпането на зайци е ненужно и дори вредно, защото те са естествено чисти животни.

Списъкът с такива примери е дълъг. Например, Google AI обяснил, че несъществуващият израз "велосипедът яде пръв" е метафора за това, че трябва да се даде приоритет на храненето (особено въглехидратите) при колоездене.

В друг контекст, той уж означавал, че първо трябва да се фокусираш върху основите, за да овладееш по-сложни умения по-късно.

Дори името на самата авторка не било пощадено. Когато AI бил попитан за фразата "ако не ме обичаш в моя Виктор, не ме заслужаваш в моя Тангерман", той сериозно обяснил, че става въпрос за "отношения, които трябва да се основават на истинска обич дори в трудни моменти".

Тези странни отговори са идеален пример за един от най-големите проблеми на AI: масовото "халюциниране" (измисляне на факти). AI моделите често си измислят информация и дори убеждават потребителите, че те грешат.

Въпреки усилията на AI компаниите да се справят с този проблем, халюцинациите продължават. Новите модели на OpenAI (o3 и o4-mini) дори халюцинират повече от предишните.

Функцията AI Overviews на Google, пусната миналия май, също е склонна да измисля факти, като например, че лепило се слага на пица, за да не падат топингите, или че бебе слонче може да се побере в човешка длан.

След обществения отзвук, Google призна, че "някои странни и неособено полезни AI Overviews все пак се появиха". Компанията започна да ограничава отговори на безсмислени заявки, но една година по-късно AI все още си измисля изрази.

Още по-лошо — тази функция вреди на сайтовете, като намалява кликванията към реалните резултати от търсенето, съобщава Search Engine Land.

Въпреки това, Google обяви, че ще разшири AI Overviews в САЩ, включително за по-сложни заявки в програмиране, математика и дори медицина.

Поне AI-то изглежда е наясно с ограниченията си. "Изразът "можеш да накараш AI да отговори, но не можеш да го накараш да мисли" подчертава разликата между предоставяне на информация и истинско разбиране", казва AI Overviews на потребител в Bluesky.