Whisper, популярният алгоритъм за разпознаване на реч, създаден от OpenAI, се сблъсква с нов проблем: т.нар. "халюцинации", при които в текста се добавят несъществуващи данни. Този проблем е привлякъл вниманието на експерти, тъй като Whisper вече се използва в различни институции, включително и в медицински заведения, където всяка грешка може да има сериозни последствия.

Специалисти от Мичиганския университет съобщават, че в 8 от 10 публични аудиозаписа, които са били транскрибирани с Whisper, са открити неточности. Друг изследовател, анализиращ над 100 часа аудиозаписи, е установил, че повече от половината са били с грешки. Специалист по софтуер също е установил грешки в почти всички от 26 000 транскрипции, създадени с Whisper.

Представител на OpenAI отбеляза, че компанията работи върху подобряването на точността на алгоритмите си и свеждането на подобни грешки до минимум. Whisper вече не се препоръчва за употреба в чувствителни и отговорни среди. Независимо от това, грешките подчертават необходимостта от допълнителни усъвършенствания, за да се гарантира по-висока надеждност на алгоритъма.