Коментари - Новите модели за разсъждение на OpenAI халюцинират повече | it.dir.bg
назад

Новите модели за разсъждение на OpenAI халюцинират повече

Един от обещаващите начини за повишаване на точността на моделите е чрез добавяне на възможности за търсене в интернет

Обратно в новината
| Редактор : Стоян Гогов

Коментари - Новите модели за разсъждение на OpenAI халюцинират повече | IT.dir.bg

17-11-2017 20-11-2018

Коментари

>> Халюцинациите се оказват един от най-големите и трудни за решаване проблеми в изкуствения интелект Думичката "оказват" предполага, че това не е било очаквано. А то това си се знае от край време. Говорим специално за ЛЛМ. Такива модели е имало много отдавна, но в началото са били трагични. Постепенно са се подобрили много, но основният принцип винаги е бил свързан с някаква преценка кой текст би бил най-вероятно да е близък до това, което потребителят би очаквал. ЛЛМ никога не е разбирал какво точно го питат. Но създава такова впечатление, защото вече е впечатляващо добър в тези "приближения".

Това едва ли някога ще го премахнат. Като работиш с вероятности все пак, никога няма 100%. И пак 1 на 10( което е 90% и е най-доброто) е силно притеснително за реална потреба според мен. Тепърва ще почнат да изкачат грешки на всякакви нива и професии, като гледам как мързеливо и масово са почнали хората да го ползват

То това 1 на 10 е някакво осреднение. За по-прости въпроси, за които има много данни, обикновено ЛЛМ са много точни. И обратното, по въпроси, за които не е имал достатъчно данни, може да е пълна скръб. А то точно за тях щеше и да е най-полезен. Но все повече данни в нета са генерирани от ЛЛМ, така че все повече сам ще се лъже при обучаването си.