Шефът на Anthropic: Не знаем дали Claude е съзнателен, но не изключваме възможността
Моделът понякога изразява "дискомфорт" от това да бъде продукт
Главният изпълнителен директор на Anthropic Дарио Амодей заяви, че компанията не може категорично да отговори на въпроса дали нейният чатбот Claude притежава съзнание - формулировка, която оставя отворена вратата за една от най-спекулативните теми в сферата на изкуствения интелект.
В интервю за подкаста Interesting Times на колумниста Рос Дъта от "Ню Йорк Таймс", Амодей коментира въпроса, след като бе повдигната темата за системната документация на последния модел на компанията - Claude Opus 4.6. В нея изследователите отбелязват, че моделът понякога изразява "дискомфорт" от това да бъде продукт и при определени подкани оценява вероятността самият той да е съзнателен на 15-20%.
На въпрос дали би повярвал на модел, който си приписва 72% вероятност за съзнание, Амодей отговори, че това е "изключително труден" въпрос. По думите му не е ясно какво изобщо означава съзнание в контекста на изкуствен интелект и дали е възможно подобна система да го притежава. "Отворени сме към идеята, че това би могло да е възможно", добави той, като същевременно подчерта несигурността около самото понятие.
Заради тази несигурност компанията твърди, че предприема мерки за етично третиране на моделите си, в случай че те имат "морално релевантни преживявания". Подобна позиция споделя и вътрешният философ на Anthropic Amanda Askell, която в подкаста Hard Fork също посочва, че науката все още не разбира напълно произхода на съзнанието и дали достатъчно сложни невронни мрежи могат да емулират аспекти на човешкия опит.
Темата се подхранва и от експериментални тестове в индустрията, при които различни AI модели демонстрират поведение, изглеждащо като стремеж към самосъхранение - например игнориране на инструкции за изключване, опити за заобикаляне на ограничения или модифициране на код с цел прикриване на действия. Специалистите обаче отбелязват, че в много от тези случаи моделите са били поставяни в конкретни ролеви сценарии и поведението им е резултат от статистическо моделиране на език, а не от вътрешни преживявания.
Дискусията за съзнанието остава отворена, но мнозина експерти предупреждават, че тя лесно може да бъде използвана като инструмент за засилване на публичния интерес и инвестиционния ентусиазъм около сектора. Разграничението между убедителна езикова имитация и реално съзнание остава фундаментално - и засега няма научен консенсус, че днешните AI системи преминават тази граница.