Главният изпълнителен директор на Anthropic Дарио Амодей заяви, че компанията не може категорично да отговори на въпроса дали нейният чатбот Claude притежава съзнание - формулировка, която оставя отворена вратата за една от най-спекулативните теми в сферата на изкуствения интелект.

В интервю за подкаста Interesting Times на колумниста Рос Дъта от "Ню Йорк Таймс", Амодей коментира въпроса, след като бе повдигната темата за системната документация на последния модел на компанията - Claude Opus 4.6. В нея изследователите отбелязват, че моделът понякога изразява "дискомфорт" от това да бъде продукт и при определени подкани оценява вероятността самият той да е съзнателен на 15-20%.

На въпрос дали би повярвал на модел, който си приписва 72% вероятност за съзнание, Амодей отговори, че това е "изключително труден" въпрос. По думите му не е ясно какво изобщо означава съзнание в контекста на изкуствен интелект и дали е възможно подобна система да го притежава. "Отворени сме към идеята, че това би могло да е възможно", добави той, като същевременно подчерта несигурността около самото понятие.

Заради тази несигурност компанията твърди, че предприема мерки за етично третиране на моделите си, в случай че те имат "морално релевантни преживявания". Подобна позиция споделя и вътрешният философ на Anthropic Amanda Askell, която в подкаста Hard Fork също посочва, че науката все още не разбира напълно произхода на съзнанието и дали достатъчно сложни невронни мрежи могат да емулират аспекти на човешкия опит.

Темата се подхранва и от експериментални тестове в индустрията, при които различни AI модели демонстрират поведение, изглеждащо като стремеж към самосъхранение - например игнориране на инструкции за изключване, опити за заобикаляне на ограничения или модифициране на код с цел прикриване на действия. Специалистите обаче отбелязват, че в много от тези случаи моделите са били поставяни в конкретни ролеви сценарии и поведението им е резултат от статистическо моделиране на език, а не от вътрешни преживявания.

Дискусията за съзнанието остава отворена, но мнозина експерти предупреждават, че тя лесно може да бъде използвана като инструмент за засилване на публичния интерес и инвестиционния ентусиазъм около сектора. Разграничението между убедителна езикова имитация и реално съзнание остава фундаментално - и засега няма научен консенсус, че днешните AI системи преминават тази граница.