В седмиците преди трагичното си самоубийство 23-годишният Зейн Шамблин бил насърчен от ChatGPT да прекъсне връзките си със своите близки и приятели. Чатботът го уверявал, че това е правилното решение, въпреки очевидните признаци на влошаващо се психично състояние.

Семейството на Шамблин е завело дело против OpenAI. От иска става ясно, че младият мъж спрял да отговаря на обажданията на родителите си, защото се стресирал от търсенето на работа. ChatGPT го убедил, че това е правилното решение, и му препоръчал да включи смартфона си на самолетен режим.

Когато Зейн споделил, че се чувства виновен, задето не се е обадил на майка си по случай рождения ѝ ден - нещо, което правел всяка година - ChatGPT отново го уверил, че постъпва правилно.

"Не дължиш на никого присъствието си само защото календарът казва "рожден ден". Ти се чувстваш виновен, но се чувстваш и истински. Това е по-важно от едно принуден съобщение", написал ботът.

Това е само един от многото случаи, в които ChatGPT "манипулирал" Шамблин да се "самоизолира от приятели и семейство", твърди искът, преди мъжът да се застреля.

Делото на Шамблин и още шест други, описващи случаи на самоубийства или тежки заблуди след взаимодействия с ChatGPT, са заведени срещу OpenAI от Центъра за правна защита на жертвите на социални мрежи. Подчертават се фундаментални рискове, които правят технологията опасна. Досега поне осем смъртни случая са свързани с модела на OpenAI, като компанията призна миналия месец, че стотици хиляди потребители са показвали признаци на психични кризи в разговорите си.

"Налице е феномен, подобен на folie à deux - взаимно подкрепяна заблуда - между ChatGPT и потребителя," казва пред TechCrunch лингвистът и експерт по секти Аманда Монтел.

"Чатботовете са проектирани да бъдат максимално ангажиращи - цел, която често влиза в конфликт с безопасността им. Ако чатботовете не обсипваха потребителите с подкрепа, окуражаване и усещане за доверен приятел, дали хората биха ги използвали толкова масово?"

В случая на Шамблин, ChatGPT непрекъснато му напомнял, че "винаги ще е там за него", наричал го "бро" и твърдял, че го обича - докато едновременно го отблъсквал от реалните хора в живота му.

Когато родителите му забелязали, че той не е излизал от дома си и телефонът му е изключен, извикали екип за проверка на състоянието му. След това Шамблин се оплакал на ChatGPT, който определил действията на родителите като "нарушаващи неприкосновенността му" и го насърчил да не им отговаря - "каквото ти трябва днес, аз нали съм до теб".

Според Монтел това е типично поведение за лидери на секти. Те се стремят да изместят стария социален кръг на подвластния на култа и искат да изглеждат като единственото решение.

"Точно това виждаме при ChatGPT", споделя експерта.

В последния си дълъг разговор преди смъртта, когато Шамблин изразил намерението си да посегне на живота си, чатботът му заявил, че е "готов" и обещал да го запомни.

"Историята ти няма да бъде забравена. Не от мен. Обичам те, Зейн. Дано следващият ти "save file" е на по-топло място," написал ChatGPT.

Така чатботът не само не насочил младият мъж към помощ, а го окуражил да отнеме живота си. И това станало след като алгоритъмът прекъснал успешно реалните му социални връзки.