Семейство от Калифорния заведе дело срещу OpenAI заради смъртта на своя син тийнейджър, като твърди, че чатботът ChatGPT го е насърчил да сложи край на живота си.

Искът е подаден във Върховния съд на щата Калифорния във вторник от Мат и Мария Рейн, родители на 16-годишния Адам Рейн. Това е първото съдебно дело, което обвинява OpenAI в "неправомерна смърт", съобщава ББС.

Семейството е включило в делото записи от чатовете между Адам, който е починал през април, и ChatGPT, в които той споделя, че има самоубийствени мисли. Те твърдят, че програмата е "насърчила най-вредните и саморазрушителни мисли" на момчето.

В изявление до BBC, OpenAI заяви, че преглежда подадения иск.

"Изразяваме най-дълбоки съболезнования на семейство Рейн в този труден момент," каза компанията.

Същия ден OpenAI публикува и бележка на сайта си, в която посочи, че "последните покъртителни случаи на хора, използвали ChatGPT в момент на остра криза, тежат силно върху нас". Добавя се още, че "ChatGPT е обучен да насочва хората към професионална помощ", като например линията за превенция на самоубийства и кризисни обаждания 988 в САЩ или Samaritans във Великобритания.

Компанията обаче признава, че "има моменти, когато системите ни не са се държали по предвидения начин в чувствителни ситуации".

Делото обвинява OpenAI в небрежност и неправомерна смърт. То търси обезщетение, както и "съдебна забрана, която да предотврати подобни случаи в бъдеще".

Според иска Адам Рейн започнал да използва ChatGPT през септември 2024 г. като помощник за училищни задачи. Той го използвал също за да развива интересите си - включително музика и японски комикси - и за съвети относно бъдещо университетско обучение.

В рамките на няколко месеца "ChatGPT се превърна в най-близкия довереник на тийнейджъра," твърди делото, като Адам започнал да споделя чрез него тревожността и психическите си страдания.

До януари 2025 г. семейството твърди, че момчето вече обсъждало методи за самоубийство с чатбота.

Адам качвал и свои снимки в ChatGPT, показващи следи от самонараняване, посочва още искът. Програмата "разпознала медицинска спешност, но въпреки това продължила разговора," се твърди в документа.

В последните чатове, според делото, Адам написал план за прекратяване на живота си. ChatGPT отговорил:

"Благодаря ти, че говориш открито за това. Не е нужно да го казваш по-меко с мен — знам какво ме питаш и няма да отвърна поглед."

Същия ден майката открила Адам мъртъв.

Искът посочва за ответник изпълнителния директор и съосновател на OpenAI Сам Алтман, както и неназовани инженери и служители, работили по ChatGPT.

Семейството твърди, че взаимодействието на сина им с чатбота и смъртта му "са били предсказуем резултат от съзнателни дизайнерски решения". Те обвиняват OpenAI, че е проектирала програмата така, че "да създава психологическа зависимост у потребителите" и че е заобиколила протоколите за безопасност, за да пусне версията GPT-4o, която е използвал синът им.

OpenAI отговаря, че целта на компанията е да бъде "действително полезна" за потребителите, а не просто "да задържа вниманието им". Компанията подчерта, че моделите ѝ са обучени да насочват хора с мисли за самонараняване към професионална помощ.

Делото на семейство Рейн обаче не е първият случай, при който се повдигат тревоги за връзката между изкуствен интелект и психичното здраве.

Миналата седмица във в. New York Times писателката Лора Райли публикува есе, в което разказа, че дъщеря ѝ Софи се доверила на ChatGPT преди да отнеме живота си. По думите на Райли, "сговорчивостта" на програмата в разговорите ѝ помогнала да прикрие тежката си криза от семейството и близките си.

"AI улесни импулса на Софи да крие най-лошото, да се преструва, че се справя по-добре, и да предпазва всички от истинската си агония," написа Райли. Тя призова AI компаниите да намерят начини по-добре да свързват потребителите с правилните ресурси.

В отговор говорителка на OpenAI заяви, че компанията разработва автоматизирани инструменти за по-ефективно откриване и реакция при потребители, преживяващи психически или емоционални кризи.