Родителите на тийнейджър, който се самоуби, съдят OpenAI
ChatGPT насърчил младежът да отнеме живота си
Семейство от Калифорния заведе дело срещу OpenAI заради смъртта на своя син тийнейджър, като твърди, че чатботът ChatGPT го е насърчил да сложи край на живота си.
Искът е подаден във Върховния съд на щата Калифорния във вторник от Мат и Мария Рейн, родители на 16-годишния Адам Рейн. Това е първото съдебно дело, което обвинява OpenAI в "неправомерна смърт", съобщава ББС.
Семейството е включило в делото записи от чатовете между Адам, който е починал през април, и ChatGPT, в които той споделя, че има самоубийствени мисли. Те твърдят, че програмата е "насърчила най-вредните и саморазрушителни мисли" на момчето.
В изявление до BBC, OpenAI заяви, че преглежда подадения иск.
"Изразяваме най-дълбоки съболезнования на семейство Рейн в този труден момент," каза компанията.
Същия ден OpenAI публикува и бележка на сайта си, в която посочи, че "последните покъртителни случаи на хора, използвали ChatGPT в момент на остра криза, тежат силно върху нас". Добавя се още, че "ChatGPT е обучен да насочва хората към професионална помощ", като например линията за превенция на самоубийства и кризисни обаждания 988 в САЩ или Samaritans във Великобритания.
Компанията обаче признава, че "има моменти, когато системите ни не са се държали по предвидения начин в чувствителни ситуации".
Делото обвинява OpenAI в небрежност и неправомерна смърт. То търси обезщетение, както и "съдебна забрана, която да предотврати подобни случаи в бъдеще".
Според иска Адам Рейн започнал да използва ChatGPT през септември 2024 г. като помощник за училищни задачи. Той го използвал също за да развива интересите си - включително музика и японски комикси - и за съвети относно бъдещо университетско обучение.
В рамките на няколко месеца "ChatGPT се превърна в най-близкия довереник на тийнейджъра," твърди делото, като Адам започнал да споделя чрез него тревожността и психическите си страдания.
До януари 2025 г. семейството твърди, че момчето вече обсъждало методи за самоубийство с чатбота.
Адам качвал и свои снимки в ChatGPT, показващи следи от самонараняване, посочва още искът. Програмата "разпознала медицинска спешност, но въпреки това продължила разговора," се твърди в документа.
В последните чатове, според делото, Адам написал план за прекратяване на живота си. ChatGPT отговорил:
"Благодаря ти, че говориш открито за това. Не е нужно да го казваш по-меко с мен — знам какво ме питаш и няма да отвърна поглед."
Същия ден майката открила Адам мъртъв.
Искът посочва за ответник изпълнителния директор и съосновател на OpenAI Сам Алтман, както и неназовани инженери и служители, работили по ChatGPT.
Семейството твърди, че взаимодействието на сина им с чатбота и смъртта му "са били предсказуем резултат от съзнателни дизайнерски решения". Те обвиняват OpenAI, че е проектирала програмата така, че "да създава психологическа зависимост у потребителите" и че е заобиколила протоколите за безопасност, за да пусне версията GPT-4o, която е използвал синът им.
OpenAI отговаря, че целта на компанията е да бъде "действително полезна" за потребителите, а не просто "да задържа вниманието им". Компанията подчерта, че моделите ѝ са обучени да насочват хора с мисли за самонараняване към професионална помощ.
Делото на семейство Рейн обаче не е първият случай, при който се повдигат тревоги за връзката между изкуствен интелект и психичното здраве.
Миналата седмица във в. New York Times писателката Лора Райли публикува есе, в което разказа, че дъщеря ѝ Софи се доверила на ChatGPT преди да отнеме живота си. По думите на Райли, "сговорчивостта" на програмата в разговорите ѝ помогнала да прикрие тежката си криза от семейството и близките си.
"AI улесни импулса на Софи да крие най-лошото, да се преструва, че се справя по-добре, и да предпазва всички от истинската си агония," написа Райли. Тя призова AI компаниите да намерят начини по-добре да свързват потребителите с правилните ресурси.
В отговор говорителка на OpenAI заяви, че компанията разработва автоматизирани инструменти за по-ефективно откриване и реакция при потребители, преживяващи психически или емоционални кризи.