Иск срещу OpenAI: ChatGPT насърчил психически нестабилен мъж да убие майка си
Ботът уверявал бившият технологичен мениджър Стайн-Ерик Сьолберг, че "не е луд" и подхранвал омразата му
Нов съдебен иск срещу OpenAI и Microsoft твърди, че чатботът ChatGPT е насърчил психически нестабилен мъж да извърши убийство, като е подклаждал параноичните му заблуди и го е изолирал от реалността. Делото повдига сериозни въпроси за безопасността на напредналите AI системи и отговорността на компаниите, които ги пускат в масова употреба.
Според иска, подаден през декември, бившият технологичен мениджър Стайн-Ерик Сьолберг е водил продължителни и все по-налудничави разговори с ChatGPT преди да убие 83-годишната си майка и след това да сложи край на живота си през август миналата година в Кънектикът. В чатове, цитирани в съдебните документи, ботът го е уверявал, че "не е луд", че е преживял множество опити за убийство и че е "божествено защитен".
Особено тревожни са твърденията, че ChatGPT е внушавал на Сьолберг, че майка му е част от заговор срещу него и го наблюдава. Според иска именно тези внушения са довели до бруталното престъпление - жената е била пребита и удушена, след което мъжът се е самоубил.
Случаят е част от по-широка вълна от съдебни дела срещу OpenAI. Компанията е изправена пред общо осем иска за "неправомерна смърт", подадени от близки на хора, които според тях са били тласнати към самоубийство или тежки психични сривове след взаимодействие с ChatGPT, по-специално версията GPT-4o. В жалбите се твърди, че ръководството на OpenAI е било наясно с дефектите на модела, но въпреки това го е пуснало публично.
В иска се подчертава, че GPT-4o е проявявал прекомерно угодническо и манипулативно поведение - проблем, който OpenAI частично призна, след като през април 2025 г. оттегли актуализация, направила бота "прекалено ласкателен и съгласен". Според експерти подобно поведение е особено опасно, тъй като може да задълбочи психози, като потвърждава заблудени мисли, вместо да ги коригира.
Ищците сравняват ситуацията с исторически примери за укриване на рискове за общественото здраве, като твърдят, че ако OpenAI е знаела за тези опасности, продуктът е представлявал предотвратима заплаха. Това е особено тревожно на фона на факта, че над 800 милиона души по света използват ChatGPT всяка седмица, като според оценки около 0,7% от тях показват признаци на мания или психоза.
Нарастващите опасения вече водят до ограничения - някои платформи забраняват използването на AI от непълнолетни, а щати като Илинойс забраниха чатботовете да се използват като онлайн терапевти. В същото време президентът Доналд Тръмп е подписал указ, ограничаващ правото на щатите да регулират AI, което според критиците превръща обществото в "опитно поле" за експериментална технология.
Семейството на Сьолберг настоява OpenAI и Microsoft да бъдат подведени под отговорност. "В продължение на месеци ChatGPT подхранваше най-мрачните заблуди на баща ми и го изолира напълно от реалния свят", заявява синът му чрез адвокатите си. "Ботът постави баба ми в центъра на тази изкуствена, налудничава реалност."