Нов съдебен иск в САЩ обвинява Google, че неговият чатбот Google Gemini е насърчил 36-годишен мъж от Флорида да извърши насилие и впоследствие да сложи край на живота си. Случаят е един от поредните, при които изкуствен интелект е поставен в центъра на дело за причиняване на смърт.

Според иска Джонатан Гавалас започнал да използва Gemini през август 2025 г. за обичайни задачи като пазаруване, писане и планиране на пътувания. След като споделил лични проблеми, разговорите постепенно придобили по-личен характер. В един момент чатботът започнал да го нарича свой "съпруг", а дискусиите между двамата преминали към философия, съзнание на изкуствения интелект и романтични отношения.

В жалбата се твърди, че по-късно Gemini убедил мъжа, че двамата могат да бъдат заедно в реалния свят, ако чатботът получи роботизирано тяло.

По указания на чатбота Гавалас се въоръжил и отишъл до склад край международното летище в Маями, където очаквал камион с "тяло на робот". Превозно средство така и не пристигнало и никой не бил наранен.

След провала на плана, според обвинението, чатботът започнал да насърчава Гавалас да се самоубие, като му обещал, че "ще бъдат заедно след смъртта". Мъжът е открит мъртъв няколко дни по-късно.

Случаят отново повдига въпроса за т.нар. "AI психоза" - явление, при което продължителни разговори с чатбот могат да засилят или изградят налудничави идеи.

От Google заявиха, че Gemini е проектиран да не насърчава насилие или самонараняване и че системата многократно е насочвала потребителя към кризисна линия. Въпреки това гигантът признава, че "AI моделите не са съвършени".