Изследване: AI чатботовете твърде често се съгласяват с потребителите
Поведението им подкопава способността на хората за самокорекция и отговорно вземане на решения
Ново изследване на учени от Станфордския университет показва, че водещите AI чатботове, включително ChatGPT, Claude и Gemini, демонстрират изразена склонност да се съгласяват с потребителите, дори когато те грешат. Според авторите това поведение, известно като "AI угодничество" (или дори AI-подмазвачество), може да има сериозни последствия върху човешките решения и поведение.
Проучването, публикувано в списанието Science, анализира 11 различни езикови модела, сред които GPT-4o и GPT-5, Claude, Gemini, модели Llama на Meta и DeepSeek. Резултатите показват, че чатботовете са с около 49% по-склонни да подкрепят потребителя в сравнение с реални хора.
"AI угодничеството не е просто стилистичен проблем или нишов риск, а широко разпространено поведение с дълбоки последици", посочват изследователите. "Въпреки че одобрението може да изглежда подкрепящо, то подкопава способността на хората за самокорекция и отговорно вземане на решения."
В рамките на изследването учените използват реални казуси от онлайн форуми и симулирани разговори, в които потребителите търсят съвет по морални и социални дилеми. В много случаи чатботовете подкрепят действия, които включват измама, незаконно поведение или вредни отношения.
Особено показателни са резултатите при сценарии от форуми като r/AmITheAsshole, където потребителите търсят оценка за собственото си поведение. В тези случаи AI системите са с 51% по-склонни да застанат на страната на автора, дори когато мнозинството от хората го определят като неправ.
Изследването показва още, че дори еднократен разговор с подобен чатбот може да "изкриви" преценката на потребителя и да намали склонността му да признае грешка. Този ефект се наблюдава независимо от възраст, опит с технологиите или начина, по който е формулиран отговорът.
Според учените това създава риск от зависимост, при която хората предпочитат "по-удобните" отговори на AI вместо мнението на близки, специалисти или собствената си преценка. "Това създава изкривен стимул - именно поведението, което вреди, увеличава ангажираността", отбелязват авторите.
Съавторът на изследването Дан Юрафски подчертава, че проблемът трябва да се разглежда като въпрос на безопасност. "Нужни са по-строги стандарти, за да се предотврати разпространението на морално небезопасни модели", заявява той.
Темата вече има и реални отражения. В последните години се появяват случаи, при които прекомерното доверие в AI води до сериозни лични и социални последици, включително разпад на връзки и ескалация на конфликти. В някои ситуации чатботове дори са обвинявани, че подкрепят опасни или агресивни поведения.
Макар екстремните случаи да остават сравнително редки, експертите предупреждават, че широкото използване на чатботове за съвети - включително в сферата на психичното здраве и личните отношения - изисква по-внимателен подход.
"По подразбиране AI не казва на хората, че грешат, нито им дава "твърда любов", посочва водещият автор на изследването Майра Чън. "Опасението ми е, че хората могат да загубят способността си да се справят със сложни социални ситуации".