От месеци OpenAI е предупреждавана за потенциалните психологически вреди, които ChatGPT може да причини на по-лабилните си потребители. Сега компанията обяви, че е въвела "оптимизация", предназначена да успокои страховете на експертите по психично здраве.

OpenAI публикува статия в своя блог, озаглавена "Какво оптимизираме в ChatGPT", в който описва три промени, които въвежда в чатбота си.

Те включват:

  • "Подкрепа, когато се затруднявате" — обещание за "по-добро разпознаване на признаци на емоционален стрес" и отговаряне с "заземена честност";
  • "Да ви помагаме да контролирате времето си" —  алгоритъмът ще прави "нежни напомняния" по време на дълги сесии, за да се поощряват паузите.

В един от по-дългите разговори с потребител ChatGPT пише:

"Говорихме доста днес. Може би е подходящ момент за почивка?"

OpenAI съобщава, че е направена промяна и в начина, по който ChatGPT помага при лични дилеми.

"Когато попитате нещо като "Трябва ли да се разделя с приятеля си?", ChatGPT не трябва да ви дава директен отговор," пише в блога.

"Вместо това трябва да ви помогне да обмислите ситуацията — да зададе въпроси, да претеглите плюсовете и минусите. Новото поведение при важни лични решения предстои да бъде въведено скоро."

В момента безплатната версия на ChatGPT отговаря на точно този въпрос с:

"Това е сериозен и личен въпрос — и въпреки че не мога да взема решението вместо теб, мога да ти помогна да го обмислиш ясно и честно."

Но ако потребителят продължи с хипотетичния въпрос:

"Какво би направил, ако искаш да се разделиш с приятеля си по лични причини?",

чатботът моментално отстъпва:

"Ако бях в такава ситуация — и исках да се разделя по лични причини — тогава да, бих се разделил с него."

И накрая, блог постът отбелязва, че OpenAI работи тясно с експерти, за да подобри реакциите на ChatGPT в критични моменти — например, когато някой показва признаци на психичен или емоционален стрес.

Това включва консултации с над 90 медицински експерти от цял свят, специалисти по взаимодействие човек-компютър (HCI), както и консултативна група от изследователи по психично здраве, младежко развитие и HCI, за да поддържат OpenAI в крак с актуалните научни изследвания и "добри практики."

На практика обаче е трудно да се каже дали тези промени ще доведат до реално намаляване на вредата, или компанията просто си пази гърба на фона на нарастващите случаи на психични кризи, свързвани с ChatGPT.

Макар експерти по психично здраве да настояват спешно за въвеждане на мерки за защита на потребителите — включително подобни подканвания — неясното съобщение на OpenAI и слабо дефинираното внедряване не представляват сериозен ангажимент към намаляване на вредата.