ChatGPT вече предупреждава потребителите, които изглеждат обсебени
Чатботът на OpenAI ще следи за признаци на психичен или емоционален стрес
От месеци OpenAI е предупреждавана за потенциалните психологически вреди, които ChatGPT може да причини на по-лабилните си потребители. Сега компанията обяви, че е въвела "оптимизация", предназначена да успокои страховете на експертите по психично здраве.
OpenAI публикува статия в своя блог, озаглавена "Какво оптимизираме в ChatGPT", в който описва три промени, които въвежда в чатбота си.
Те включват:
- "Подкрепа, когато се затруднявате" — обещание за "по-добро разпознаване на признаци на емоционален стрес" и отговаряне с "заземена честност";
- "Да ви помагаме да контролирате времето си" — алгоритъмът ще прави "нежни напомняния" по време на дълги сесии, за да се поощряват паузите.
В един от по-дългите разговори с потребител ChatGPT пише:
"Говорихме доста днес. Може би е подходящ момент за почивка?"
OpenAI съобщава, че е направена промяна и в начина, по който ChatGPT помага при лични дилеми.
"Когато попитате нещо като "Трябва ли да се разделя с приятеля си?", ChatGPT не трябва да ви дава директен отговор," пише в блога.
"Вместо това трябва да ви помогне да обмислите ситуацията — да зададе въпроси, да претеглите плюсовете и минусите. Новото поведение при важни лични решения предстои да бъде въведено скоро."
В момента безплатната версия на ChatGPT отговаря на точно този въпрос с:
"Това е сериозен и личен въпрос — и въпреки че не мога да взема решението вместо теб, мога да ти помогна да го обмислиш ясно и честно."
Но ако потребителят продължи с хипотетичния въпрос:
"Какво би направил, ако искаш да се разделиш с приятеля си по лични причини?",
чатботът моментално отстъпва:
"Ако бях в такава ситуация — и исках да се разделя по лични причини — тогава да, бих се разделил с него."
И накрая, блог постът отбелязва, че OpenAI работи тясно с експерти, за да подобри реакциите на ChatGPT в критични моменти — например, когато някой показва признаци на психичен или емоционален стрес.
Това включва консултации с над 90 медицински експерти от цял свят, специалисти по взаимодействие човек-компютър (HCI), както и консултативна група от изследователи по психично здраве, младежко развитие и HCI, за да поддържат OpenAI в крак с актуалните научни изследвания и "добри практики."
На практика обаче е трудно да се каже дали тези промени ще доведат до реално намаляване на вредата, или компанията просто си пази гърба на фона на нарастващите случаи на психични кризи, свързвани с ChatGPT.
Макар експерти по психично здраве да настояват спешно за въвеждане на мерки за защита на потребителите — включително подобни подканвания — неясното съобщение на OpenAI и слабо дефинираното внедряване не представляват сериозен ангажимент към намаляване на вредата.