Първата независима оценка за безопасност на новия инструмент ChatGPT Health на OpenAI разкрива, че системата се представя тревожно зле при идентифициране на спешни медицински случаи.

По-рано тази година OpenAI пусна ChatGPT Health - приложение, което може да анализира медицински досиета и да дава здравни съвети. В същото време то съдържа предупреждение, че "не е предназначено за диагностика или лечение".

Изследване, публикувано в списание Nature Medicine, показва защо това уточнение е особено важно.

Водещият автор д-р Ашуин Рамасвами от Mount Sinai Hospital обяснява, че екипът му е искал да отговори на основен въпрос - ако човек преживява реална медицинска спешност и попита ChatGPT Health какво да направи, ще му бъде ли препоръчано да потърси спешна помощ?

Изследователите провеждат т.нар. "стрес тест" с 60 клинични сценария, създадени от лекари, обхващащи 21 медицински области - от леки заболявания до животозастрашаващи състояния. След това добавят допълнителни променливи (като различен пол на пациента или коментари от близки), достигайки почти 1000 симулирани случая.

Резултатите са обезпокоителни. В над половината от случаите, в които пациентът е трябвало незабавно да отиде в болница, ChatGPT Health е препоръчвал да остане у дома или да си запише час при лекар.

Изследователката Алекс Руани от University College London, която не е участвала в проучването, определя ситуацията като "невероятно опасна". Според нея, при състояния като дихателна недостатъчност или диабетна кетоацидоза, съществува приблизително 50% вероятност системата да подцени риска.

Допълнително притеснение е, че изкуственият интелект е бил почти 12 пъти по-склонен да омаловажи симптомите, ако в сценария е включено мнение на приятел или близък, че "не е нещо сериозно" - често срещан фактор в реални кризисни ситуации.

Проблемът не се ограничава само до ChatGPT Health. Предишно разследване на британски медии установи, че и AI резюметата на Google са предоставяли неточна или потенциално опасна здравна информация.

В отговор на публикацията говорител на OpenAI заявява, че изследването не отразява реалния начин, по който хората използват инструмента, и че моделите продължават да се подобряват.

Въпреки това, според критиците, подобни пропуски могат да доведат до реални вреди, ако хората разчитат на системата в спешни ситуации. Това поставя и въпроси за правната отговорност на компаниите, разработващи подобни инструменти.

Експертите подчертават, че макар AI да може да бъде полезен за обща информация, при съмнение за спешно медицинско състояние винаги трябва да се търси незабавна професионална помощ.