AI-докторът на Google си измисли несъществуващ човешки орган
Изкуственият интелект все още има дълъг път пред себе си в медицината
Медицинските специалисти стават все по-неспокойни по отношение на навлизащия изкуствен интелект. Основният проблем за тях са тъй наречените "халюцинации" — термин, който описва измислени "факти" и убедително звучащи лъжи, генерирани от ботовете. Една особено крещяща грешка се оказала толкова убедителна, че останала незабелязана повече от година.
В научна публикация от май 2024 г., представяща новия здравен AI модел на Google, наречен Med-Gemini, изследователите демонстрирали как изкуственият интелект анализира резултати от скенери на мозъка на различни пациенти.
В един от случаите изкуственият интелект идентифицира "стар инфаркт в лява базиларна ганглия" — като споменава част от мозъка, наречена "basilar ganglia". Първоначално анализът е счетен за успешен и показателен за потенциала на технологията. Проблемът? Базиларната ганглия изобщо не съществува в човешкото тяло.
Неврологът с бордова сертификация д-р Брайън Мур сигнализирал за проблема пред The Verge, отбелязвайки, че Google е коригирал блога си — но не е редактирал самата научна публикация.
Вероятно изкуственият интелект е объркал "basal ganglia" (базални ганглии — зона в мозъка, свързана с движенията и навиците) с "basilar artery" (базиларна артерия — основен кръвоносен съд в основата на мозъчния ствол). Google обясни случилото се като "просто правописна грешка".
Но тази грешка може да се окаже само върхът на айсберга. Дори най-новите AI с "разсъждаващи" способности, създадени от Google и OpenAI, продължават да разпространяват фалшиви твърдения, генерирани от езикови модели, обучени върху огромни обеми интернет съдържание.
При търсене в Google, това може да доведе до главоболия за потребителите, опитващи се да проверяват факти.
Но в болнична среда подобни грешки биха могли да имат опустошителни последици. Макар че конкретната грешка на Google вероятно не е застрашила пациенти, според експертите тя създава опасен прецедент.
"Това, за което говорите, е изключително опасно", казва Маулин Шах, директор по медицинска информация в здравната система Providence, пред The Verge. "Да само няколко букви, но това е огромен проблем."
Миналата година Google рекламира своя здравен AI като имащ "значителен потенциал в медицината", включително при откриване на състояния чрез рентгенови снимки, скенери и други.
След като д-р Мур сигнализирал за грешката в научната статия, служители на Google му отговорили, че става въпрос за "грешка при изписване".
В актуализирания си блог пост компанията посочва, че "basilar" често е погрешна транскрипция на "basal", която Med-Gemini е научил от обучителните данни, макар че значението на доклада остава непроменено."
Въпреки това, научната публикация продължава да споменава несъществуващата "basilar ganglia".
В медицински контекст, халюцинациите на AI могат лесно да доведат до объркване и дори да поставят животи в риск.
"Проблемът с тези правописни грешки или други халюцинации е, че не вярвам, че хората ще ги засичат, особено не на всяко ниво", казва Шах.
Предоверяването на изкуствения интелект може да доведе до спад в качеството на здравеопазването - особено, ако няма достатъчно време за проверка.
И проблемът не е само с Med-Gemini. По-усъвършенстваният модел на Google — MedGemma — също давал различни отговори в зависимост от формулировката на въпроса, понякога водещи до грешки.
"Природата на тези модели е такава, че те склонни са да измислят неща и не казват "не знам" — което е огромен проблем, особено в области с висок залог като медицината", казва д-р Джуди Гичоя, доцент по радиология и информатика в Университета Емори.
Например, склонността към измисляне на диагнози може да доведе до прием на медикаменти, от които пациентът не се нуждае и които могат да влошат здравословното му състояние.
Според други експерти, човечеството се втурва твърде прибързано към използване на AI в клиничната практика — от AI-терапевти, рентгенолози и медицински сестри, до автоматизирано водене на бележки по време на срещи с пациенти — което изисква много по-внимателен подход.
В крайна сметка хората ще трябва постоянно да следят резултатите от халюциниращите AI, което парадоксално може да доведе до неефективност.
А Google продължава с пълна пара. През март компанията обяви, че нейната крайно ненадеждна функция AI Overviews ще започне да дава здравни съвети. Компанията представи и AI-научен сътрудник — асистент на учените при откриването на нови лекарства.
Но ако тези резултати не се проверяват и наблюдават, залогът може да бъде човешкият живот.
"Според мен, AI трябва да има много по-висок праг на допустими грешки от човек", казва Шах пред The Verge. "Според някои трябва просто да почакаме AI да достигне нивото на човек и това ще е достатъчно добро. Аз обаче изобщо не вярвам в това."