Експерти по киберсигурност от компанията NeuralTrust откриха сериозен пропуск в сигурността на наскоро представения браузър Atlas на OpenAI, който интегрира популярния чатбот ChatGPT. Проблемът се крие в полето за въвеждане на адреси и команди, известно като "Omnibox".

Уязвимостта позволява на хакери да създадат текст, който визуално прилича на стандартен уеб адрес (URL), но съдържа скрити зловредни инструкции. Когато потребителят копира и постави такъв текст в адресната лента, браузърът не успява да го разпознае като интернет адрес и вместо това го интерпретира като директна команда от потребителя. По този начин изкуственият интелект изпълнява вградените инструкции с високо ниво на доверие и заобикаля някои от защитните механизми.

Според Марти Джорда, софтуерен инженер в NeuralTrust, този метод е особено опасен, тъй като може да накара AI асистента да извършва нежелани действия в акаунти, в които потребителят вече е влязъл. Като пример се посочва възможността изкуственият интелект да бъде инструктиран да отвори Google Drive на потребителя и да започне масово изтриване на файлове.

Тази техника е вариант на по-широко известния проблем, наречен "промпт инжекция" (prompt injection), при който нападатели "инжектират" скрити команди в текст, за да манипулират поведението на AI системите. Досега повечето демонстрации включваха инструкции, скрити в съдържанието на уеб страници. Новооткритият метод обаче е по-директен, тъй като изисква единствено потребителят да постави зловредния текст в адресната лента.

Проблемът не засяга само OpenAI. От компанията за браузъри Brave коментираха, че подобни атаки са заплаха за цялата категория браузъри, задвижвани от изкуствен интелект.

"Ако сте влезли в чувствителни акаунти като банкова сметка или имейл, дори обобщаването на публикация в Reddit може да доведе до кражба на пари или лични данни", предупреждават от Brave.

В отговор на нарастващите притеснения, директорът по информационна сигурност на OpenAI, Дейн Стъки, призна, че "промпт инжекциите остават нерешен проблем в сигурността". Той допълни, че противниците на компанията ще продължат да инвестират значителни ресурси, за да откриват нови начини за осъществяване на подобни атаки.

От NeuralTrust препоръчват OpenAI да въведе много по-стриктни правила за анализ на въвежданите URL адреси, като при всяка неяснота браузърът да отказва навигация, вместо автоматично да преминава към режим на изпълнение на команди.