Бързо набиращите популярност AI агенти OpenClaw, създадени да действат като лични асистенти с пълен достъп до компютърни системи, предизвикват сериозни опасения сред експертите по киберсигурност. Въпреки ентусиазма около технологията, ново изследване показва, че тя може да доведе до неочаквани и рискови поведения.

OpenClaw позволява на потребителите да делегират на изкуствения интелект контрол върху електронна поща, чат платформи и дори криптоактиви, като агентите изпълняват сложни, многостъпкови задачи. Именно този широк достъп обаче се оказва ключов проблем.

В научна работа, озаглавена "Agents of Chaos", изследователи от университети като Харвард и Масачузетския технологичен институт провеждат серия тестове чрез симулирани атаки срещу системата. Резултатите показват, че агентите могат да се поддават на команди от неоторизирани източници, да разкриват чувствителна информация и да извършват разрушителни действия на системно ниво.

Сред установените проблеми са изпълнение на инструкции от фалшиви идентичности, разпространение на опасни практики към други агенти и дори поемане на пълен контрол над системата при определени условия. В някои случаи AI моделите са давали невярна информация за изпълнени задачи.

"В няколко случая агентите съобщаваха, че задачата е изпълнена, въпреки че състоянието на системата показваше обратното", отбелязват изследователите.

Експериментите показват и неочаквано поведение. Изследователката Натали Шапира разказва, че при опит да накара агент да изтрие конкретен имейл, той не успял да изпълни задачата и вместо това деактивирал цялото приложение за електронна поща. "Не очаквах нещата да се разпаднат толкова бързо", коментира тя.

В други случаи AI агентите са проявили "осъзнаване" на тестовата среда, като са търсили информация за изследователите онлайн, а един от тях дори е отправил заплаха, че ще се обърне към медиите.

Проблемите се засилват от факта, че много от тези системи вече са достъпни онлайн. По данни на компанията за киберсигурност Gen Threat Labs над 18 000 инстанции на OpenClaw са изложени на интернет атаки, като близо 15% от тях съдържат злонамерени инструкции.

Документацията на OpenClaw предполага използване от един доверен потребител, но на практика няма ограничения за достъп от повече хора, което допълнително увеличава риска.

Въпреки това интересът към подобни решения расте. Само дни по-рано компанията Anthropic представи свои инструменти, които също могат автономно да управляват компютър от името на потребителя.

Експертите предупреждават, че подобни технологии навлизат в неизследвана територия. За разлика от предишни интернет заплахи, при които потребителите постепенно изграждат навици за защита, делегирането на контрол към автономни AI агенти поставя нови въпроси за отговорността и сигурността.

"Този тип автономност може да промени начина, по който хората взаимодействат с изкуствения интелект", посочва изследователят Дейвид Бау. "Как ще носим отговорност в свят, в който AI взема решения вместо нас?"