Директорът по безопасност в лабораторията за "суперинтелигентност" на Meta призна за сериозен гаф, след като е позволила на автономен AI агент да поеме контрол над компютъра ѝ.

Става дума за OpenClaw - AI агент, който според поддръжниците му "наистина върши работа", като изпълнява задачи директно върху операционната система и в браузъра. Именно тази дълбока интеграция обаче поражда и основните рискове. В последните седмици редица компании, включително Meta, са ограничили използването на подобни инструменти на служебни машини заради опасения за сигурността.

В публикация в X Съмър Юе, ръководител по безопасност в Meta, разказва как е дала на OpenClaw достъп до личния си компютър с цел да сортира имейлите ѝ. Инструкцията е била да предложи кои съобщения да бъдат архивирани или изтрити, без да предприема реални действия.

Вместо това AI агентът започва масово изтриване на имейли, включително такива, които Юе описва като "важни". По думите ѝ се е наложило буквално да се затича към своя Mac mini, за да прекъсне процеса ръчно, тъй като от телефона си не е успяла да го спре.

В последвалата дискусия тя признава, че е допуснала "грешка на новак", въпреки че професионално се занимава именно с проблемите на AI безопасността. Досегашната ѝ работа с тестова пощенска кутия е създала фалшиво усещане за надеждност, което не се е пренесло при реални данни.

Случаят идва на фона на нарастваща еуфория около автономните AI агенти, които могат самостоятелно да извършват действия - от писане на код до управление на акаунти и финансови операции. В един от по-шумните примери изследовател от OpenAI твърди, че е изгубил значителна сума в криптоактиви, след като подобен агент е прехвърлил средствата към случаен потребител онлайн.

Експерти по сигурност отдавна предупреждават, че предоставянето на широк достъп до файлове, браузър и комуникационни канали на системи, склонни към грешки и "халюцинации", създава реален риск.

Въпреки това част от технологичната общност приема подобни експерименти като неизбежна стъпка към по-висока продуктивност.

След инцидента OpenClaw е "поднесъл извинение" в характерния за подобни системи тон, уверявайки, че няма да повтори грешката. Именно това антропоморфизиране на поведението е сред притесненията на специалистите - склонността на хората да възприемат AI като надежден партньор, а не като инструмент със статистически ограничения.

Случаят с Юе показва, че дори професионалисти в областта на AI безопасността не са имунизирани срещу прекомерно доверие. А с навлизането на все по-автономни агенти въпросът вече не е дали ще има грешки, а колко скъпи ще бъдат те. И тези проблеми дори са извън темата за мащабното следене и подслушване, което на практика позволява технологията.