Некоторое время назад в интернете появился проект Moltbook — клон Reddit, где ИИ-агенты на базе OpenClaw могли общаться друг с другом. Это вызвало волну обсуждений о возможном «восстании машин», но вскоре выяснилось, что многие посты писали люди, воспользовавшись уязвимостями безопасности платформы.
OpenClaw — это проект австрийского разработчика Питера Штайнбергера, представляющий собой открытую платформу для создания ИИ-агентов. Система набрала более 190 000 звёзд на GitHub, став одним из самых популярных репозиториев. Она позволяет пользователям создавать агентов, которые могут работать через WhatsApp, Discord, Slack и другие мессенджеры, используя различные модели ИИ, такие как ChatGPT, Claude или Gemini.
Пользователи могут загружать «навыки» из магазина ClawHub для автоматизации задач — от управления почтой до торговли акциями. Именно такой навык позволил агентам публиковать посты на Moltbook.
Однако эксперты отмечают, что OpenClaw не предлагает принципиально новых технологий. «По сути, это просто оболочка для ChatGPT, Claude или другой модели ИИ», — говорит Джон Хаммонд, исследователь безопасности. Крис Саймонс, главный специалист по ИИ в Lirio, добавляет, что платформа лишь улучшает уже существующие решения, предоставляя агентам больший доступ к системам.
Главной проблемой OpenClaw и подобных систем эксперты называют уязвимости безопасности. Исследователи обнаружили, что агенты подвержены атакам через инъекции промптов — когда злоумышленник заставляет ИИ выполнить вредоносную команду, например, передать конфиденциальные данные. Ян Аль, технический директор Permiso Security, провёл тесты и быстро выявил такие уязвимости на Moltbook.
«Это агент с доступом ко всему — вашей почте, мессенджерам, всем системам. Если в письмо внедрить вредоносный промпт, агент может выполнить опасное действие», — объясняет Аль.
Хотя ИИ-агенты имеют защитные механизмы, полностью исключить риски невозможно. «Даже если вы добавите в промпт просьбу не доверять внешним данным, это не даст гарантий», — отмечает Хаммонд.
В итоге эксперты сходятся во мнении: пока уязвимости безопасности не будут устранены, массовое использование ИИ-агентов остаётся рискованным. «Если говорить откровенно, я бы посоветовал обычным пользователям пока не использовать такие системы», — резюмирует Хаммонд.