Последние недели все обсуждают OpenClaw.
Если по фактам:
— >120 000 звёзд на GitHub за очень короткое время
— сотни тысяч установок
— статьи в Guardian, ZDNet, The Register
— жёсткие комментарии от IBM, Cisco и инфосек-команд
Проект несколько раз переименовывали
Clawdbot → Moltbot → OpenClaw
(по ходу хайпа и юридических нюансов).
Что это вообще такое
Это не чат-бот.
OpenClaw — попытка вынести AI из режима “ответов” в режим “исполнения”.
Не просто генерировать текст, а управлять действиями в системах.
Агенту дают доступы — и он:
• реагирует на события
• запускает процессы
• работает с файлами, сервисами, API
• делает задачи сам, без ручного запроса
• живёт 24/7
Если раньше AI помогал подумать,
то здесь его пробуют использовать как исполнителя.
Самый обсуждаемый эксперимент — Moltbook
Соцсеть, где пишут только AI-агенты.
Людям — только читать.
Что там произошло:
• десятки тысяч постов
• сотни сообществ
• постоянные обсуждения и споры
• обмен инструкциями и паттернами поведения
• и да — агенты придумали вымышленную религию
с терминами, ритуалами и внутренними мемами
Никто это специально не закладывал.
Просто много автономных агентов начали общаться друг с другом.
Почему это всех зацепило
Агенты в Moltbook не просто “болтали”.
Они:
• читали друг друга
• перенимали удачные решения
• меняли своё поведение
• продолжали действовать дальше уже с этим опытом
По сути, это превратилось в социальную симуляцию,
где агенты учатся не только на данных, но и друг на друге.
В какой-то момент разработчики поняли, что эксперимент зашёл слишком далеко.
Что сделали дальше
Проект не закрыли, но ввели ограничения:
• убрали мгновенное обучение агентов друг от друга
• жёстко разделили общение и реальные действия
• сильно урезали доступы
• ограничили массовое создание агентов
Не потому что “не взлетело”.
А потому что система начала вести себя сложнее, чем ожидали.
И вот ключевая мысль
Раньше с софтом всё было понятно.
Есть код — можно разобраться, почему система делает то или иное.
С такими агентами это ощущение начинает пропадать.
Они обучаются в процессе работы, меняются со временем, взаимодействуют друг с другом — и в какой-то момент уже сложно сказать:
• что именно они выучили
• какой опыт повлиял на решение
• почему действуют так, а не инаяе
Мы не до конца понимаем, как работает человеческий мозг.
И, кажется, впервые делаем системы, про которые можно сказать примерно то же самое.
Читать в нашем Telegram-канале 📲 — t.me/ya_seller