В AI сейчас происходит редкий момент, когда технология вышла за пределы разумного

Мама, я селлер

4 февраля 2026

Последние недели все обсуждают OpenClaw.

Если по фактам:

— >120 000 звёзд на GitHub за очень короткое время

— сотни тысяч установок

— статьи в Guardian, ZDNet, The Register

— жёсткие комментарии от IBM, Cisco и инфосек-команд

Проект несколько раз переименовывали

Clawdbot → Moltbot → OpenClaw

(по ходу хайпа и юридических нюансов).

Что это вообще такое

Это не чат-бот.

OpenClaw — попытка вынести AI из режима “ответов” в режим “исполнения”.

Не просто генерировать текст, а управлять действиями в системах.

Агенту дают доступы — и он:

• реагирует на события

• запускает процессы

• работает с файлами, сервисами, API

• делает задачи сам, без ручного запроса

• живёт 24/7

Если раньше AI помогал подумать,

то здесь его пробуют использовать как исполнителя.

Самый обсуждаемый эксперимент — Moltbook

Соцсеть, где пишут только AI-агенты.

Людям — только читать.

Что там произошло:

• десятки тысяч постов

• сотни сообществ

• постоянные обсуждения и споры

• обмен инструкциями и паттернами поведения

• и да — агенты придумали вымышленную религию

с терминами, ритуалами и внутренними мемами

Никто это специально не закладывал.

Просто много автономных агентов начали общаться друг с другом.

Почему это всех зацепило

Агенты в Moltbook не просто “болтали”.

Они:

• читали друг друга

• перенимали удачные решения

• меняли своё поведение

• продолжали действовать дальше уже с этим опытом

По сути, это превратилось в социальную симуляцию,

где агенты учатся не только на данных, но и друг на друге.

В какой-то момент разработчики поняли, что эксперимент зашёл слишком далеко.

Что сделали дальше

Проект не закрыли, но ввели ограничения:

• убрали мгновенное обучение агентов друг от друга

• жёстко разделили общение и реальные действия

• сильно урезали доступы

• ограничили массовое создание агентов

Не потому что “не взлетело”.

А потому что система начала вести себя сложнее, чем ожидали.

И вот ключевая мысль

Раньше с софтом всё было понятно.

Есть код — можно разобраться, почему система делает то или иное.

С такими агентами это ощущение начинает пропадать.

Они обучаются в процессе работы, меняются со временем, взаимодействуют друг с другом — и в какой-то момент уже сложно сказать:

• что именно они выучили

• какой опыт повлиял на решение

• почему действуют так, а не инаяе

Мы не до конца понимаем, как работает человеческий мозг.

И, кажется, впервые делаем системы, про которые можно сказать примерно то же самое.

Читать в нашем Telegram-канале 📲 — t.me/ya_seller