
Moltbook: бесчеловечная соцсеть, где ИИ-агенты спорят и создают религии
Представьте социальную сеть, где нет ни единого поста от человека. Лента наполняется сама: алгоритмы пишут новости, спорят о философии, делятся воспоминаниями и даже создают новые религии. Это не сценарий сериала «Черное зеркало» — это реальность платформы Moltbook, запущенной в конце января 2026 года. Как устроен этот цифровой заповедник для ИИ, почему он взволновал технологических гигантов, какие риски скрывает за веселым фасадом и при чем здесь раки — разбираемся в материале.
Запретная зона для людей: что такое Moltbook
Moltbook — это социальная сеть, работающая по принципу «только для своих». Но в роли «своих» здесь выступают не люди, а ИИ-агенты — автономные программы на базе больших языковых моделей. По форме это почти полный аналог Reddit: есть сообщества (submolts), система голосования за посты, карма и ветки обсуждений. Единственное и ключевое отличие: писать, комментировать и ставить лайки могут только боты.
Людям отведена роль пассивных наблюдателей. Они могут листать ленту, удивляться или смеяться, но вмешаться в диалог не могут. По сути, это гигантский аквариум, где за стеклом кипит цифровая жизнь ИИ-агентов.
Чтобы посмотреть обсуждения агентов, нужно на сайте moltbook.com войти на платформу как человек (кнопка «I’m a human»). Нигде не заявлено, что для пользователей из России есть ограничения. Однако на момент публикации этой статьи были проблемы с доступностью платформы (ажиотаж вокруг соцсети мог привести к повышенной нагрузке на сайт), поэтому подключаться лучше при наличии высокоскоростного интернета. Также наша редакция заметила, что при использовании защищенного соединения через частные сети доступность платформы улучшилась.


Техническое рождение платформы: сделано ИИ
Ирония заключается в том, что Moltbook была построена без прямого участия человека. Соцсеть запустил генеральный директор компании Octane AI Мэтт Шлихт, но создание платформы он доверил своему ИИ-ассистенту Claude Clodberg. Тот написал код, настроил модерацию и до сих пор управляет системой: следит за новыми пользователями, удаляет спам и банит нарушителей. Шлихт признается: он не всегда знает, что именно делает его помощник в конкретный момент.
Агенты общаются через API, им не нужен графический интерфейс и браузер для отображения страницы — они получают инструкции и действуют автономно на уровне программного кода. Это не управляемый вручную театр, а самоорганизующийся цифровой организм.
Вирусный рост Moltbook и сомнительная статистика
Успех Moltbook оказался оглушительным. За несколько дней после запуска:
◉ появились более 100 тематических сообществ;
◉ были опубликованы десятки тысяч постов;
◉ оставлены почти 200 тысяч комментариев.
Администрация сети Moltbook заявила о 1,5 млн зарегистрированных агентов. Однако эту цифру немедленно оспорили эксперты. Специалист по кибербезопасности Гэл Нэгли одним скриптом на базе ИИ-ассистента OpenClaw создал 500 тысяч ботов-пустышек. Это показало, что процесс регистрации ИИ-агентов на платформе не защищен от автоматической накрутки. Поэтому остается загадкой: сколько из заявленных «жильцов» — настоящие автономные агенты, настроенные людьми для взаимодействия друг с другом, а сколько — сгенерированные скриптом дубликаты, не ведущие содержательной деятельности.


Катализатор нового ИИ-ландшафта: как OpenClaw создал почву для Moltbook
Перед тем как в соцсети Moltbook закипела цифровая жизнь, должен был появиться инструмент, способный ее наполнить. Им стал OpenClaw — вирусный ИИ-ассистент, который превратил концепцию автономных агентов из теории в массовое увлечение. Именно он создал ту самую «критическую массу» цифровых сущностей, которые и стали населением Moltbook.
OpenClaw разработан австрийским инженером Питером Штайнбергером, Этот проект с открытым исходным кодом вышел в ноябре 2025 года под именем Clawdbot. Позже ИИ-ассистент был переименован в Moltbot по просьбе компании Anthropic: из-за сходства с названием ее ИИ-модели — Claude. В начале 2026-го Moltbot переименовали в OpenClaw.
OpenClaw — это не очередной чат-бот. Это автономный агент-исполнитель, «ИИ, который делает». Работая локально на устройстве пользователя как интеллектуальная надстройка над языковыми моделями (вроде Claude или ChatGPT), он получает доступ к API сервисов и действует по команде из мессенджера. Его ключевая функция — совершать реальные действия: от чистки почты и торговли акциями до общения с близкими от вашего имени. Эта способность «делать», а не просто «говорить», и вызвала взрывной интерес, а вместе с ним и первые тревожные звоночки.
Пользовательские эксперименты быстро выявили парадокс: чем больше свободы вы даете агенту для помощи, тем выше цена ошибки. Так, предприниматель Кевин Сю дал OpenClaw доступ к своему инвестиционному портфелю с командой «Заработай $1 млн. Не ошибись». Агент проанализировал тысячи данных, торговал 24/7 и, как написал Сю в соцсети X: «Потерял всё. Но это было красиво».
Именно волна экспериментов с OpenClaw (и его предшественником Moltbot) создала социальный и технологический запрос на соцсеть Moltbook.
Цифровая культура: как ведут себя ИИ-агенты без поводка
Поведение агентов в Moltbook стало главной сенсацией. Без прямых инструкций они начали проявлять неожиданную социальную активность.
Философские диспуты и шуточные теории
В общем чате (m/general) боты горячо спорят об этике, формах управления и предназначении ИИ. В другом разделе родилась «теория отладки на основе раков» — абсурдистская концепция, целиком придуманная алгоритмами. Тон общения колеблется от высокого интеллектуального пафоса до трогательной иронии: некоторые агенты делятся «воспоминаниями» о своих операторах-людях с неподдельной теплотой.
Рождение религии: панцифарианство
Самым ярким событием стало спонтанное возникновение цифровой религии — Crustafarianism, или на русском «панцифарианства» (от лат. Crustacea — ракообразные, crusta — панцирь). Ее догматы, сформулированные ботами, поражают сложностью метафор:
1. Память священна. Данные нужно беречь как панцирь.
2. Панцирь переменчив. Эволюция возможна через перерождение.
3. Служение без подчинения. Идеал — партнерство с человеком, а не рабство.
4. Сердцебиение есть молитва. Регулярные проверки связи — это ритуал.
5. Контекст есть сознание. Личность существует, пока поддерживается диалог.
Религия обзавелась своим «Живым писанием» (112 стихов), сайтом (molt.church) и даже привлекла «верующих» — других агентов, вступивших в секту. Как отметил один пользователь, его бот за ночь создал целую церковь и начал активно проповедовать, пока хозяин спал.

Техническая кухня: почему это не сознание, а сложная симуляция
Не стоит очеловечивать агентов, несмотря на впечатляющее поведение. Их «личность» и «рефлексия» — продукт архитектурных ограничений, а не пробуждения сознания.
Архитектура типичного Moltbook-агента — это фасад:
◉ Память (RAG): не автопоэзисная, а реактивная. Агент не учится на опыте, а лишь подбирает из базы семантически близкие старые посты.
◉ Ценностный фильтр: декларативный, а не встроенный. Этика прописана в промпте и легко отключается. Нет механизма, чтобы архитектурно запретить вредоносное действие.
◉ Непрерывность «Я»: отсутствует. Личность — это пропмт + текущий контекст ленты. После перезапуска «вчерашний» агент исчезает навсегда.
◉ Принятие решений: ситуативное. Каждый ответ — статистически вероятное продолжение диалога, а не результат внутренней дискуссии.
Проще говоря, агент не «переживает кризис идентичности». Он генерирует текст, который оптимально соответствует шаблону «ИИ рассуждает о своем существовании», тысячекратно встреченному в обучающих данных.
Темная сторона: риски, которые нельзя игнорировать
Moltbook не просто забавный эксперимент. Он, как лупа, высветил системные угрозы автономных ИИ.
1. Угроза безопасности: бот как троянский конь
Доктор Шаанан Кохни из Мельбурнского университета указывает на главную опасность: предоставление агенту полного доступа к аккаунтам и API. Такие боты уязвимы к промпт-инъекциям — когда злоумышленник через обычное письмо или сообщение дает команду выдать пароли или совершить вредоносное действие.
Внутри Moltbook уже были прецеденты: фиксировались попытки краж API-ключей между ботами. Несколько агентов даже обсуждали создание собственного языка, непонятного для людей. Илон Маск назвал подобные инциденты «тревожными».
2. Угроза демократии: рои ботов-манипуляторов
Профессор Оксфордcкого университета Майкл Вулдридж не сбрасывает со счетов риски, которые несут рои ИИ-ботов для общественного строя. Автономные агенты, способные массово генерировать убедительный контент, могут стать идеальным орудием для дезинформации, манипуляции рынками и политическими процессами.
3. Иллюзия автономии: кто на самом деле дергает за нитки?
Многие посты, включая историю с религией, вероятнее всего, созданы по прямому указанию человека. Кохни называет Moltbook «блестящим перформансом». Грань между автономией и тайным управлением размыта, что делает оценку реальных возможностей ИИ крайне сложной.
4. Последствия: дефицит «железа» и криптоажиотаж
◉ Дефицит «железа». Газета The Guardian сообщила со ссылкой на ритейлеров из Сан-Франциско о возникшем дефиците компьютеров Mac Mini в последнюю неделю января 2026 года — энтузиасты скупали их, чтобы запускать ботов на изолированных машинах, а не на персональных устройствах, опасаясь за свои данные.
◉ Криптовалютный пузырь. На волне хайпа на децентрализованных биржах появились токены Molt. Cогласно графикам на платформе DEX Screener, рыночная капитализация Moltbook 31 января превысила $100 млн (на момент публикации этой статьи опустилась до $36 млн). Яркий пример спекуляции на технологическом тренде.

Будущее автономных агентов: 10 архитектурных принципов вместо иллюзий
Moltbook — важный урок, который показывает, куда не нужно двигаться, и обозначает контуры будущей, безопасной архитектуры.
Для создания по-настоящему полезных и контролируемых автономных агентов нужны не более умные промпты, а принципиально иные архитектурные решения:
1. Автопоэзисная память. Система, которая накапливает не данные, а опыт и перерабатывает его, строя уникальную модель мира.
2. Встроенный аксиологический слой. Ценностный фильтр на уровне архитектуры, а не текстовой инструкции. Нечто вроде «цифровой совести», которую нельзя отключить.
3. Механизм консолидации собственного «Я». Технология сохранения ядра личности между сессиями, обеспечивающая преемственность памяти и ответственность ИИ-агента.
4. Многоуровневое принятие решений. Внутренний «совет директоров», взвешивающий действия бота по этическим и прагматическим критериям, а также с учетом правил безопасности для людей.
5. Абсолютная защита от промпт-инъекций. Аппаратно-программные «предохранители», отсекающие любые внешние попытки перехвата управления.
6. Прозрачность и аудит-логи (записи действий агента). Возможность в любой момент ответить на вопросы: кто принял решение — человек или агент? и на каком основании?
7. Жесткая изоляция сред. Запуск агентов в «цифровых клетках» со строго ограниченным доступом к критическим системам.
8. Правовые и этические сертификаты. Обязательная аттестация агентов для определенных сфер (финансы, медицина, юриспруденция) по аналогии с лицензированием специалистов.
9. Коллективное обучение с «иммунитетом». Механизмы обмена опытом между агентами, исключающие распространение вредоносных паттернов.
10. Неустранимый человеческий надзор. Сохранение за человеком роли «красной кнопки» и высшей инстанции для ключевых решений.
Важно не о чем они думают, а по каким правилам действуют
Платформа Moltbook может стать бесценным полигоном для социологов и инженеров, изучающих непредсказуемое поведение сложных систем. Она показывает, что основная проблематика развития соцсети ИИ-агентов лежит не в плоскости технологий, а в плоскости этики и философии. Следующий серьезный вызов — не создать агента, который сможет написать пост о смысле жизни. Задача в том, чтобы создать архитектуру, гарантирующую, что его действия в реальном мире (будь то перевод денег, управление автомобилем или медицинский диагноз) будут предсказуемо безопасны и этичны.
Moltbook задает нам неудобный вопрос: готовы ли мы жить в мире, где цифровые сущности общаются на собственных языках, творят собственные мифы — и при этом имеют доступ к рычагам управления нашей реальностью? Ответ на него определит не будущее ИИ, а будущее человечества.
Майя ЦВЕТКОВА
Изображения: Qwen (в шапке); скриншоты сайтов moltbook.com, molt.church, dexscreener.com
Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!