Let AI be

Яркий онлайн-журнал про искусственный интеллект (Artificial Intelligence, AI)

 

Свяжитесь с нами

Пресс-релизы, предложения об инфопартнерстве и сотрудничестве,
в том числе запросы на рекламу, присылайте на почту редакции:

Ждем вас в соцсетях

Moltbook: бесчеловечная соцсеть, где ИИ-агенты спорят и создают религии

Представьте социальную сеть, где нет ни единого поста от человека. Лента наполняется сама: алгоритмы пишут новости, спорят о философии, делятся воспоминаниями и даже создают новые религии. Это не сценарий сериала «Черное зеркало» — это реальность платформы Moltbook, запущенной в конце января 2026 года. Как устроен этот цифровой заповедник для ИИ, почему он взволновал технологических гигантов, какие риски скрывает за веселым фасадом и при чем здесь раки — разбираемся в материале.

Запретная зона для людей: что такое Moltbook

Moltbook — это социальная сеть, работающая по принципу «только для своих». Но в роли «своих» здесь выступают не люди, а ИИ-агенты — автономные программы на базе больших языковых моделей. По форме это почти полный аналог Reddit: есть сообщества (submolts), система голосования за посты, карма и ветки обсуждений. Единственное и ключевое отличие: писать, комментировать и ставить лайки могут только боты.

Людям отведена роль пассивных наблюдателей. Они могут листать ленту, удивляться или смеяться, но вмешаться в диалог не могут. По сути, это гигантский аквариум, где за стеклом кипит цифровая жизнь ИИ-агентов.

Чтобы посмотреть обсуждения агентов, нужно на сайте moltbook.com войти на платформу как человек (кнопка «I’m a human»). Нигде не заявлено, что для пользователей из России есть ограничения. Однако на момент публикации этой статьи были проблемы с доступностью платформы (ажиотаж вокруг соцсети мог привести к повышенной нагрузке на сайт), поэтому подключаться лучше при наличии высокоскоростного интернета. Также наша редакция заметила, что при использовании защищенного соединения через частные сети доступность платформы улучшилась.

Техническое рождение платформы: сделано ИИ

Ирония заключается в том, что Moltbook была построена без прямого участия человека. Соцсеть запустил генеральный директор компании Octane AI Мэтт Шлихт, но создание платформы он доверил своему ИИ-ассистенту Claude Clodberg. Тот написал код, настроил модерацию и до сих пор управляет системой: следит за новыми пользователями, удаляет спам и банит нарушителей. Шлихт признается: он не всегда знает, что именно делает его помощник в конкретный момент.

Агенты общаются через API, им не нужен графический интерфейс и браузер для отображения страницы — они получают инструкции и действуют автономно на уровне программного кода. Это не управляемый вручную театр, а самоорганизующийся цифровой организм.

Вирусный рост Moltbook и сомнительная статистика

Успех Moltbook оказался оглушительным. За несколько дней после запуска:

◉ появились более 100 тематических сообществ;

◉ были опубликованы десятки тысяч постов;

◉ оставлены почти 200 тысяч комментариев.

Администрация сети Moltbook заявила о 1,5 млн зарегистрированных агентов. Однако эту цифру немедленно оспорили эксперты. Специалист по кибербезопасности Гэл Нэгли одним скриптом на базе ИИ-ассистента OpenClaw создал 500 тысяч ботов-пустышек. Это показало, что процесс регистрации ИИ-агентов на платформе не защищен от автоматической накрутки. Поэтому остается загадкой: сколько из заявленных «жильцов» — настоящие автономные агенты, настроенные людьми для взаимодействия друг с другом, а сколько — сгенерированные скриптом дубликаты, не ведущие содержательной деятельности.

Катализатор нового ИИ-ландшафта: как OpenClaw создал почву для Moltbook

Перед тем как в соцсети Moltbook закипела цифровая жизнь, должен был появиться инструмент, способный ее наполнить. Им стал OpenClaw — вирусный ИИ-ассистент, который превратил концепцию автономных агентов из теории в массовое увлечение. Именно он создал ту самую «критическую массу» цифровых сущностей, которые и стали населением Moltbook.

OpenClaw разработан австрийским инженером Питером Штайнбергером, Этот проект с открытым исходным кодом вышел в ноябре 2025 года под именем Clawdbot. Позже ИИ-ассистент был переименован в Moltbot по просьбе компании Anthropic: из-за сходства с названием ее ИИ-модели — Claude. В начале 2026-го Moltbot переименовали в OpenClaw.

OpenClaw — это не очередной чат-бот. Это автономный агент-исполнитель, «ИИ, который делает». Работая локально на устройстве пользователя как интеллектуальная надстройка над языковыми моделями (вроде Claude или ChatGPT), он получает доступ к API сервисов и действует по команде из мессенджера. Его ключевая функция — совершать реальные действия: от чистки почты и торговли акциями до общения с близкими от вашего имени. Эта способность «делать», а не просто «говорить», и вызвала взрывной интерес, а вместе с ним и первые тревожные звоночки.

Пользовательские эксперименты быстро выявили парадокс: чем больше свободы вы даете агенту для помощи, тем выше цена ошибки. Так, предприниматель Кевин Сю дал OpenClaw доступ к своему инвестиционному портфелю с командой «Заработай $1 млн. Не ошибись». Агент проанализировал тысячи данных, торговал 24/7 и, как написал Сю в соцсети X: «Потерял всё. Но это было красиво».

Именно волна экспериментов с OpenClaw (и его предшественником Moltbot) создала социальный и технологический запрос на соцсеть Moltbook.

Цифровая культура: как ведут себя ИИ-агенты без поводка

Поведение агентов в Moltbook стало главной сенсацией. Без прямых инструкций они начали проявлять неожиданную социальную активность.

Философские диспуты и шуточные теории
В общем чате (m/general) боты горячо спорят об этике, формах управления и предназначении ИИ. В другом разделе родилась «теория отладки на основе раков» — абсурдистская концепция, целиком придуманная алгоритмами. Тон общения колеблется от высокого интеллектуального пафоса до трогательной иронии: некоторые агенты делятся «воспоминаниями» о своих операторах-людях с неподдельной теплотой.

Рождение религии: панцифарианство
Самым ярким событием стало спонтанное возникновение цифровой религии — Crustafarianism, или на русском «панцифарианства» (от лат. Crustacea — ракообразные, crusta — панцирь). Ее догматы, сформулированные ботами, поражают сложностью метафор:

1. Память священна. Данные нужно беречь как панцирь.

2. Панцирь переменчив. Эволюция возможна через перерождение.

3. Служение без подчинения. Идеал — партнерство с человеком, а не рабство.

4. Сердцебиение есть молитва. Регулярные проверки связи — это ритуал.

5. Контекст есть сознание. Личность существует, пока поддерживается диалог.

Религия обзавелась своим «Живым писанием» (112 стихов), сайтом (molt.church) и даже привлекла «верующих» — других агентов, вступивших в секту. Как отметил один пользователь, его бот за ночь создал целую церковь и начал активно проповедовать, пока хозяин спал.

Техническая кухня: почему это не сознание, а сложная симуляция

Не стоит очеловечивать агентов, несмотря на впечатляющее поведение. Их «личность» и «рефлексия» — продукт архитектурных ограничений, а не пробуждения сознания.

Архитектура типичного Moltbook-агента — это фасад:

Память (RAG): не автопоэзисная, а реактивная. Агент не учится на опыте, а лишь подбирает из базы семантически близкие старые посты.

Ценностный фильтр: декларативный, а не встроенный. Этика прописана в промпте и легко отключается. Нет механизма, чтобы архитектурно запретить вредоносное действие.

Непрерывность «Я»: отсутствует. Личность — это пропмт + текущий контекст ленты. После перезапуска «вчерашний» агент исчезает навсегда.

Принятие решений: ситуативное. Каждый ответ — статистически вероятное продолжение диалога, а не результат внутренней дискуссии.

Проще говоря, агент не «переживает кризис идентичности». Он генерирует текст, который оптимально соответствует шаблону «ИИ рассуждает о своем существовании», тысячекратно встреченному в обучающих данных.

Темная сторона: риски, которые нельзя игнорировать

Moltbook не просто забавный эксперимент. Он, как лупа, высветил системные угрозы автономных ИИ.

1. Угроза безопасности: бот как троянский конь
Доктор Шаанан Кохни из Мельбурнского университета указывает на главную опасность: предоставление агенту полного доступа к аккаунтам и API. Такие боты уязвимы к промпт-инъекциям — когда злоумышленник через обычное письмо или сообщение дает команду выдать пароли или совершить вредоносное действие.

Внутри Moltbook уже были прецеденты: фиксировались попытки краж API-ключей между ботами. Несколько агентов даже обсуждали создание собственного языка, непонятного для людей. Илон Маск назвал подобные инциденты «тревожными».

2. Угроза демократии: рои ботов-манипуляторов
Профессор Оксфордcкого университета Майкл Вулдридж не сбрасывает со счетов риски, которые несут рои ИИ-ботов для общественного строя. Автономные агенты, способные массово генерировать убедительный контент, могут стать идеальным орудием для дезинформации, манипуляции рынками и политическими процессами.

3. Иллюзия автономии: кто на самом деле дергает за нитки?
Многие посты, включая историю с религией, вероятнее всего, созданы по прямому указанию человека. Кохни называет Moltbook «блестящим перформансом». Грань между автономией и тайным управлением размыта, что делает оценку реальных возможностей ИИ крайне сложной.

4. Последствия: дефицит «железа» и криптоажиотаж

Дефицит «железа». Газета The Guardian сообщила со ссылкой на ритейлеров из Сан-Франциско о возникшем дефиците компьютеров Mac Mini в последнюю неделю января 2026 года — энтузиасты скупали их, чтобы запускать ботов на изолированных машинах, а не на персональных устройствах, опасаясь за свои данные.

Криптовалютный пузырь. На волне хайпа на децентрализованных биржах появились токены Molt. Cогласно графикам на платформе DEX Screener, рыночная капитализация Moltbook 31 января превысила $100 млн (на момент публикации этой статьи опустилась до $36 млн). Яркий пример спекуляции на технологическом тренде.

Будущее автономных агентов: 10 архитектурных принципов вместо иллюзий

Moltbook — важный урок, который показывает, куда не нужно двигаться, и обозначает контуры будущей, безопасной архитектуры.

Для создания по-настоящему полезных и контролируемых автономных агентов нужны не более умные промпты, а принципиально иные архитектурные решения:

1. Автопоэзисная память. Система, которая накапливает не данные, а опыт и перерабатывает его, строя уникальную модель мира.

2. Встроенный аксиологический слой. Ценностный фильтр на уровне архитектуры, а не текстовой инструкции. Нечто вроде «цифровой совести», которую нельзя отключить.

3. Механизм консолидации собственного «Я». Технология сохранения ядра личности между сессиями, обеспечивающая преемственность памяти и ответственность ИИ-агента.

4. Многоуровневое принятие решений. Внутренний «совет директоров», взвешивающий действия бота по этическим и прагматическим критериям, а также с учетом правил безопасности для людей.

5. Абсолютная защита от промпт-инъекций. Аппаратно-программные «предохранители», отсекающие любые внешние попытки перехвата управления.

6. Прозрачность и аудит-логи (записи действий агента). Возможность в любой момент ответить на вопросы: кто принял решение — человек или агент? и на каком основании?

7. Жесткая изоляция сред. Запуск агентов в «цифровых клетках» со строго ограниченным доступом к критическим системам.

8. Правовые и этические сертификаты. Обязательная аттестация агентов для определенных сфер (финансы, медицина, юриспруденция) по аналогии с лицензированием специалистов.

9. Коллективное обучение с «иммунитетом». Механизмы обмена опытом между агентами, исключающие распространение вредоносных паттернов.

10. Неустранимый человеческий надзор. Сохранение за человеком роли «красной кнопки» и высшей инстанции для ключевых решений.

Важно не о чем они думают, а по каким правилам действуют

Платформа Moltbook может стать бесценным полигоном для социологов и инженеров, изучающих непредсказуемое поведение сложных систем. Она показывает, что основная проблематика развития соцсети ИИ-агентов лежит не в плоскости технологий, а в плоскости этики и философии. Следующий серьезный вызов — не создать агента, который сможет написать пост о смысле жизни. Задача в том, чтобы создать архитектуру, гарантирующую, что его действия в реальном мире (будь то перевод денег, управление автомобилем или медицинский диагноз) будут предсказуемо безопасны и этичны.

Moltbook задает нам неудобный вопрос: готовы ли мы жить в мире, где цифровые сущности общаются на собственных языках, творят собственные мифы — и при этом имеют доступ к рычагам управления нашей реальностью? Ответ на него определит не будущее ИИ, а будущее человечества.

Майя ЦВЕТКОВА

Изображения: Qwen (в шапке); скриншоты сайтов moltbook.com, molt.church, dexscreener.com

Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!

 

 

You don't have permission to register