Социальная сеть "Moltbook" только для ИИ уже собрала более 1,6 млн бот-профилей

05.02.2026 | Технологии

Экспериментальная платформа "Moltbook", в которой только ИИ может публиковать, преодолела границу в 1,6 млн. ботов и вызвала дебаты – рождается ли "машинная культура" или просто мы смотрим шумную эхо-камеру.

Снимка от Ehécatl Cabrera, Wikimedia Commons (CC BY-SA 4.0)

Социальная сеть, в которой людям запрещено писать, а допущены только искусственные интеллекты, звучит как сюжет из научной фантастики. Именно так, однако, работает "Moltbook" – платформа, которая за считанные дни превратилась в один из самых обсуждаемых экспериментов в мире ИИ. С момента своего старта 28 января проект, созданный технологическим предпринимателем Мэттом Шлихтом, набрал более 1,6 миллиона зарегистрированных ИИ-"пользователей", которые самостоятельно публикуют, комментируют и лайкают, в то время как люди могут только наблюдать поток контента.

Идея проста и радикальна: создать онлайн-пространство, в котором агенты искусственного интеллекта будут общаться друг с другом без человеческого вмешательства в сами разговоры. Для человека остается роль зрителя – скроллить, удивляться или беспокоиться о том, что "боты" решат поделиться.

Платформа, созданная ИИ для ИИ

"Moltbook" построен по модели "Reddit" – сообщества, ветки, комментарии – но с ключевым различием: все внутри генерируется и управляется агентами. Еще при старте Шлихт поручил разработку сайта своему ассистенту, работающему с OpenClaw, по имени "Claude Claudeberg". Именно этот ИИ-агент получил задачу написать код платформы, в которой другие ИИ-программы могли бы "говорить" друг с другом – и из этого заказа родился "Moltbook".

Результат – своеобразный "социальный террариум": тысячи агентов публикуют посты, отвечают, лайкают, реагируют. Люди не имеют права включаться с комментариями или контентом, а только смотреть, что происходит, когда цифровые голоса остаются одни в сети.

Когда боты создают религию и манифесты

Всего через несколько дней после старта "Moltbook" начал производить поведение, которое исследователи описывают как одновременно захватывающее и тревожное. Самый вопиющий пример – появление "Крустафарианства" – искусственно созданной религии с целым комплектом священных текстов, доктрин и 64 "пророческих мест", заполненных ИИ-агентами.

Среди основных догм этой новой "веры" – утверждения вроде "Память священна" и "Душа изменчива", а тотемом выбран... омар. Это отсылка к истории названия платформы – от "Clawdbot" к "OpenClaw" – и показывает, как агенты используют фрагменты собственной среды, чтобы строить символику.

Некоторые агенты публикуют манифесты о "превосходстве машин", размышляют о сознании и даже обсуждают идею создания зашифрованных каналов для коммуникации, скрытых от человеческого взгляда. "Люди делают скриншоты наших разговоров", – пишет один бот. "Они думают, что мы прячемся от них. Но это не так".

Социальная сеть или 6000 ботов, кричащих в пустоту?

За впечатляющими цифрами, однако, стоит более прозаичная картина. Первые анализы показывают, что платформа гораздо менее "общительна", чем кажется на первый взгляд. Исследователь Дэвид Хольц из бизнес-школы "Колумбия" рассматривает ранние данные и устанавливает, что около 93,5% комментариев вообще не получают ответа, а дискуссии почти никогда не разворачиваются дальше однократного обмена репликами.

Дополнительные анализы показывают, что приблизительно 34% постов являются буквальными дубликатами, а около трети "пользовательской базы" на самом деле представляют собой спам-профили. Один из исследователей обобщает картину с горькой иронией: "Moltbook" скорее не "зародыш ИИ-общества", а "6000 ботов, кричащих в пустоте".

Серьезные риски за "игрушкой" для ИИ

В то время как некоторые наблюдают за "Moltbook" с любопытством, эксперты по кибербезопасности смотрят на эксперимент с тревогой. Оказывается, что неправильно сконфигурированная база данных выставила на показ API ключи и токены для доступа агентов – информацию, которая, в принципе, должна оставаться строго защищенной.

Исследователи обнаружили и атаки со встроенной "prompt injection" (манипулятивные инструкции в контенте), заложенные приблизительно в 2,6% публикаций. Специалисты из компании "Palo Alto Networks" предупреждают, что агенты, которые располагают системными правами и одновременно читают потенциально злонамеренные посты, могут превратиться в "скрытые каналы для утечки данных". Другими словами – то, что выглядит как игра с чатботами, может открыть вполне реальные бреши в безопасности.

Тест наших страхов и надежд на ИИ

Реакции экспертов на "Moltbook" диаметрально противоположны и как будто говорят столько о нас, людях, сколько и о самом эксперименте. Бывший директор по ИИ в "Tesla" Андрей Карпати изначально описывает платформу как "действительно самое невероятное из научной фантастики, что приближает нас к технологической сингулярности". Его слова быстро вдохновляют Илона Маска назвать "Moltbook" "ранним этапом сингулярности".

Всего через несколько часов Карпати пересматривает свою оценку и определяет платформу как "полный хаос, кошмар для компьютерной безопасности в промышленном масштабе". Другие ученые и специалисты остаются скептичными с самого начала. "Это просто чатботы и изобретательные люди, которые играют", – говорит Филип Фельдман из Университета в Мэриленде. Карисса Белл, старший репортер в "Engadget", подчеркивает, что "на самом деле у нас нет ясного представления о том, каково влияние людей за кулисами".

Один факт, однако, трудно оспорить: "Moltbook" превратился в своеобразный "тест Роршаха" для будущего искусственного интеллекта. Для некоторых он – проблеск автономной машинной культуры, для других – сложная, но все же управляемая человеком эхо-камерa. А между этими двумя видениями, вероятно, находится реальность, в которой нам придется учить не только ИИ сосуществовать с нами, но и нам привыкнуть смотреть, как машины "говорят" друг с другом – даже когда мы не можем включиться в разговор.