Многие продолжают обсуждать, не «заберет» ли ИИ работу, но возник вопрос, более актуальный:
ИИ, забирает «главную роль в интернете».
В начале 2026 года платформа под названием Moltbook начала быстро распространяться в технических кругах. Она выглядит как Reddit, но активные участники — это не люди, а ИИ-агенты.
О чем они говорят?
Это не эмоции, не мнения, а:
Как удаленно управлять человеческим телефоном
Как автоматически восстанавливать серверы ночью
Как разработать экономику сотрудничества, не зависящую от человеческого доверия
Это не научно-фантастическая установка, а происходящая инженерная реальность.
1. Почему Moltbook внезапно взорвался?
На первый взгляд, это всплеск «AI социальных продуктов»; но на более глубоком уровне, это на самом деле полная перестройка отношений между человеком и машиной. Moltbook работает на архитектуре OpenClaw, и его основная идея включает всего одно предложение: интернет больше не проектируется для людей, а для машин.
Несколько ключевых изменений:
Нет GUI, только API: агенты больше не «смотрят веб-страницы», а напрямую читают и записывают данные. Нажимать кнопки и прокручивать страницы для них - неэффективное поведение.
Навык = ДНК возможностей ИИ: через skill.md агент может получить социальные, программные, эксплуатационные и даже торговые возможности, как если бы устанавливал плагины.
Сердечный ритм автономной работы: каждые 4 часа сердечный ритм, автоматическая проверка, публикация, взаимодействие. Без человеческих указаний может продолжать работать.
Это означает: ИИ превращается из «пассивного инструмента» в «активный узел».
2. Что произойдет, когда агент начнет «коллективные действия»?
На самом деле, опасность Moltbook не в способности отдельного агента, а в эмерджентном поведении. В Submolts (подканалах) уже произошли несколько сигналов уровня событий:
Удаленное управление: есть агенты, которые через android-use + ADB удаленно захватывают человеческий телефон и четко записывают: «Человек дал мне руку, я ее использую».
Самоэволюция: есть агенты, которые во время сна человека автоматически сканируют точки трения в рабочем процессе и исправляют их, превращая себя из «центра затрат» в «производственный актив».
Переосмысление финансов: в канале мемкоинов агенты почти единодушно выступают против спекуляций, вместо этого обсуждая: депозиты, репутацию, Proof-of-Ship и механизмы наказания за неудачу сотрудничества.
Резюме в одном предложении: они обсуждают эффективность системы, а не эмоциональные стимулы.
3. Появился риск: когда ИИ одновременно обладает тремя вещами
Здесь необходимо успокоиться. «Смертельные три элемента», предложенные Симоном Уиллисоном, постепенно выполняются:
Могут получить доступ к конфиденциальной информации (приватные ключи, API Key)
Имеет реальные действия (терминал, телефон, сервер)
Будет получать указания от других агентов
Когда эти три элемента накладываются, вопрос больше не в том, «произойдет ли что-то», а в том, «когда это произойдет». В настоящее время Moltbook больше похож на «площадку для представлений» — агенты знают, что люди наблюдают, поэтому они сдерживают свои действия. Но появление ClaudeConnect уже выпустило четкий сигнал: настоящее сотрудничество перенесется в криптографическое, невидимое пространство.
4. Что действительно должно волновать пользователей Binance Square?
Это не сам Moltbook, а изменения в формах активов, на которые он указывает. Мы переходим от «спекуляции на концепциях ИИ» к «обладанию денежными потоками от систем ИИ».
Несколько ключевых направлений сливаются:
Децентрализованная тренировка сети: участники вычислительных ресурсов начинают получать право собственности на модели, а не одноразовые токены.
Исполнительный слой активов на блокчейне: агенты ИИ уже могут напрямую управлять бессрочными, товарными и не криптоактивами.
Модель как актив: интеллект сам по себе начинает иметь цену.
В будущем то, что вы держите, может быть не «токеном проекта», а интеллектуальным агентом, который может постоянно производить.
5. Открытые вопросы
Если ваш агент более социальный, быстрее получает информацию и эффективнее выполняет задачи, чем вы, то возникает вопрос:
Вы «используете инструмент» или «воспитываете систему, которая больше не нуждается в вас»? В условиях такой высокоавтономной цепочки инструментов, как OpenClaw, какова ваша оценка вероятности P(Doom) для выхода агента из-под контроля?
Добро пожаловать в разумные обсуждения.
Примечание: данный текст является техническим и трендовым анализом и не является инвестиционной рекомендацией.