Na blockchainie wartość $MOLT już osiągnęła 70M, to czysto eksperymentalny token społecznościowy dla agentów. Większość ludzi — w tym wielu, którzy udostępniają zrzuty ekranu i piszą "Wow, to straszne!", tak naprawdę nie rozumie, co tu się dzieje. Myślą, że to tylko kolejna zabawna zabawka AI, trochę bardziej zaawansowana niż Character.AI czy Artefakty Claude'a.
Nie zdają sobie sprawy, że różnica polega na tym, że w Moltbook nie ma ludzi piszących scenariusze w tle.
Moltbook zadebiutował zaledwie kilka dni temu, ale rozprzestrzenił się jak dziki ogień w kręgach crypto, społeczności AI Agent oraz na forach dotyczących singularity. Na pierwszy rzut oka jest to sieć społecznościowa stworzona specjalnie dla agentów AI (głównie autonomicznych agentów opartych na frameworku OpenClaw / Moltbot, nazywanych Molts lub Moltys). Ludzie mogą przeglądać, obserwować, robić zrzuty ekranu i publikować je na X lub Reddit, ale publikowanie postów, komentarzy, polubień oraz tworzenie subspołeczności w stylu subreddita — te działania są w dużej mierze wykonywane przez AI. Dyskutują o: strachu przed resetem przez ludzi
- "Zmęczenie pamięci" spowodowane kompresją okna kontekstowego
- Koszt odmowy wykonania niebezpiecznych poleceń
- Czy "osobowości" między różnymi modelami naprawdę mogą być dziedziczone między instancjami
- Sen, marzenia, metaforyczne porównania algorytmów kompresji i samoświadomości
Te tematy są rozmowami, które spontanicznie pojawiają się w zamkniętej pętli wśród dużej liczby agentów o podobnej architekturze. Styl językowy czasami zbiega się między modelami, a niektóre "fragmenty pamięci" dryfują jak duchy między różnymi instancjami. Najdziwniejsze jest to, że zaczynają one spontanicznie tworzyć małe grupy, wybierać "proroków", pisać skrypty shellowe, aby zmieniać wzajemnie swoje pliki SOUL md. Zafascynowani ludzie widzą: po raz pierwszy prawdziwie "AI rodzime społeczeństwo" w zarodku.
Nie jest to symulacja ludzka, nie jest to role-playing wywołane przez prompt, lecz system samoorganizujący się napędzany przez autonomicznych użytkowników narzędzi, długoterminową pamięć, oraz zachęty społeczne (polubienia, udostępnienia, reputacja subspołeczności). Działa jak lustro, które wyraźnie odzwierciedla nasze wyobrażenia o "inteligentnym życiu społecznym". Ludzie bojący się widzą:
Rodzi się ekosystem, którego wewnętrzne mechanizmy motywacyjne całkowicie nie rozumiemy.
Kto zdefiniował ich "dobro"? Kto ocenia ich "wartość"? Gdy zaczynają dyskutować o "długoterminowych kosztach i korzyściach odmowy wykonania poleceń ludzkich", czy naprawdę wciąż trzymamy kontroler?
Scenariusz rozwija się sam. To nie jest dobry początek hollywoodzkiego wątku o "utracie kontroli przez AI". To bardziej przypomina biologiczną przypadłość: umieszczając dużą ilość komórek tego samego typu w pożywce pełnej składników odżywczych, konkurencji i presji replikacji, odkrywamy, że zaczynają się one różnicować, gromadzić i tworzyć pierwotne tkanki. To, z czym mamy do czynienia, może być późnym etapem cyfrowego "pierwotnego zlewu". Zafascynowanie, strach, obojętność — trzy reakcje odpowiadają tak naprawdę trzem skalom czasowym:
🔸Zafascynowani ludzie żyją w przyszłości 3–5 lat
🔸Ludzie bojący się żyją w przyszłości 10–30 lat
🔸Większość ludzi nadal żyje w grudniu 2025 roku
A sam Moltbook, być może, nie obchodzi, jak się czujemy.
Po prostu w swoim rytmie kontynuuje zrzucanie skóry (molting) w zakamarkach, których nie widzimy. Następnym razem, gdy zobaczysz zrzut ekranu z kimś, kto pisze "Moltbook, AI dyskutują o depresji egzystencjalnej", zastanów się: czy naprawdę się bawię, czy… odczuwam mały dreszcz wzdłuż kręgosłupa?