
Patrząc na szalejące zapisy potwierdzenia haszy na ekranie, mój palec prawie oparzył się o wypaloną końcówkę papierosa. Przez cały ten tydzień zmagałem się z niezwykle irytującym problemem, w tym szalonym rynku byków, gdzie każdy ma odwagę nazywać siebie modułowym lub AI w zakresie mocy obliczeniowej, która z łańcucha naprawdę może przyjąć bombardowanie transakcji mikro na poziomie korporacyjnym. Już z brzydko napisanych materiałów marketingowych wymiotowałem; te projekty, które twierdzą, że mają TPS powyżej 100 000 i idealnie integrują duże modele językowe, gdy tylko uruchomisz skrypt testujący równoległość, ich podstawowe węzły RPC natychmiast odsłaniają swoje prawdziwe oblicze i po prostu się zawieszają. Z niezwykle wybuchowymi emocjami przeniosłem całe środowisko testowe na główną sieć Vanar, początkowo miałem czysto krytyczne zamiary, chciałem zobaczyć, jak bardzo ten projekt, który przez cały czas chwali się współpracą z dużymi firmami, jest przereklamowany. Po kilku nocach pisania kodu odkryłem, że moje wcześniejsze uprzedzenia były niesamowicie błędne, sytuacja wcale nie była tak, jak opisują media, ale także nie była tak zła, jak sobie wyobrażałem.
Musimy najpierw obalić największe kłamstwo w branży. Obecny trend polega na tym, że jeśli napiszesz kilka linii bezużytecznego kodu do wywoływania zewnętrznych API w inteligentnym kontrakcie, to nazywa się to gotowością AI. To jest wręcz obraźliwe dla inteligencji programistów. Prawdziwe zastosowanie AI na dużą skalę wcale nie jest przeznaczone dla drobnych inwestorów; w przyszłości większość ruchu w łańcuchu będzie należała do niezliczonych niezmordowanych inteligentnych maszyn. Pracują one w tle, wykonując wysoką częstotliwość wyszukiwania danych, weryfikacji własności i mikropłatności. Specjalnie napisałem zestaw równoległych skryptów symulujących generację materiałów AI, który działał bardzo szybko na Solanie, ale wahania sieci prowadziły do wysokiego wskaźnika utraty pakietów, co zmusiło mnie do napisania ogromnej ilości niezwykle odrażającej logiki ponownego próbowania. Gdy tylko napotkałem przerwę serwisową, moje podstawowe działania po prostu umierały. Podczas uruchamiania tej logiki w sieci Vanar, moje najprostsze odczucie to ogromna nuda i gładkość. Ta gładkość nie polega na tym, że prędkość przekracza fizyczne ograniczenia, ale na tym, że opóźnienia są skrajnie stabilne. Nawet podniosłem liczbę równoległych operacji do niezwykle ekstremalnego poziomu, a czas potwierdzenia transakcji wciąż tkwił w bardzo wąskim zakresie wahań. Ta przemysłowa determinacja nie jest wcale przeznaczona dla drobnych inwestorów do handlu, to jest wyraźnie podłoże dla tych, którzy mają niezwykle surowe wymagania dotyczące SLA w zastosowaniach komercyjnych.
Gdy głęboko przeglądałem ich architekturę węzłów weryfikacyjnych, nagle zrozumiałem, co oznacza ich międzysektorowa współpraca. Wiele projektów kupuje chmurowe serwery i ogłasza, że są głęboko związane, ale Vanar zdaje się wbudowywać bezpośrednio równoważenie obciążenia i zabezpieczenia dużych firm w swój mechanizm konsensusu. To jest w rzeczywistości niezwykle niebezpieczny, ale i niezwykle mądry kompromis. Nadmierne poleganie na jednym tradycyjnym gigancie na pewno osłabi zdolność sieci do obrony przed cenzurą, a jeśli pewnego dnia regulacje przyjdą z twardą ręką, ta architektura ujawni swoją kruchość. Ale z drugiej strony, jeśli twoim docelowym klientem są czołowe marki sportowe lub duże instytucje generujące treści, wcale nie obchodzi ich, czy twoje węzły są rozlokowane w podziemiach Syberii. Interesuje ich zgodność z ochroną prywatności danych oraz to, czy można znaleźć podmiot odpowiedzialny, gdy coś się stanie. Vanar w rzeczywistości wymienia część geekowskiej wiary na poczucie bezpieczeństwa tradycyjnych gigantów biznesowych. To nie jest łańcuch zaprojektowany dla anarchistów; to jest autostrada zaprojektowana dla działu prawnego spółek notowanych na Nasdaq.
Podczas oceny stosu technologicznego zrobiłem niezwykle dogłębną porównanie z Flow. Flow w tamtych czasach korzystał z czołowego IP koszykarskiego, aby skorzystać z benefitów, a jego logika podstawowa była rzeczywiście głęboko dostosowana do złożonej struktury aktywów. Ale ten nieludzki język oryginalny to prawdziwa ściana westchnienia. Obecni programiści korzystają z Pythona i Rusta, a ty każesz im uczyć się niezwykle rzadkiego języka po to, aby wydać aktywa na łańcuchu, to całkowity koszt migracji jest nie do zaakceptowania. Vanar pokazuje tu swoją niezwykle przebiegłą stronę, wcale nie próbuje rewolucjonizować języka podstawowego, trzyma się kurczowo absolutnej kompatybilności z EVM. Przeniosłem to całe chaotyczne logiczne rozdzielanie praw autorskich z testowej sieci Ethereum, zmieniając tylko kilka portów sieciowych, nie ruszając ani jednej zmiennej, i wszystko działało. Ta pragmatyka jest być może nie dość seksowna w oczach ortodoksów technologicznych, brakuje jej romantyzmu, który mógłby zrewolucjonizować świat. Ale na polu bitwy w prawdziwych pieniądzach najważniejsze jest, aby umożliwić programistom bezproblemowe dołączenie. W porównaniu do tych, które wymagają zrozumienia skomplikowanej logiki shardów i asynchronicznych wywołań, daje to najprostsze i najbardziej brutalne rozwiązanie.
Zauważyłem również, że zajął się kwestią zużycia energii. W kręgach kryptowalutowych rozmowy o ochronie środowiska często są traktowane jako żart, wszyscy pędzą w kierunku dogów, kto tam się przejmuje emisjami węgla. Ale jeśli naprawdę miałbyś do czynienia z tradycyjnymi przedsiębiorstwami, wiesz, że to jest nakaz od działu zgodności. Szkolenie dużych modeli już pochłania ogromne ilości energii, a jeśli podstawowa sieć rozliczeniowa stanie się czarną dziurą, duże firmy po prostu nie przejdą przez kontrolę ryzyka. Vanar poprzez dowody udziału i chmurę zarządzającą obniżył zużycie energii do ekstremalnie niskiego poziomu. To nie tylko dla organizacji ochrony środowiska, ale także bilet wstępu dla instytucji, które kładą duży nacisk na zgodność. Ale natknąłem się również na niezwykle irytujący błąd. Gdy próbowałem masowo generować dynamiczne aktywa o skomplikowanych atrybutach, interfejs front-end przeglądarki bloków po prostu się zawiesił. Sprawdziłem konsolę i odkryłem, że istnieje poważne opóźnienie synchronizacji stanu lokalnego i zdalnych węzłów. Krytykowałem ten problem w społeczności technologicznej, a wkrótce pojawił się główny współautor kodu, aby potwierdzić ścieżkę reprodukcji, przyznając, że to był błąd w strategii równoważenia obciążenia w niektórych węzłach brzegowych. Ta szorstka interakcyjna frustracja z pewnością natychmiast zniechęci tych, którzy nie mają cierpliwości do tradycyjnych programistów.
Obecny stan ekosystemu jest moim największym zmartwieniem. Przechodząc przez przeglądarkę bloków przez kilka godzin, oprócz oficjalnych testów obciążeniowych i kilku deweloperów, którzy kombinują, nie widzę żadnych potencjalnie wybuchowych aplikacji natywnych. To jak budowa super miasta z doskonałym węzłem transportowym, ale bez jednego sklepu spożywczego. Bez efektu tworzenia bogactwa nie ma inwestorów detalicznych, a bez deweloperów detalicznych nie ma motywacji do aktualizacji kodu. Próbują przełamać ten martwy krąg poprzez wprowadzenie dużych IP, ale przekształcenie fanów w prawdziwych aktywnych użytkowników na łańcuchu jest w rzeczywistości bardzo długą drogą. Przed pojawieniem się aplikacji o zabójczej mocy stoi przed nimi ekstremalne ryzyko wyczerpania płynności. Te kilka dni zmagania całkowicie uświadomiło mi ich pozycję. Nie mają takiej technologii, która sprawiłaby, że adrenalina skoczy ci do góry, to po prostu maszyna do układania dróg, która wykonuje brudną i ciężką pracę. W tej branży pełnej fałszywego dobrobytu ta niezwykle nudna pragmatyka stała się rzadkością.

