Nie udawajcie, że API jest podstawowym protokołem, bo to naprawdę obrzydliwe
Ostatnie dni spędziłem przeglądając tak zwane nowe projekty AI i im więcej oglądałem, tym bardziej miałem wrażenie, że ta branża jest na skraju zepsucia przez tych, którzy robią "pustą API". Wszyscy starają się zasuwać nad interfejsem użytkownika, a w rzeczywistości wynajmują kilka serwerów w chmurze, aby przekazywać dane, a potem śmią twierdzić, że są zdecentralizowaną mocą obliczeniową. Ludzie, to jest po prostu oszustwo wobec tych, którzy znają się na rzeczy; gdyby naprawdę musieli działać w warunkach wysokiej przepustowości, kod głównej sieci prawdopodobnie by eksplodował. Ostatnio intensywnie pracowałem nad podstawową logiką Fabric, szczerze mówiąc, na początku podszedłem do tego z pewnym uprzedzeniem, bo w tej branży jest zbyt wiele obietnic bez pokrycia. Ale po przestudiowaniu ich dokumentacji technicznej odkryłem, że ci ludzie naprawdę się tym zajmują; nie bawili się w skomplikowane EVM, ale stworzyli warstwę weryfikacji dowodów zerowej wiedzy między fizycznymi maszynami a łańcuchem.
To brzmi dość tajemniczo, w prostych słowach: nie wierzą w żadne ustne obietnice węzłów. Po zakończeniu pracy nad dużym modelem na krawędzi, nie oczekuj, że główna sieć od razu uzna twoje wyniki; musisz przedstawić dowód kryptograficzny. Taka „logika twardej pracy przed dowodem” po prostu zamyka drzwi przed spekulantami, którzy chcą oszukiwać, zdobywając dotacje z fałszywej mocy obliczeniowej. Porównałem kilka czołowych sieci obliczeniowych na rynku; większość z nich nadal zmaga się z tym, jak rozdzielać zadania, podczas gdy Fabric już bada, jak „skompresować” proces wykonania tych zadań w bloki w czasie milisekund.
Oczywiście, jestem dość ostrożny, dobrze brzmiące słowa nie wystarczą, trzeba też zobaczyć, co jest pod powierzchnią. Obecny system jest niezwykle wymagający wobec sprzętu, zwykła karta graficzna do użytku domowego po podłączeniu, tylko do generowania tego zestawu dowodów weryfikacyjnych wymaga znacznej mocy, co w początkowej fazie może prowadzić do zbyt wysokich kosztów węzłów. Skłaniam się ku obserwacji danych z masowego podłączenia sprzętu, aby zobaczyć, czy naprawdę mogą osiągnąć równowagę zysków i strat na zatłoczonym rynku mocy obliczeniowej. Jeśli ta logika „wiarygodnej weryfikacji maszyn” nie zadziała, to tak zwana zdecentralizowana AI zawsze pozostanie na etapie opowiadania historii. Nie rozmawiajcie o wielkich narracjach, najpierw zobaczcie dowody, wolę poczekać na dane z testów obciążeniowych, zanim zdecyduję, czy inwestować poważnie.
@Fabric Foundation #ROBO $ROBO
