Cześć 👋 Po raz pierwszy zdałem sobie sprawę
coś dziwnego w weryfikacji AI miało miejsce podczas rundy walidacyjnej w Sieci Mira
Na początku wszystko wyglądało normalnie - odpowiedź pojawiła się w konsoli, ładunek JSON był kompletny, a wyjście modelu wydawało się nienaruszone. Na powierzchni system wyglądał na ukończony.
Ale w tle Mira już zaczęła dzielić odpowiedź na mniejsze roszczenia
Każdy fragment otrzymał swój własny identyfikator, hasz dowodu i ścieżkę routingu przez zdecentralizowaną sieć walidatorów. Niezależni walidatorzy AI zaczęli przypisywać wagę każdemu roszczeniu, powoli budując konsensus
Fragment pierwszy poruszał się szybko. Walidatorzy potwierdzili to z różnymi zgodami, a waga weryfikacji wzrosła w tempie 🏇
Fragment drugi podążał za jeszcze prostszym śladem dowodów. W ciągu kilku chwil przekroczył próg i się zamknął
Fragment trzeci był inny
Nie zawiodło i nie zostało odrzucone. Po prostu pozostało w częściowym kworum czekając na więcej wagi walidatora
Interesującą częścią było to, że frontend już wyświetlił odpowiedź jako kompletną. Dla użytkownika akapit wyglądał na zakończony
i wiarygodny
Ale prawda była inna
Części zdania były
już zweryfikowane, podczas gdy warunek, który nadawał im sens, wciąż pozostawał nierozwiązany
W sieci walidatorów Miry runda wciąż była otwarta
Dwa fragmenty zostały zamknięte
Jeden fragment czeka
System nie pokazał oczywistego ostrzeżenia. Rzadko to robi. Zamiast tego pozostawia subtelny stan, który wygląda na tymczasowy, ale niesie realne
konsekwencje
W zdecentralizowanej weryfikacji fragmenty nie stają się wiarygodne razem. Stają się wiarygodne indywidualnie
A czasami certyfikat formuje się zanim warunek, który czyni stwierdzenie prawdziwym
Ten moment zmienił sposób, w jaki
Patrzę na walidację AI - Ponieważ w systemach takich jak Mira prawda nie jest zadeklarowana od razu
Przybywa kawałek po kawałku
Agar chaho to main..…...
