Cześć 👋 Po raz pierwszy zdałem sobie sprawę

coś dziwnego w weryfikacji AI miało miejsce podczas rundy walidacyjnej w Sieci Mira

Na początku wszystko wyglądało normalnie - odpowiedź pojawiła się w konsoli, ładunek JSON był kompletny, a wyjście modelu wydawało się nienaruszone. Na powierzchni system wyglądał na ukończony.

Ale w tle Mira już zaczęła dzielić odpowiedź na mniejsze roszczenia

Każdy fragment otrzymał swój własny identyfikator, hasz dowodu i ścieżkę routingu przez zdecentralizowaną sieć walidatorów. Niezależni walidatorzy AI zaczęli przypisywać wagę każdemu roszczeniu, powoli budując konsensus

Fragment pierwszy poruszał się szybko. Walidatorzy potwierdzili to z różnymi zgodami, a waga weryfikacji wzrosła w tempie 🏇

Fragment drugi podążał za jeszcze prostszym śladem dowodów. W ciągu kilku chwil przekroczył próg i się zamknął

Fragment trzeci był inny

Nie zawiodło i nie zostało odrzucone. Po prostu pozostało w częściowym kworum czekając na więcej wagi walidatora

Interesującą częścią było to, że frontend już wyświetlił odpowiedź jako kompletną. Dla użytkownika akapit wyglądał na zakończony

i wiarygodny

Ale prawda była inna

Części zdania były

już zweryfikowane, podczas gdy warunek, który nadawał im sens, wciąż pozostawał nierozwiązany

W sieci walidatorów Miry runda wciąż była otwarta

Dwa fragmenty zostały zamknięte

Jeden fragment czeka

System nie pokazał oczywistego ostrzeżenia. Rzadko to robi. Zamiast tego pozostawia subtelny stan, który wygląda na tymczasowy, ale niesie realne

konsekwencje

W zdecentralizowanej weryfikacji fragmenty nie stają się wiarygodne razem. Stają się wiarygodne indywidualnie

A czasami certyfikat formuje się zanim warunek, który czyni stwierdzenie prawdziwym

Ten moment zmienił sposób, w jaki

Patrzę na walidację AI - Ponieważ w systemach takich jak Mira prawda nie jest zadeklarowana od razu

Przybywa kawałek po kawałku

Agar chaho to main..…...

@Mira - Trust Layer of AI #MIRA $MIRA