Cele mai multe rețele AI vorbesc despre încredere.
Mira Network încearcă să o inginerieze.
În loc să presupună că nodurile se vor comporta corect, Mira construiește stimulente economice care fac din onestitate cea mai rațională strategie.
Pentru a rula un nod de verificare, participanții trebuie să stakeze tokenuri MIRA.
Această miză acționează ca o garanție. În schimb, nodurile verifică rezultatele AI și câștigă recompense din rețea.
Dacă un nod se comportă necinstit sau evită să facă muncă reală de verificare, tăierea poate elimina o parte din tokenurile sale staked.
Detaliul cheie este că tăierea nu este declanșată de greșeli unice.
Verificarea AI este probabilistică, astfel rețeaua caută modele comportamentale în timp, mai degrabă decât erori izolate.
Iată semnalele principale pe care sistemul le monitorizează.
1. Dezacord persistent cu consensul
Fiecare afirmație este evaluată de mai multe noduri de verificare.
Dacă un nod votează în mod repetat împotriva consensului final într-un model constant, comportamentul devine statistic suspect.
Dezacordul ocazional este normal. Nealinierile sistematice nu sunt.
2. Ghiceală aleatorie
Multe sarcini de verificare implică alegeri structurate precum da/nu sau răspunsuri multiple.
Un nod leneș ar putea încerca să ghicească în loc să efectueze o inferență adecvată a modelului.
Dar probabilitatea expune rapid ghiceala. Pe parcursul multor sarcini, răspunsurile aleatorii produc modele de acuratețe care sunt ușor de detectat.
3. Similaritatea răspunsurilor suspecte
Rețeaua analizează de asemenea comportamentul de răspuns în timp.
Dacă ieșirile unui nod reflectă strâns alte noduri sau par copiate fără o inferență independentă, modelul devine vizibil.
Distribuția aleatorie a sarcinilor face acest lucru mai greu de ascuns.
4. Manipulare coordonată
Un grup de noduri care încearcă să influențeze rezultatele ar trebui să coordoneze voturile pe parcursul multor verificări.
Compararea consensului și analiza răspunsurilor istorice pot detecta aceste modele.
Pentru a reuși, atacatorii ar trebui să controleze o parte masivă din rețeaua staked, ceea ce devine nerealist din punct de vedere economic.
5. Verificare leneșă
Nodurile sunt așteptate să efectueze de fapt inferențe atunci când verifică afirmațiile.
Reutilizarea răspunsurilor învechite sau sărind peste calcul creează anomalii statistice pe parcursul istoricului de verificare.
În timp, aceste anomalii ies în evidență.
Ceea ce face Mira interesantă este că verificarea devine un sistem economic.
Nodurile oneste câștigă recompense din taxele de verificare.
Nodurile necorecte riscă să-și piardă miza.
Pe măsură ce se acumulează mai multe date de verificare, detectarea anomaliilor devine mai puternică și manipularea devine mai costisitoare.
În loc să se bazeze pe încredere, Mira construiește un sistem în care strategia profitabilă este pur și simplu să se comporte onest.
Acest design este motivul pentru care rețeaua poate menține o acuratețe foarte mare a verificării în timp ce se extinde pe volume masive de ieșiri AI.
Slashing-ul nu este menit să pedepsească greșelile ocazionale.
Există pentru a elimina nodurile care prezintă modele clare de ghiceală, lene sau manipulare.
Actorii rău intenționați sunt excluși.
Nodurile oneste continuă să câștige.
#Mira @Mira - Trust Layer of AI $MIRA
