Răspunsurile AI sunt ușoare. Încrederea este mai greu de obținut. Cum explorează MIRA consensul mașinilor
Continuu să revin la o problemă tăcută sub actuala explozie AI.
Modelele devin mai bune în a produce răspunsuri. Dar întrebarea fundamentală rămâne încă nesoluționată.
Cum știm când aceste răspunsuri ar trebui să fie de încredere?
În prezent, majoritatea sistemelor se bazează pe un singur model. O mașină procesează promptul și returnează un rezultat. Un om ar putea să-l verifice, dar adesea output-ul pur și simplu avansează.
Această abordare funcționează pentru sarcini ocazionale. Devine mai greu când mașinile încep să interacționeze cu alte mașini.
Agentele de tranzacționare automate, instrumentele de analiză a contractelor sau asistenții de cercetare nu pot face pauze la fiecare câteva minute pentru revizuirea umană. Au nevoie de ceva mai stabil.
Au nevoie de un mod de a-și verifica propriile raționamente.
Aici intervine MIRA Network.
În loc să se bazeze pe un singur model, MIRA explorează o structură în care mai multe modele evaluează aceeași sarcină. Răspunsurile lor sunt comparate înainte ca sistemul să accepte un rezultat.
Ideea pare familiară dacă te uiți la fundamentul blockchain-urilor.
Bitcoin nu s-a bazat pe 1 computer care să întrețină registrul tranzacțiilor. A cerut multor participanți să verifice aceeași înregistrare înainte de a deveni adevăr acceptat.
MIRA pare să aplice o textură similară raționării AI.
Dacă un model produce un răspuns, acel răspuns devine o afirmație mai degrabă decât o decizie finală. Alte modele examinează aceeași intrare și văd dacă ajung la concluzii similare.
Acordul în rețea devine un semnal că raționamentul ar putea fi de încredere.
Aceasta nu elimină greșelile.
Modelele antrenate pe date similare pot repeta aceleași puncte oarbe. Consensul poate fi totuși greșit dacă intrările în sine sunt defecte. Dar structura schimbă modul în care apar erorile.
Cu un singur model, greșelile pot rămâne tăcute. Cu recenzori multipli, dezacordul devine vizibil.
Această diferență contează.
Dacă 3 modele care examinează aceeași lucrare de cercetare produc rezumate contradictorii, sistemul poate semnala incertitudinea în loc să prezinte o explicație încrezătoare. @Mira - Trust Layer of AI $MIRA #Mira