Când mai multe modele AI verifică aceeași ieșire, de obicei presupunem că evaluează același lucru. Dar cu cât mă uit mai mult la textul AI din perspectiva verificării, cu atât mai mult văd că această presupunere rareori se menține. Limbajul natural poartă întotdeauna o sferă implicită și un context nedeclarat. Fiecare model reconstruiește sarcina puțin diferit, chiar dacă textul este identic.
Așadar, dezacordul între modele nu este întotdeauna despre adevăr.
Adesea, este vorba despre nepotrivirea sarcinilor.
Acesta este exact stratul la care se referă Mira.
În loc să trimită rezultatul brut al AI direct către verificatori, Mira mai întâi îl descompune în afirmații atomice și face contextul înconjurător explicit. Ceea ce consider important aici este că scopul nu este doar o formulare mai clară, ci identitatea sarcinii. Fiecare verificator primește intrări care împărtășesc aceeași semnificație, limite și presupuneri.
Această aliniere schimbă ceea ce reprezintă de fapt consensul. Când modelele sunt de acord după procesarea lui Mira, ele sunt de acord asupra aceleași probleme definite, nu asupra interpretărilor suprapuse ale unui text împărtășit vag.
Pentru mine, acesta este ceea ce face Mira diferit. Nu încearcă să îi facă pe verificatori mai inteligenți, ci mai întâi stabilizează ceea ce li se cere să verifice. Iar această schimbare este ceea ce face posibilă verificarea AI de încredere la scară.
$MIRA #Mira @Mira - Trust Layer of AI

