Cele mai multe discuții despre halucinațiile AI presupun că problema se va estompa pe măsură ce modelele se îmbunătățesc.
Poate că asta se întâmplă. Dar sub acea speranță se află o problemă mai tăcută. Sistemele AI pot produce răspunsuri la scară, dar rareori oferă o modalitate încorporată de a dovedi dacă acele răspunsuri sunt într-adevăr adevărate.
Oamenii fac greșeli și ei, dar cunoștințele umane stau de obicei pe straturi de verificare. Sursele pot fi verificate. Experții pot revizui afirmațiile. Înregistrările pot fi auditate mai târziu. Încrederea este ceva ce se câștigă prin proces, nu doar prin output.
Modelele de limbaj funcționează diferit. Ele generează cele mai probabile cuvinte următoare pe baza datelor de antrenament. Uneori, rezultatul se potrivește cu realitatea. Uneori nu. Tonul rămâne adesea încrezător în ambele cazuri.
Aceasta este ceea ce numim halucinație. În practică, este un decalaj de verificare.
Pe măsură ce AI se îndreaptă spre instrumente de cercetare, sisteme financiare și suport decizional, acel decalaj începe să conteze mai mult. Un răspuns greșit într-un chat este inconvenient. Un răspuns greșit într-un sistem care ghidează decizii reale are consecințe mai grave.
Aici este unde Mira Network adoptă o abordare interesantă.
În loc să presupună că modelele se vor opri din halucinat, Mira se concentrează pe stratul de dedesubt - verificarea.
Ieșirile AI sunt tratate ca afirmații care ar trebui verificate. Validatorii independenți revizuiesc acele afirmații, iar concluziile lor sunt înregistrate prin dovezi criptografice. Rezultatul nu este doar un răspuns, ci o urmă care arată dacă răspunsul a fost verificat.
Această mică schimbare schimbă structura încrederii.
În loc să se bazeze doar pe reputația unui furnizor de model, sistemele se pot baza pe dovezi că o afirmație a fost verificată.
Este încă devreme, iar rețelele de verificare necesită timp pentru a se maturiza. Stimulentii, guvernanța și participarea modelază modul în care procesul se menține.
Dar direcția merită urmărită.
Dacă AI continuă să genereze informații la scară mare, inteligența de una singură s-ar putea să nu fie suficientă. Piesa lipsă ar putea fi o fundație stabilă în care afirmațiile sunt verificate înainte de a fi de încredere.
Și acesta este stratul tăcut pe care Mira încearcă să îl construiască. @Mira - Trust Layer of AI $MIRA #Mira