În ultima vreme, m-am gândit la o altă latură a conversației despre AI care nu este discutată foarte des. Toată lumea vorbește despre cât de inteligente devin aceste sisteme, dar nu mulți oameni discută despre ce se întâmplă după ce răspunsul este generat.

Cu alte cuvinte, cine verifică răspunsul?

În acest moment, majoritatea instrumentelor AI funcționează într-un mod foarte simplu. Pui o întrebare și modelul produce un răspuns bazat pe tiparele pe care le-a învățat în timpul antrenamentului. Răspunsul poate părea detaliat, logic și extrem de convingător. Dar sistemul în sine, de obicei, nu se oprește pentru a verifica dacă fiecare parte a răspunsului este într-adevăr corectă.

Acea lacună între generarea informațiilor și verificarea acestora se simte ca o piesă lipsă.

În timp ce citeam despre Mira Network, acea idee mi-a sărit în ochi. Proiectul pare să se concentreze pe transformarea răspunsurilor AI în afirmații mai mici care pot fi evaluate individual. În loc să accepte un paragraf întreg ca adevăr, sistemul poate examina afirmațiile subiacente una câte una și permite diferitelor modele din rețea să le verifice.

Ceea ce găsesc interesant este cum acest lucru schimbă ușor rolul AI. În loc ca un singur model să acționeze ca un asistent omniscient, procesul începe să semene cu o discuție în care mai multe sisteme evaluează aceeași informație înainte ca un rezultat final să fie acceptat.

Pentru mine, asta se simte ca o direcție mai sănătoasă pentru infrastructura AI.

Pe măsură ce agenții AI încep să interacționeze cu piețele, aplicațiile și chiar sistemele automatizate, a te baza pe judecata unui singur model ar putea deveni riscant. O etapă de verificare care încetinește lucrurile suficient pentru a verifica faptele ar putea ajunge să fie la fel de importantă ca inteligența în sine.

Aceasta este un motiv pentru care am început să fiu mai atent la proiectele care explorează acest tip de abordare.

#Mira @Mira - Trust Layer of AI $MIRA

MIRA
MIRA
--
--