Ho avuto abbastanza momenti in cui una risposta dell'AI sembrava giusta, e poi una rapida verifica ha dimostrato che era sicuramente sbagliata. L'approccio di Mira è fondamentalmente una soluzione per quel particolare modo di fallimento: non ti chiede di fidarti di un solo modello. Costringe la risposta a sopravvivere a un processo di consenso.
Una risposta viene suddivisa in affermazioni più piccole e verificabili (“sharding”), e quelle affermazioni vengono inviate a nodi verificatori indipendenti per essere giudicate. La rete quindi aggrega i voti e accetta solo ciò che supera una soglia di consenso, emettendo un certificato crittografico di ciò che è stato controllato e come è stato risolto.
Il guardrail è economico. I nodi scommettono valore per partecipare, guadagnano ricompense per una verifica onesta e possono essere penalizzati se deviano costantemente o agiscono come se stessero indovinando. Questo rende “allucinare con fiducia” costoso a livello di rete. Quindi il sistema è spinto verso l'accuratezza, non verso lo stile.

MIRA
0.0831
-0.12%
