Chiunque trascorra del tempo a utilizzare sistemi moderni di intelligenza artificiale nota alla fine un modello. A volte le risposte sono utili e precise. Altre volte contengono piccoli errori, fatti inventati o bias sottili. Questi problemi sono spesso chiamati allucinazioni, ma il problema più profondo è l'affidabilità. Di solito non abbiamo un modo chiaro per verificare come è stata prodotta una risposta.
È qui che l'idea dietro Mira Network inizia a avere senso.
Mira Network è un protocollo di verifica decentralizzato che si concentra sul controllo delle uscite dell'IA piuttosto che sulla loro generazione. Il progetto, discusso da ricercatori e costruttori intorno al
@Mira - Trust Layer of AI , affronta il problema suddividendo le risposte dell'IA in affermazioni più piccole. Ogni affermazione può quindi essere esaminata in modo indipendente.
Invece di fare affidamento su un modello per giudicare un altro, più sistemi di IA partecipano al processo di verifica. Valutano la stessa affermazione separatamente. Le loro valutazioni vengono quindi combinate attraverso un meccanismo di consenso.
L'infrastruttura blockchain gioca un ruolo qui. La rete registra i risultati di verifica utilizzando prove crittografiche e consenso distribuito. In termini semplici, questo crea un record condiviso che mostra quali affermazioni sono state validate e come è stata presa la decisione. Il token
$MIRA è utilizzato all'interno di questo sistema per coordinare la partecipazione e gli incentivi.
Questo approccio differisce dai modelli di supervisione dell'IA centralizzati in cui una singola organizzazione decide cosa è corretto. La struttura di Mira distribuisce quella responsabilità tra molti partecipanti, il che può ridurre l'influenza di qualsiasi singola autorità.
Ci sono però sfide pratiche. Verificare le uscite dell'IA su larga scala può richiedere un calcolo significativo. Coordinare molti validatori è anche complesso. E lo spazio più ampio dell'infrastruttura IA decentralizzata sta diventando affollato di approcci concorrenti.
Tuttavia, l'idea dietro
#MiraNetwork riflette una crescente preoccupazione nel campo dell'IA: le risposte sono utili, ma le risposte verificate possono contare ancora di più.
Per ora, progetti come
#Mira sono esperimenti iniziali su come quel livello di fiducia potrebbe eventualmente funzionare.
#GrowWithSAC