Qualche giorno fa ho chiesto a un programma informatico una semplice domanda su un documento tecnico. La risposta sembrava molto sicura.. Più tardi ho controllato la fonte e ho scoperto che alcune parti erano semplicemente sbagliate. Quel piccolo momento continua a tornarmi in mente quando penso a sistemi come Mira Network.

Internet si sta riempiendo di informazioni provenienti dalle macchine. Producono risposte, analisi e previsioni tutto il tempo. Migliaia ogni minuto. La parte difficile non è più generare informazioni. È capire a cosa fidarsi.

Qui è dove il design di Mira diventa interessante. Fidandosi di ciò che dice l'IA, la rete lo tratta come un'affermazione che deve essere verificata. Le persone nel sistema chiamate validatori esaminano ciò che dice l'IA e verificano se è vero. Controllano se corrisponde a prove o a buone argomentazioni. In termini, la rete decide cosa è vero, non solo l'IA.

Il livello del token gioca un ruolo qui. I validatori mettono parte dei loro soldi nel sistema prima di esaminare le affermazioni. Se la loro revisione corrisponde a ciò che la maggior parte delle persone nella rete pensa, vengono ricompensati. Se no, perdono parte dei loro soldi. Crea una sorta di mercato, attorno all'essere precisi.

Mi chiedo ancora una cosa. Le ricompense possono rendere le persone attente... Possono anche rendere le persone strategiche. Le persone potrebbero cercare di accordarsi su ciò che pensano gli altri piuttosto che trovare la verità.

Se il sistema funziona, potrebbe accadere qualcosa di interessante: un mercato dove la conoscenza delle macchine è costantemente controllata, valutata e negoziata. Non è semplicemente accettata senza domande. Se ciò porta alla verità o solo a un altro gioco in cui le persone cercano di accordarsi è ancora una questione aperta.

#Mira #mira $MIRA @Mira - Trust Layer of AI