La maggior parte delle persone non pensa molto alla verifica finché qualcosa non va storto. Un titolo di notizie si rivela falso, un grafico che circola online viene interpretato male, oppure uno strumento di intelligenza artificiale fornisce con sicurezza una risposta che semplicemente non è vera. Internet produce informazioni rapidamente. Ma controllarle è più lento. Continuo a pensare a questo squilibrio quando guardo sistemi come il Mira Network.
Il problema di fondo non riguarda realmente i modelli di intelligenza artificiale che commettono errori. Tutti sanno già che lo fanno. La questione più profonda è il coordinamento. Se un modello produce una risposta, chi la controlla e perché dovrebbe spendere tempo a fare quel lavoro? I sistemi tradizionali si basano su revisori centralizzati o reputazione. Le reti crypto provano qualcosa di diverso: trasformare la verifica stessa in un'attività economica.
L'architettura di Mira sembra spingere in quella direzione. Invece di assumere che un modello sia corretto, più validatori di intelligenza artificiale controllano indipendentemente le affermazioni e confrontano i risultati. Se abbastanza validatori concordano, la rete accetta il risultato. In teoria assomiglia a come le reti oracle verificano i dati esterni. Non verità perfetta. Solo fiducia distribuita.
Ciò che rende interessante questo è il livello di incentivo. I validatori potrebbero dover mettere in gioco token prima di partecipare. Quella messa in gioco funge da collaterale. Se il loro comportamento di verifica è costantemente inaffidabile, rischiano di perdere parte di esso. La parte che le persone spesso trascurano è che questo sposta il problema dalla pura accuratezza all'allineamento economico.
Tuttavia, l'argomento onesto contro questo è ovvio. Se i validatori si basano su modelli simili o dati di addestramento, potrebbero riprodurre gli stessi errori insieme. La verifica distribuita funziona solo se i partecipanti sono effettivamente indipendenti.
Quindi la vera domanda potrebbe non essere se Mira può verificare le uscite dell'AI. È se una rete di macchine può costruire qualcosa che assomiglia abbastanza a fiducia. E se le persone tratteranno questo come verità.
