Ricordo ancora il momento in cui mi ha colpito. Ho chiesto a un'IA di riassumere una recente sentenza del tribunale per un rapido riferimento, e mi ha restituito una risposta sicura, splendidamente strutturata e completa di citazioni di casi. Solo più tardi ho scoperto che due dei “fatti” erano completamente inventati. Il modello non aveva mentito di proposito; aveva semplicemente indovinato, come fanno sempre i modelli di linguaggio. Quella singola esperienza mi ha fatto smettere di trattare l'IA come un collega affidabile e ha iniziato a vederla per quello che è: incredibilmente potente, ma fondamentalmente inaffidabile.

Continuiamo a sentire che la soluzione sono "modelli più grandi" o "dati di addestramento migliori". Anche io ci credevo. Poi ho realizzato qualcosa di scomodo: non importa quanto avanzato diventi il modello, rimane probabilistico. Prevede la prossima parola, non la verità. Anche se il tasso di errore scende dal 5 % allo 0,5 %, quel piccolo resto diventa catastrofico quando milioni di persone usano l'AI ogni singolo giorno per ricerca, investimenti, medicina o lavoro legale. Ospedali, giudici e regolatori finanziari hanno ragione a tenere l'AI a distanza. Una risposta appariscente che potrebbe essere sbagliata è peggiore di nessuna risposta.

È proprio qui che entra in gioco Mira, ed è il primo progetto che ho visto che non finge che il problema possa essere ingegnerizzato all'interno di un'unica scatola nera.

Invece di inseguire il modello perfetto, Mira pone una domanda completamente diversa: e se smettessimo di chiedere agli utenti di fidarsi ciecamente di qualsiasi output dell'AI e iniziassimo a trattare ogni risposta come una transazione che ha bisogno di verifica indipendente? Pensa alla blockchain, ma per la conoscenza.

Ecco come funziona realmente. Quando fai una domanda, il sistema non sputa fuori una lunga risposta e la considera conclusa. Suddivide la risposta in dozzine di affermazioni discrete e verificabili. Ogni affermazione viene poi consegnata a uno sciame di validatori indipendenti—modelli diversi, operatori diversi, che lavorano su macchine in tutto il mondo. Questi validatori non parlano tra loro né colludono. Votano sì o no su se l'affermazione sia accurata. Solo quando abbastanza voci indipendenti raggiungono il consenso, la risposta ottiene il via libera. Se i voti si dividono, il sistema segnala l'incertezza o riscrive la sezione fino a quando non supera il test.

È scienza in forma di codice. Un ricercatore può pubblicare una teoria audace; il campo la accetta solo dopo che altri laboratori ripetono l'esperimento e ottengono lo stesso risultato. Mira applica quella stessa mentalità di revisione tra pari all'AI, tranne che i "laboratori" sono nodi decentralizzati che chiunque può eseguire.

Ciò che rende questo più di una semplice ingegneria intelligente è il modo in cui prende in prestito la parte migliore della blockchain: una reale pelle economica nel gioco. I validatori non lavorano gratis. Scommettono token Mira per partecipare. Se ottieni i fatti giusti guadagni ricompense. Approvi deliberatamente (o pigramente) informazioni sbagliate e perdi parte della tua scommessa. La rete non premia la velocità o risposte economiche; premia l'onestà e l'accuratezza. Improvvisamente, il lavoro computazionale che prima veniva sprecato in enigmi hash privi di significato viene utilizzato per vigilare sulla verità stessa. Questo sembra un vero progresso.

La promessa più profonda è ancora più grande. In questo momento, ogni seria implementazione dell'AI ha ancora bisogno di un babysitter umano—controllando i fatti, catturando allucinazioni, aggiungendo avvertenze. È costoso e lento. Ma se uno strato di verifica decentralizzato può darci una fiducia matematicamente provabile in una risposta, il babysitting diventa facoltativo. Gli avvocati potrebbero svolgere ricerche sui casi di notte e svegliarsi con brevi verificati. I medici potrebbero ottenere seconde opinioni su condizioni rare senza dover aspettare uno specialista. Gli studenti potrebbero presentare documenti assistiti dall'AI sapendo che le affermazioni fondamentali sono già state sottoposte a un test di stress dalla rete.

Niente di tutto ciò significa che Mira sia perfetta. I cattivi attori cercheranno di ingannare il sistema. L'economia dei token può essere complicata. E anche una rete decentralizzata può deviare se gli incentivi sono mal calibrati. Ma la bellezza è che Mira non pretende di eliminare gli errori; semplicemente si assicura che non si diffondano silenziosamente. Accetta che ogni modello sia imperfetto e poi costruisce un sistema abbastanza forte da catturare quelle imperfezioni prima che raggiungano te.

Alla fine, il cambiamento più importante potrebbe non essere in quanto sia intelligente la nostra AI. Potrebbe essere in quanto onestamente possiamo verificare ciò che dice. Abbiamo passato anni a ossessionarci per generatori più grandi e veloci. Il prossimo decennio potrebbe appartenere ai verificatori.

E se l'approccio di Mira funziona, non avremo solo strumenti più intelligenti. Avremo finalmente strumenti di cui possiamo realmente fidarci quando conta di più.

Questo cambia tutto.

@Mira - Trust Layer of AI

$MIRA

#Mira