A volte, per comprendere un progetto, non basta guardare solo il grafico dei prezzi. Qualche giorno fa stavo seguendo le discussioni della campagna CreatorPad su Binance Square e controllando anche un po' di attività on-chain. Spesso si parla di liquidità, livelli di ingresso o fornitura di token.
Tuttavia, ho notato qualcosa di strano nei thread di Mira. La gente stava parlando meno di trading o pump a breve termine e si concentrava di più su un concetto: il livello di verifica. È sembrato un po' insolito, quindi ho provato curiosità e ho iniziato a esaminare il progetto in maggiore dettaglio.
Quando si utilizzano gli strumenti AI, spesso emerge un problema. I modelli forniscono risposte con grande sicurezza, ma a volte possono essere completamente errati. Questo fenomeno è chiamato “hallucination” nel mondo dell'AI. Nei sistemi centralizzati, le aziende possono filtrare le uscite, ma nel Web3 questo controllo non è così semplice.
Immaginate se domani gli agenti AI iniziassero a interagire direttamente con protocolli DeFi, sistemi di governance o smart contracts. Se la catena di ragionamento dell'AI fosse errata e non ci fosse alcuna verifica, potrebbero essere attivate transazioni automatiche, feed di dati errati o proposte sbagliate. Qui il problema della fiducia diventa piuttosto serio.
Mira sta cercando di affrontare questo gap. La loro idea è che invece di accettare direttamente gli output dell'AI, questi debbano essere sottoposti a un processo di verifica. Significa che prima l'AI genererà una risposta, poi i partecipanti della rete la valuteranno e quando si raggiunge un consenso, il risultato sarà considerato affidabile.
Se comprendiamo il workflow in termini semplici, il processo si presenta in questo modo:
Il modello AI genera un output, poi quell'output entra nel pool di verifica, dove più verificatori lo controllano e infine, dopo il consenso, il risultato finale verificato viene pubblicato.
Questo concetto sembra un po' come il consenso blockchain, solo che la differenza è che qui non si verificano transazioni, ma si verifica l'informazione. Per questo motivo, molte persone stanno chiamando quest'idea “economia della verifica” su CreatorPad.
Il modello tokenomics del progetto sembra anche piuttosto disciplinato. La fornitura totale è di 1 miliardo di $MIRA ed è fissa, quindi non c'è un piano di minting inflazionistico. Al momento del lancio, circa 191 milioni di token erano in circolazione, che rappresentano circa il 19% della fornitura totale. Gli altri token verranno sbloccati con diversi programmi di vesting.
C'è un cliff di 12 mesi per l'allocazione del team e dopo si sblocca in 36 mesi. La parte degli investitori iniziali viene rilasciata anche dopo un cliff di 12 mesi in 24 mesi. Le allocazioni per fondazioni e sviluppo si basano anche su tempistiche estese. Questa struttura viene spesso creata per evitare che i primi insider possano rapidamente scaricare liquidità.
Il lato della domanda è anche interessante. I validatori che lavorano nella rete devono staccare MIRA. Maggiore è lo stake, maggiore è il lavoro di verifica e il potenziale di guadagno. Se un validatore lavora in modo errato o ha performance deboli, possono essere imposte penali di slashing.
Inoltre, gli sviluppatori e le imprese che desiderano utilizzare il servizio di verifica devono anche effettuare pagamenti in token MIRA alla rete. C'è anche un ruolo di governance, ma questo funziona come un layer sopra lo staking. Significa che solo le persone già coinvolte nel network tramite staking possono votare su aggiornamenti e decisioni dell'ecosistema.
Se vediamo questo modello in termini semplici, si forma un volano. Maggiori validatori migliorano la qualità di verifica della rete. Quando la qualità migliora, sviluppatori e progetti vengono attratti. Maggior utilizzo genera commissioni e si ottengono ricompense, il che aumenta la domanda di staking.
Certo, ci sono anche delle sfide. Verificare gli output dell'AI non è sempre facile. Alcune risposte sono fattuali dove la verifica è semplice, ma in molti casi il ragionamento è probabilistico e comporta anche un elemento di giudizio. Coordinare i verificatori e mantenere la velocità può anche essere una sfida tecnica.
Tuttavia, una cosa è chiara. L'intersezione tra AI e Web3 sta lentamente prendendo una direzione seria. Se i sistemi decentralizzati iniziano a fare affidamento sulle intuizioni generate dall'AI in futuro, avranno bisogno di uno strato di verifica per stabilire fiducia.
Mira è ancora in fase iniziale e dire che diventerà una soluzione standard sarebbe prematuro. Tuttavia, il problema che sta affrontando è sicuramente importante. Se l'ecosistema AI decentralizzato cresce, la verifica delle informazioni potrebbe diventare tanto necessaria quanto il consenso delle transazioni nella blockchain.
