#Mira $MIRA
Ho seguito l'IA per un po' e l'atmosfera sta cambiando. Prima si trattava solo di velocità e potenza; ora, finalmente, sta diventando più personale. Modelli più grandi, risposte più veloci, risposte che suonano più intelligenti. Quella era la corsa principale.
Ma recentemente ho cominciato a pensare a qualcosa di più importante: come possiamo sapere se l'IA ha ragione?
Ho visto un momento interessante su @Mira - Trust Layer of AI
a - Trust Layer of AI dove un'implementazione si è fermata intorno al 60% di consenso invece di andare avanti. Alcune persone potrebbero vedere questo come un ritardo, ma per me ha dimostrato che il sistema preferirebbe fermarsi piuttosto che permettere a qualcosa di incerto di passare.
Con la verifica in fase di attivazione attraverso l'app Klok e le iniziative della Stagione 2, il Mira Trust Layer sta iniziando a sembrare reale.
Sto anche diventando più cauto con le uscite dell'IA. Un piccolo dettaglio in un piano che ho esaminato è stato segnalato durante la verifica. Se fosse andato live, avrebbe potuto creare un serio problema normativo.
Su Mira Network, i verificatori devono mettere in stake $MIRA A e rischiare di perderlo se approvano informazioni sbagliate. Questo crea una vera responsabilità. L'IA non deve più solo sembrare intelligente. Deve essere dimostrabile.