Mira sta costruendo uno strato di verifica basata sul consenso dell'inferenza AI in cui due o più nodi indipendenti vengono utilizzati per eseguire la stessa query e verificarsi a vicenda prima che i risultati siano restituiti. Il concetto fondamentale è facile da afferrare: quando nessuna macchina singola può essere completamente fidata, allora la fiducia collettiva può esserlo.

Gli operatori dei nodi di Mira non sono solo tenuti a fornire buone prestazioni in termini di uptime. L'output degli operatori dovrebbe anche rimanere all'interno delle tolleranze di consenso, cioè, l'output dovrebbe essere coerente con quello di altri operatori, non semplicemente tecnicamente disponibile. Questo porta a uno stato continuo e guadagnato di responsabilità, contrariamente a un sistema di pass/fail.

La struttura di incentivo sotto forma di $MIRA rewards disciplina e allinea la partecipazione a lungo termine. Ci sono però vere minacce - i guasti hardware omogenei creerebbero un consenso errato ma fiducioso, e l'innalzamento degli standard concentrerebbe lentamente l'insieme degli operatori.

L'aspetto interessante dell'approccio che Mira adotta è che gli standard di prestazione non sono regole aggiunte in un secondo momento, ma sono incorporati nella fondazione. La calibrazione dovrebbe essere determinata se è scalabile-invariante, ma il framework è buono.#mira $MIRA @Mira - Trust Layer of AI