Il problema di verifica dell'IA che Mira dice di risolvere - Ma per cui nessuno sta pagando ancora

La rete Mira si posiziona come il livello di infrastruttura che può rendere i risultati dell'IA affidabili attraverso la verifica decentralizzata. L'idea è semplice: invece di fare affidamento su un singolo modello di IA, più modelli indipendenti elaborano la stessa query e devono raggiungere un consenso prima che una risposta venga accettata come affidabile.

In teoria, questo risolve una delle più grandi limitazioni dell'IA moderna - le allucinazioni e i risultati inaffidabili.

Il concetto ha senso sulla carta. I sistemi di IA di oggi possono produrre risposte sicure ma errate. Questo rischio limita il loro uso in settori ad alto rischio. I fornitori di assistenza sanitaria esitano a fare affidamento sulle diagnosi dell'IA se gli errori potrebbero nuocere ai pazienti. Le istituzioni finanziarie evitano di lasciare che l'IA esegua operazioni in modo autonomo quando segnali difettosi potrebbero causare perdite massicce. Le aziende legali non possono fare affidamento sulla ricerca dell'IA quando le citazioni potrebbero essere fabricate.

Per questi settori, l'affidabilità non è facoltativa.

L'approccio di Mira tenta di affrontare questo problema instradando le query attraverso più sistemi di IA e richiedendo accordo tra di essi prima di produrre un risultato verificato. Il meccanismo di consenso riduce la possibilità che l'errore di un singolo modello diventi la risposta finale. In teoria, crea uno strato di fiducia matematicamente verificabile che consente ai sistemi di IA di operare autonomamente senza supervisione umana.

Ma la sfida non è la tecnologia.

In molti settori, le aziende stanno risolvendo il problema dell'affidabilità in un modo molto più semplice: mantengono gli esseri umani coinvolti. Invece di rendere l'IA completamente autonoma, la trattano come un assistente.

L'assistenza sanitaria fornisce un buon esempio. Gli ospedali già utilizzano l'IA per aiutare ad analizzare immagini mediche o suggerire possibili diagnosi. Ma i medici prendono ancora la decisione finale. Anche se l'infrastruttura di verifica migliorasse l'affidabilità dell'IA, i medici rimarrebbero responsabili per i giudizi clinici a causa di considerazioni di responsabilità etica.

#mira $MIRA @Mira - Trust Layer of AI