È piuttosto essenziale nel veloce mondo dell'Intelligenza Artificiale poter fare affidamento sui risultati che l'IA ci fornisce. L'IA comporrà contenuti creativi e accattivanti, ma tirerà anche fuori allucinazioni e dimostrerà pregiudizi. Mira Network sta facendo questo applicando un nuovo processo di Trasformazione dei Contenuti che converte l'output poco chiaro dell'IA in informazioni verificabili.

Il problema dell'affidabilità dell'IATradizionale.

I modelli linguistici di grandi dimensioni (LLM), che sono tipi di modelli di intelligenza artificiale, si basano sul prevedere la parola o la sequenza più probabile da seguire. A causa di ciò, le loro produzioni possono essere una imprecisione fattuale o non correlate alla realtà. Questa inferenza rende difficile la verifica diretta delle risposte e richiede solitamente assistenza umana, il che mina gli sforzi di un'intelligenza artificiale completamente autonoma. Mira Network altera il nostro modo di pensare riguardo agli output dell'IA. Invece di prendere tutto ciò che l'IA offre come verità assoluta, Mira lo esamina con un insieme di livelli di verifica che iniziano dividendo intelligentemente il materiale in unità più piccole.

Trasformare i Contenuti in Processo: Passo dopo Passo.

Fondamentalmente, il modulo di Trasformazione dei Contenuti di Mira è un dispositivo di dissezione ingegnoso che scompone l'input. Ecco come funziona:

  • I dati grezzi dell'IA vengono passati nella Rete Mira. Questo può essere composto da dati testuali, codice o dati strutturati.

  • Il modulo scompone il contenuto in pezzi molto piccoli e verificabili. Un esempio è un'affermazione come: La Terra ruota attorno al Sole e la Luna ruota attorno alla Terra, che diventa due affermazioni, una che afferma: La Terra ruota attorno al Sole e l'altra che afferma: La Luna ruota attorno alla Terra.

  • Ogni pezzo è collocato in un formato semplice e chiaro come Ken->Fact in modo che vari verificatori possano leggerlo e verificarlo.

  • Le affermazioni vengono inoltrate a numerose macchine inaffidabili sulla rete. Le macchine hanno i loro modelli IA specializzati che determinano la veridicità dell'affermazione. Ci sono un alto numero di macchine incerte e, di conseguenza, c'è una riduzione del bias o del punto di fallimento.

  • L'algoritmo di consenso di Mira riassume tutti i singoli controlli, con il risultato di determinare se tutte le affermazioni sono vere. In caso di successo delle affermazioni, Mira genera un certificato digitale su una blockchain che attesta che l'output dell'IA è certificato.

L'output di un'IA non scarta il resto del contenuto anche se è errato in una parte dell'output dell'IA. Le affermazioni false vengono scoperte solo, il che significa che l'intero lavoro può essere utile e valido.

Perché è Importante: Sviluppare Fiducia nell'IA.

La Trasformazione dei Contenuti di Mira consente la generazione di fiducia nell'IA in quanto presenta un resoconto forte e verificabile su come le risposte dell'IA sono state confermate. Questo porta il semplice fatto che ciò sia plausibile a un livello superiore, rendendolo fattuale. Fornisce una base di IA senza fiducia, quindi gli utenti non devono prendere la scatola nera di un'IA alla cieca. Possono invece fidarsi di un sistema di verificatori indipendenti e delle prove digitali valide che Mira presenta.

#Mira @Mira - Trust Layer of AI $MIRA