
L'intelligenza artificiale è ora parte di molti strumenti che usiamo quotidianamente, come assistenti chat, aiutanti per la ricerca, riassunti di ricerca e persino consigli legali o sanitari. Questi sistemi possono fornire risposte rapide e convincenti, ma a volte commettono errori evidenti.
Nel mondo della tecnologia, questo problema è chiamato allucinazioni dell'IA. Questo accade quando un'IA fornisce informazioni con certezza che sembrano corrette ma sono false o fuorvianti. Questi errori non sono glitch casuali. Accadono perché i modelli di IA creano testo basato su schemi, non su fatti verificati.
Esempi del mondo reale mostrano perché queste questioni sono importanti:
I riassunti della IA di Google hanno fornito informazioni mediche inaccurate che gli esperti hanno avvertito potrebbero dipingere immagini pericolose delle condizioni di salute mentale e convincere le persone ad evitare un trattamento adeguato. Ciò ha spinto una grande organizzazione sanitaria a avviare un'inchiesta sui rischi associati alla guida dell'IA.
Un avvocato di New York una volta ha citato casi legali completamente inventati in un deposito in tribunale perché uno strumento di IA ha fabbricato nomi di casi e citazioni che non esistevano.
Un altro chiaro esempio riguardava un chatbot che sosteneva falsamente che una persona reale fosse un assassino di bambini condannato, un'allucinazione estrema e dannosa che ha portato a denunce ufficiali.
Questi esempi dimostrano come l'IA possa apparire sicura e autorevole, anche quando produce informazioni errate. Nelle chat quotidiane, questo può essere fastidioso o imbarazzante. Nei documenti legali, nei contesti sanitari o nei sistemi di consulenza pubblica, questi errori possono causare danni reali o problemi legali.
Questo è il problema @Mira - Trust Layer of AI che mira a risolvere.
Piuttosto che accettare una risposta dell'IA per quello che è, Mira aggiunge uno strato di verifica tra l'IA e l'utente. Quando un'IA genera una risposta, Mira la scompone in pezzi di informazioni più piccoli e fattuali che possono essere verificati in modo indipendente. Questi pezzi vengono quindi esaminati da più validatori indipendenti nella rete.
Se c'è un forte accordo tra i validatori sul fatto che l'affermazione sia corretta, viene contrassegnata come verificata. In caso contrario, l'affermazione può essere segnalata o rifiutata. La differenza chiave è che la verifica non si basa su un singolo modello di intelligenza artificiale o autorità. Si basa su una valutazione distribuita e un accordo.
Un altro aspetto importante del design di Mira è l'uso di incentivi economici. I validatori devono mettere in gioco $MIRA token per partecipare alla rete. Se si comportano onestamente e fanno controlli accurati, guadagnano ricompense. Se validano in modo errato o fanno giudizi superficiali, il loro capitale può essere ridotto. Questo crea un sistema in cui responsabilità e revisione accurata sono integrate nel processo.
Mira non cerca di sostituire i modelli di IA stessi. Non rende l'IA più intelligente né cambia il modo in cui i modelli generano testo. Quello che fa è introdurre un modo strutturato per verificare i risultati prima che vengano utilizzati o considerati affidabili, specialmente in situazioni in cui la precisione è davvero importante.
Le allucinazioni dell'IA non sono un problema marginale. Si verificano su diverse piattaforme e possono avere conseguenze reali. Sistemi come Mira cercano di ridurre quel rischio aggiungendo un ulteriore strato di validazione, puntando a risultati affidabili invece di quelli solo plausibili.
#Mira #Miranetwork #Mira #AI #Decentralization #Blockchain #Web3 #MIRA
