La disinformazione si diffonde più velocemente che mai.

Le piattaforme social elaborano milioni di post ogni minuto, e il controllo manuale dei fatti semplicemente non può tenere il passo.

È qui che l'IA doveva aiutare.

Ma c'è un problema. L'IA stessa può generare informazioni errate. I modelli di linguaggio di grandi dimensioni a volte producono risposte sicure che contengono errori fattuali o fonti fabricate. Queste allucinazioni rendono difficile fare affidamento solo sull'IA come soluzione alla disinformazione.

Questa è la sfida che progetti come Mira stanno cercando di affrontare.

Mira introduce uno strato di verifica progettato specificamente per le uscite dell'IA. Invece di accettare la risposta di un modello come risposta finale, il sistema suddivide il contenuto in affermazioni fattuali più piccole che possono essere valutate in modo indipendente.

Ogni affermazione viene quindi controllata da più modelli di IA che operano su una rete decentralizzata.

Se quei modelli raggiungono un consenso, l'affermazione è considerata verificata. Se non sono d'accordo, il sistema segnala l'informazione come incerta piuttosto che presentarla come un fatto. Questo processo trasforma le risposte dell'IA da congetture probabilistiche in uscite che sono state convalidate collettivamente.

Per la disinformazione, questo approccio potrebbe essere potente.

Immagina un articolo di notizie, un post sui social media o un riepilogo di ricerca generato dall'IA. Invece di pubblicare immediatamente, il contenuto potrebbe passare attraverso una rete di verifica. Le singole affermazioni verrebbero controllate, convalidate o segnalate prima di raggiungere il pubblico.

L'architettura assomiglia al consenso della blockchain.

Proprio come i validatori decentralizzati confermano le transazioni, i modelli di IA distribuiti confermano l'accuratezza delle informazioni. L'affidabilità deriva dall'accordo tra verificatori indipendenti piuttosto che dalla fiducia in un unico sistema.

L'IA non sarebbe più solo un generatore di contenuti. Potrebbe diventare parte di un'infrastruttura che verifica le affermazioni prima che circolino ampiamente.

Fermare completamente la disinformazione potrebbe essere impossibile.

Ma le reti di verifica come Mira suggeriscono un futuro in cui l'IA aiuta a filtrare informazioni inaccurate prima che si diffondano su larga scala.

$MIRA @Mira - Trust Layer of AI #Mira