Onestamente, recentemente ho pensato a questo, ieri sera mentre leggevo alcuni thread su AI e criptovalute. Ho visto che tutti parlano di una cosa: l'AI sta diventando più intelligente? Ma c'è una domanda che raramente viene discussa secondo me: da quali dati impara realmente l'AI?

Fino ad ora, l'addestramento dell'AI sembra una blackbox, le grandi aziende addestrano i loro modelli su server chiusi. Non sappiamo quali dataset vengono utilizzati, se ci sono dati protetti da copyright? Se ci sono dati con determinati pregiudizi al loro interno?

E se un giorno l'AI fornisce risposte errate o con pregiudizi? Possiamo solo dire: l'AI ha torto? Ma potrebbe essere che il problema derivi dai dati che ha elaborato fin dall'inizio.

È qui che secondo me Mira Network è interessante...

Loro introducono il concetto di Verifiable Training. In sostanza è semplice ma abbastanza radicale: il processo di addestramento dell'AI deve poter essere auditato.

Ogni dataset utilizzato per addestrare il modello sarà trasformato in hash (impronta digitale) e registrato nella blockchain di Mira tramite il sistema Data Provenance. Quindi il modello AI avrà una sorta di storia educativa trasparente.

Se un giorno il modello risulta avere pregiudizi o errori logici strani, il verificatore può risalire ai dataset che sono stati la fonte del problema.

Non si deve più indovinare.

Ciò che trovo ancora più interessante è il concetto di checkpoint di addestramento. Durante il processo di addestramento, che può durare mesi, il modello invierà snapshot dei pesi neurali alla rete di nodi di Mira per controlli periodici.

In un certo senso è come un audit continuo durante il processo di apprendimento.

Opinione personale? Questo è un approccio che colpisce un po' l'industria dell'AI attuale. Perché vedo molti progetti che sono concentrati nel rendere l'AI più potente, ma raramente qualcuno si preoccupa seriamente di chiedersi se l'AI possa essere fidata o meno.

E in un mondo sempre più pieno di AI, secondo me la domanda importante non è più quanto è intelligente l'AI? Ma piuttosto quanto è trasparente il modo in cui l'AI viene addestrata?

@Mira - Trust Layer of AI $MIRA #Mira