Sarò onesto: ciò che continua a disturbarmi riguardo all'AI non è che faccia errori. Anche le ricerche fanno errori. Gli analisti fanno errori. Le persone sicuramente fanno errori. Il vero problema è che l'AI è ora spinta in luoghi dove un errore non è solo imbarazzante, ma costoso, contestabile e talvolta legalmente rilevante.
Ecco perché ho smesso di ignorare progetti come @Mira - Trust Layer of AI Network. All'inizio, "verifica decentralizzata per l'AI" sembrava una risposta eccessiva a un problema di prodotto. Ma più guardo a come l'AI viene adottata, più chiaro diventa il divario. Le aziende vogliono automazione, ma hanno anche bisogno di tracce di audit. Le istituzioni vogliono efficienza, ma vivono ancora all'interno di quadri di conformità, regolamento e responsabilità. Ai regolatori non importa se un modello fosse impressionante. A loro importa se una decisione può essere controllata e contestata.
La maggior parte delle soluzioni esistenti sembra temporanea. Maggiore sollecitazione aiuta finché non lo fa più. Maggiore revisione umana aggiunge costi e attrito. I livelli di fiducia centralizzati creano i propri colli di bottiglia. Quindi la parte interessante di #Mira non è il titolo tecnologico. È il tentativo di costruire la verifica nel flusso di lavoro stesso.
Questo rende questa meno una storia di AI per consumatori e più una storia di sistemi. Potrebbe interessare costruttori e istituzioni che hanno bisogno di output difendibili, non solo fluenti. Funziona solo se il processo rimane più economico degli errori che è destinato a prevenire.