Uno dei problemi dell'IA che continuo a considerare è la responsabilità. Quando un modello di IA fornisce una risposta falsa, è normalmente difficile risalire a come è stata raggiunta la risposta e se possa essere considerata affidabile. Mentre leggevo di Mira, la vedevo come un'opportunità per rimediare a questo problema. Mira non accetta una risposta dell'IA così com'è poiché considera il risultato un fatto verificabile. Un certo numero di modelli indipendenti verifica quella affermazione tramite un processo di consenso. Per me, questo è una sorta di sistema di audit dell'intelligenza decentralizzata - un registro di ragionamento che può essere esaminato, piuttosto che una singola risposta sullo schermo.

#Mira @Mira - Trust Layer of AI

$MIRA