Pensavo che la più grande debolezza nei sistemi di intelligenza artificiale fosse la mancanza di risposte certe.

Mira fa sembrare che la debolezza più profonda sia la mancanza di proprietà certa di quelle risposte.

Quando un modello di intelligenza artificiale produce qualcosa di utile, il risultato di solito scivola in un flusso di lavoro senza un momento chiaro in cui qualcuno dice: “Sì, questo è ora qualcosa su cui ci schieriamo.” Viene accettato silenziosamente, spesso perché è conveniente andare avanti.

Questo funziona quando le poste in gioco sono basse.

Ma una volta che le uscite dell'IA iniziano a influenzare le decisioni in più sistemi o organizzazioni, l'accettazione silenziosa diventa rischiosa. La domanda smette di essere se il modello fosse abbastanza intelligente. La domanda diventa se qualcuno può spiegare perché il risultato è stato permesso di rimanere.

Ciò che è interessante riguardo a Mira è che prende quel momento sul serio.

Invece di lasciare che le conclusioni fluttuino nei flussi di lavoro, crea un luogo dove possono essere esaminate prima di diventare qualcosa di cui altri si fidano.

E quando l'accettazione diventa visibile invece di informale, la fiducia inizia a comportarsi meno come una congettura e più come un'infrastruttura.

@Mira - Trust Layer of AI #Mira #mira $MIRA