@Mira - Trust Layer of AI
Ciò che continua a preoccuparmi nelle conversazioni sull'IA è quanto rapidamente la parola verificato venga ridotta a un'etichetta. Un distintivo può segnalare fiducia, certo, ma la fiducia non è la stessa cosa della prova.
Ecco perché Mira merita attenzione. La sua idea fondamentale non è quella di chiedere alle persone di fidarsi di un modello un po' di più. È quella di suddividere l'output dell'IA in affermazioni, inviare quelle affermazioni attraverso una verifica distribuita e allegare una prova crittografica al risultato. Nella propria cornice, l'affidabilità deve derivare da un processo verificabile e incentivi economici, non solo dal branding.
Per me, questo sposta la discussione in una direzione più sana. Se l'IA toccherà la ricerca, il denaro, la legge o i sistemi autonomi, “sembra affidabile” è uno standard troppo debole. Verificato dovrebbe significare che qualcuno può controllare come la risposta ha guadagnato fiducia. Altrimenti, stiamo ancora trattando in incertezze levigate, solo con un packaging più carino.