Penso che dire @Mira - Trust Layer of AI che si sta costruendo "verità decentralizzata" per l'IA sia corretto in un certo senso, ma se lo si dice in modo più preciso, stanno cercando di costruire uno strato di verifica dell'output dell'IA attraverso meccanismi decentralizzati.
Ciò che mi ha colpito è che Mira non affronta il problema dell'allucinazione dell'IA semplicemente affinando il modello, ma segue la strada di separare l'output in affermazioni verificabili e consente a più parti di verificarle.
A prima vista sembra interessante perché tocca un problema molto reale dell'IA attuale, ovvero che il modello può parlare in modo fluido ma non sempre è affidabile.
Tuttavia, penso che sia necessario fare attenzione alla parola “verità”. In tali sistemi, ciò che viene considerato vero dipende spesso da come è progettato il meccanismo di verifica, da come vengono scelti gli agenti coinvolti e dalla soglia di consenso stabilita all'inizio.
Quindi penso che definire Mira come verifica decentralizzata per l'IA sia probabilmente più accurato che definirla come verità decentralizzata completa.
