Mentre leggevo dei sistemi di verifica esplorati da aziende come Microsoft, mi sono reso conto che la preoccupazione non è più teorica. Le immagini, le voci e i video generati dall'AI sono già in circolazione sui social media, spesso diffondendosi più rapidamente di quanto chiunque possa verificarli.
Molte soluzioni attuali cercano di tracciare l'origine attraverso i metadati, le filigrane o le firme crittografiche, mostrando principalmente dove è iniziato il contenuto e se è stato alterato. Ma mentre riflettevo su questo, un'altra domanda continuava a tornare in mente: cosa succede in ambienti decentralizzati dove non c'è una piattaforma unica responsabile della verifica?
Questo è stato il punto in cui Mira ha iniziato a sembrarmi rilevante, perché invece di etichettare semplicemente il contenuto dell'AI, il sistema affronta le uscite dell'AI come affermazioni che una rete distribuita può esaminare e verificare insieme.
@Mira - Trust Layer of AI #Mira $UAI $MIRA

MIRAUSDT
Perp
0.08033
-2.68%