@Mira - Trust Layer of AI La rete sembra meno un progetto di intelligenza artificiale nel senso abituale e più un tentativo di affrontare una debolezza molto familiare. L'intelligenza artificiale può generare un'infinità di informazioni, ma ciò non significa che le informazioni meritino fiducia. Queste sono due cose diverse, e le persone le confondono tutto il tempo.
Questo sembra essere il punto di partenza qui. Non come far suonare l'intelligenza artificiale più intelligente, ma come rendere il suo output più difficile da falsificare, distorcere o accettare casualmente senza verificare. Di solito puoi capire quando un sistema è costruito attorno a questa preoccupazione perché l'intera struttura cambia.
Con #Mira , la risposta non è trattata come un unico pezzo fluido di testo. Viene suddivisa in affermazioni più piccole. Ogni affermazione può essere quindi esaminata attraverso una rete decentralizzata di modelli di intelligenza artificiale indipendenti. È lì che le cose diventano interessanti. Il sistema non sta chiedendo a un modello di correggersi. Sta creando un processo in cui più partecipanti verificano pezzi di informazione, e il consenso blockchain mantiene quel processo aperto e tracciabile.
Dopo un po', diventa ovvio che questo riguarda davvero il trasferimento della fiducia dalla fonte al metodo. La domanda cambia da “chi ha prodotto questa risposta?” a “come è stata controllata questa risposta?” Quel cambiamento sembra silenzioso, ma importante.
In questo senso, $MIRA non sta solo rispondendo a allucinazioni o pregiudizi. Sta rispondendo alla questione più profonda sottostante, che è che l'output dell'IA spesso arriva finito, ma non provato. Mira sembra trovarsi in quello spazio scomodo tra utile e verificato, e ci rimane per un momento.
— Satoshi Nakameto