A volte noto quanto rapidamente le persone accettino una risposta dell'IA solo perché sembra sicura. Fai una domanda, la risposta appare in pochi secondi, frasi chiare, spiegazioni chiare. E per un momento sembra affidabile. Ma se ti fermi e ci pensi, di solito non c'è una traccia chiara che mostri come il sistema sia arrivato a quella risposta o se qualcuno l'abbia effettivamente controllata. Ci fidiamo principalmente del tono.
Mira Network sembra guardare a questo problema da un angolo diverso. Invece di trattare una risposta dell'IA come qualcosa di finale, il sistema cerca di suddividerla in affermazioni che possono essere verificate. Un'affermazione è semplicemente una dichiarazione che può essere testata. Altri nodi nella rete sono fondamentalmente computer indipendenti che esaminano quelle affermazioni e cercano di confermare se sono valide. Nel tempo, il sistema costruisce un registro di quali modelli o partecipanti tendono ad essere accurati. Si tratta meno di un modello che è "intelligente" e più di un processo che verifica ciò che viene detto.
Trovo interessante questo cambiamento. Sposta l'attenzione dall'intelligenza alla verifica. L'accuratezza diventa qualcosa su cui la rete lavora collettivamente piuttosto che qualcosa che diamo per scontato in un modello.
E quando pensi a luoghi come Binance Square, dove visibilità e credibilità spesso dipendono da classifiche e dashboard di coinvolgimento, l'idea inizia a diventare più importante. Se l'informazione potesse eventualmente portare qualche segnale di verifica piuttosto che solo popolarità, potrebbe cambiare il modo in cui le persone giudicano ciò che leggono. Non immediatamente. Ma gradualmente.