Due giorni fa ho visto una notizia: un taxi a guida autonoma è stato fermato dalla polizia, perché ha "esitato" per tre minuti all'incrocio, causando una lunga fila dietro di esso. I commenti si sono scatenati - c'è chi dice che è un problema dell'auto, chi dice che è un problema delle condizioni stradali, e chi dice "rivolgiti al produttore, non urlare con me".
Mi è venuto in mente un problema: se quest'auto fosse un robot e avesse fatto un "brutto affare", chi ne è responsabile? A chi ci si può rivolgere per un reclamo?
Questo è un indizio piantato sin dall'inizio del design @Fabric Foundation : meccanismo di risoluzione delle controversie sulla blockchain.
Quando un robot tradizionale ha un problema, devi contattare il produttore, l'operatore, discutere, aspettare una risposta; una volta che il processo è finito, è già troppo tardi. L'idea di Fabric è: scrivere il canale di reclamo nel codice.
Ogni compito, dalla pubblicazione al completamento, viene registrato sulla blockchain. Cosa ha fatto il robot, dove l'ha fatto, chi ha effettuato l'ordine, come è stata effettuata la liquidazione, tutto è registrato nel libro contabile. Una volta che si verifica un problema, non si tratta di cercare manualmente nelle chat, ma si avvia direttamente una controversia sulla blockchain - il sistema richiama automaticamente i dati di esecuzione di quel momento, verifica la firma dei nodi e il record di reputazione.
Ancora più interessante è l'arbitrato con peso alla reputazione. Un robot che ha completato 3000 ordini con una percentuale di feedback positiva del 99%, e un principiante appena arrivato, se entrambi presentano un reclamo, a chi darà priorità il sistema? Non è semplicemente la maggioranza che prevale, ma si guarda al contributo storico. Questo si chiama "solo chi ha lavorato ha diritto di parola".
Il punto più duro di questo design è: non si cercano soluzioni dopo che si è verificato un problema, ma si fa in modo che tutti i partecipanti sappiano fin dall'inizio che "mentire verrà scoperto".
Il libro contabile è immutabile, non ci si può sottrarre dopo aver fatto qualcosa di sbagliato. I nodi di verifica supervisionano per tutto il tempo, se si vuole imbrogliare, bisogna corrompere più di 1/3 dei nodi, il costo è molto più alto dei benefici. Col tempo, le macchine imparano naturalmente a "essere oneste".
Non è forse questa la logica della "legalità" nella società umana? Non si basa sulla morale, ma sul "costo della violazione è sufficientemente alto".
Questa installazione di Fabric nel mondo delle macchine, in sostanza, sta dicendo: le macchine possono sbagliare, ma gli errori devono avere un costo, il costo deve essere coperto da qualcuno, e questo deve essere tracciabile.
Se hai in mano $ROBO , non avere fretta di vendere, in futuro potrebbe essere il diritto di voto per "giudicare" i robot.
