Ora voglio vedere se Fabric può scrivere nel regolamento la questione degli "errori dei robot".

Negli ultimi giorni ho guardato Fabric e l'immagine che non riesco a togliermi dalla testa non è più quella del robot che riceve denaro, ma quella del robot che commette errori. Molti progetti amano presentare il pagamento automatico come qualcosa di semplice, ma nel mondo reale il costo più alto non è mai il momento del trasferimento, ma chi si assume la responsabilità dopo che l'azione è stata eseguita male, da dove provengono le prove e chi ne paga il prezzo. Nel white paper c'è un punto che considero più prezioso delle parole "economia dei robot"; non solo si parla di incentivi, ma anche di sfide, sanzioni, inattività e degrado della qualità sono stati inclusi nel regolamento. Se un robot è dimostrato aver presentato un lavoro fraudolento, il 30% al 50% della garanzia del compito sarà confiscato, chi riesce a sfidare con successo riceverà una parte della ricompensa della verità, mentre l'altra parte sarà distrutta; se il tasso di operatività scende sotto il 98% durante un periodo di 30 giorni, la ricompensa sarà annullata e il deposito sarà bruciato del 5%; se il punteggio di qualità aggregato scende sotto l'85%, il robot sarà sospeso dalla possibilità di ricevere ricompense fino a quando il problema non sarà risolto. Questo approccio dimostra almeno che ciò di cui vogliono discutere non è se "i robot possono guadagnare soldi", ma se "ci sono modi economici e chiari per attribuire responsabilità dopo che i robot commettono errori".

Perché penso che questo sia più importante che parlare di casi d'uso. Perché la parte più difficile di una rete aperta non è far sì che una macchina riceva un compito, ma far sì che gli estranei osino affidargli il compito. Finché le sanzioni non vengono scritte nel sistema, alla fine torneremo a piattaforme chiuse. Attualmente, il volume circolante di ROBO è di circa 2.231.000.000, con una fornitura massima di 10.000.000.000, e il prezzo della moneta fluttua tra 0,039 e 0,040 dollari; ma ciò su cui voglio concentrarmi non sono le linee K, ma se ci sono casi reali che possono far emergere la sequenza "esecuzione del compito - errore - sfida - giudizio - sanzione". Se arriviamo a quel punto, guarderò più seriamente se questa rete ha le qualifiche per sostenere l'immaginario a lungo termine della collaborazione robotica. @Fabric Foundation $ROBO #ROBO