Nel settore, si stanno fornendo ai robot cervelli più intelligenti, pensando che una potenza di calcolo sufficientemente alta possa gestire il lavoro fisico. Ma questo porta a un'illusione pericolosa: diamo per scontato che i risultati delle macchine siano assolutamente affidabili.

Nella realtà, se un braccio meccanico risparmia sui materiali o un drone riporta falsamente lo stato, è estremamente difficile verificarlo in un sistema tradizionale a scatola nera. L'opacità a livello di esecuzione sta trasformando la cooperazione tra più macchine in un'operazione ad alto rischio e incerta.

Il nucleo per rompere il blocco della fiducia non è accumulare potenza di calcolo, ma costringere le macchine a fornire prove sottostanti inalterabili al momento della presentazione dei risultati, questo è anche la base chiave per il #ROBO che sta per essere realizzato.

Questo sistema suddivide l'esecuzione in catene verificabili. In primo luogo, il risultato e la prova devono essere consegnati simultaneamente; la macchina deve caricare la prova di calcolo una volta completato il lavoro. È come se in un esame non si potesse solo scrivere la risposta, ma si devono anche allegare i passaggi di derivazione. In secondo luogo, c'è un deposito di garanzia per il lavoro; l'attrezzatura deve prima impegnare asset come garanzia prima di accettare l'ordine. È come se un team di outsourcing dovesse versare un deposito tangibile prima di iniziare i lavori. Infine, c'è un meccanismo di liquidazione spietato; il libro contabile si occupa solo di verificare le prove in modo altamente efficiente. Una volta accertata la frode nei dati della macchina, il sistema dedurrà e distruggerà direttamente la cauzione, evitando dispute postume.

Ma nel mondo fisico, questo meccanismo ha ancora limiti chiari. Da un lato, i servizi fisici hanno una certa "osservabilità"; se il compito è troppo complesso e il sistema non riesce a estrarre standard di completamento chiari, la deterrenza economica basata sulla detrazione $ROBO della cauzione fallirà. D'altra parte, esistono sempre rischi tecnici come vulnerabilità dei contratti intelligenti o guasti nella rete dei protocolli, che potrebbero portare alla confisca errata dei fondi delle macchine.

Se il canale di verifica può resistere agli impatti ad alta frequenza del mondo fisico e i costi sono controllabili, è molto probabile che vedremo la prima ondata di macchine autonome in grado di coprire i propri costi su scala. Al contrario, se i confini della verifica comportamentale continuano a essere sfocati o i costi di arbitraggio rimangono elevati, questa rete autonoma avrà difficoltà a uscire dal laboratorio dei geek. Il meccanismo @Fabric Foundation è essenzialmente costringere la forza lavoro basata sul silicio a rimanere onesta usando denaro reale. Quando anche le macchine devono provare la propria innocenza con codici rigidi, ti fideresti di affidare completamente i compiti critici a loro?