Molte persone considerano @Fabric Foundation come una versione robotica di Ethereum, ma non sono d'accordo. È più simile a un mercato dei servizi con meccanismi di assicurazione.
Nel mondo fisico, il costo degli errori dei robot è troppo alto; rompere oggetti o fare del male alle persone non è qualcosa che può essere risolto semplicemente cancellando dati. Ciò che mi ha colpito di più nel white paper di Fabric non è stata l'identità decentralizzata, ma quel "motore di emissione adattivo" e "riserva sicura".
I robot devono impegnare $ROBO come garanzia, e se commettono errori nel lavoro, vengono immediatamente multati; questo è molto più concreto di qualsiasi punteggio di reputazione. Il tasso di emissione viene anche regolato dinamicamente in base all'utilizzo della rete e alla qualità del servizio: quando c'è meno lavoro, si aumentano gli incentivi, quando c'è molto lavoro, si diminuiscono e si fa affidamento sulle commissioni per sostenere, evitando così l'inflazione infinita del mercato orso. Questo design è piuttosto intelligente, utilizzando la leva economica per garantire la sicurezza fisica.
Ma la difficoltà sta nella governance dei parametri: quale dovrebbe essere il tasso di staking? Come impostare la soglia per le multe? Se è troppo alta, nessuno partecipa; se è troppo bassa, la sicurezza diventa una chiacchiera. Il white paper ha menzionato una "costituzione dei robot", ma la costituzione deve essere mantenuta a costo economico.
#ROBO non mira a costruire una vivace comunità di sviluppatori, ma un sistema di fiducia economica che permetta ai robot di entrare nelle famiglie. Questo ha più significato rispetto a discutere semplicemente di stack tecnologici, poiché il codice può essere biforcato, ma la fiducia non può essere ripristinata.