Il prezzo dell'onestà dei robot: quando il protocollo Fabric decide di smontare ogni riga di logica della "scatola nera algoritmica"
Nel laboratorio, l'unico robot quadrupede che stava eseguendo il compito di ispezione continuava a ripetere meccanicamente i suoi movimenti, il suono basso dei motori rimbombava nel corridoio vuoto. Avevo appena completato un ciclo di test distruttivi, cercando di iniettare una serie di dati falsi da una camera di profondità nel suo strato percettivo tramite un attacco di uomo in mezzo. Nei sistemi convenzionali, questi dati sarebbero stati direttamente forniti all'albero decisionale, causando al robot di deviare dalla sua rotta prestabilita per evitare un "ostacolo" che in realtà non esiste, provocando anche il crash del sistema. Ma nell'ambiente OM1 con il livello di verifica Fabric, questi pacchetti di dati manomessi venivano intercettati un secondo prima di entrare nella pipeline decisionale. L'allerta che appariva sullo schermo non era un semplice "errore di sistema", ma una catena completa di prove di tracciamento. In quel momento realizzai che la nostra comprensione della "sicurezza dei robot" potrebbe essere rimasta a un livello di difesa fisica, mentre ciò che Fabric stava facendo era dotare ogni anima siliconica di un "registratore di viaggio digitale" che non poteva essere comprato.