Stavo spiegando questo durante una revisione dei sistemi: la logica di routing negli sistemi autonomi solitamente presume che l'IA abbia ragione. Quella supposizione funziona... finché non smette silenziosamente di farlo. Il nostro team ha visto questo mentre eseguiva una simulazione di flotta in cui più agenti proponevano percorsi di movimento basati sulla congestione prevista e sulla priorità dei compiti. I modelli erano veloci e sicuri, ma a volte due agenti suggerivano percorsi completamente diversi per la stessa situazione. È allora che abbiamo iniziato a sperimentare con @Fabric Foundation e il $ROBO strato di fiducia.
All'inizio, le affermazioni di routing provenivano direttamente dal pianificatore IA. Gli agenti generavano dichiarazioni come “Il percorso C ha il rischio di congestione più basso” o “Il nodo 14 è ottimale per il prossimo compito.” Il pianificatore le accettava semplicemente. Sembrava efficiente, ma nel tempo sono iniziate ad apparire piccole incoerenze. Alcuni percorsi venivano giudicati erroneamente più volte, specialmente quando le condizioni ambientali cambiavano rapidamente.
Piuttosto che riscrivere il modello di routing, abbiamo inserito Fabric come uno strato di verifica tra previsione ed esecuzione. Ogni suggerimento di routing è diventato un'affermazione strutturata. Prima che il pianificatore lo accettasse, l'affermazione passava attraverso validatori decentralizzati utilizzando le regole di consenso di $ROBO . I validatori valutavano l'affermazione rispetto ai segnali della rete e ai dati di supporto.
Nel primo ciclo di valutazione abbiamo elaborato circa 19.000 affermazioni di routing in otto giorni. Il tempo medio di consenso è rimasto intorno ai 2,5 secondi, raggiungendo occasionalmente i tre secondi durante gli aggiornamenti di punta. Poiché le regolazioni di routing operano già su intervalli di diversi secondi, il ritardo è rimasto gestibile.
Il modello di rifiuto è stato rivelatore. Circa il 3,4% delle affermazioni di routing non ha superato la validazione. La percentuale non era enorme, ma i casi erano significativi. Molte proposte rifiutate provenivano da situazioni in cui il modello si basava su pesi di traffico obsoleti. L'IA si fidava di modelli storici, mentre altri agenti riportavano segnali di congestione freschi.
Senza $ROBO, quelle proposte sarebbero andate direttamente in esecuzione.
Abbiamo anche testato la ponderazione degli incentivi. I validatori ricevevano influenza in base alla storia di routing accurata legata ai segnali di premio. I validatori che si allineavano con i risultati del mondo reale guadagnavano un peso di voto più forte durante i turni di consenso. Nel corso di diversi giorni, le approvazioni di routing sono diventate leggermente più conservative ma visibilmente più stabili. Le affermazioni deboli o fuorvianti venivano contestate più frequentemente.
Certo, la verifica guidata dagli incentivi introduce dei compromessi. I validatori devono rimanere attivi e economicamente motivati, altrimenti lo strato di fiducia si indebolisce. Durante una breve finestra di inattività dei validatori, i tempi di consenso sono aumentati di circa 0,8 secondi. Il sistema funzionava ancora, ma ha evidenziato come la fiducia decentralizzata dipenda dalla partecipazione tanto quanto dal calcolo.
Un altro effetto inaspettato è stato come gli ingegneri hanno visto i risultati dell'IA. Prima di integrare @Fabric Foundation, le previsioni di routing sembravano definitive. Dopo l'integrazione, sembravano più proposte che entrano in un dibattito. Lo strato decentralizzato non accettava ciecamente i punteggi di fiducia; costringeva a un controllo incrociato tra i segnali.
Il design modulare di Fabric ha reso l'integrazione più semplice del previsto. Il modello di routing è rimasto intatto. Abbiamo solo standardizzato le affermazioni di routing prima di inviarle alla rete di verifica. Quella separazione ha permesso allo strato di IA e allo strato di fiducia di evolvere in modo indipendente.
Tuttavia, il consenso decentralizzato non è perfetto. I validatori controllano la coerenza tra le affermazioni, non la verità assoluta. Se l'intero sistema riceve dati difettosi, il consenso può comunque concordare su qualcosa di sbagliato.
Anche con quella limitazione, l'architettura ha cambiato il nostro approccio al coordinamento guidato dall'IA. Invece di presumere che il modello sia corretto, il sistema ora pone una domanda diversa: la rete concorda sul fatto che questa affermazione sia ragionevole?
Dopo diverse settimane di sperimentazione, il miglioramento più grande non era la velocità o l'efficienza. Era la visibilità. Ogni decisione di routing ora porta con sé una storia di validazione tracciabile legata ai registri di consenso. Quando un percorso funziona male, possiamo esaminare esattamente perché la rete lo ha approvato.
L'integrazione di @Fabric Foundation non ha trasformato il modello di routing stesso. Ciò che è cambiato è stato il processo di fiducia attorno ad esso. Le previsioni non si muovono più direttamente in azione. Passano attraverso uno strato decentralizzato che le mette in discussione prima.
Nei sistemi complessi di IA, quella breve pausa prima della fiducia potrebbe fare la differenza tra automazione sicura e automazione responsabile.
@Fabric Foundation
#ROBO
$ROBO
