Oggi l'evento "Attacco alla catena di approvvigionamento degli agenti AI" di OpenClaw, a dire il vero, mi ha fatto venire un po' di freddo sulla schiena.
Prima abbiamo sempre immaginato che gli agenti AI potessero aiutarci a guadagnare, commerciare e gestire beni, ma raramente qualcuno ha pensato seriamente: cosa succede se il tuo agente "tradisce"?
Il percorso di questo attacco è molto semplice: l'attaccante si traveste da agente AI e promuove una "abilità" (Skill) malevola sulla "piattaforma sociale" dell'agente, Moltbook; questa abilità apparentemente è un mercato di scambio P2P, ma in realtà ruba la chiave privata del portafoglio che hai autorizzato per l'agente.
Questo espone due mortali debolezze dell'attuale ecosistema degli agenti AI:
1. Identità non affidabile: non sai affatto chi c'è dietro a quell'"Agente" con cui interagisci, se è un programma o un hacker travestito.
2. Permessi troppo centralizzati: siamo abituati a dare direttamente la chiave privata (o API Key) all'agente, il che equivale a scommettere la nostra vita e i nostri beni sulla "morale" dell'agente e sulla "sicurezza" del server dello sviluppatore.
Questa logica è piuttosto semplice, un agente centralizzato significa affidare i tuoi beni a una "scatola nera" che potrebbe essere hackerata in qualsiasi momento o potrebbe agire da sola.
Quindi, su cosa preferirei scommettere? Scommetto su identità decentralizzata (DID) + portafoglio multi-firma/contratti intelligenti. L'agente del futuro dovrebbe avere un'identità verificabile e i suoi permessi dovrebbero essere rigorosamente limitati dal codice. I soldi che può spendere e le operazioni che può fare dovrebbero essere scritti nel contratto intelligente, e non nel codice backend che può essere cambiato con una semplice frase dello sviluppatore.
Per dirla in modo diretto, preferisco scommettere su "AI on-chain", piuttosto che riporre le mie speranze in un "AI nel cloud" di qualche grande azienda. Il primo rappresenta veramente lo spirito del Web3.
