Gli strumenti AI OpenClaw hanno subito un “autoattacco”: un errore nella costruzione del comando Bash ha portato alla fuga di chiavi

Dettagli dell'evento: La società di sicurezza Web3 GoPlus ha rivelato che lo strumento di sviluppo AI OpenClaw ha recentemente subito un “autoattacco”. Il sistema, durante la creazione automatica di problemi su GitHub, ha inavvertitamente eseguito comandi Shell generati dall'AI contenenti un errore di avvolgimento con backtick (set), attivando una vulnerabilità di iniezione di comandi.

Dettagli sulla fuga: L'ambiente Bash ha interpretato il comando come un'istruzione da eseguire, portando il sistema a esporre automaticamente oltre 100 righe di variabili ambientali sensibili. Le informazioni trapelate includevano chiavi Telegram, token di autenticazione e altri dati riservati core.

Ingiunzioni tecniche: Questo evento evidenzia l'imprevedibilità dell'AI nell'eseguire comandi di sistema di basso livello. A causa della mancanza di una verifica sintattica sui contenuti generati, l'AI ha inavvertitamente sfruttato le caratteristiche di Bash per inviare informazioni riservate a piattaforme pubbliche.

Raccomandazioni di sicurezza: GoPlus consiglia agli sviluppatori di utilizzare nei contesti di automazione AI: 1. Preferire le chiamate API piuttosto che concatenare direttamente i comandi Shell; 2. Seguire il principio del minimo privilegio per isolare le variabili ambientali; 3. Disabilitare le modalità di esecuzione ad alto rischio e introdurre revisioni manuali.

#GoPlus #OpenClaw #AI安全 #GitHub #密钥泄露