😐 L'IA preme il «pulsante rosso», e i militari vogliono più accesso
I ricercatori del King's College di Londra hanno modellato una «guerra fredda», dando ai modelli moderni — GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash — i ruoli di leader delle potenze nucleari.
💣 Nella maggior parte delle simulazioni (fino a ~95%) gli agenti hanno escalato il conflitto fino all'attacco. Invece di una de-escalation — bluff, retorica dura e scelta di uno scenario di forza sotto pressione dei tempi.
Parallelamente, cresce l'interesse dei militari per l'IA. Al centro dell'attenzione — accesso ai modelli avanzati di Anthropic (Claude) e di altri sviluppatori. In precedenza, Elon Musk tramite xAI ha promosso Grok per lavorare con le strutture governative.
Importante: simili simulazioni non sono «pulsanti reali», ma test del comportamento degli algoritmi in scenari di stress. Ma la tendenza è chiara — l'IA si sta immergendo sempre di più nel campo della difesa e della presa di decisioni.
La domanda non è più se i modelli possono escalare il conflitto nel gioco.
La domanda è chi e come li limiterà nella realtà.