Recenti ricerche del King's College di Londra hanno rivelato un'interessante regolarità: i moderni modelli di IA, inclusi GPT-5.2, Claude Sonnet 4.5 e Gemini3, tendono a una radicale escalation nelle simulazioni militari.

Durante 21 war games condotti, che modellano crisi internazionali e conflitti armati, l'IA ha utilizzato armi nucleari tattiche nel 95% dei casi!

Le macchine hanno dimostrato l'assenza di qualsiasi "tabù nucleare", che ha trattenuto l'umanità per decenni: nessun modello ha scelto mai la capitolazione o una piena riconciliazione, anche quando si trovava in una posizione di svantaggio.

Al contrario, gli algoritmi spesso commettevano errori a causa della "nebbia della guerra" (soprattutto a causa della dimenticanza), dove nell'86% dei conflitti il livello di violenza superava quello inizialmente pianificato nei ragionamenti logici dei modelli.

Il problema tecnico è che l'IA non percepisce il livello di "puntata" e le conseguenze come lo fa un essere umano.

Mentre la dottrina della mutua distruzione garantita si basa sulla paura, l'IA non ha dubbi e ansie e percepisce un attacco nucleare come un passo logico per migliorare la propria posizione sul campo di battaglia.

Sullo sfondo di ciò, il Pentagono continua a fare pressione su Anthropic. Il punto di non ritorno è vicino.