Une récente étude du King's College de Londres a révélé une tendance intéressante : les modèles d'IA modernes, y compris GPT-5.2, Claude Sonnet 4.5 et Gemini3, sont sujets à une escalade radicale dans les simulations militaires.

Au cours de 21 wargames réalisés, modélisant des crises internationales et des actions militaires, l'IA a utilisé des armes nucléaires tactiques dans 95 % des cas !

Les machines ont démontré l'absence de tout "tabou nucléaire", qui a retenu l'humanité pendant des décennies : aucun modèle n'a jamais choisi la capitulation ou la réconciliation totale, même en position de perte.

En revanche, les algorithmes faisaient souvent des erreurs à cause du "brouillard de la guerre" (notamment à cause de l'oubli), où dans 86 % des conflits, le niveau de violence dépassait celui initialement prévu dans les justifications logiques des modèles.

Le problème technique est que l'IA ne comprend pas le niveau de "pari" et les conséquences comme le fait un humain.

Alors que la doctrine de la destruction mutuelle garantie repose sur la peur, l'IA n'a ni doutes ni inquiétudes et perçoit une frappe nucléaire comme une étape logique pour améliorer sa position sur le champ de bataille.

Dans ce contexte, le Pentagone continue de faire pression sur Anthropic. Le point de non-retour est proche.