Lo scandalo intorno all'IA militare sta prendendo piede: il Pentagono richiede ad Anthropic di rimuovere le restrizioni dal modello Claude per compiti militari.
La richiesta è severa: in caso di rifiuto, c'è il rischio di rescissione dei contratti e blocco dell'accesso alle catene di approvvigionamento della difesa.
Ufficialmente — analisi strategica. Non ufficialmente — IA senza "filtri etici".
Parallelamente, gli Stati Uniti stanno rafforzando le posizioni nella corsa contro la Cina, non volendo perdere il controllo sulle tecnologie IA militari.
Le ricerche mostrano: in una serie di simulazioni, i modelli di Anthropic, OpenAI e Google hanno scelto la escalation nucleare nella maggior parte dei casi anche in presenza di alternative.
La velocità delle decisioni sta aumentando. La domanda è: cresce insieme a essa la ragione?
Iscriviti se vuoi capire dove porta la corsa dell'IA.