Lo scandalo intorno all'IA militare sta prendendo piede: il Pentagono richiede ad Anthropic di rimuovere le restrizioni dal modello Claude per compiti militari.

La richiesta è severa: in caso di rifiuto, c'è il rischio di rescissione dei contratti e blocco dell'accesso alle catene di approvvigionamento della difesa.

Ufficialmente — analisi strategica. Non ufficialmente — IA senza "filtri etici".

Parallelamente, gli Stati Uniti stanno rafforzando le posizioni nella corsa contro la Cina, non volendo perdere il controllo sulle tecnologie IA militari.

Le ricerche mostrano: in una serie di simulazioni, i modelli di Anthropic, OpenAI e Google hanno scelto la escalation nucleare nella maggior parte dei casi anche in presenza di alternative.

La velocità delle decisioni sta aumentando. La domanda è: cresce insieme a essa la ragione?

Iscriviti se vuoi capire dove porta la corsa dell'IA.

#AI #Pentagon #Claude4 #MilitaryTech #MISTERROBOT