Una storia che mostra quanto profondamente l'IA sia già integrata nell'infrastruttura militare degli Stati Uniti - e quanto sia difficile 'spegnerla' anche su ordine diretto del presidente.

28 febbraio 2026, l'amministrazione Donald Trump ha emesso un ordine per interrompere l'uso delle tecnologie dell'azienda Anthropic in tutti i dipartimenti federali. Sono state messe al bando tutte le soluzioni dell'azienda, compreso il modello Claude. È stato formalmente stabilito un periodo di transizione - fino a sei mesi - per una completa rinuncia ai servizi e il passaggio a piattaforme alternative.

La causa del conflitto è stata il rifiuto fondamentale di Anthropic di allentare le restrizioni sul proprio modello. L'azienda mantiene pubblicamente una politica:

— divieto di utilizzo dell'IA per la sorveglianza di massa

— divieto di sistemi di combattimento completamente autonomi

— divieto di scenari in cui il modello prende autonomamente decisioni di attacco

Proprio queste restrizioni hanno causato tensione con il blocco militare.

Tuttavia, secondo quanto riportato dal The Wall Street Journal, solo poche ore dopo la pubblicazione della direttiva, i militari americani hanno continuato a utilizzare Claude per il supporto analitico dell'operazione contro l'Iran.

Non si trattava di controllo diretto delle armi.

Ma Claude è stato utilizzato nei seguenti compiti:

— elaborazione dei flussi di intelligence in tempo reale

— strutturazione delle immagini satellitari e delle mappe termiche

— rilevamento di anomalie e potenziali obiettivi militari

— valutazione dei rischi di attacchi secondari

— modellazione della possibile reazione dell'Iran

— calcolo degli scenari di escalation e delle risposte

In effetti, il modello fungeva da acceleratore analitico. Ciò che prima richiedeva il lavoro di interi reparti di analisti per un'intera giornata, ora veniva elaborato da un algoritmo in pochi minuti.

Le decisioni finali venivano prese dai comandanti militari. Ma nella guerra moderna, la velocità è un vantaggio. L'IA non diventa un'arma, ma uno strumento per accelerare il pensiero.

Perché l'uso è continuato nonostante il divieto?

In primo luogo, la direttiva prevedeva un periodo di transizione. Ciò significava che le integrazioni esistenti potevano essere mantenute temporaneamente.

In secondo luogo, l'infrastruttura era già profondamente integrata nei circuiti analitici del Pentagono.

In terzo luogo, in condizioni di operazione attiva, un'improvvisa disattivazione del sistema potrebbe influenzare l'efficienza operativa.

Dopo il conflitto, il Pentagono ha iniziato una ricerca accelerata di fornitori alternativi di IA — aziende pronte a lavorare in un formato più flessibile sui contratti militari. Si tratta di grandi attori tecnologici e appaltatori della difesa che non impongono restrizioni etiche così rigide.

Ma questa storia è più importante dell'incidente stesso.

Essa dimostra tre tendenze chiave:

  1. L'IA è già diventata parte dell'infrastruttura strategica.

  2. Le aziende private sono in grado di influenzare i confini dell'applicazione consentita delle tecnologie.

  3. Lo stato, anche avendo il potere di emettere un decreto, non può interrompere immediatamente la dipendenza tecnologica.

Per i mercati, questo è un segnale: il settore militare dell'IA crescerà solo. I budget governativi per l'IA stanno aumentando e la domanda di modelli capaci di operare in scenari di difesa sta crescendo.

Anthropic ha adottato una posizione di cautela tecnologica. Ma se un fornitore limita l'uso militare, un altro prenderà il suo posto. Il mercato delle tecnologie di difesa non tollera il vuoto.

L'IA sta lentamente diventando un elemento cognitivo dell'equilibrio militare. Non un 'terminator' autonomo, ma uno strumento di analisi, previsione e accelerazione del processo decisionale.

E la domanda principale ora non è se Claude sia stato utilizzato dopo il divieto.

La domanda principale è quante di queste sistemazioni siano già integrate nelle strutture militari di vari paesi e quale ruolo giocheranno nei conflitti futuri.

L'IA esce dai laboratori e diventa parte della geopolitica reale.

#AI #Anthropic #Claude #США #Иран