🔎 #AnthropicUSGovClash
L'azienda americana di intelligenza artificiale nota per modelli incentrati sulla sicurezza, come Claude, è in una contrapposizione di alto profilo con il governo degli Stati Uniti, in particolare con il Pentagono e l'amministrazione Trump.
�
Il concetto di etica dell'IA collide con la supervisione governativa
Il conflitto si concentra su come le agenzie governative e militari possano utilizzare l'IA di Anthropic, con preoccupazioni riguardo all'uso illimitato nella sorveglianza o nelle armi autonome. Anthropic ha rifiutato di rimuovere le proprie protezioni, definendole “linee rosse”.
⚔️ Punti Chiave del Conflitto
🧠 Richieste del Governo
Il Segretario della Difesa degli Stati Uniti Pete Hegseth e l'amministrazione vogliono un accesso più ampio all'IA di Anthropic per “tutti gli usi leciti”, il che potrebbe consentire un'integrazione militare senza limiti etici o di sicurezza.
Il Pentagono ha minacciato di invocare il Defense Production Act o di etichettare Anthropic come un “rischio per la catena di approvvigionamento”, bloccando i contrattisti statunitensi dal lavorare con l'azienda — una designazione di solito riservata agli avversari stranieri.
🧑💼 La posizione di Anthropic
Il CEO Dario Amodei ha respinto le richieste del governo, affermando che l'IA non può essere utilizzata per la sorveglianza domestica di massa o per armi completamente autonome senza supervisione umana.
Anthropic sostiene che le sue attuali salvaguardie proteggono le libertà civili e sostengono i valori democratici, e che rimuoverle oltrepasserebbe i confini etici oltre ciò che l'IA attuale consente in sicurezza.
📉 Escalation del Governo
Il Presidente Donald Trump ha ordinato alle agenzie federali di smettere di utilizzare la tecnologia di Anthropic.
Il Dipartimento della Difesa ha iniziato a mettere al bando l'azienda come un rischio per la catena di approvvigionamento, limitando potenzialmente il suo lavoro con i contrattisti governativi o in progetti sensibili