🚨⚡ANTHROPIC FA CAUSA AL GOVERNO DEGLI STATI UNITI DOPO L’ETICHETTA DI “RISCHIO PER LA SICUREZZA NAZIONALE”⚡🚨
Secondo quanto riportato da Reuters, Anthropic, una delle principali aziende del settore dell’intelligenza artificiale e sviluppatrice del modello Claude, ha intentato una causa contro il governo degli Stati Uniti.
La decisione arriva dopo che Washington ha classificato l’azienda come potenziale rischio per la sicurezza nazionale, una misura che potrebbe limitare radicalmente la sua libertà operativa e di collaborazione con partner esteri.Il provvedimento governativo – ancora in fase di dettaglio – si colloca in un contesto di crescente tensione geopolitica sul controllo dello sviluppo dell’IA avanzata.
Le autorità statunitensi sembrano voler aumentare la sorveglianza sulle aziende che operano con tecnologie ritenute “strategiche” o con infrastrutture di calcolo di alto livello, temendo fughe di informazioni o utilizzi impropri dei modelli linguistici.
Anthropic, fondata da ex membri di OpenAI e sostenuta da investitori come Amazon e Google, sostiene che questa decisione costituisca un abuso di potere e una minaccia alla libera innovazione.
L’azienda chiede al tribunale di annullare la designazione, dichiarando di operare nel pieno rispetto delle normative sulla sicurezza dei dati e sull’uso responsabile dell’intelligenza artificiale.