Il co-fondatore di Ethereum Vitalik Buterin ha appena espresso la sua opinione su uno dei più importanti #AI scontri politici in corso in questo momento — e la sua posizione sta attirando l'attenzione.

In un post recente, Vitalik ha detto che ciò aumenterebbe “significativamente” la sua opinione di #Anthropic se l'azienda mantenesse la sua posizione e accettasse le conseguenze piuttosto che ritirare le sue protezioni sotto la pressione del Pentagono.

Al centro della disputa? Due linee rosse.

Anthropic si è rifiutata di consentire che il suo modello di intelligenza artificiale, Claude, venga utilizzato per armi completamente autonome o sorveglianza domestica di massa degli americani. Secondo fonti, il Segretario alla Difesa Pete Hegseth ha dato all'azienda una scadenza di venerdì per conformarsi alle richieste di allentare quelle restrizioni — o rischiare di perdere un contratto da 200 milioni di dollari con il Pentagono. Ci sono anche notizie di una potenziale invocazione del Defense Production Act e persino di etichettare l'azienda come un “rischio per la catena di approvvigionamento.”

Il punto di vista di Vitalik è interessante perché definisce la posizione di Anthropic “in realtà molto conservativa e limitata.” Non è contro l'esercito. Non è contro il governo. Sta semplicemente tracciando un confine attorno a due aree su cui molte persone sono a disagio: armi controllate dall'AI e violazioni massicce della privacy.

Fa anche un punto filosofico più ampio. Nel suo mondo ideale, chiunque lavori su armi autonome o sorveglianza di massa avrebbe accesso solo a modelli di AI a peso aperto — nient'altro. Nessuna capacità speciale. Nessun accesso privilegiato. Solo gli stessi strumenti di base di tutti gli altri.

Realisticamente, ammette, non arriveremo mai vicino a quel mondo. Ma anche avvicinarsi “del 10%” a limitare quei usi sarebbe un progresso. Andare “del 10% più lontano” sarebbe un passo indietro.

Il Pentagono afferma che la legalità è sua responsabilità in quanto utente finale. Anthropic afferma che l'AI non è ancora abbastanza affidabile per il controllo delle armi e che non ci sono leggi chiare che governano la sorveglianza di massa dell'AI. Nel frattempo, i concorrenti sono pronti a entrare in ambienti classificati se Anthropic si ritira.

#VitalikButerin #PolicyNews