Aujourd'hui, une drame digne d'un scénario d'utopie se déroule dans la Silicon Valley. La réputation d'Anthropic en tant que « laboratoire d'intelligence artificielle le plus éthique » subit la plus sévère des épreuves de son histoire. Pendant que #OpenAI et $XAI Elon Musk, selon les informations des initiés, ont déjà accepté les conditions militaires, Anthropic se retrouve au centre d'un scandale à cause de trois mots dans le contrat avec le Pentagone : « tout usage légal ».
Que cache réellement le langage bureaucratique ?
À première vue, la phrase semble standard. Mais dans le contexte des commandes de défense, elle devient la base juridique pour la création de systèmes létaux autonomes. Cela signifie que l'IA obtiendra le droit :
Choisir et identifier soi-même des cibles sur le champ de bataille.
Prendre la décision d'ouvrir le feu sans confirmation directe d'un opérateur humain.
Utiliser des algorithmes pour une surveillance numérique totale en temps réel.
Important : Anthropic s'est toujours positionné comme les créateurs d'une IA « sûre » avec sa propre « Constitution », qui interdit explicitement l'utilisation de technologies pour causer des dommages. Maintenant, cette constitution est confrontée à la réalité des contrats gouvernementaux de plusieurs milliards.
La bataille pour l'avenir de la startup
La situation autour du contrat a déjà dépassé les limites des salles de négociation. Des méthodes de pression classiques sont en jeu :
Fuites anonymes : Des responsables laissent entendre par la presse que l'intransigeance de l'entreprise pourrait menacer la sécurité nationale.
Disputes publiques : Les réseaux sociaux bourdonnent de discussions entre les partisans de « l'éthique pure » et les partisans de la supériorité militaire des États-Unis sur la Chine.
Chantage financier : Pour une startup nécessitant d'énormes capacités de calcul, le refus d'un chèque du Pentagone pourrait signifier une défaite dans la course technologique.
Un compromis est-il possible ?
La question reste ouverte : Anthropic pourra-t-il négocier des conditions spéciales qui limiteront l'utilisation de leur modèle Claude uniquement à la logistique ou à l'analyse de renseignements ? Ou le « droit de tuer » deviendra-t-il un ticket d'entrée obligatoire dans le club des grands acteurs du marché de l'IA ?
