Le ministère américain de la Défense a officiellement notifié à la direction d’Anthropic que l’entreprise et ses produits ont été désignés comme un risque pour la chaîne d’approvisionnement. Cette décision intervient après des semaines de conflit entre le laboratoire d’IA et le Département de la Défense. Le CEO d’Anthropic, Dario Amodei, a refusé de permettre à l’armée américaine d’utiliser ses systèmes d’IA pour la surveillance de masse des Américains ou pour alimenter des armes entièrement autonomes sans assistance humaine dans la prise de décision.

##

Les raisons derrière la désignation

La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement est une mesure inhabituelle, car ce type de label est généralement réservé aux adversaires étrangers. Cette décision oblige toute entreprise ou agence travaillant avec le Pentagone à certifier qu’elle n’utilise pas les modèles d’Anthropic. Le Pentagone argue que son utilisation de l’IA ne devrait pas être limitée par un contractant privé. Cependant, le refus d’Anthropic de permettre l’utilisation de ses systèmes d’IA pour des fins de surveillance de masse ou pour alimenter des armes autonomes a conduit à cette décision.

##

Les implications pour l’industrie de l’IA

La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement a des implications importantes pour l’industrie de l’IA. De nombreux employés d’OpenAI et de Google ont appelé le Département de la Défense à retirer sa désignation et ont demandé au Congrès de réagir à ce qui pourrait être perçu comme une utilisation abusive de l’autorité contre une entreprise technologique américaine. Les employés ont également demandé à leurs dirigeants de se tenir debout pour continuer à refuser les demandes du Département de la Défense d’utiliser leurs modèles d’IA pour la surveillance de masse et pour « tuer des personnes sans surveillance humaine ». Cette affaire soulève des questions importantes sur l’utilisation de l’IA par les militaires et les limites qui devraient être établies pour son utilisation.

##

Les conséquences pour Anthropic et le secteur

La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement menace de perturber à la fois l’entreprise et ses propres opérations. Anthropic a été le seul laboratoire d’IA de pointe avec des systèmes prêts pour une utilisation classifiée. L’armée américaine dépend actuellement de Claude, l’un des outils principaux installés dans le système Maven Smart de Palantir, que les opérateurs militaires au Moyen-Orient utilisent largement. La décision du Pentagone de désigner Anthropic comme risque pour la chaîne d’approvisionnement est considérée comme une mesure sans précédent par plusieurs critiques, qui estiment que le gouvernement a abandonné la clarté stratégique et le respect en faveur d’un « tribalisme grossier » qui traite les innovateurs domestiques plus durement que les adversaires étrangers. Cette affaire souligne l’importance de l’établissement de règles claires et de limites pour l’utilisation de l’IA par les militaires, afin de garantir que son utilisation soit conforme aux valeurs et aux principes de la société.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *