Le gouvernement américain a décidé de cesser d’utiliser les produits d’Anthropic, une entreprise spécialisée dans l’intelligence artificielle (IA), après un désaccord sur l’utilisation de l’IA pour la surveillance de masse et les armes autonomes. Le président américain a publié un message sur Truth Social, dans lequel il a indiqué que les agences fédérales devaient cesser d’utiliser les produits d’Anthropic et a autorisé une période de transition de six mois pour les départements qui utilisent ces produits.
## Le désaccord entre Anthropic et le département de la Défense
Le désaccord entre Anthropic et le département de la Défense américain a commencé lorsque l’entreprise a refusé de permettre l’utilisation de ses modèles d’IA pour la surveillance de masse et les armes autonomes. Le secrétaire à la Défense, Pete Hegseth, a trouvé cette position trop restrictive et a menacé de désigner Anthropic comme un risque pour la chaîne d’approvisionnement de la sécurité nationale. Le PDG d’Anthropic, Dario Amodei, a réitéré sa position dans un message public, refusant de compromettre sur ces deux points.
## Le soutien d’OpenAI et d’autres entreprises
OpenAI, une autre entreprise spécialisée dans l’IA, est venue soutenir la position d’Anthropic. Le PDG d’OpenAI, Sam Altman, a envoyé un mémo à son équipe dans lequel il a indiqué qu’il partage les mêmes « lignes rouges » qu’Anthropic et qu’il refuserait également d’utiliser l’IA pour la surveillance de masse et les armes autonomes. Ilya Sutskever, co-fondateur d’OpenAI, a également soutenu la position d’Anthropic, soulignant l’importance de prendre des positions fermes sur ces questions éthiques. Google, qui a également reçu un contrat du département de la Défense, n’a pas encore commenté la situation.
## Les implications de cette décision
La décision du gouvernement américain de cesser d’utiliser les produits d’Anthropic a des implications importantes pour l’industrie de l’IA. Elle souligne l’importance de prendre des positions éthiques sur l’utilisation de l’IA et de refuser de compromettre sur des questions telles que la surveillance de masse et les armes autonomes. Elle montre également que les entreprises de l’IA sont prêtes à prendre des positions fermes sur ces questions, même si cela signifie perdre des contrats lucratifs. Cette décision pourrait avoir un impact sur la façon dont les entreprises de l’IA abordent les questions éthiques à l’avenir et sur la façon dont les gouvernements réglementent l’utilisation de l’IA.