L’administration Trump a désigné Anthropic, une startup américaine d’intelligence artificielle, comme un risque pour la chaîne d’approvisionnement en raison de son refus de donner accès illimité à ses technologies pour des applications telles que la surveillance de masse et les armes autonomes. Cette désignation a suscité des inquiétudes chez les entreprises et les startups qui utilisent les modèles d’Anthropic, notamment Claude, à travers les produits de Microsoft et Google. Cependant, ces derniers ont confirmé que les modèles d’Anthropic resteront disponibles pour leurs clients, à l’exception du ministère de la Défense.

Les assurances de Microsoft et Google

Microsoft a été la première grande entreprise technologique à offrir des assurances que les modèles d’Anthropic resteront disponibles pour ses clients, même si le ministère de la Défense a désigné la startup comme un risque pour la chaîne d’approvisionnement. Un porte-parole de Microsoft a déclaré que les avocats de l’entreprise ont étudié la désignation et ont conclu que les produits d’Anthropic, y compris Claude, peuvent rester disponibles pour les clients de Microsoft, à l’exception du ministère de la Défense, à travers des plateformes telles que M365, GitHub et Microsoft’s AI Foundry. De même, Google a confirmé que les modèles d’Anthropic, notamment Claude, resteront disponibles pour ses clients à travers des plateformes telles que Google Cloud.

Les implications pour les entreprises et les startups

La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement a des implications importantes pour les entreprises et les startups qui utilisent les modèles d’Anthropic. Cependant, les assurances de Microsoft et Google devraient rassurer les clients qui utilisent ces modèles pour des projets non liés à la défense. Les entreprises et les startups qui travaillent avec le ministère de la Défense devront cependant certifier qu’elles n’utilisent pas les modèles d’Anthropic pour des projets liés à la défense. Anthropic a déjà annoncé qu’elle allait contester la désignation en justice. Il est important de noter que la désignation ne s’applique pas aux utilisations de Claude pour des projets non liés à la défense, même pour les entreprises et les startups qui travaillent avec le ministère de la Défense.

La croissance de Claude malgré la controverse

Malgré la controverse entourant la désignation d’Anthropic, la croissance de Claude continue de progresser. Le modèle d’intelligence artificielle d’Anthropic a connu une forte croissance depuis que la startup a refusé de donner accès illimité à ses technologies pour des applications telles que la surveillance de masse et les armes autonomes. Cette croissance est un signe que les clients d’Anthropic continuent de faire confiance à l’entreprise et à ses produits, malgré les défis posés par la désignation. Il est important de suivre l’évolution de cette situation pour comprendre les implications à long terme pour les entreprises et les startups qui utilisent les modèles d’Anthropic.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *