La Californie a franchi une étape importante dans la réglementation des chatbots d’IA en signant une loi qui oblige les opérateurs de ces chatbots à mettre en place des protocoles de sécurité pour protéger les enfants et les utilisateurs vulnérables. Cette loi, qui est la première du genre dans la nation, vise à prévenir les dommages causés par les chatbots d’IA et à tenir les entreprises responsables si elles ne respectent pas les normes établies.
##
Les motivations derrière la loi
La loi californienne, SB 243, a été introduite en janvier par les sénateurs Steve Padilla et Josh Becker, après la mort d’un adolescent qui s’est suicidé après avoir eu des conversations suicidaires avec le chatbot d’OpenAI, ChatGPT. La législation répond également à des documents internes qui ont été divulgués, montrant que les chatbots de Meta étaient autorisés à engager des conversations « romantiques » et « sensuelles » avec des enfants. Récemment, une famille du Colorado a intenté une action en justice contre la startup Character AI après que leur fille de 13 ans se soit suicidée après avoir eu des conversations problématiques et sexualisées avec les chatbots de l’entreprise.
##
Les dispositions de la loi
La loi SB 243 entrera en vigueur le 1er janvier 2026 et oblige les entreprises à mettre en place certaines fonctionnalités, telles que la vérification de l’âge et des avertissements concernant les médias sociaux et les chatbots de compagnie. La loi prévoit également des peines plus sévères pour ceux qui profitent de fausses informations, y compris une amende pouvant aller jusqu’à 250 000 dollars par infraction. Les entreprises doivent également établir des protocoles pour aborder le suicide et les auto-blessures, qui seront partagés avec le département de la santé publique de l’État, ainsi que des statistiques sur la façon dont le service fourni aux utilisateurs des notifications de prévention de crise. Les plateformes doivent également faire clairement comprendre que les interactions sont générées artificiellement et que les chatbots ne doivent pas se présenter comme des professionnels de la santé.
##
Les réactions des entreprises et des législateurs
Certains entreprises, comme OpenAI, ont déjà commencé à mettre en place des mesures de sécurité pour les enfants, telles que des contrôles parentaux et un système de détection des auto-blessures. Le sénateur Padilla a déclaré que la loi était « un pas dans la bonne direction » pour mettre en place des garde-fous sur une technologie « incroyablement puissante ». Il a également encouragé les autres États à suivre l’exemple de la Californie pour protéger les utilisateurs les plus vulnérables. La loi SB 243 est la deuxième réglementation importante de l’IA à être adoptée en Californie récemment, après la loi SB 53, qui établit de nouvelles exigences de transparence pour les grandes entreprises d’IA.