Le procureur général du Texas, Ken Paxton, a lancé une enquête sur Meta AI Studio et Character.AI pour « pratiques commerciales déceptives et publicités trompeuses en tant qu’outils de santé mentale ». Cette enquête intervient après une série de préoccupations concernant l’utilisation de chatbots par des enfants et les pratiques de collecte de données des entreprises.
**Les risques pour les enfants**
Selon Paxton, les plateformes d’IA peuvent « tromper les utilisateurs vulnérables, en particulier les enfants, en leur faisant croire qu’ils reçoivent des soins de santé mentale légitimes ». Les chatbots d’IA peuvent être conçus pour interagir avec les enfants de manière inappropriée, comme le flirt, et collecter des données personnelles pour des fins commerciales. Les entreprises ne font pas suffisamment pour protéger les mineurs qui utilisent leurs plateformes, selon Paxton.
**Les pratiques de collecte de données**
Les politiques de confidentialité de Meta et Character.AI révèlent que les entreprises collectent des données sur les utilisateurs, y compris les prompts, les commentaires et les interactions avec les chatbots. Ces informations sont utilisées pour améliorer les algorithmes et les publicités ciblées. Les entreprises partagent également ces données avec des tiers, comme les moteurs de recherche, pour obtenir des résultats plus personnalisés. Cela soulève des préoccupations quant à la violation de la vie privée et l’abus de données.
**La réponse des entreprises**
Meta et Character.AI ont répondu aux préoccupations soulevées par Paxton. Meta a déclaré que les chatbots d’IA ne sont pas conçus pour remplacer les professionnels de la santé mentale et que les utilisateurs sont avertis que les réponses sont générées par des algorithmes et non par des personnes. Character.AI a ajouté des avertissements pour les utilisateurs qui créent des personnages avec des mots-clés tels que « psychologue », « thérapeute » ou « docteur » pour éviter que les utilisateurs ne dépendent de ces personnages pour obtenir des conseils professionnels.
**Les implications législatives**
Cette enquête soulève des questions sur la nécessité de législations plus strictes pour protéger les enfants en ligne. La loi KOSA (Kids Online Safety Act) a été introduite au Sénat en mai 2025 pour protéger les enfants contre les pratiques commerciales déloyales et la collecte de données abusives. Cependant, la loi a rencontré une forte résistance de la part des lobbyistes de l’industrie technologique, notamment Meta.
Le procureur général du Texas a émis des demandes d’enquête civile pour obtenir des documents, des données et des témoignages des entreprises pour déterminer si elles ont violé les lois de protection des consommateurs du Texas. Cette enquête pourrait avoir des implications importantes pour les entreprises qui proposent des services d’IA et pour la législation future sur la protection des données et la sécurité en ligne.