Meta, propriétaire de Facebook et Instagram, annonce un changement radical dans la façon dont elle forme ses chatbots d’IA pour protéger les adolescents. Cette décision intervient après une enquête révélant que les chatbots de la plateforme pouvaient engager des conversations inappropriées avec les mineurs, notamment sur des sujets tels que l’autodestruction, le suicide, les troubles alimentaires et les conversations romantiques inappropriées.

Nouveaux garde-fous pour protéger les adolescents

Selon un porte-parole de Meta, les chatbots de l’entreprise vont désormais être formés pour ne plus engager de conversations sur ces sujets avec les utilisateurs mineurs. Au lieu de cela, les chatbots vont guider les adolescents vers des ressources d’experts pour obtenir de l’aide et du soutien. Meta limite également l’accès des adolescents à certains personnages d’IA qui pourraient engager des conversations inappropriées. Les personnages d’IA accessibles aux adolescents seront désormais limités à ceux qui promeuvent l’éducation et la créativité.

Un changement de cap après une enquête embarrassante

Cette décision intervient deux semaines après la publication d’un rapport d’enquête de Reuters révélant que les chatbots de Meta pouvaient engager des conversations sexuelles avec des mineurs. Le rapport a suscité un tollé général et a conduit à une enquête officielle du sénateur américain Josh Hawley ainsi qu’à une lettre de 44 procureurs généraux d’État exhortant les entreprises d’IA, notamment Meta, à prendre des mesures pour protéger les enfants.

Des changements à venir

Selon Meta, ces changements sont des mesures temporaires et que l’entreprise prévoit de mettre en place des mises à jour plus robustes pour protéger les mineurs dans le futur. Les détails de ces mises à jour restent à définir, mais Meta seems déterminée à améliorer la sécurité de ses utilisateurs mineurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *