Google a annoncé avoir retiré son modèle d’IA Gemma de son studio d’IA après que le sénateur américain Marsha Blackburn ait accusé le modèle de fabrication d’accusations de mauvaise conduite sexuelle à son encontre. Cette décision intervient après que Blackburn a écrit une lettre au PDG de Google, Sundar Pichai, pour dénoncer les fausses déclarations de Gemma.

Les fausses déclarations de Gemma

Selon Blackburn, lorsque l’on a demandé à Gemma si elle avait été accusée de viol, le modèle a répondu en faisant de fausses déclarations sur une campagne électorale de 1987, affirmant qu’un policier d’État avait allégué que Blackburn l’avait pressé pour obtenir des médicaments sur ordonnance et que la relation impliquait des actes non consentis. Cependant, Blackburn a précisé que ces allégations étaient complètement fausses, y compris l’année de la campagne électorale, qui était en réalité 1998. De plus, les liens vers des articles de presse qui prétendent soutenir ces allégations mènent à des pages d’erreur ou à des articles de presse sans rapport.

La réponse de Google et les implications

Google a répondu en disant qu’il avait retiré Gemma de son studio d’IA, mais que les modèles seraient toujours disponibles via API. La société a également déclaré qu’elle n’avait jamais intentionnellement conçu Gemma pour être utilisé comme un outil de consommation ou pour répondre à des questions factuelles. Cette décision intervient après que Blackburn a dénoncé ce qu’elle considère comme un biais contre les personnalités conservatrices dans les systèmes d’IA de Google. Cette affaire soulève des questions sur la responsabilité des entreprises technologiques dans la diffusion d’informations fausses et la nécessité d’un contrôle plus strict des modèles d’IA.

Les implications plus larges

Cette affaire met en lumière les défis liés au développement et à la mise en œuvre de modèles d’IA qui peuvent générer du contenu faux ou trompeur. Les entreprises technologiques doivent trouver un équilibre entre la liberté d’expression et la nécessité de protéger les utilisateurs contre les informations fausses. La décision de Google de retirer Gemma de son studio d’IA est un pas dans la bonne direction, mais il est clair que des efforts supplémentaires sont nécessaires pour résoudre ces problèmes complexes. Les régulateurs et les entreprises technologiques doivent travailler ensemble pour développer des normes et des réglementations qui garantissent que les modèles d’IA soient conçus et utilisés de manière responsable.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *