L’intelligence artificielle (IA) est de plus en plus présente dans notre vie quotidienne, mais son utilisation soulève également des questions éthiques et de sécurité. Récemment, OpenAI, l’une des entreprises leaders dans le domaine de l’IA, a été au cœur d’une polémique après un massacre au Canada. Le PDG de l’entreprise, Sam Altman, a présenté des excuses publiques pour ne pas avoir alerté les autorités sur un suspect qui avait utilisé le chatbot ChatGPT pour décrire des scénarios de violence armée.
Les faits
En juin 2025, OpenAI avait banni un compte ChatGPT appartenant à un individu qui avait décrit des scénarios de violence armée. Cependant, l’entreprise n’avait pas alerté les autorités sur ce compte, malgré les débats internes sur la question. Il a fallu attendre le massacre de Tumbler Ridge, au Canada, pour que l’entreprise prenne contact avec les autorités canadiennes. Le suspect, identifié comme étant Jesse Van Rootselaar, avait utilisé le chatbot pour décrire des scénarios de violence armée avant de commettre le massacre.
Les conséquences
La polémique a soulevé des questions sur la responsabilité des entreprises d’IA dans la prévention de la violence et sur les mesures qui doivent être prises pour protéger la sécurité publique. Le PDG d’OpenAI, Sam Altman, a présenté des excuses publiques pour ne pas avoir alerté les autorités sur le suspect. L’entreprise a également annoncé qu’elle allait améliorer ses protocoles de sécurité, notamment en mettant en place des critères plus flexibles pour déterminer quand les comptes doivent être signalés aux autorités. De plus, OpenAI a établi des contacts directs avec les autorités canadiennes pour éviter que de tels incidents ne se reproduisent.
Les réactions
La polémique a suscité des réactions de la part des autorités canadiennes, qui ont annoncé qu’elles allaient examiner de nouvelles réglementations sur l’IA. Le premier ministre de la Colombie-Britannique, David Eby, a déclaré que l’apologie d’OpenAI était « nécessaire, mais grossièrement insuffisante » face à la devastation causée aux familles de Tumbler Ridge. Les entreprises d’IA doivent désormais prendre en compte les implications éthiques et de sécurité de leurs technologies et travailler avec les autorités pour prévenir de tels incidents à l’avenir. La question de la responsabilité des entreprises d’IA dans la prévention de la violence est désormais au cœur du débat public et il est probable que nous voyions des changements dans la réglementation de l’IA dans les prochains mois.