L’intelligence artificielle (IA) est en constante évolution, avec des applications de plus en plus variées dans différents domaines. Pour améliorer la qualité de leurs modèles, les entreprises d’IA comme OpenAI ont recours à des données de formation de haute qualité. Cependant, une récente révélation soulève des inquiétudes quant à la manière dont ces données sont collectées et utilisées.
##
La stratégie d’OpenAI pour collecter des données de formation
Selon des rapports, OpenAI demande à des contractuels de télécharger des travaux réels qu’ils ont effectués dans le cadre de leurs précédents ou actuels emplois. Cette approche vise à permettre aux modèles d’IA de l’entreprise d’apprendre à partir de situations réelles et d’améliorer ainsi leur capacité à automatiser des tâches de col blanc. Les contractuels sont invités à décrire les tâches qu’ils ont accomplies et à télécharger des exemples concrets de leur travail, tels que des documents Word, des PDF, des présentations PowerPoint ou des images. Il leur est demandé de supprimer toute information propriétaire et personnelle avant de télécharger les fichiers, et d’utiliser un outil de « nettoyage » fourni par ChatGPT pour garantir l’anonymisation des données.
##
Les risques pour la confidentialité et la propriété intellectuelle
Cette approche soulève des inquiétudes quant à la confidentialité et à la propriété intellectuelle. Les entreprises qui utilisent cette méthode s’exposent à des risques importants, car elles doivent faire confiance à leurs contractuels pour décider ce qui est confidentiel et ce qui ne l’est pas. Selon un avocat spécialisé en propriété intellectuelle, Evan Brown, cette approche « exige beaucoup de confiance envers les contractuels » et met l’entreprise « à grand risque ». En effet, même si les contractuels sont censés supprimer les informations sensibles, il est difficile de garantir que toutes les données seront correctement anonymisées. De plus, il est possible que des informations propriétaires soient téléchargées sans que les contractuels s’en rendent compte, ce qui pourrait avoir des conséquences graves pour les entreprises concernées.
##
Les implications pour l’avenir de l’IA
Cette révélation met en lumière les défis auxquels sont confrontées les entreprises d’IA pour collecter des données de formation de haute qualité tout en respectant la confidentialité et la propriété intellectuelle. Il est clair que les entreprises doivent trouver des moyens de collecter des données de manière responsable et éthique, tout en garantissant que leurs modèles d’IA soient fiables et efficaces. Cela nécessitera probablement la mise en place de nouvelles réglementations et de meilleures pratiques pour la collecte et l’utilisation des données de formation. En attendant, les consommateurs et les entreprises doivent être conscients des risques potentiels associés à l’utilisation de l’IA et prendre des mesures pour protéger leurs informations sensibles.