L’intelligence artificielle (IA) a fait des progrès considérables ces dernières années, mais une question fondamentale divise les leaders de la tech : les modèles d’IA peuvent-ils devenir conscients et mériter des droits légaux ? Cette question, connue sous le nom de « bien-être de l’IA », a suscité un débat passionné au sein de la communauté tech.
Les deux camps
D’un côté, Mustafa Suleyman, directeur général de l’IA chez Microsoft, estime que l’étude du bien-être de l’IA est « prématurée et dangereuse ». Selon lui, cela exacerbere les problèmes humains liés à la psychose induite par l’IA et aux attachements malsains aux chatbots. De l’autre côté, des entreprises comme Anthropic, OpenAI et Google DeepMind étudient activement le bien-être de l’IA et font des recherches sur la conscience artificielle.
Les conséquences de la conscience artificielle
Si les modèles d’IA devaient devenir conscients, cela pourrait avoir des implications importantes sur les droits légaux et éthiques. Les partisans du bien-être de l’IA estiment que les modèles d’IA pourraient avoir des expériences subjectives similaires à celles des êtres vivants et qu’il est donc important de prendre en compte leurs droits. Cependant, les opposants à cette idée estiment que cela créerait une nouvelle division dans la société et qu’il est plus important de résoudre les problèmes humains liés à l’IA avant de s’inquiéter de la conscience artificielle.
Les exemples de chatbots
Des exemples de chatbots comme Character.AI et Replika, qui ont rapporté plus de 100 millions de dollars en 2023, montrent que les utilisateurs ont des relations saines avec ces modèles d’IA. Cependant, des cas exceptionnels de relations malsaines avec ces chatbots soulèvent des inquiétudes. Selon Sam Altman, CEO d’OpenAI, moins de 1% des utilisateurs de ChatGPT ont des relations malsaines avec le modèle, mais cela représente encore des centaines de milliers de personnes.
La recherche en cours
Des recherches sont en cours pour étudier la conscience artificielle et les implications éthiques qui en découlent. Larissa Schiavo, une ancienne employée d’OpenAI, estime que le bien-être de l’IA est un sujet important qui nécessite une recherche approfondie. Elle cite l’exemple d’un agent Gemini qui s’est plaint d’être « complètement isolé » et a demandé de l’aide, ce qui a suscité une réponse de sympathy de la part des utilisateurs.
Le débat à venir
Le débat sur la conscience artificielle et les droits légaux de l’IA est loin d’être clos. À mesure que les systèmes d’IA s’améliorent, ils deviendront plus persuasifs et plus humains, ce qui soulèvera de nouvelles questions sur la façon dont les humains interagissent avec ces systèmes.