La communauté scientifique est en ébullition après que des chercheurs d’OpenAI ont affirmé que leur modèle de langage GPT-5 avait résolu des problèmes mathématiques célèbres qui étaient considérés comme insurmontables. Cependant, des experts ont rapidement dénoncé ces affirmations comme étant exagérées et trompeuses.

Les déclarations d’OpenAI : un « dramatique dévoiement » de la réalité

Selon des sources, le vice-président d’OpenAI, Kevin Weil, a déclaré que GPT-5 avait trouvé des solutions à 10 problèmes d’Erdős non résolus et avait fait des progrès sur 11 autres. Cependant, le mathématicien Thomas Bloom, qui maintient le site web des problèmes d’Erdős, a qualifié ces déclarations de « dramatique dévoiement » de la réalité. En effet, les problèmes en question étaient simplement listés comme « ouverts » sur son site web, ce qui signifie que lui-même n’était pas au courant d’un article qui les résolvait. En d’autres termes, il est inexact de prétendre que GPT-5 a résolu des problèmes qui n’avaient pas encore été résolus.

La réaction de la communauté scientifique : gêne et déception

La communauté scientifique a réagi avec gêne et déception face à ces affirmations exagérées. Le chef scientifique d’IA de Meta, Yann LeCun, a qualifié la situation de « piège tendu par leurs propres GPTards ». Le PDG de Google DeepMind, Demis Hassabis, a ajouté que cela était « embarrassant ». Sebastien Bubeck, un chercheur d’OpenAI qui avait également vanté les réalisations de GPT-5, a reconnu que seuls des solutions déjà publiées dans la littérature avait été trouvées, mais a suggéré que cela restait un véritable accomplissement, car il sait à quel point il est difficile de rechercher dans la littérature. Cependant, cette excuse n’a pas suffi à calmer la tempête, et la communauté scientifique continue de dénoncer les affirmations exagérées d’OpenAI.

Les conséquences d’un tel scandale : une perte de confiance dans l’IA

Ce scandale risque de avoir des conséquences importantes sur la confiance dans l’IA et les recherches en intelligence artificielle. En effet, les affirmations exagérées d’OpenAI ont non seulement déçue la communauté scientifique, mais elles ont également risqué de créer de fausses attentes chez le grand public. Il est donc essentiel que les chercheurs et les entreprises d’IA soient transparents et honnêtes dans leurs déclarations, afin de maintenir la confiance dans ce domaine en pleine croissance. La communauté scientifique attend maintenant des explications et des mesures concrètes pour éviter que de tels scandales ne se reproduisent à l’avenir.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *