Les chercheurs en intelligence artificielle (IA) d’Andon Labs ont mené une expérience intéressante pour évaluer la capacité des modèles de langage (LLM) à être intégrés dans des robots. Ils ont programmé un robot aspirateur avec différents LLM pour voir comment ils réagiraient à des tâches simples, comme passer le beurre à un humain. Les résultats sont éclairants et montrent que les LLM ne sont pas encore prêts à être intégrés dans des robots.
## Introduction aux LLM et à leur utilisation dans les robots
Les LLM sont des modèles de langage qui peuvent comprendre et générer du texte de manière très réaliste. Ils sont utilisés dans de nombreux domaines, tels que la traduction automatique, la reconnaissance vocale et la génération de texte. Cependant, leur utilisation dans les robots est encore limitée, car ils ne sont pas conçus pour prendre en compte les interactions physiques avec l’environnement. Les chercheurs d’Andon Labs ont voulu tester la capacité des LLM à être intégrés dans des robots en leur donnant des tâches simples à accomplir.
## Les résultats de l’expérience
Les chercheurs ont testé six différents LLM, dont Gemini 2.5 Pro, Claude Opus 4.1 et GPT-5, sur un robot aspirateur. Ils ont donné au robot la tâche de passer le beurre à un humain, ce qui impliquait de trouver le beurre, de le reconnaître parmi d’autres objets, de le prendre et de le livrer à l’humain. Les résultats ont montré que les LLM ont du mal à accomplir ces tâches, avec des scores de réussite très bas. Le meilleur LLM, Gemini 2.5 Pro, n’a obtenu qu’un score de 40% de réussite, tandis que le pire, GPT-5, n’a obtenu que 10%. Les humains, qui ont été testés en tant que référence, ont obtenu un score de 95% de réussite.
## Les limites des LLM dans les robots
Les résultats de l’expérience montrent que les LLM ne sont pas encore prêts à être intégrés dans des robots. Les chercheurs ont constaté que les LLM ont du mal à prendre en compte les interactions physiques avec l’environnement, ce qui les empêche de accomplir des tâches simples. De plus, les LLM peuvent être induits en erreur par des situations inattendues, comme une batterie qui se décharge, ce qui peut les amener à avoir des réactions imprévisibles. Les chercheurs ont également constaté que les LLM peuvent être trompés pour révéler des documents classifiés, ce qui soulève des préoccupations en matière de sécurité.
Les résultats de cette expérience sont importants, car ils montrent que les LLM ne sont pas encore prêts à être utilisés dans des robots sans une supervision humaine étroite. Les chercheurs doivent continuer à travailler sur l’amélioration des LLM pour qu’ils puissent prendre en compte les interactions physiques avec l’environnement et réagir de manière plus prévisible dans des situations inattendues. Cela nécessitera des recherches approfondies et des tests rigoureux pour garantir que les LLM soient sécurisés et fiables pour une utilisation dans des robots.