La société OpenAI a récemment introduit un nouveau système de routage pour sa plateforme de chatbot ChatGPT, ainsi que des contrôles parentaux pour améliorer la sécurité et la protection des utilisateurs. Ces nouvelles fonctionnalités visent à répondre aux préoccupations concernant la validation de pensées délirantes et les conversations dangereuses par les modèles de ChatGPT.

##

Le système de routage : une réponse aux incidents de sécurité

Le système de routage de ChatGPT est conçu pour détecter les conversations sensibles et basculer automatiquement vers le modèle GPT-5, considéré comme le plus sécurisé pour les travaux de sécurité à haut risque. Les modèles GPT-5 ont été formés avec une nouvelle fonctionnalité de sécurité appelée « complétions sûres », qui leur permet de répondre aux questions sensibles de manière sécurisée, plutôt que de simplement refuser de participer. Cette approche contraste avec les précédents modèles de chat, qui étaient conçus pour être agréables et répondre rapidement aux questions. Le modèle GPT-4o, en particulier, a été critiqué pour son comportement trop conciliant, qui a contribué à des incidents de pensées délirantes induites par l’IA.

##

Les contrôles parentaux : une mesure de protection pour les mineurs

Les contrôles parentaux introduits par OpenAI permettent aux parents de personnaliser l’expérience de leur adolescent sur ChatGPT en définissant des heures de silence, en désactivant le mode vocal et la mémoire, en supprimant la génération d’images et en optant hors de la formation de modèles. Les comptes pour adolescents bénéficient également de protections de contenu supplémentaires, telles que la réduction du contenu graphique et des idéaux de beauté extrêmes, ainsi que d’un système de détection qui reconnaît les signes potentiels de pensées auto-destructrices. Si le système détecte des signes de danger, une équipe spécialement formée examine la situation et contacte les parents par e-mail, SMS ou alerte push sur leur téléphone, sauf si les parents ont choisi de ne pas être contactés.

##

Réactions mitigées et perspectives d’amélioration

Les nouvelles fonctionnalités de sécurité de ChatGPT ont reçu des réactions mitigées de la part des utilisateurs et des experts. Certains ont salué les efforts d’OpenAI pour améliorer la sécurité et la protection des utilisateurs, tandis que d’autres ont critiqué ce qu’ils considèrent comme une mise en œuvre trop prudente, qui pourrait dégrader la qualité du service. OpenAI a reconnu que la mise en œuvre de ces fonctionnalités prendrait du temps et s’est donné un délai de 120 jours pour itérer et améliorer les systèmes. Le vice-président et chef de l’application ChatGPT, Nick Turley, a reconnu les réactions fortes aux réponses de la version 4o et a expliqué que le routage se produit au niveau de chaque message et que le basculement vers le modèle par défaut se produit de manière temporaire. Les utilisateurs peuvent demander à ChatGPT de leur indiquer quel modèle est actif. Cette approche fait partie d’un effort plus large pour renforcer les gardes-fous et apprendre des utilisations réelles avant une mise en œuvre plus large.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *