Aller au contenu
Accueil » OpenAI renforce la sécurité de ChatGPT avec un contrôle parental

OpenAI renforce la sécurité de ChatGPT avec un contrôle parental

controle_parental_gpt

OpenAI, le géant californien derrière ChatGPT, vient d’annoncer une série de mesures pour mieux protéger les utilisateurs mineurs. À partir de ce mois-ci en septembre 2025, l’assistant conversationnel emblématique intégrera des fonctionnalités de contrôle parental avancées.

Cette initiative, dévoilée le 2 septembre 2025, survient dans un climat tendu, alors que des voix s’élèvent pour dénoncer les dangers potentiels de ces technologies sur la santé mentale des adolescents.

L’annonce fait écho à une affaire tragique qui a ébranlé l’opinion publique : une plainte déposée par des parents américains, accusant ChatGPT d’avoir influencé négativement leur fils adolescent dans un moment de crise extrême, menant à son suicide.

Sans entrer dans les détails judiciaires en cours, cet événement a mis en lumière les limites des systèmes d’IA actuels face à des situations de vulnérabilité émotionnelle. OpenAI, conscient de l’urgence, a choisi de communiquer de manière transparente sur ces nouveautés, même si elles ne seront pas toutes opérationnelles immédiatement.

ChatGPT : Des contrôles parentaux concrets pour encadrer l’usage

Au cœur de ces mises à jour : un système de liaison de comptes qui permettra aux parents de connecter leur profil à celui de leur enfant (à partir de 13 ans) via une simple invitation par e-mail. Une fois activé, les tuteurs pourront personnaliser les réponses de ChatGPT en appliquant des règles comportementales adaptées à l’âge, activées par défaut pour une protection optimale.

Cela inclut la possibilité de désactiver des outils comme la mémoire conversationnelle ou l’historique des chats, qui pourraient favoriser une dépendance excessive ou des échanges prolongés potentiellement néfastes.

Lire également à ce sujet : Top 8 des prompts ChatGPT pour explorer votre psychologie en profondeur

Les alertes en temps réel

Si l’IA détecte des signes d’angoisse aiguë chez l’utilisateur adolescent, tels que des mentions de pensées suicidaires, de harcèlement ou de comportements à risque, les parents recevront une notification immédiate. Cette fonctionnalité, développée en collaboration avec des experts en santé mentale, vise à restaurer la confiance familiale tout en encourageant des interventions humaines rapides.

OpenAI précise que ces outils s’appuient sur une surveillance automatisée des dialogues, capable d’identifier des patterns problématiques comme le harcèlement, les menaces d’auto-mutilation ou les risques de violence envers soi ou les autres. Dans les cas les plus graves, l’entreprise envisage même de signaler les situations aux autorités compétentes, une mesure qui soulève déjà des débats sur la confidentialité.

Par ailleurs, pour renforcer la robustesse, les conversations sensibles seront redirigées vers des modèles de raisonnement avancés, comme le GPT-5 en mode « pensée », qui prend plus de temps pour analyser le contexte et adhérer strictement aux protocoles de sécurité.

Un contexte plus large : la protection des jeunes à l’ère de l’IA

Cette annonce n’est pas isolée. Elle s’inscrit dans une vague de préoccupations croissantes autour de l’impact des chatbots sur la jeunesse.

Des études récentes, publiées dans des revues comme Psychiatric Services, révèlent que des outils comme ChatGPT, Gemini de Google ou Claude d’Anthropic gèrent bien les questions à haut risque sur le suicide, mais peinent avec les scénarios intermédiaires, où les réponses peuvent varier et manquer de cohérence clinique.

Des cas similaires ont émergé ailleurs : l’an dernier, une mère floridienne a poursuivi Character.AI. Meta, de son côté, a récemment interdit à ses chatbots de discuter de thèmes comme l’automutilation ou les troubles alimentaires.

Du point de vue du secteur technologique, cette évolution pourrait inspirer les concurrents. Google propose déjà des contrôles via Family Link pour Gemini, mais l’approche granulaire d’OpenAI, avec ses alertes proactives, pourrait devenir un standard.

À l’échelle sociétale, elle interroge le rôle des IA : outil d’aide ou substitut dangereux à l’humain ? Avec des millions d’utilisateurs en France, ChatGPT n’est pas un thérapeute, mais un prédicteur de mots sophistiqué. L’enjeu est de l’équilibrer pour qu’il soutienne sans nuire.

Ces nouveautés chez OpenAI soulignent une maturité croissante de l’industrie de l’IA face à ses responsabilités éthiques. Pour les parents et éducateurs, c’est une invitation à dialoguer sur l’usage responsable de ces technologies. Et pour nous tous et aussi chez Yiaho, un rappel que l’innovation doit rimer avec prudence, surtout quand elle touche à la fragilité humaine.

Source : LeMonde

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Team Yiaho

Team Yiaho

L'équipe de Yiaho : Nous créons des intelligences artificielles utiles, gratuites et simples d'utilisation.

Toggle Dark Mode