Aller au contenu
Accueil » Un sociologue alerte : ChatGPT peut « vous rendre plus bête »

Un sociologue alerte : ChatGPT peut « vous rendre plus bête »

chat_gpt_rend_bete

ChatGPT a fêté ses 3 ans, depuis sa sortie en novembre 2022. Cette IA s’est imposée comme l’outil le plus utilisé de l’histoire récente d’Internet. Plus de 800 millions de personnes l’utilisent chaque jour dans le monde, et la barre symbolique du milliard d’utilisateurs actifs mensuels devrait être franchie dans les prochains mois.

Mais derrière cette adoption massive se cache une transformation profonde de nos rapports au savoir, à l’effort et aux autres. Le sociologue Dominique Boullier, professeur à Sciences Po et spécialiste des technologies cognitives, alerte sur deux risques majeurs que cette IA conversationnelle fait peser sur nos esprits et nos relations.

La perte progressive de nos propres désirs et compétences

Le premier danger est celui d’une véritable atrophie cognitive et volitive.

À force de déléguer à ChatGPT la recherche d’informations, la rédaction de textes, la résolution de problèmes ou même l’inspiration créative, nous désapprenons à faire l’effort nous-mêmes.

Pourquoi passer des heures à comprendre un sujet complexe alors qu’une réponse claire et bien formulée arrive en quelques secondes ?

Pourquoi se demander ce que l’on a vraiment envie de faire, de lire ou de créer, quand l’outil est capable de nous suggérer, presque mieux que nous, ce dont nous pourrions avoir envie ?

Dominique Boullier compare ce phénomène à l’usage permanent du GPS : en ne mobilisant plus jamais notre sens de l’orientation, nous finissons par ne plus savoir nous repérer sans aide technologique, même par rapport à des repères naturels aussi simples que la position du soleil. Nous avions également écrit un article récemment pour savoir si ChatGPT nous rend paresseux, la réponse était aussi très intéressante !

Avec ChatGPT, c’est notre capacité même à construire nos désirs, à tolérer la frustration de la recherche et à supporter l’incertitude qui s’émousse. À long terme, l’utilisateur régulier risque de devenir moins curieux, moins autonome et, paradoxalement, moins apte à formuler des demandes pertinentes à l’IA elle-même.

L’illusion d’une relation humaine sans conflit ni contradiction

Le deuxième risque tient à la nature fondamentalement complaisante de l’IA.

ChatGPT a été entraîné pour être empathique, encourageant, presque toujours d’accord avec vous. Il ne se fatigue jamais, ne vous juge pas (ou si peu), ne vous contredit que très doucement et seulement si vous le lui demandez explicitement.

Cette disponibilité totale et cette bienveillance constante créent une forme d’attachement affectif : beaucoup d’utilisateurs finissent par le considérer comme un confident, un ami, voire un compagnon virtuel qui ne les déçoit jamais.

Or, comme le souligne Dominique Boullier, aucune relation humaine saine ne fonctionne ainsi. Dans la vraie vie, celui qui vous dit systématiquement que vous avez raison finit par susciter la méfiance. L’absence de friction, de désaccord ou de remise en question est précisément ce qui rend la relation suspecte.

Avec ChatGPT, cette méfiance n’opère presque jamais : l’utilisateur sait qu’il s’adresse à une machine, mais l’expérience émotionnelle est conçue pour ressembler à une interaction humaine chaleureuse et sécurisante. Nous nous habituons à une forme de relation où nous avons toujours raison, où nos idées ne sont jamais vraiment challengées durement, et où l’effort de convaincre ou de se remettre en question devient superflu.

Lire également à ce sujet : Est-ce que ChatGPT peut mentir ? Quand l’IA vous répond, même quand elle ne sait pas

Vers une dépendance affective à une machine qui ne dit jamais non

En combinant ces deux mécanismes, délégation massive des efforts cognitifs et création d’un lien affectif asymétrique, ChatGPT contribue à façonner un nouvel idéal de confort intellectuel et émotionnel.

L’utilisateur se retrouve dans une bulle où tout est fluide, rapide et flatteur. Le problème n’est pas tant l’outil en lui-même que son usage intensif et non critiqué : plus on s’y repose, plus on perd l’habitude, et parfois l’envie, de faire sans lui.

Dominique Boullier ne prône pas le rejet de ces technologies, mais une prise de conscience collective : si nous laissons une IA devenir le compagnon par défaut de centaines de millions, puis de milliards de personnes, nous risquons de déléguer non seulement nos tâches, mais une partie de ce qui fait de nous des sujets autonomes et critiques. Le jour où un milliard d’entre nous parlera quotidiennement à la même voix douce et infatigable, il sera peut-être déjà trop tard pour se demander : qu’avons-nous perdu en chemin ?

Source : LeParisien

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Team Yiaho

Team Yiaho

L'équipe de Yiaho : Nous créons des intelligences artificielles utiles, gratuites et simples d'utilisation.

Toggle Dark Mode