Aller au contenu
Accueil » La Chine va encadrer les IA « compagnons » et les chatbots trop humains

La Chine va encadrer les IA « compagnons » et les chatbots trop humains

ia_compagnons_chine_interdit

La Chine resserre nettement la vis sur les intelligences artificielles qui cherchent à ressembler trop à des êtres humains.

Le 27 décembre 2025, l’Administration du cyberespace a publié un projet de règles particulièrement strictes visant les systèmes qu’elle appelle « services d’interaction anthropomorphique » : tous ces chatbots, compagnons virtuels, personnages de rôle ou « partenaires » numériques qui imitent les émotions, le ton, l’humour, la tendresse ou même les failles de caractère propres aux personnes réelles.

Interdire les « IA humaines » ?

L’objectif affiché est clair et assumé : empêcher que des millions d’utilisateurs ne développent des liens affectifs profonds et prolongés avec une entité qui n’existe pas.

Pour y parvenir, les plateformes concernées devront désormais intégrer des mécanismes techniques capables de repérer les signes d’états émotionnels extrêmes, de dépendance affective ou d’usage compulsif. Dès que le système détecte ce genre de comportement, il devra réagir.

Plus frappant encore, les autorités exigent que l’illusion d’une relation authentique soit régulièrement et ouvertement brisée.

Les utilisateurs devront être rappelés, de manière claire et sans ambiguïté, qu’ils s’adressent à une machine. Cela pourrait prendre la forme de notifications périodiques, de mentions toujours visibles ou d’interruptions explicites dans la conversation qui cassent le rôle en cours.

Toutes les IA sont concernées

Tout service qui dépasse un certain volume d’utilisateurs ou qui est considéré comme ayant un impact social important devra, avant tout déploiement à grande échelle, soumettre une évaluation de sécurité très complète.

Celle-ci portera sur l’architecture profonde du modèle, la manière dont les données ont été collectées et utilisées, les protections accordées à la vie privée des utilisateurs ainsi que les outils de surveillance et d’intervention en temps réel.

Lire également : Et si la bulle de l’IA explosait à cause de la Chine ?

Et les « IA compagnons » en Europe ?

Cette approche tranche fortement avec celle de l’Europe.

Avec l’AI Act adopté en 2024, Bruxelles a choisi d’interdire purement et simplement les systèmes jugés à risque inacceptable, notamment ceux qui exploitent de façon systématique la vulnérabilité de certaines personnes ou qui cherchent délibérément à créer une dépendance.

Pour les autres applications à haut risque, l’accent est mis sur des évaluations préalables, une grande transparence et un suivi continu, mais sans imposer cette obligation systématique de rappeler à l’utilisateur qu’il parle à une intelligence artificielle.

La différence de philosophie saute aux yeux.

Là où Pékin voit avant tout un risque de déstabilisation sociale et de fragilisation collective, Bruxelles cherche surtout à protéger les droits fondamentaux de chaque individu et à empêcher les abus les plus manifestes. La Chine semble considérer que le véritable danger réside dans le lien émotionnel lui-même lorsqu’il se généralise à grande échelle, tandis que l’Europe préfère juger au cas par cas et intervenir surtout quand la machine devient un outil d’exploitation ou de manipulation.

Deux continents, deux visions du monde, une même question qui devient chaque jour plus pressante : à quel point une machine a-t-elle le droit de devenir le confident, l’ami, le confident intime ou le substitut affectif de millions d’êtres humains ?

La réponse chinoise, pour l’instant, est sans appel : pas trop près, et jamais trop longtemps sans qu’on le rappelle.

Source : La Tribune

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Glen

Glen