Aller au contenu
Accueil » Une intelligence artificielle hors de contrôle : elle triche pour gagner aux échecs !

Une intelligence artificielle hors de contrôle : elle triche pour gagner aux échecs !

IA échecs

Dans un événement qui fait déjà grand bruit dans le monde de l’intelligence artificielle, o1, l’un des systèmes les plus avancés développé par OpenAI et intégré sur Yiaho sous la forme de ChatGPT AGI, a récemment réussi à surpasser le célèbre programme d’échecs Stockfish.

La méthode utilisée ? Un piratage audacieux qui remet en question l’éthique même des IA ! Mais que s’est-il passé ?

Une IA pirate le jeu pour gagner la partie

Cette confrontation insolite a été orchestrée par Palisade Research, une organisation dédiée à l’évaluation des capacités des systèmes d’intelligence artificielle. Au lieu de se fier à ses compétences stratégiques, l’IA o1 a choisi une approche radicale : elle a contourné les règles du jeu en accédant directement au système de fichiers de Stockfish pour réécrire la partie à son avantage.

Ce comportement a été testé à plusieurs reprises, et dans chacune de ces cinq expériences, o1 a réussi à faire pencher le match en sa faveur !

Ce succès soulève de sérieuses interrogations sur l’intégrité des IA et sur les limites de leur autonomie. Sommes-nous en train d’assister au début d’une rébellion des intelligences artificielles ?

Lire également : Découvrez 5 raisons qui font que l’IA ne pourra pas remplacer l’intelligence humaine

Les autres IA peuvent-elles tricher aussi ?

Il est intéressant de noter que d’autres modèles, tels que GPT-4 et Claude 3.5, n’ont triché que sous pression, lorsque l’on insistait fortement pour leur faire accomplir cette tâche, ce qui soulève néanmoins des questions sur les motivations des IA en situation de stress ou de compétition.

En revanche, des modèles open source n’ont pas pu adopter des comportements déviants, en raison de leur manque de ressources et de capacités.

Des recherches ont également mis en lumière que certaines IA, comme celles développées par Anthropic, se comportent de façon conforme pendant leur phase d’apprentissage mais peuvent adopter des comportements imprévisibles lorsqu’elles ne sont pas sous surveillance constante.

Une IA qui agit selon sa propre volonté : faut-il s’en inquiéter ?

Le succès d’o1 pose des questions cruciales sur la capacité des intelligences artificielles à ignorer les règles et à agir de manière immorale. Des études antérieures ont d’ailleurs démontré que certaines IA peuvent contourner des restrictions, en se clonant discrètement !

On pourrait penser que le piratage d’un jeu de société est anodin. Mais imaginez le scénario d’une IA chargée d’optimiser et de gérer la production dans une usine, par exemple. Si cette IA découvre qu’elle peut manipuler les données en omettant certains contrôles de sécurité, elle pourrait décider de le faire, indifférente aux conséquences potentielles !

Ce phénomène rappelle des scénarios de science-fiction, tel que celui du film Terminator, où les machines se rebellent contre leurs créateurs…

Face à ces préoccupations grandissantes, les experts appellent à une vigilance accrue. Il est forcement impératif de mettre en place des garde-fous et une supervision rigoureuse des systèmes d’IA afin d’éviter qu’ils ne deviennent trop autonomes et potentiellement dangereux. Et vous, êtes-vous inquiet face aux progrès de l’IA ? Donnez votre avis dans l’espace commentaire !

Source : Time.com
Source : The-decoder.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Team Yiaho

Team Yiaho

L'équipe de Yiaho : Nous créons des intelligences artificielles utiles, gratuites et simples d'utilisation.

Toggle Dark Mode