Mercredi 22 octobre 2025, un cri d’alarme a été lancé par plus de 800 figures influentes issues de la science, de la politique, de la technologie et même du monde du spectacle.
Leur message est clair : il faut stopper le développement de la superintelligence artificielle (IA), une technologie capable de dépasser les capacités humaines, tant que des garanties de sécurité et un consensus global ne sont pas établis.
Une initiative portée par le Future of Life Institute, un organisme américain dédié à l’étude des risques technologiques, qui met en lumière les inquiétudes croissantes face à une avancée jugée aussi prometteuse que périlleuse.
Une superintelligence à l’horizon et un futur incertain ?
L’appel intervient dans un contexte où les progrès de l’IA s’accélèrent à un rythme vertigineux. Sam Altman, PDG d’OpenAI et figure emblématique du secteur, a récemment déclaré, lors d’un événement organisé par le groupe Axel Springer en septembre, que la superintelligence pourrait devenir réalité d’ici cinq ans.
Une IA surpassant l’intelligence humaine pourrait révolutionner la médecine, l’éducation ou encore l’industrie, mais elle pourrait aussi échapper à tout contrôle, avec des conséquences potentiellement catastrophiques.
Une coalition hétéroclite, unie par une cause commune
Ce qui rend cet appel particulièrement frappant, c’est la diversité des signataires. Parmi eux, des sommités scientifiques comme :
- Geoffrey Hinton, lauréat du prix Nobel de physique 2024,
- Stuart Russell, expert en informatique à l’université de Californie à Berkeley,
- Yoshua Bengio, professeur à l’université de Montréal, tous trois reconnus pour leurs contributions majeures à l’IA.
Des entrepreneurs technologiques comme :
- Steve Wozniak, cofondateur d’Apple,
- Richard Branson, à la tête du groupe Virgin, se joignent à l’appel.
Le monde politique n’est pas en reste, avec des figures comme :
- Steve Bannon, ex-conseiller de Donald Trump,
- Susan Rice, ancienne conseillère à la sécurité nationale sous Barack Obama.
Même des personnalités religieuses, comme Paolo Benanti, expert en IA auprès du Vatican, et des célébrités, telles que le chanteur will.i.am ou le couple princier Harry et Meghan Markle, ont apporté leur soutien.
Un message clair : prudence avant tout
L’initiative, relayée par le Future of Life Institute, insiste sur la nécessité d’un moratoire. « Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population », déclare l’organisation.
Ce plaidoyer repose sur une idée centrale : l’humanité doit avancer avec précaution face à une technologie dont les implications restent largement imprévisibles.
Cette mobilisation pose la question de la responsabilité collective face à une innovation qui redéfinit les frontières de l’humain. Alors que les laboratoires du monde entier, d’OpenAI à xAI, repoussent les limites de l’intelligence artificielle, cet appel invite à une réflexion globale. Faut-il ralentir pour mieux anticiper ? La réponse, selon ces 800 signataires, semble être un oui retentissant.
Source : superintelligence-statement.org


