L’intelligence artificielle est en train de transformer en profondeur notre monde. Les analystes imaginent de nouveaux environnements de travail, des emplois menacés et un bouleversement sans précédent pour le 21e siècle.
Face à cette révolution technologique, l’Union européenne a adopté un cadre juridique ambitieux : l’IA Act.
Ce règlement, entré en vigueur en août 2024, vise à réguler le développement et l’utilisation de l’IA afin de garantir la protection des citoyens et le respect de leurs droits fondamentaux. Voyons cela ensemble :
Qu’est-ce que l’IA Act ?
L’IA Act, ou Règlement sur l’intelligence artificielle, est un texte législatif européen. Il s’agit du premier règlement au monde visant à établir un cadre juridique complet pour le développement et l’utilisation de l’intelligence artificielle. Nous avons déjà abordé ce sujet dans cet article. Mais aujourd’hui, l’IA ACT est très souvent critiqué pour sa rigidité et serait vu comme un frein à l’innovation.
L’objectif principal de l’IA Act est de garantir que les systèmes d’IA déployés sur le marché européen respectent les valeurs de l’Union européenne. Ce règlement vise à encadrer le développement et le déploiement de l’IA de manière à garantir la protection des citoyens et le respect de leurs droits fondamentaux.
Quand l’IA Act est-elle entrée en vigueur ?
L’IA Act est déjà entré en vigueur le 1er août 2024. Cette date marque un tournant historique dans la régulation de l’IA à l’échelle mondiale. Cela signifie que les entreprises et les organisations qui développent ou utilisent des systèmes d’IA doivent désormais se conformer aux nouvelles règles établies par ce règlement.
Lire également : L’IA est-elle du plagiat ? Voici ce que dit la loi
Qui a adopté l’IA Act ?
L’IA Act a été adoptée par les institutions de l’Union européenne, à savoir ;
- Le Parlement européen : Il a joué un rôle central dans la négociation et l’adoption du texte final, en veillant à ce que les intérêts des citoyens soient pris en compte. Les députés européens ont voté en faveur de l’adoption de l’IA Act, soulignant ainsi l’importance de réguler cette technologie émergente.
- Le Conseil de l’Union européenne : Il représente les États membres et a contribué à trouver un consensus entre les différents pays. Les États membres ont ainsi donné leur accord sur les règles communes qui s’appliqueront à l’ensemble de l’Union européenne.
- La Commission européenne : Elle a proposé initialement le projet de règlement et a piloté les négociations. La Commission a joué un rôle moteur dans l’élaboration de ce texte législatif ambitieux.
Comment l’IA Act classifie-t-elle les systèmes d’IA ?
L’IA Act distingue quatre niveaux de risque associés aux systèmes d’IA :
- Risque inacceptable : Les systèmes d’IA qui manipulent des personnes, notamment des enfants, ou qui exploitent des vulnérabilités sont interdits.
- Risque élevé : Les systèmes d’IA qui peuvent avoir des conséquences significatives sur la sécurité ou les droits fondamentaux des personnes sont soumis à des obligations strictes (ex : santé, justice, emploi).
- Risque limité : Les systèmes d’IA qui présentent un risque limité sont soumis à des obligations moins strictes, mais doivent néanmoins respecter des principes généraux (ex : transparence, non-discrimination).
- Risque minimal : Les systèmes d’IA qui présentent un risque minimal ne sont pas soumis à des obligations spécifiques.
Il y a t-il une « règle ChatGPT » de l’IA Act ?
Il n’existe pas de « règle ChatGPT » spécifique mentionnée explicitement dans l’IA Act.Cependant, les modèles de langage comme ChatGPT sont généralement classés dans la catégorie des systèmes à « risque limité ».
Cela signifie qu’ils sont soumis à des obligations de transparence, de qualité des données et de supervision humaine.
L’IA Act impose notamment que les utilisateurs soient informés lorsqu’ils interagissent avec un système d’IA et que les données utilisées pour entraîner ces modèles soient de haute qualité et ne soient pas biaisées. Cependant, ce texte a suscité des rumeurs en ligne, notamment l’idée que ChatGPT sera interdit en 2025, ce qui est totalement faux.
Ce que l’IA Act interdit :
L’IA Act interdit catégoriquement les systèmes d’IA qui :
- Manipulent des personnes : Par exemple, des systèmes conçus pour exploiter les vulnérabilités des individus, en particulier les enfants.
- Notent socialement des individus : Les systèmes qui attribuent un score social aux personnes en fonction de leur comportement ou de leurs caractéristiques personnelles sont interdits.
- Utilisent des données biométriques en temps réel dans les espaces publics à des fins d’identification : Cela inclut la reconnaissance faciale dans la rue, sauf dans des cas très spécifiques et sous des conditions strictes.
- Créent des systèmes de notation de crédit social : Les systèmes qui évaluent la fiabilité d’une personne en fonction de son comportement social sont interdits.
Voir aussi : Quels métiers sont menacés par l’intelligence artificielle ?
Les inconvénients potentiels de l’IA Act
Si l’IA Act est une avancée majeure dans la régulation de l’IA, elle soulève également certaines questions :
- Un frein à l’innovation :
L’IA Act, bien qu’il vise à garantir un développement sûr et éthique de l’intelligence artificielle en Europe, pourrait également risquer de freiner l’innovation dans ce secteur. Un cadre réglementaire jugé trop strict pourrait particulièrement pénaliser les petites entreprises, limitant ainsi leur capacité à innover et à se développer dans le domaine de l’IA.
- Compétitivité internationale :
L’IA Act pourrait placer les entreprises européennes dans une situation défavorable par rapport à leurs concurrents américains et chinois, qui ont des réglementations moins strictes.
- Complexité de mise en œuvre :
Le règlement est complexe et sa mise en œuvre nécessitera des efforts importants de la part des entreprises et des autorités publiques.
L’IA Act est une législation novatrice conçue pour assurer un développement sûr et éthique de l’intelligence artificielle en Europe. En intégrant les diverses institutions européennes, il établit une approche cohérente et ambitieuse pour réguler l’IA.
Ce texte cherche à trouver un juste équilibre entre la protection des citoyens et la promotion de l’innovation. Mais la réglementation européenne en matière d’IA pourrait-elle constituer un frein technologique pour l’Europe au XXIe siècle ? Partagez votre opinion dans les commentaires !
On va dans le mur !
Retour de ping : ChatGPT : Quelle version choisir entre 3.5, 4, 4o et o1 ?