Aller au contenu
Accueil » Le 2e volet de l’IA ACT entre en application ce samedi 2 août 2025

Le 2e volet de l’IA ACT entre en application ce samedi 2 août 2025

ia_act_2_aout

Ce samedi 2 août 2025 marque une étape clé pour l’intelligence artificielle dans l’Union européenne avec l’entrée en vigueur du deuxième volet de l’IA Act, un an après son adoption.

Ce règlement qui vise à encadrer le développement et l’utilisation de l’IA, impose de nouvelles obligations aux acteurs du secteur tout en posant les bases d’une régulation responsable et transparente.

L’équipe de Yiaho revient sur ce qu’il faut retenir de cette avancée réglementaire et de son impact sur le paysage technologique européen.

IA ACT : Une transparence accrue pour les modèles d’IA

L’un des piliers de ce nouveau chapitre concerne les exigences de transparence imposées aux modèles d’IA à usage général.

Les entreprises devront désormais fournir des informations détaillées sur les données utilisées pour entraîner leurs algorithmes, y compris celles protégées par des droits d’auteur. Cette mesure vise à protéger les créateurs de contenus en leur permettant d’identifier si leurs œuvres ont été utilisées et, le cas échéant, de demander une juste rémunération. Une avancée significative pour les ayants droit, qui disposeront d’outils concrets pour faire valoir leurs droits.

Pour les modèles d’IA les plus puissants, qualifiés de « porteurs de risques systémiques », les règles vont plus loin.

Ces technologies, capables d’influencer des systèmes entiers à grande échelle, devront se soumettre à des obligations strictes, comme la notification rapide des incidents graves et la mise en place de mécanismes robustes pour gérer les risques. Cette approche vise à garantir que l’IA reste un outil sûr et maîtrisé, même dans ses applications les plus avancées.

Lire également : IA ACT : 45 entreprises demandent un report du règlement européen sur l’IA

Quelle IA adhère au code de bonnes pratiques de l’IA ACT ?

L’AI Act introduit également un « code de bonnes pratiques », un ensemble de recommandations destiné à faciliter la mise en conformité des entreprises. Les signataires de ce code bénéficieront d’une charge administrative allégée pour démontrer leur respect des normes européennes.

Ce guide, publié le 10 juillet 2025, détaille les attentes en matière de transparence (description des modèles, méthodes d’entraînement, limites), de respect des droits d’auteur et de sécurité (tests rigoureux, cybersécurité).

Plusieurs acteurs majeurs de l’IA ont déjà annoncé leur intention de s’engager.

En revanche, Meta a choisi de ne pas s’aligner, critiquant une régulation qu’elle juge trop restrictive et source d’incertitudes juridiques.

Des sanctions lourdes à l’horizon

L’AI Act ne se contente pas de poser des règles : il prévoit des mécanismes de contrôle et des sanctions pour garantir leur respect. À partir du 2 août 2026, les nouveaux modèles d’IA devront se conformer pleinement au règlement, tandis que les modèles existants auront jusqu’en 2027 pour s’adapter.

Les États membres, dès ce samedi, doivent désigner leurs autorités de surveillance. En France, la Cnil pourrait endosser ce rôle, avec pour mission de veiller à l’application des règles.

Les entreprises qui ne respecteraient pas ces obligations s’exposent à des amendes conséquentes : jusqu’à 35 millions d’euros ou 7 % de leur chiffre d’affaires annuel mondial. Une menace financière significative, qui souligne l’engagement de l’UE à faire respecter cette législation.

Voir aussi à ce sujet : L’IA Act : un cadre juridique trop contraignant pour l’IA en Europe ?

Un équilibre entre innovation et responsabilité

Avec ce deuxième volet de l’AI Act, l’Union européenne cherche à concilier innovation technologique et protection des citoyens. En imposant des règles claires, elle vise à créer un environnement où l’IA peut se développer tout en respectant les droits fondamentaux et en minimisant les risques. Si certains géants technologiques, comme Meta, y voient un frein à l’innovation, d’autres y perçoivent une opportunité de bâtir une IA plus éthique et transparente.

Ce 2 août 2025 marque donc un tournant pour le secteur de l’IA en Europe. Reste à voir comment les entreprises s’adapteront à ces nouvelles exigences et si ce cadre réglementaire deviendra un modèle pour d’autres régions du monde. Une chose est sûre : l’IA européenne entre dans une nouvelle ère, où la transparence et la responsabilité seront au cœur des débats.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Glen

Glen