Intelligence artificielle : vers une gouvernance responsable ?

Réglementer l'IA européenne face aux risques de dérive - Photo Freepik

Intelligence artificielle : vers une gouvernance responsable ?

Alors que l’Union européenne a adopté l’AI Act le premier août dernier, le deuxième projet de Code de conduite pour les modèles d’IA à usage général vient d'être publié. Que préconise-t-il ?

J’achète l’article 1.5 €

Par Alexandre Duval-Stalla
Créé le 25.03.2025 à 15h56

Le développement rapide et exponentiel des modèles d’intelligence artificielle (IA) à usage général, notamment les modèles génératifs de grande envergure, suscite des interrogations majeures sur le plan éthique, juridique et sociétal. Afin d’encadrer ces technologies tout en favorisant l’innovation, l’Union européenne a adopté l’AI Act, entré en vigueur le 1er août 2024. Dans ce contexte réglementaire, le projet de Code de conduite pour les modèles d’IA à usage général, dont la deuxième version a été publiée récemment, s’inscrit comme un outil non contraignant mais structurant. Il a pour objectif d’aider les fournisseurs de modèles à usage général, y compris ceux présentant un risque systémique, à se conformer aux exigences du cadre législatif européen.

Un code collaboratif

Ce document, élaboré de manière collaborative par quatre groupes de travail (Transparence et règles relatives au droit d'auteur, Évaluation des risques systémiques, Atténuation du risque technique pour le risque systémique et Atténuation des risques de gouvernance pour le risque systémique) réunissant des experts issus du monde universitaire, de l’industrie, des institutions publiques et de la société civile, s'organise autour de trois éléments fondamentaux : les engagements (commitments), les mesures concrètes (measures), et les indicateurs de performance clés (Key Performance Indicators - KPIs). Ces éléments visent à fournir des lignes directrices claires aux acteurs concernés tout en garantissant la transparence, la traçabilité, la responsabilité et la sécurité des modèles d’IA.

Transparence, droits d’auteurs et risques systémiques

En premier lieu, le Code promeut un principe de transparence renforcée. Les fournisseurs doivent documenter de manière précise et actualisée l’ensemble des éléments relatifs à leurs modèles, incluant sa structure, les données utilisées pour l’entraînement, la validation et le test, les performances obtenues, les usages prévus, les limites fonctionnelles, ainsi que les ressources informatiques et énergétiques mobilisées. Cette documentation permet non seulement de répondre aux exigences réglementaires, mais aussi de faciliter la compréhension et l’intégration des modèles par les fournisseurs d’applications en aval.

En second lieu, le Code accorde une place centrale au respect du droit d’auteur (conformément à la directive [UE] 2019/790), les signataires s’engageant à identifier les contenus protégés utilisés lors de l’entraînement des modèles et à respecter les signaux de réserve de droits exprimés par les titulaires. Il leur incombe également de prendre des mesures pour éviter l’overfitting, c’est-à-dire la reproduction d’œuvres protégées dans les contenus générés. Une politique interne de respect du droit d’auteur doit être mise en place, accompagnée d’un point de contact pour le traitement des plaintes émanant des ayants droit.

Le troisième axe concerne spécifiquement les modèles d’IA présentant un risque systémique. Ceux-ci, en vertu de leur impact potentiel sur la santé publique, la sécurité, les droits fondamentaux ou l’ordre social, doivent faire l’objet d’une évaluation continue et approfondie. Le Code propose une taxonomie des risques systémiques, incluant notamment les menaces liées à la cybersécurité, à la manipulation de masse, à la discrimination algorithmique, à la perte de supervision humaine ou encore à la prolifération d’armes. Il insiste également sur l’importance d’analyser les capacités intrinsèques du modèle, ses propensions comportementales ainsi que le contexte de son déploiement, afin de détecter et atténuer les risques en amont.

Vers une IA européenne sûre, éthique et digne de confiance ?

La philosophie générale du Code repose sur plusieurs principes directeurs, parmi lesquels l’alignement sur les valeurs et le droit de l’Union européenne, la proportionnalité des obligations en fonction du risque et de la taille des acteurs, la possibilité d’adaptation aux évolutions technologiques et le soutien à l’écosystème européen de l’IA, y compris les petites et moyennes entreprises. Ces principes visent à garantir un équilibre entre exigence de régulation et encouragement à l’innovation.

Cette deuxième version du Code demeure provisoire et fera l’objet de consultations supplémentaires. La version finale, attendue pour le 2 mai 2025, devra tenir compte des retours des parties prenantes et des évolutions scientifiques, techniques et sociétales. L’ambition de ses rédacteurs n’est pas seulement de constituer un instrument de conformité, mais de favoriser une intelligence artificielle sûre, éthique et digne de confiance au sein du marché européen.

Alexandre Duval-Stalla

Olivier Dion - Alexandre Duval-Stalla

Les dernières
actualités