Les discussions ont duré 3 jours pour aboutir à un texte régulant l'IA dans l'UE qui ménage les positions de chacun. (Crédit : Noname13/Pixabay)
Après plusieurs jours de débat, les institutions européennes se sont accordées sur un texte encadrant l'intelligence artificielle. Cette proposition de règlement tente de ménager l'équilibre entre régulation et innovation, tout en imposant des restrictions et des sanctions.
Le marathon des discussions aura duré presque trois jours, mais l'Union européenne a accouché d'un texte de règlement concernant l'intelligence artificielle. Pour Thierry Breton, commissaire en charge du marché intérieur, et maître d'oeuvre dans les négociations, il s'agit d'un « moment historique ». L'UE est effectivement la première puissance à encadrer cette technologie, mais les débats ont été particulièrement âpres entre ceux qui souhaitaient une régulation souple pour ne pas brider l'innovation et les partisans d'un corpus de contraintes sur l'usage de l'IA.
Preuve des tensions sur ces orientations, le ministre Jean-Noël Barrot a indiqué dans un message que le texte constituait « une étape dans un chantier qui s'est ouvert il y a quatre ans qui nécessite des discussions supplémentaires ». Comme d'autres pays, il appelait à la mise en place de « discussions techniques » pour améliorer certains points. Thierry Breton, lui a répliqué, que l'IA Act est « résolument pro-business » et qu' « il n'est plus ouvert à la discussion ».
Une régulation basée sur les risques
Mais que contient exactement le règlement sur l'intelligence artificielle ? En premier lieu, il impose des obligations en fonction du niveau de risque des systèmes d'IA. Le texte insiste sur ceux jugés à « haut risque » entraînant des préjudices pour la santé, la sécurité, les droits fondamentaux, la démocratie,...Pour ces systèmes, il sera nécessaire de réaliser une analyse d'impact avant la mise sur le marché. Par ailleurs, une obligation de transparence et d'explicabilité des modèles est mise en place.
La question des IA génératives a provoqué le plus de débats. Il est vrai que l'arrivée depuis un an de ChatGPT d'OpenAI a redistribué les cartes et changé la façon d'appréhender la régulation. La France et l'Allemagne étaient plutôt favorables à une auto-régulation pour protéger leurs champions, Mistral AI (qui vient de mener une levée de fonds de 385 M€) et Alep Alpha (soutenu par SAP ou le groupe Schwarz). Mais les parlementaires européens souhaitaient eux plus de contraintes sur les acteurs (majoritairement américains) dominants. Comme souvent dans l'UE, un compromis a été trouvé avec un modulo des obligations en fonction des « risques systémiques » présentés par les modèles d'IA génératives.
Des interdictions et des exceptions
Autre source de tensions, les systèmes d'IA interdits. Les co-législateurs ont arrêté une liste comprenant « les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple : opinions politiques, religieuses, philosophiques, orientation sexuelle, race) ». Il y a aussi l'extraction non ciblée d'images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale. Cela fait notamment référence à la société Clearview, plusieurs fois condamnée en Europe pour ses pratiques de scrapping et de reconnaissance faciale. Les autres interdictions concernent : la reconnaissance des émotions sur le lieu de travail et les établissements d'enseignement, la notation sociale basée sur le comportement ou les caractéristiques personnelles, les systèmes manipulant le comportement humain et exploitant les vulnérabilités des personnes.
À l'ensemble de cette liste, il faut ajouter des exceptions notamment pour les forces de l'ordre. La reconnaissance faciale « à distance » (notamment avec caméra ou drone) est par exemple autorisée « sous réserve d'une autorisation judiciaire préalable et pour des listes d'infractions strictement définie ». Elle concernera « la recherche ciblée d'une personne condamnée ou soupçonnée d'avoir commis un crime grave ». Ce texte donnera certainement lieu à des contentieux où la jurisprudence viendra préciser ces exemptions. Autre domaine bénéficiant d'une exemption, les modèles open source non soumis aux contraintes de transparence. Enfin, une structure de contrôle rattachée à la Commission européenne sera chargée de surveiller la bonne application du texte. En cas de manquement, elle pourra infliger des amendes pouvant aller jusqu'à 35 millions, soit 7 % du chiffre d'affaires mondial. Les États membres vont maintenant travailler sur l'adaptation de leur loi nationale à ce règlement qui devrait rentrer en vigueur en 2026.
Suivez-nous