Du marathon de négociation à l’atteinte d’une étape importante : de A à Z de la loi européenne sur l’IA

Après s'être engagés dans des « négociations marathon » approfondies de trois jours, les négociateurs de la présidence du Conseil et du Parlement européen sont parvenus, samedi 9 décembre, à un accord provisoire sur la proposition de règles harmonisées régissant l'intelligence artificielle (IA) — l'intelligence artificielle Acte.

Le projet de règlement vise à garantir la sécurité et le respect des droits fondamentaux et des valeurs de l’UE des systèmes d’IA vendus et utilisés dans l’UE.

Le Conseil affirme que cette proposition vise également à stimuler l’investissement et l’innovation dans l’IA en Europe.

Promouvoir le développement et l’adoption d’une IA sûre

La loi sur l'IA est une initiative législative qui vise à promouvoir le développement et l'adoption d'une IA sûre parmi les entités publiques et privées du marché unique de l'UE.

L'approche « basée sur les risques » propose de réglementer l'IA en fonction de son potentiel à nuire à la société, avec des règles plus strictes pour les scénarios à plus haut risque.

En tant que première proposition législative de ce type au monde, elle peut établir une norme mondiale pour la réglementation de l'IA dans d'autres juridictions, tout comme l'a fait le RGPD, promouvant ainsi l'approche européenne de la réglementation technologique sur la scène mondiale.

« Il s’agit d’une réalisation historique et d’une étape importante vers l’avenir ! L'accord d'aujourd'hui répond efficacement à un défi mondial dans un environnement technologique en évolution rapide dans un domaine clé pour l'avenir de nos sociétés et de nos économies. Et dans cette entreprise, nous avons réussi à maintenir un équilibre extrêmement délicat : stimuler l’innovation et l’adoption de l’intelligence artificielle dans toute l’Europe tout en respectant pleinement les droits fondamentaux de nos citoyens », déclare Carme Artigas, secrétaire d’État espagnole chargée de la numérisation et de l’intelligence artificielle.

Les principaux éléments de l'accord provisoire

Par rapport à la proposition initiale de la Commission, les principaux nouveaux éléments de l'accord provisoire peuvent être résumés comme suit :

  • règles sur les modèles d'IA à usage général à fort impact qui c
  • une cause de risque systémique à l’avenir, ainsi que sur les systèmes d’IA à haut risque
  • un système de gouvernance révisé avec certains pouvoirs d'exécution au niveau de l'UE
  • extension de la liste des interdictions mais avec la possibilité d'utiliser l'identification biométrique à distance par les forces de l'ordre dans les espaces publics, sous réserve de garanties
  • une meilleure protection des droits grâce à l’obligation pour les déployeurs de systèmes d’IA à haut risque de procéder à une évaluation d’impact sur les droits fondamentaux avant de mettre en service un système d’IA.

Distinguer l'IA des logiciels plus simples

Afin de garantir des critères clairs permettant de distinguer l’IA des systèmes logiciels plus simples, l’accord aligne la définition d’un système d’IA sur l’approche proposée par l’OCDE.

Il souligne également que le règlement ne s'applique pas aux domaines ne relevant pas du champ d'application du droit de l'UE ou des compétences des États membres en matière de sécurité nationale ou de défense.

De plus, la loi sur l’IA ne s’applique pas aux systèmes d’IA utilisés exclusivement à des fins militaires, de défense ou non professionnelles.

Classification des systèmes d'IA à haut risque et des pratiques interdites

L'accord provisoire introduit un système de classification des systèmes d'IA en fonction de leur niveau de risque.

Les systèmes d’IA à haut risque, ainsi que les modèles d’IA à usage général à fort impact susceptibles de générer un risque systémique à l’avenir, seront soumis à des exigences et des obligations plus strictes.

En revanche, les systèmes d’IA présentant un risque limité auront des obligations de transparence plus légères.

L’accord interdit également certaines pratiques d’IA, telles que la manipulation cognitivo-comportementale, la récupération non ciblée d’images faciales, la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, la notation sociale, la catégorisation biométrique et certains cas de police prédictive des individus.

Exceptions pour les autorités chargées de l'application de la loi

Compte tenu des particularités des autorités répressives et de la nécessité de préserver leur capacité à utiliser l’IA dans leur travail vital, plusieurs modifications de la proposition de la Commission concernant l’utilisation des systèmes d’IA à des fins répressives ont été convenues.

Tout en garantissant des garanties appropriées, ces dispositions permettent le déploiement d’outils d’IA à haut risque par les forces de l’ordre dans des situations d’urgence.

Cependant, des mécanismes sont introduits pour protéger les droits fondamentaux contre une éventuelle utilisation abusive des systèmes d’IA.

L'utilisation de systèmes d'identification biométrique à distance en temps réel dans les espaces accessibles au public est également soumise à des garanties strictes et limitée à des fins spécifiques d'application de la loi.

Systèmes d'IA à usage général et modèles de base

Selon le Conseil européen, de nouvelles dispositions ont été ajoutées aux situations dans lesquelles les systèmes d’IA peuvent être utilisés à de nombreuses fins différentes (IA à usage général) et dans lesquelles la technologie d’IA à usage général est ensuite intégrée dans un autre système à haut risque.

L’accord provisoire aborde également les cas spécifiques des systèmes d’IA à usage général (GPAI).

Les modèles de base, capables d'effectuer un large éventail de tâches (telles que générer des vidéos, des textes, des images, converser dans un langage latéral, calculer ou générer du code informatique), doivent se conformer aux obligations de transparence avant d'entrer sur le marché.

Des règles plus strictes s’appliquent aux modèles de fondations à fort impact, dotés d’une complexité avancée et de capacités de diffusion des risques systémiques.

Bureau d'IA, comité scientifique et plus encore

La nécessité d’une application au niveau de l’UE devient évidente avec l’introduction de nouvelles règles sur les modèles d’IA à usage général.

Un bureau d’IA sera créé au sein de la Commission pour superviser ces modèles d’IA avancés. Ce bureau contribuera à l'élaboration de normes, de pratiques de test et à l'application de règles communes.

Un groupe scientifique d’experts indépendants conseillera l’AI Office sur divers aspects des modèles d’IA. Le Conseil d’AI, composé de représentants des États membres, servira de plateforme de coordination et d’organe consultatif.

En outre, un forum consultatif sera créé pour fournir l'expertise technique des représentants de l'industrie, des PME, de la société civile et du monde universitaire.

Pénalités et conformité

L'accord prévoit des amendes en cas de violation de la loi sur l'IA, basées sur un pourcentage du chiffre d'affaires annuel mondial de l'entreprise fautive ou un montant prédéterminé.

Il s'agirait de 35 millions d'euros, soit 7 pour cent, pour les violations des applications d'IA interdites, de 15 millions d'euros, ou 3 pour cent, pour les violations des obligations de la loi sur l'IA, et de 7,5 millions d'euros, soit 1,5 pour cent, pour la fourniture d'informations incorrectes.

L'accord provisoire prévoit toutefois des plafonds plus proportionnés aux amendes administratives pour les PME et les start-ups en cas de violation des dispositions de la loi sur l'IA.

Transparence et droits fondamentaux

L’accord provisoire prévoit une évaluation d’impact sur les droits fondamentaux avant que ses déployeurs ne mettent sur le marché un système d’IA à haut risque.

L’accord provisoire prévoit également une transparence accrue concernant les systèmes d’IA à haut risque.

Certaines dispositions de la proposition de la Commission ont notamment été modifiées pour indiquer que certains utilisateurs de systèmes d’IA à haut risque qui sont des entités publiques seront également obligés de s’inscrire dans la base de données de l’UE pour les systèmes d’IA à haut risque.

De plus, des dispositions nouvellement ajoutées mettent l'accent sur l'obligation pour les utilisateurs d'un système de reconnaissance des émotions d'informer les personnes physiques lorsqu'elles sont exposées à un tel système.

Établir des bacs à sable réglementaires

Afin de promouvoir un environnement favorable à l’innovation, l’accord comprend des mesures visant à soutenir l’innovation dans le domaine de l’IA.

Des bacs à sable réglementaires seront créés pour créer un environnement contrôlé pour développer et tester des systèmes d'IA innovants.

Les tests de systèmes d’IA dans des conditions réelles seront également autorisés sous conditions et garanties spécifiques.

L'accord reconnaît la charge administrative des petites entreprises et fournit une liste d'actions de soutien et de dérogations limitées pour alléger cette charge.

Entrée en vigueur

L'accord provisoire prévoit que la loi sur l'IA devrait s'appliquer deux ans après son entrée en vigueur, avec quelques exceptions pour des dispositions spécifiques.

Suite à l'accord provisoire, d'autres travaux techniques seront menés pour finaliser les détails du règlement.

Le texte de compromis sera soumis aux représentants des États membres pour approbation.

L'accord fera ensuite l'objet d'une révision juriste-linguiste avant son adoption formelle par les colégislateurs.

IBM sur la loi européenne sur l'IA

Concernant la loi historique de l'UE sur l'IA, le géant de la technologie IBM déclare : « IBM félicite les négociateurs de l'UE d'être parvenus à un accord provisoire sur la première législation globale sur l'IA au monde. Nous exhortons depuis longtemps l’UE à adopter une approche soigneusement équilibrée, axée sur la réglementation des applications à haut risque de l’IA tout en promouvant la transparence, l’explicabilité et la sécurité de tous les modèles d’IA. Alors que les législateurs travaillent sur les détails techniques restants, nous encourageons les décideurs politiques de l’UE à continuer de se concentrer sur le risque et la responsabilité, plutôt que sur les algorithmes.

« Nous partageons les objectifs consistant à permettre le développement sûr et fiable de l'IA et à créer un écosystème d'IA ouvert et pro-innovation, et reconnaissons que le gouvernement et l'industrie ont un rôle à jouer », déclare l'entreprise.
Récemment, la société a annoncé watsonx.governance pour fournir aux organisations la boîte à outils dont elles ont besoin pour gérer les risques, adopter la transparence et anticiper la conformité à une réglementation axée sur l'IA comme celle-ci.