Le Parlement européen approuve la première loi globale sur l'IA au monde : en savoir plus

Dans le cadre d'une démarche visant à réglementer l'intelligence artificielle (IA) au sein de l'Union européenne, les membres du Parlement européen (MPE) ont approuvé un accord provisoire sur la loi sur l'intelligence artificielle au niveau des commissions.

L'accord, qui vise à garantir la sécurité et le respect des droits fondamentaux, a reçu un soutien massif lors du vote des commissions du marché intérieur et des libertés civiles mardi, avec un total de 71 voix contre 8 et 7 abstentions.

« Ce règlement vise à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre l’IA à haut risque. Dans le même temps, il vise à stimuler l’innovation et à faire de l’Europe un leader dans le domaine de l’IA. Les règles mettent en place des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact », déclare le Parlement européen.

Cette annonce intervient trois mois après la conclusion d'un accord provisoire sur la proposition de règles harmonisées régissant l'intelligence artificielle (IA) – la loi sur l'intelligence artificielle.

Dispositions clés de la loi sur l'intelligence artificielle (IA)

1. Applications interdites :

L'accord interdit certaines applications d'IA qui menacent les droits des citoyens. Il comprend:

  • Systèmes de catégorisation biométrique basés sur des caractéristiques sensibles
  • Récupération non ciblée d'images faciales provenant d'Internet ou de séquences de vidéosurveillance pour les bases de données de reconnaissance faciale
  • Reconnaissance des émotions sur le lieu de travail et dans les écoles
  • Notation sociale
  • La police prédictive repose uniquement sur le profilage d’une personne ou l’évaluation de ses caractéristiques
  • IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes

2. Exemptions liées à l'application de la loi

L’utilisation de systèmes d’identification biométrique (RBI) par les forces de l’ordre est en principe interdite, sauf dans des situations exhaustivement énumérées et étroitement définies.

Le RBI « en temps réel » ne peut être déployé que sous des garanties strictes, par exemple limitées dans le temps et dans une portée géographique, avec une autorisation judiciaire ou administrative préalable.

Le déploiement post-distance, considéré comme à haut risque, nécessite également une autorisation judiciaire et doit être lié à une infraction pénale.

3. Obligations pour les systèmes à haut risque

La législation impose des obligations claires aux systèmes d’IA à haut risque qui pourraient avoir un impact significatif sur la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit. Ces obligations s'étendent aux infrastructures critiques, à l'éducation, à l'emploi, aux services essentiels, à l'application de la loi, à la gestion des migrations et des frontières, à la justice et aux processus démocratiques. Les citoyens ont le droit de déposer une plainte concernant les systèmes d'IA affectant leurs droits.

4. Exigences de transparence

Les systèmes d'IA à usage général (GPAI) et leurs modèles sous-jacents doivent répondre aux exigences de transparence et se conformer à la loi européenne sur le droit d'auteur pendant la formation. Les modèles plus puissants présentant des risques systémiques seront confrontés à des obligations supplémentaires d’évaluation, d’évaluation des risques et de reporting. De plus, les contenus vidéo artificiels ou manipulés (« deepfakes ») doivent être clairement étiquetés comme tels.

5. Mesures de soutien à l'innovation et aux PME

Des bacs à sable réglementaires et des initiatives de tests réels seront mis en place au niveau national, offrant aux PME et aux startups des opportunités de développer et de former des solutions d'IA innovantes avant leur mise sur le marché.

Même si l'accord provisoire a reçu l'approbation au niveau des commissions, il attend son adoption formelle lors d'une prochaine session plénière du Parlement européen et l'approbation finale du Conseil.

Une fois pleinement adoptée, la loi sur l’intelligence artificielle deviendra applicable dans les 24 mois suivant son entrée en vigueur. Toutefois, certaines dispositions, comme

  • Les interdictions des pratiques interdites s'appliqueront 6 mois après l'entrée en vigueur
  • Les codes de bonnes pratiques s'appliqueront 9 mois après leur entrée en vigueur
  • Les règles générales sur l’IA, y compris la gouvernance, s’appliqueront 12 mois après leur entrée en vigueur
  • Les obligations pour les systèmes à haut risque s'appliqueront dans 36 mois