L’intelligence artificielle (IA) est en plein essor, mais son utilisation comporte aussi des risques et des limites qui soulèvent des inquiétudes. Pour y répondre, l’Union Européenne vient d’adopter une nouvelle législation pionnière: la loi IA Act. Son objectif est d’encadrer l’utilisation de l’IA au sein de l’UE afin de protéger les droits des citoyens tout en permettant l’innovation. Décryptage de cette réglementation inédite qui entrera en vigueur en 2026.
L’IA Act, première loi au monde dédiée à l’IA
Proposée dès avril 2021 par la Commission Européenne, l’Artificial Intelligence Act a finalement été validée par les eurodéputés le 21 mai 2024, après plusieurs ajustements. Cette loi est une première mondiale: aucune autre législation n’existe à ce jour pour réguler spécifiquement l’intelligence artificielle.
L’objectif de l’IA Act est de garantir que les systèmes d’IA déployés dans l’UE respectent les droits fondamentaux et les valeurs européennes comme la protection des données personnelles. Elle vise à permettre un développement de l’IA éthique, sûr et centré sur l’humain.
Qui sera concerné par la loi IA Act ?
Toutes les entreprises qui fournissent ou utilisent des systèmes d’IA au sein de l’Union Européenne seront soumises à cette nouvelle réglementation :
- Les fournisseurs et utilisateurs de systèmes d’IA, qu’ils soient basés dans l’UE ou dans un pays tiers
- Les entreprises qui prévoient de déployer des systèmes d’IA à haut risque dans l’UE
- Les acteurs non-européens proposant des solutions d’IA à haut risque sur le marché européen
Une approche basée sur les risques
La Commission a défini 4 niveaux de risques liés à l’utilisation de l’IA, auxquels correspondent des obligations graduées :
🚨 Risque inacceptable (ex : systèmes de notation sociale) : interdiction pure et simple.
⚠️ Risque élevé (ex : systèmes de recrutement, d’évaluation de crédit…) : obligations strictes avant mise sur le marché (enregistrement, documentation, transparence…)
🟡 Risque limité (IA générative, agents conversationnels, deepfakes…) : obligations de transparence.
✅ Risque minimal (ex: filtres anti-spam, IA dans les jeux vidéo) : pas d’obligations mais des codes de conduite volontaires encouragés.
Comment se mettre en conformité ?
Les fournisseurs de systèmes d’IA à haut risque devront notamment :
- S’enregistrer dans la base de données européenne et obtenir le marquage CE
- Mettre en place un système de gestion des risques et de la qualité
- Garantir la fiabilité, sécurité et traçabilité des systèmes, avec une documentation technique à l’appui
- Améliorer la gestion des données et le contrôle humain
Les IA génératives type ChatGPT sont considérées comme à risque limité. Elles devront principalement respecter des obligations de transparence (fournir des résumés des jeux de données utilisés, etc.)
Quelles sanctions en cas de non-respect ?
L’IA Act prévoit des amendes pouvant aller jusqu’à 30 millions d’euros ou 6% du chiffre d’affaires mondial, ainsi qu’un possible retrait du marché pour les systèmes non-conformes. De quoi pousser les acteurs de l’IA à une mise en conformité rapide d’ici l’entrée en vigueur de la loi en 2026.
Quelle portée pour cette nouvelle réglementation ?
Si certains craignent des freins à l’innovation, la Commission Européenne y voit au contraire un moyen de favoriser une IA de confiance, propice au développement économique et en phase avec les valeurs européennes.
L’IA Act est une opportunité de promouvoir l’innovation responsable et de positionner l’Europe comme leader mondial d’une IA éthique et de confiance.
Margrethe Vestager, vice-présidente de la Commission européenne
Cette loi pionnière pourrait bien inspirer d’autres régions du monde et marquer un tournant vers une régulation globale de l’IA, dans l’intérêt de tous. Les entreprises actives dans ce domaine doivent donc dès maintenant anticiper sa mise en application pour transformer la contrainte réglementaire en avantage compétitif.
Abonnez-vous à notre newsletter pour recevoir les derniers articles directement dans votre boîte mail.
Commentaires