Aller au contenu

L’Union européenne a mené à bien les négociations sur la toute première loi consacrée à l’intelligence artificielle, connue sous le nom de loi sur l’IA. Ce cadre législatif vise à garantir la sécurité et l’utilisation éthique des systèmes d’IA tout en respectant les valeurs et droits fondamentaux de l’UE. L’accord, conclu à l’issue de délibérations approfondies entre le Conseil et le Parlement européen, positionne l’UE en tant que chef de file mondial en matière de réglementation de l’IA, créant ainsi un précédent pour d’autres juridictions.

Pourquoi la pression pour une loi sur l'IA?

L’IA, bien qu’elle ne soit pas nouvelle, a connu des avancées transformatrices alimentées par une puissance de calcul accrue, des données abondantes et des logiciels de pointe. Son intégration dans la vie quotidienne est évidente dans des applications telles que l'assistance virtuelle, les diagnostics médicaux, les traductions automatisées, les outils de navigation, le contrôle de la qualité de la fabrication et la prévision des catastrophes naturelles. 

L'impact multiforme de l'IA s'étend à la promotion de l'innovation, de l'efficacité, de la durabilité et de la compétitivité dans l'économie. Simultanément, il joue un rôle crucial dans l'amélioration de la sécurité, de l'éducation et des soins de santé, contribuant ainsi à la lutte mondiale contre le changement climatique. Reconnaissant la double nature de l’IA, l’UE défend son développement tout en soulignant l’importance de pratiques éthiques et centrées sur l’humain pour atténuer les risques potentiels.

Principaux points de la législation de l’UE sur l’IA

La loi sur l’IA classe les systèmes d’IA en quatre niveaux de risque, avec les règles et obligations correspondantes. Plus le risque associé à une application d'IA est élevé, plus la réglementation est stricte.

  • Risques nuls ou minimes: La majorité des systèmes d'IA, qui présentent peu ou pas de risques, ne seront pas soumis à des réglementations, ce qui leur permettra de continuer à être utilisés.
  • Risques limités: Les systèmes d’IA présentant des risques limités seront soumis à de légères obligations de transparence, telles que la divulgation du fait que leur contenu est généré par l’IA.
  • Risques élevés: Les systèmes d’IA à haut risque seront autorisés, assortis d’exigences et d’obligations spécifiques en matière d’accès au marché.
  • Risques inacceptables: Certaines applications de l’IA, y compris la manipulation cognitivo-comportementale, la police prédictive, la reconnaissance des émotions sur les lieux de travail et dans les établissements d’enseignement, et la notation sociale, sont jugées inacceptables et seront interdites dans l’UE. La reconnaissance faciale pour l'identification biométrique à distance sera également interdite, à quelques exceptions près.

La loi sur l’IA met non seulement l’accent sur la gouvernance et le respect des droits fondamentaux, mais vise également à promouvoir les investissements et l’innovation dans le domaine de l’IA au sein de l’UE. Des dispositions sont incluses pour soutenir l’innovation en matière d’IA, en s’alignant sur d’autres initiatives telles que le plan coordonné de l’UE sur l’intelligence artificielle.

Chronologie de l’élaboration de la législation sur l’IA

Octobre 2020: Le Conseil européen examine la transition numérique et appelle à accroître les investissements dans la recherche sur l'IA.

Avril 2021: La Commission européenne propose la loi sur l’IA, qui vise à harmoniser les règles et à améliorer la confiance dans l’IA.

6 décembre 2022: Le Conseil adopte sa position sur de nouvelles règles en matière d'IA, en soulignant l'importance d'une IA sûre et légale.

9 décembre 2023: Les négociateurs du Conseil et du Parlement parviennent à un accord provisoire sur la loi sur l’IA après des discussions marathon.

Impact global

La législation de l’UE sur l’IA est sur le point d’établir une norme mondiale en matière de réglementation de l’IA, semblable au règlement général sur la protection des données (RGPD) en matière de confidentialité des données. En répondant aux préoccupations en matière d’éthique et de sécurité liées à l’IA, l’UE entend jouer un rôle de premier plan dans l’élaboration d’un paysage mondial de l’IA responsable et digne de confiance. Cet accord historique marque une étape importante pour faire en sorte que les technologies de l’IA s’alignent sur les valeurs humaines et les droits fondamentaux et contribuent positivement à la société.