
IA Act : le premier cadre européen pour réguler l’intelligence artificielle
Le règlement (UE) 2024/1689, connu sous le nom d'AI Act, est le premier cadre juridique complet en matière d'intelligence artificielle (IA) au niveau mondial. Ce règlement établit des règles harmonisées dans l'ensemble de l'Union européenne pour garantir le respect par les systèmes IA des droits fondamentaux, valeurs européennes et exigences de sécurité.
En tant que pionnier en matière de régulation de l'IA, l'AI Act est susceptible d'influencer les législations d'autres pays. A ce titre, des pays comme le Canada, le Japon et le Royaume-Uni ont déjà exprimé leur intention d'adopter des approches réglementaires similaires ou de s'inspirer de l'AI Act dans l'élaboration de leurs propres législations sur l'IA
Objectifs principaux
Sécurité et confiance : Assurer que les systèmes d'IA mis sur le marché ou utilisés dans l'UE soient sûrs et dignes de confiance.
Protection des droits fondamentaux : Garantir que l'IA respecte les droits fondamentaux des individus.
Innovation responsable : Encourager l'innovation en matière d'IA tout en prévenant les risques potentiels.
Approche fondée sur les risques
Le règlement adopte une approche fondée sur les risques, classifiant les systèmes d'IA en quatre catégories :
Niveau de risque | Description | Régime applicable |
|---|---|---|
🛑 Risque inacceptable | Les systèmes d’IA qui représentent une menace manifeste pour la sécurité, les moyens de subsistance ou les droits fondamentaux des personnes. | Interdits |
⚠️ Risque élevé | Les systèmes d’IA susceptibles d’avoir un impact grave sur la santé, la sécurité ou les droits fondamentaux. | Autorisation sous conditions strictes (conformité à des exigences rigoureuses) |
ℹ️ Risque limité | Les systèmes d’IA présentant un risque modéré pour les utilisateurs. | Obligations de transparence (information sur l’utilisation de l’IA) |
✅ Risque minimal ou nul | Les systèmes d’IA à faible ou aucun risque pour les individus. | Exemption de la plupart des obligations (encadrement léger) |
Pratiques interdites
Le règlement interdit certaines pratiques d'IA considérées comme inacceptables, telles que :
La manipulation et la tromperie préjudiciables fondées sur l'IA.
L'exploitation nocive des vulnérabilités fondées sur l'IA.
La notation sociale.
L'évaluation ou la prévision des risques d'infraction pénale individuelle.
Le grattage non ciblé de matériel internet ou CCTV pour créer ou développer des bases de données de reconnaissance faciale.
La reconnaissance des émotions sur les lieux de travail et dans les établissements d'enseignement.
Modèles d'IA à usage général (GPAI)
Les modèles d'IA à usage général, capables d'accomplir un large éventail de tâches, sont soumis à des règles spécifiques concernant la transparence, la sécurité et la protection des données. Un code de bonnes pratiques GPAI a été élaboré pour aider les fournisseurs à se conformer aux obligations du règlement. Introduction au code de bonne pratique pour l'intelligence artificielle à usage général - Loi sur l'intelligence artificielle de l'UE
Gouvernance et mise en œuvre
Le Bureau européen de l'IA et les autorités des États membres sont responsables de la mise en œuvre, de la supervision et de l'application de la législation sur l'IA. Le comité de l'IA, le groupe scientifique et le forum consultatif orientent et conseillent la gouvernance de la législation sur l'IA.
Notre engagement concret envers l’AI Act
Chez Corpus Juris, nous nous engageons activement à respecter les exigences du règlement (UE) 2024/1689 sur l'intelligence artificielle. Voici comment nous traduisons cet engagement en actions concrètes :
Évaluation des risques et conformité
Cartographie des systèmes d'IA : Identification et classification de tous les systèmes d'IA que nous développons ou utilisons, selon les catégories de risque définies par l'AI Act.
Analyse d'impact : Réalisation d'analyses d'impact sur les droits fondamentaux pour les systèmes classés à haut risque, conformément aux exigences de l'article 9.
Gouvernance et supervision
Procédures internes : Mise en place de procédures pour garantir la transparence, la traçabilité et la responsabilité dans l'utilisation de l'IA.
Sécurité et transparence
Mesures de sécurité : Application de mesures techniques et organisationnelles pour assurer la sécurité des systèmes d'IA, en ligne avec les exigences de l'article 17.
Information des utilisateurs : Fourniture d'informations claires et accessibles aux utilisateurs sur le fonctionnement des systèmes d'IA, conformément à l'article 52.
Formation et sensibilisation
Programmes de formation : Mise en place de formations régulières pour nos équipes sur les obligations de l'AI Act et les bonnes pratiques en matière d'IA.
Sensibilisation continue : Promotion d'une culture d'éthique et de responsabilité autour de l'IA au sein de l'entreprise.
Documentation et traçabilité
Registre des activités : Tenue d'un registre détaillé des activités liées à l'IA, incluant les décisions prises et les mesures mises en place pour assurer la conformité.
Auditabilité : Mise en place de mécanismes permettant d'auditer et de vérifier la conformité aux exigences de l'AI Act.