UNE CONDITION SINE QUA NON POUR ENCADRER LES SYSTÈMES D'INTELLIGENCE ARTIFICIELLE SELON LA PROPOSITION DE RÈGLEMENT SUR L'INTELLIGENCE ...

La page est créée Angelique Monnier
 
CONTINUER À LIRE
JURIDICISER LA
GOUVERNANCE
DES DONNÉES :

UNE CONDITION SINE QUA NON POUR
ENCADRER LES SYSTÈMES
D’INTELLIGENCE ARTIFICIELLE SELON LA
PROPOSITION DE RÈGLEMENT SUR
L’INTELLIGENCE ARTIFICIELLE DE LA
COMMISSION EUROPÉENNE

Anne-Sophie Hulin
Postdoctorante en droit, ANITI (France)
Chercheuse associée Chaire en IA responsable à l’échelle globale
(uOttawa)
Introduction

Le 21 avril 2021, la Commission européenne présentait sa tant attendue
proposition de règlement en matière d'intelligence artificielle (Artificial
Intelligence Act, AIA). En offrant un cadre règlementaire dont la portée se veut
à la fois horizontale[1] et neutre[2], la Commission européenne fait une
nouvelle fois preuve d’innovation normative pour réaliser les ambitions de sa
stratégie numérique au sein de laquelle l’intelligence artificielle se déploie
dans un contexte de confiance. L’objectif du texte est très clair : concilier les
avantages et risques de l’IA afin de soutenir le fonctionnement du marché
unique (notamment en termes d’investissement et d’innovation en
intelligence artificielle) et assurer à l’Union une position de leader mondial
dans le développement d'une IA sûre, fiable et juridiquement encadrée.

Pour ce faire, la Commission européenne propose une règlementation
articulée autour des risques que présentent l’IA, ces derniers étant
appréhendés par degré d’intensité. De cette approche qui se veut à la fois
souple et proportionnée aux enjeux associés au développement de l’IA, les
systèmes d’intelligence artificielle (SIA) sont ainsi répartis selon trois niveaux
de risques : inacceptables, élevés ou limités. Pour chacun de ces niveaux, la
proposition de règlement définit les conditions auxquelles les SIA doivent se
soumettre pour intégrer et demeurer sur le marché unique.

Focus sur les SIA à risques élevés

La réglementation des SIA à risques élevés attire particulièrement notre
attention. Sont ainsi visés les SIA qui encourent un impact négatif significatif
sur la santé, la sécurité et les droits fondamentaux des personnes dans l'Union.
Certes, ces SIA occupent une place prédominante dans ce corpus normatif du
fait que leur champ définitionnel est vaste[3]. Surtout, en présentant un niveau
de risque intermédiaire, ces SIA se distinguent par le contenu des dispositions
et le degré d’encadrement auxquels ils sont soumis. Contrairement aux SIA
inacceptables, les SIA à risques élevés ne sont pas bannis du marché[4]. Leur
intégration est soumise à une série d’exigences obligatoires.

[1] Sur l’approche horizontale et non sectorielle, celle-ci est mise à plusieurs reprises dans
l’exposé des motifs du texte. Notons aussi que cette réglementation s’applique tant aux
organisations publiques que privées (AIA, art 3, sub verbo « provider »).
[2] Le texte se veut technologiquement neutre au regard des définitions fournies à l’article 3.1
AIA.
[3] AIA, art 6 et 7.
[4] AIA, art 5. Le texte prévoit des tempéraments à la prohibition de mise en marché des SIA à
risque inacceptable (voir AIA, art 5.2 et s).
Celles-ci permettent ainsi d’en assurer un rigoureux contrôle ex ante dans le
but de garantir qu’en dépit du risque élevé qui les caractérise[5], ces SIA ne
contreviennent pas aux intérêts publics reconnus et protégés par le droit de
l’Union. C’est ainsi que les SIA à risque élevé ne peuvent opérer sur le marché
unique[6] faute de disposer :

   « de systèmes adéquats d’évaluation et d’atténuation des risques (art 9);
   D’une qualité élevée des ensembles de données alimentant le système afin
   de réduire au minimum les risques et les résultats ayant un effet
   discriminatoire (art 10);
   D’une documentation détaillée fournissant toutes les informations
   nécessaires sur le système et sur sa finalité pour permettre aux autorités
   d’évaluer sa conformité (art 11);
   D’un enregistrement des activités afin de garantir la traçabilité des
   résultats (art 12);
   D’informations claires et adéquates à l’intention de l’utilisateur (art 13);
   d’un contrôle humain approprié pour réduire au minimum les risques (art
   14);
   d’un niveau élevé de robustesse, de sécurité et d’exactitude (art 15)[7]».

Là encore, un point particulier attire notre attention. Aussi évidente sinon
anodine qu’elle puisse paraître, la seconde obligation visée à l’article 10
relative à la qualité des données constitue la pierre angulaire du contrôle ex
ante des SIA à risque élevé. Car, si seul l’article 10 renvoie expressément à la
notion de gouvernance des données, les obligations qui suivent sont le
prolongement de l’exigence de mettre en œuvre des pratiques adaptées de
gouvernance des données.

La gouvernance des données : clé de voûte de l’encadrement des SIA à
risques élevés

Notion fuyante, il semble communément admis que la gouvernance de données
consiste en la gestion globale de la disponibilité, de l’exploitabilité, de l’intégrité
et de la sécurité des données utilisées par une organisation. Entendues comme
l’ensemble des pratiques liées aux données par une organisation (ex : stratégie
relative aux données, qualité des données et gestion des données), la
gouvernance des données s’est progressivement constituée comme un
incontournable organisationnel du fait du passage à l’ère des données massives.

[5] AIA, art 2.1(c).
[6] AIA, art 16, 33 et 48.
[6] Céline Castets-Renard, « Nouvelles règles et actions pour l’excellence et la confiance en l’IA
», en ligne : https://chaireia.openum.ca/publications/la-commission-europeenne-propose-de-
nouvelles-regles-et-actions-pour-lexcellence-et-la-confiance-dans-lintelligence-artificielle/
Outil convoité de valorisation des données, elle permet en effet de veiller
rigoureusement à la qualité, la conformité et à la sécurité des données. La
gouvernance des données est donc un important vecteur pour améliorer le
niveau de confiance dans l’information et, dans le contexte de la proposition
de règlement de la Commission européenne, un support nécessaire pour
mettre en œuvre les exigences en termes de haute qualité des données. En
effet, le considérant 44 de la proposition insiste sur la nécessité de disposer de
données de haute qualité dans le cas précis des SIA à risques élevés afin de
garantir l’acceptabilité et la légalité de ces derniers. Si cette exigence s’avère
fondamentale pour la performance de ces SIA[8], elle permet également
d’éviter que ceux reposant sur des modèles d’entrainement ne deviennent
sources de discriminations, et ainsi contraires aux objectifs de la
réglementation de l’Union européenne[9]. Ici, il convient de souligner le lien
avec le Data Governance Act du 25 novembre 2020 (DGA), texte fondateur de
la stratégie des données de l’Union européenne et sur lequel la présente
proposition s’appuie. Car pour que les SIA à risques élevés puissent reposer sur
des jeux de données hautement qualitatif, encore faut-il que les fournisseurs
puissent accéder à des jeux de données suffisants ou appropriés à la finalité
visée du SIA[10], et notamment répondre aux exigences d’exactitude et de
robustesse[11]. Ainsi, la structuration du marché unique des données autour
d’intermédiaires de service de partage facilite la mise en œuvre des exigences
imposées au déploiement des SIA à risques élevés, participe à contenir les
risques qui leur sont inhérents. Ainsi, le DGA et la proposition de règlement
s’imbriquent étroitement puisque « la facilitation du partage des données
entre les entreprises et avec les pouvoirs publics dans l'intérêt public
contribuera à fournir un accès fiable, responsable et non discriminatoire à des
données de haute qualité pour l'entraînement, la validation et le test des
systèmes d'IA[12] ». Le DGA est donc un des leviers nécessaires pour le
développement d’une IA de confiance.

Un changement de paradigme pour la gouvernance des données

Fort de ces éléments, il appert que la gouvernance des données constitue un
outil fondamental pour répondre aux exigences de la présente proposition et
que, de fait, celle-ci est en proie de changer la nature de cette pratique
organisationnellement valorisée; passant du statut de bonne pratique à celui
d’obligation juridique à la charge des fournisseurs qui doivent en rendre
compte. L’importance de ce changement de nature ne saurait être sous-
estimée au regard de deux séries de considérations.

[8] AIA, art 15.
[9] Communication de la Commission européenne, A European Data Strategy, 19 February
2020, COM(2020) 66 final https://ec.europa.eu/info/sites/default/files/communication-
european-strategy-data-19feb2020_en.pdf.
[10] AIA, considérant 45.
[11] AIA, art 15.
[12] Traduction suggérée du considérant 45, supra note 10.
D’une part, comme toute obligation juridique, la proposition prend soin de
définir l’objet « pratiques de gouvernance des données appropriées » (art 10.2)
et ses spécificités dans le cas précis de données d’entrainement, de validation
et d’essai (art 10.3 à 10.5). Par exemple, il est précisé que ces dernières doivent
tenir compte, dans la mesure où cela est nécessaire selon l'objectif visé, des
caractéristiques ou des éléments propres au contexte géographique,
comportemental ou fonctionnel spécifique dans lequel le système d'IA est
destiné à être utilisé[13]. Notons d’ailleurs que le respect de ces exigences
posées permet au fournisseur de jouir d’une présomption de conformité[14],
favorisant la procédure de marquage CE aux fins de mise en marché[15].

On notera que l’obligation de mettre en œuvre des procédures adaptées de
gouvernance des données n’est pas réduite aux SIA qui reposent sur des
techniques impliquant l'apprentissage de modèles[16]. Si ces derniers sont
soumis à des exigences particulières, il n’en demeure pas moins que les autres
SIA à risques élevés doivent également répondre de procédures adaptées de
gouvernance des données ce qui octroie à l’obligation de l’article 10 un vaste
champ d’application. À cela, soulignons que le champ d’application de cette
obligation est d’autant plus large qu’elle comporte, comme l’ensemble des
dispositions contenues dans la proposition, d’une portée extraterritoriale (art
2). Notamment, les fournisseurs et utilisateurs des systèmes d’IA qui sont
localisés dans un pays hors de l’Union européenne, mais dont le résultat
produit par le système est utilisé dans l'Union sont soumis aux mêmes
obligations que les fournisseurs mettant sur le marché européen les systèmes
d’IA (ou mise en service) ou que les utilisateurs localisés dans l’Union[17]. Ainsi,
l’obligation de mettre en œuvre des procédures adaptées de gouvernance des
données jouit d’un vaste champ d’application tant au plan matériel que
territorial et dont les contours sont rigoureusement encadrés.

D’autre part, en devenant une obligation juridique, la gouvernance des
données s’inscrit dans un cadre juridiquement contraignant. Celui-ci se
matérialise à deux niveaux. En premier lieu, sans une gouvernance des
données bien établie, les fournisseurs de SIA ne sauraient s’autodéclarer
conforme aux obligations du Chapitre II de la proposition et ainsi bénéficier du
marquage européen des SIA à risques élevés, procédure obligatoire pour leur
mise en marché[18]. En second lieu, en cas de non-conformité aux obligations,
le fournisseur s’expose à des sanctions administratives conformément à
l’article 71 de la proposition. Ici, il convient de souligner que le non-respect de
l’obligation de mise en œuvre de pratiques appropriées de gouvernance des
données entraine le plus haut niveau de sanctions administratives (art 71.3).

[13] AIA, art 10.4.
[14] AIA, art 42.
[15] AIA, art 43.
[16] AIA, art 10.6.
[17] AIA, art 2.1.
[18] AIA, art 6.
Ces dernières peuvent atteindre jusqu’à 30 millions d’euros, et si le
contrevenant est une entreprise un montant de l’ordre de 6% de son chiffre
d’affaires mondial annuel. Notons que ce niveau de sanction est le même que
celui appliqué à la violation de l’interdiction de la mise sur le marché des SIA
jugés inacceptables et limitativement énumérés à l’article 5. Si la procédure
d’encadrement des SIA à risques élevés se veut souple du fait de la possibilité
laissée aux acteurs de s’auto-réguler[19], le montant des sanctions est
suffisamment haut pour inciter les fournisseurs à se conformer aux
dispositions de l’article 10, et ce d’autant plus si l’entreprise jouit d’un
rayonnement international.

Conclusion

Condition sine qua non pour tempérer et canaliser le risque élevé de certains
SIA, la gouvernance des données se meut en une contrainte juridique à
laquelle les acteurs doivent se conformer pour opérationnaliser la confiance
dans les données et a fortiori dans le déploiement de systèmes d’IA à risques
élevés. Ces derniers doivent également rendre compte du respect de cette
obligation sous peine de lourdes sanctions administratives. La gouvernance
des données change ainsi de paradigme. De bonne pratique laissée à
l’initiative et à la discrétion des organisations, elle devient une arme juridique
pour traquer les dangers et potentielles discriminations que le manque de
robustesse des SIA à risques élevés est susceptible de générer; notamment en
institutionnalisant la surveillance, la détection et la correction des biais.
L’article 10 de la proposition s’avère essentiel dans la lutte contre le risque de
discrimination algorithmique que la Commission européenne entend mener
et imposer aux acteurs de l’IA. Ce faisant, la Commission montre non
seulement qu’elle a pris conscience de ce risque pour les droits
fondamentaux, mais prend aussi le leadership des moyens juridiques pour
tenter de contrer ce risque, là où la plupart des États, comme le Canada, se
contente à ce jour de règles éthiques. En d’autres termes, la juridicisation de la
gouvernance des données ne constitue pas seulement d’un changement de
culture et de pratique, mais elle témoigne surtout d’une avancée discrète mais
cruciale vers la réalisation d’une IA sûre, fiable et juridiquement encadrée.

[19] AIA, art 43.
Vous pouvez aussi lire