Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte

La page est créée Brigitte Roger
 
CONTINUER À LIRE
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Artificial Intelligence Act

Retour sur le Salon Big Data & IA
Atelier du 29 septembre 2021
28 et 29 Septembre 2021             © 2021 Deloitte SAS
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Grégory Abisror         Richard Eudes                Yves Yota Tchoffo
                      Trustworthy AI Leader   AI Ethics & Governance       AI Ethics & Governance
                      Associé                 Directeur                    Senior Manager
                      Data Technology         Data Technology              Data Technology
                      & Analytics             & Analytics                  & Analytics
                      gabisror@deloitte.fr    reudes@deloitte.fr           yyotatchoffo@deloitte.fr

                      Responsables            Animateurs               Consultation IA auprès
                      AI Institute            du ThinkTank             de la Commission
                      Deloitte France         Impact AI                Européenne

© 2021 Deloitte SAS                                                                    Artificial Intelligence Act   2
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Une définition vaste de l'IA
L’AI Act prend en compte le Machine Learning, mais aussi                                                                                                       Selon l’AI Act, quels
                                                                                                                                                               sont les modèles en
de nombreux modèles statistiques utilisés depuis des années                                                                                                    votre possession
                                                                                                                                                               pouvant être
                                                                                                                                                               considérés comme
                                                                                                                                                               de l'IA ?
 “L’intelligence artificielle (IA) désigne                                  Machine Learning, comprenant l'apprentissage supervisé,
 tout logiciel développé à l'aide d'une ou                                  non supervisé et par renforcement, ainsi qu’une grande
 plusieurs des techniques et approches                                      variété d’autres méthodes comme le Deep Learning.
 énumérées à l’Annexe I, et capable,
 pour un ensemble donné d'objectifs                                         Approches fondées sur la logique et la connaissance, y compris la
 définis par l’Homme, de générer des                                        représentation des connaissances, la programmation inductive
 résultats tels que du contenu, des                                         (logique), les bases de connaissances, les moteurs d'inférence et
 prédictions, des recommandations ou                                        déductifs, le raisonnement (symbolique) et les systèmes experts.
 des décisions influençant les
 environnements avec lesquels ils                                           Approches statistiques, estimation bayésienne,
 interagissent “                                                            méthodes de recherche et d'optimisation

            Complète                                     A l'épreuve du futur                         Sécurité juridique
            Couvre toutes les IA actuelles et futures,   En se concentrant davantage sur les          Aussi neutre que possible en ce qui concerne les
            y compris le Machine Learning, le Deep       risques et les cas d’usage que sur la        détails techniques, afin de couvrir les applications
            Leraning ainsi que les systèmes hybrides.    technologie elle-même.                       qui ne sont pas encore connues ou développées.

© 2021 Deloitte SAS                                                                                                                                          Artificial Intelligence Act   3
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
L’Artificial Intelligence Act en un mot
La proposition de règlementation prévoit des règles harmonisées                                                                                       Comment l’AI Act
                                                                                                                                                      vous impacte ?
sur l’intelligence artificielle.

 Sur quoi se concentre-t-elle ?       À qui s’applique-t-elle ?         Quand s’appliquera-t-elle?        Pourquoi devez-vous vous en        Que rôle pour Deloitte ?
                                                                                                          soucier ?
→   Centré sur l’humain               →   Fournisseurs, utilisateurs,   →   Selon une interview, la      → Votre organisation peut            →   Sensibiliser nos clients
                                          importateurs et                   mise en œuvre et le            déjà avoir des systèmes                sur le sujet
→   Approche fondée sur le
    risque                                distributeurs de systèmes         processus de ratification      d’IA en place                      →   Les aider à anticiper
                                          d’IA au sein de l’UE              pourrait prendre entre 2
                                                                                                         →   La non-conformité peut               cette réglementation
→   Classification des                                                      à 5 ans
    systèmes d’IA                                                                                            entraîner des amendes            →   Deloitte dispose d’un
                                                                                                             allant jusqu’à 30.000.000€           cadre pour mettre en
                                                                                                             ou 6% du chiffre d’affaires          oeuvre une IA de
                                                                                                                                                  confiance

                      Le 21 avril 2021, la Commission européenne a proposé le premier cadre juridique sur l’IA jamais mis en œuvre, qui traite des risques de l’IA et
                      qui positionne l’Union Européenne comme un acteur de premier plan à l’échelle mondiale. Ce document a vocation à donner une vision
                      synthétique des enjeux de cette règlementation.

© 2021 Deloitte SAS                                                                                                                                 Artificial Intelligence Act   4
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
L’aboutissement d’un travail de plus de 2 ans
Au total, 1215 institutions ou particuliers ont                                                                                                                               En quoi l’AI Act se
                                                                                                                                                                              distingue des
contribué à cette proposition de réglementation                                                                                                                               papiers
  Données                                                                                                                                                                     précédents?
                                                    Document de la CE                     Étude du PE
  RGPD                                              Stratégie européenne                  L’impact du RGPD sur
                                                    pour les données                      l’IA
  Intelligence Artificielle
                                                    19 février 2020                       15 juillet 2020

L’UE se positionne en
tant que leader sur la
                                                    AEPD Guide                            Liste d’évaluation de la CE             Document de proposition
mise en œuvre d’une                                 Adaptation du Règlement               IA digne de confiance
                                                                                                                                  de la CE

réglementation                                      général sur la protection
                                                    des données (RGPD) aux
                                                                                          (ALTAI) pour l’auto-
                                                                                          évaluation
                                                                                                                                  Data Governance Act
                                                                                                                                  25 novembre 2020
internationale et                                   produits et services d’IA             17 juillet 2020
                                                    13 février 2020
stimule l’innovation
                                                    Rapport de la CE
                                                    Impact en matière de                  Étude du PE                             Étude du PE
                                                    sécurité et de
                                                    responsabilité de                     IA et respect de la loi                 Régime de responsabilité
                                                    l’IA, de l’IoT et de la               13 juillet 2020                         civile pour l’IA
                                                    robotique                                                                     18 septembre 2020
                                                    19 février 2020

                                                                                                                                  Étude du PE
                  Lignes directrices de             Document de la CE                     Étude du PE                                                                    AI ACT
                                                                                                                                  Cadre de l’UE sur les
                  la CE
                                                    Livre blanc sur l’IA                  IA et responsabilité                    aspects éthiques de                    Réglementation
                  Lignes directrices en             19 février 2020                       civile (affaires                        l’IA, de la robotique et               sur une
                  matière d’éthique                                                       juridiques)                             des technologies                       approche
                  pour une IA digne de                                                    13 juillet 2020                         connexes                               européenne de
                  confiance                                                                                                                                              l’IA                 Entrée en vigueur
                                                                                                                                  20 septembre 2020
                  8 avril 2019                                                                                                                                           21 avril 2021        de l’AI ACT

      2019                       2020     T1 (en)                               T2 (en)                                 T3 (en)              2021            2023-2025

© 2021 Deloitte SAS                                                                                                                                                         Artificial Intelligence Act           5
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Les 4 principaux piliers stratégiques de l’AI Act

→ Cadre approprié de gouvernance                                    → Partenariat public-privé en
→ Coordination des perspectives                                       termes de capacité de recherche
  stratégiques                                                        et d'innovation
→ Exploitation du potentiel des                                     → Centre d’expertise (TEF) ainsi
  données                                             Excellence      que des pôles d'innovation
→ Infrastructure computationnelle                                     numérique (DIH) à la disposition
                                      Développement                   des PME et des administrations
                                        & Adoption                    publiques

                                                      Leadership
                                                      stratégique
                                          AI
→ Intégration de la confiance dans                                  → Environnement : contribution
                                      Human-centric                   de l'IA à la production durable
→ les politiques en matière d’IA
→ Promotion de la vision européenne                                 → Santé : en élargissant l'échange
  d'une IA durable et digne de                                        intercommunautaire
  confiance                                                           d'informations
→ Développement des talents et des                                  → Autres : Robotique, Secteur
  compétences                                                         public, Collectivité, Mobilité,
                                                                      Agriculture
© 2021 Deloitte SAS                                                                       Artificial Intelligence Act   6
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Le champ d'application de l’AI Act
La proposition se concentre sur les systèmes d’IA « très risqués »                                                     Comment êtes-
                                                                                                                       vous affecté ? En
fournis / utilisés au sein de l'Union Européenne.                                                                      tant que
                                                                                                                       fournisseur ?
                                                                                                                       Importateur ?
                                            Quelles sont les entités                                                   Distributeur ?
                                            concernées par l’AI Act ?                                                  Utilisateur ?

   Entités concernées                                          Entités hors du champ d'application
 → Tout organismes à l'intérieur et à l'extérieur de          → Autorités publiques d'un pays tiers ou organismes
   l’UE qui fournit un système d’IA à destination               internationaux utilisant des systèmes d'IA dans le
   et/ou qui impacte des individus dans l’UE                    cadre d'accords internationaux de coopération
                                                                policière et judiciaire avec l'Union ou avec un ou
 → Tout Fournisseurs/Importateurs/Distributeurs
                                                                plusieurs États membres
   mettant à disposition un système d’IA au sein de
   l’UE                                                       → Utilisation purement privée et non commerciale
 → Tout utilisateur de systèmes d'IA au sein de l’UE
 → Tout fournisseur ou utilisateur situé dans un pays
   tiers, mais dont le résultat produit par le système
   d'IA est utilisé dans l'Union Européenne

© 2021 Deloitte SAS                                                                                                  Artificial Intelligence Act   7
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Aperçu de la classification des systèmes d’IA
La proposition utilise une approche fondée sur le risque pour                                                                                           Avez-vous fait
                                                                                                                                                        le point sur vos
différencier quatre types de systèmes d'IA en fonction de leurs                                                                                         systèmes d'IA
potentiels dangers et risques. (2/2)                                                                                                                    actuels et leur
                                                                                                                                                        degré de risque ?

               Systèmes d’IA avec des obligations                                                      Systèmes d’IA à risque
     3         spécifiques de transparence (Art. 52)
                                                                                          4            minime ou nul

Autorisés mais soumis à des obligations                                               Autorisé sans aucune restriction
d'information/de transparence
                                                                                       Exemple : Maintenance
→ Interaction avec les humains                                                         prédictive
→ Utilisés pour détecter des émotions ou
  déterminer des catégories sur la base de
  données biométriques
→ Génération de contenus modifiés/créés par
  IA

 Exemple : Bot agissant comme
 un humain (bots)

*A l’exception des systèmes d’IA « très risqués » développés ou utilisés à des fins militaires. Pour les HRAIS qui sont régis par l'un des articles
suivants, seul l'article 84 devrait s'appliquer.
Règlement (CE) 300/2008 ; Règlement (UE) 167/2013 ; Règlement (UE) 168/2013 ; Directive 2014/90/UE ; Directive (UE) 2016/797, Règlement
(UE) 2018/858;Règlement (UE) 2018/1139 ; Règlement (UE) 2019/2144.
© 2021 Deloitte SAS                                                                                                                                   Artificial Intelligence Act   8
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Systèmes d'IA à risque limité ou faible
Bien qu'il soit axé sur les IA « très risquées », l’AI Act préconise la transparence                                         Vos utilisateurs
                                                                                                                             sont-ils informés
et un code de conduite pour les applications à faible risque                                                                 qu'ils interagissent
                                                                                                                             avec un système
                                                                                                                             d'IA ?

Nouvelles obligations de                           Code de conduite sur la base
transparence pour certains                         du volontariat pour l'IA avec des exigences
systèmes d'IA (Art. 52)                            de transparence spécifiques (art. 69)
→ Informer les gens qu'ils interagissent avec un   → Pas d'obligations
  système d'IA, sauf si cela est évident.          → La Commission et le Conseil définiront des codes de conduite
→ Prévenir les usagers en cas d’utilisation de       destinés à favoriser l'application sur la base du volontariat des
  systèmes de catégorisation par biométrie ou        exigences aux systèmes d'IA à faible risque
  reconnaissance émotionnelle                      → Ce code de conduite pourrait inclure la durabilité environnementale
→ Apposer un label identifiant les “deep fake”       ou l'accessibilité aux personnes handicapées
  (avec certaines exceptions) ou tout autre        → Les codes de conduite peuvent aussi être définis individuellement
  contenu modifié et ou créé grâce à une IA

© 2021 Deloitte SAS                                                                                                        Artificial Intelligence Act   9
Artificial Intelligence Act - Retour sur le Salon Big Data & IA Atelier du 29 septembre 2021 - Deloitte
Aperçu de la classification des systèmes d’IA
La proposition utilise une approche fondée sur le risque pour                                                                                           Avez-vous fait
                                                                                                                                                        le point sur vos
différencier quatre types de systèmes d'IA en fonction de leurs                                                                                         systèmes d'IA
potentiels dangers et risques. (1/2)                                                                                                                    actuels et leur
                                                                                                                                                        degré de risque ?

               Systèmes d’IA à risque                                                                  Systèmes d’IA « très
     1         « inacceptable » (Art. 5)
                                                                                          2            risqués » (HRAIS, Art. 6)

Mise en œuvre Interdite                                                              Autorisés sous réserve de conformité aux exigences d’une
→ Manipulation du comportement, des                                                  évaluation ex-ante *
  opinions et des décisions de l'homme                                               → Principaux axes du règlement
→ Classification des individus en fonction de                                        → (Annexe III)
  leur comportement social                                                           → Régimes communs avec ceux déjà soumis à une norme
→ Identification biométrique à distance en                                             européenne harmonisée
  temps réel, sauf exceptions sur autorisation                                       → Liste supplémentaire à réexaminer chaque année par le
  spéciale                                                                             Conseil d'administration européen de l’IA « AI board »
                                                                                       (Art. 84)
  Exemple : Scoring social
                                                                                       Exemple : Recrutement

*A l’exception des systèmes d’IA « très risqués » développés ou utilisés à des fins militaires. Pour les HRAIS qui sont régis par l'un des articles
suivants, seul l'article 84 devrait s'appliquer.
Règlement (CE) 300/2008 ; Règlement (UE) 167/2013 ; Règlement (UE) 168/2013 ; Directive 2014/90/UE ; Directive (UE) 2016/797, Règlement
(UE) 2018/858;Règlement (UE) 2018/1139 ; Règlement (UE) 2019/2144.
© 2021 Deloitte SAS                                                                                                                                   Artificial Intelligence Act   10
Systèmes d’IA à risque « inacceptable » (art. 5)
Les applications d'IA qui présentent un risque « inacceptable » sont interdites.                                                       Fournissez-vous
                                                                                                                                       des systèmes d'IA
                                                                                                                                       qui seraient
                                                                                                                                       considérés à risque
                                                                                                                                       « inacceptable » ?
                                                   Exemple : Pour pousser les chauffeurs routiers à conduire plus longtemps que

1
           Manipulation subliminale
           entraînant un préjudice                 ce qui est sain et sûr, un son inaudible est diffusé dans leur cabine. L'IA est
           physique/psychologique
                                                   utilisée pour trouver la fréquence qui maximise cet effet sur les conducteurs.

           Exploitation d'enfants, de personnes

2          handicapées mentales ou de
           personnes vulnérables entraînant un
           préjudice physique/psychologique
                                                   Exemple : Un jouet avec un assistant vocal intégré pousse les enfants à adopter
                                                   un comportement dangereux sous couvert d'un jeu d'apprentissage.

3          Scoring social réalisé par les
           autorités publiques
                                                   Exemple : Un système d'IA calcule un score de crédit des personnes sur la base
                                                   d'un "mauvais comportement" social insignifiant ou non pertinent.

           Identification biométrique à distance   Exemple : Pour trouver un petit délinquant, toutes les caméras publiques

4          en temps réel afin de maintenir
           l'ordre dans les espaces accessibles
           au public**.
                                                   disponibles scannent chaque visage qui apparaît dans le champ de vision de la
                                                   caméra et le comparent à une base de données en temps réel.

 * * Il existe des exceptions
© 2021 Deloitte SAS                                                                                                                  Artificial Intelligence Act   11
Systèmes d’IA « très risqués » (HRAIS, Art. 6)
L'IA « très risquée » est définie à la fois par des caractéristiques                                                            Fournissez-vous
                                                                                                                                des systèmes d'IA
générales et des domaines spécifiquement ciblés.                                                                                qui seraient
                                                                                                                                considérés comme
Systèmes d’IA « très risqués »                     Domaines spécifiques à l'IA « très risquée »                                 « très risqués » ?

(article 6)                                        (Annexe III)

Est considéré comme « Très risqué » tout système   → La liste comprend les éléments suivants :
d’IA remplissant les deux conditions suivantes :       − Identification biométrique et catégorisation de personnes
→ Systèmes d’IA mis en œuvre dans le cadre               physiques
  d’une industrie/domaine réglementé par l’UE          − Gestion et exploitation d’infrastructures critiques
  (cf Annexe II IA Act)
                                                       − Éducation et formation professionnelle
→ La mise en service/commercialisation du cas
  d’usage nécessite une évaluation de                  − Emploi, gestion des collaborateurs et accès au travail
  conformité par un organisme tiers.                     indépendant
                                                       − Accès et jouissance aux services privés essentiels et aux services
                                                         et prestations publics
La commission Européenne identifie également 8
domaines pour lesquels tout système d’IA sera          − Application du droit
considéré comme « très risqué ».                       − Gestion de migrations, d'asile et de contrôles aux frontières
                                                       − Administration de la justice et processus démocratiques
                                                   → Un système d’IA issu de l’un de ces 8 domaines qui n’aurait pas
                                                     d’impact sur les droits fondamentaux, la sécurité des individus et la
                                                     santé peut être considéré comme à risque faible.
                                                   → La liste est mise à jour régulièrement (12 mois, article 84)
© 2021 Deloitte SAS                                                                                                           Artificial Intelligence Act   12
Vos 7 étapes vers la conformité
La règlementation exige une déclaration de conformité et un                                                                                                                            Que faut-il changer
                                                                                                                                                                                       dans vos processus
agrément CE avant le lancement d’un système d’IA « très risqué »,                                                                                                                      d’IA pour intégrer
ainsi qu’un monitoring tout au long de son cycle de vie…                                                                                                                               l’AI Act?

              1       Identification                                3   Conformité                                           5    Déclaration                                  7   Pilotage
                      Réaliser un examen approfondi des                 S'assurer que la conception, le                           Rédiger une déclaration de                       Répondre aux besoins d’un
                      actifs existants pour repérer ceux qui            développement et la qualité                               conformité (Annexe 5) pour tout                  suivi régulier après le
                      utilisent de l’IA ou ceux qui peuvent             des systèmes de gestion soient                            système d’IA « très risqué » et                  lancement du système d’IA
                      être qualifiés d’IA en vertu de la                conformes à la réglementation                             apposer le l’agrément CE*                        « très risqué ».
                      nouvelle législation.

                               2   Classification                                4   Evaluation de conformité                                                 6     Commercialisation
                                    Evaluer le niveau de risque                      Les systèmes d’IA « très risqués » doivent être                                Mise sur le marché ou en
                                    potentiel pour chaque actif                      soumis à une évaluation spécifique                                             service du système d’IA « très
                                    (inacceptable, très risqué ou                    de la conformité (Art. 19 et 43) et cette étape doit                           risqué ».
                                    faible).                                         être réitérée en cas de modification substantielle
                                                                                     future.

 * Le marquage «CE» indique qu’un actif est conforme aux exigences réglementaires
© 2021 Deloitte SAS                                                                                                                                                                  Artificial Intelligence Act   13
Conformité tout au long du cycle de vie d’un système d’IA
Le lancement du produit n'est que le début des obligations de conformité
pour les systèmes d’IA « très risqués »

  1
      Conception conforme                                                                                    2
                                                                                                                 Evaluation
      aux exigences                                                                                              de conformité
      → S'assurer que les systèmes d’IA                                                                          → Evaluation ex-ante de la conformité
        fonctionnent de manière cohérente                                                                        → Exécutée par le fournisseur (Art. 43) :
        pour l'usage auquel ils sont destinés et                                                                   − sur la base des contrôles internes
        soient conformes aux exigences de la                                                                            (Annexe VI)
        réglementation                                                                                             − sur la base d’une évaluation du
                                                                                                                        système de gestion de la qualité et
                                                                                                                        de la documentation technique avec
                                                                                                                        l'engagement d’un organisme notifié
  5
      Nouvelle évaluation                                                                                               (Annexe VII)
      de conformité
      → Toute modification substantielle, telle                                                              3
                                                                                                                 Surveillance
        que le changement d’objectif du                                                                          post-commercialisation
        système, nécessite un renouvellement                                                                     → Les fournisseurs doivent collecter,
        de l’évaluation de la conformité                                                                           analyser et enregistrer de manière
      → Une évaluation par le fournisseur ou un                                                                    régulière et uniforme des données
        tiers quelconque                            4
                                                        Système de notification                                    pertinentes pour garantir la fiabilité,
      → Prise en considération également des            des incidents                                              la performance et la sécurité des
        ajustements autres que ceux indiqués            → Communiquer et enregistrer les événements graves         systèmes d’IA durant tout leur cycle
        par le fournisseur pour les systèmes d’IA         ainsi que les dysfonctionnements entraînant une          de vie et évaluer leur conformité
        à apprentissage continu                           violation des droits fondamentaux                        continue au regard la réglementation
© 2021 Deloitte SAS                                                                                                                  Artificial Intelligence Act   14
Nous sommes prêts, et vous ?
La réglementation définit les exigences relatives à l'IA au sein de l'UE.                                           Y a-t-il un écart entre la loi sur
                                                                                                                    l'IA et vos normes ? Quelle est
Elle entraînera des changements. Nous proposons une voie à suivre.                                                  son ampleur ?

→ Le projet de règlementation met l'accent sur une application éthique de l'IA, sur le fait
  que les cas d’usage soient responsables, et que les praticiens soient tenus de respecter
  des normes de qualité strictes.

→ Cela inclut des principes généraux de traitement équitable et impartial des sujets
  (indépendamment de l'application de l'IA), mais interdit aussi explicitement certaines                           Équitable
  applications.                                                                                                       et
                                                                                                                  impartiale
→ L’AI Act met l’accent sur les applications “très risquées” et exige une grande transparence
  accompagnée de contrôles rigoureux pour garantir la robustesse et la fiabilité des              Transparente                       Robuste et
  systèmes d'IA.                                                                                  et explicable                        fiable

→ Pour garantir un fonctionnement sûr et sécurisé de l'IA, le règlement exige une                                  IA Digne de
                                                                                                                    confiance
  surveillance humaine, la capacité d'assumer le contrôle ou de passer outre l'IA.

→ Même pour les applications jugées à moindre risque, l’AI Act exige que les systèmes d'IA         Responsab
                                                                                                                                     Préserve la
                                                                                                      le et
  soient suffisamment transparents, en alertant les individus de l’usage d’une IA, et qu'ils                                         vie privée
                                                                                                   redevable
  soient explicables, permettant à leurs concepteurs de les contrôler efficacement.
                                                                                                                   Sûre et
→ Le projet de règlementation est fondé sur les droits fondamentaux des citoyens, en se                           sécurisée
  prémunissant contre l’exploitation des vulnérabilités, imposant une procédure
  standardisée, en défendant les droits des enfants, entre autres. Il préserve la vie privée en
  interdisant purement et simplement les applications de l'IA pour la surveillance en direct
  et à distance des citoyens.

© 2021 Deloitte SAS                                                                                                              Artificial Intelligence Act   15
Les accélérateurs Deloitte
La boîte à outils développée par Deloitte répond parfaitement                                                         Que faut-il changer
                                                                                                                      dans vos processus
aux exigences de l’AI Act                                                                                             d’IA pour intégrer
                                                                                                                      l’AI Act?

                                                                  Un panorama de fournisseurs en évolution rapide
                       AI Risk Management Framework
                       aide les organisations à gouverner et
                       à gérer efficacement les risques
                       associés à l'utilisation de systèmes
                       d’IA tout au long du cycle de vie.

                       Lucid [ML] rend l'IA transparente et
                       explicable en interprétant le
                       fonctionnement interne et les résultats
                       des décisions individuelles des
                       modèles d'IA de type "boîte noire" (ou
                       autre).

                       Model Guardian établit l'équité et
                       l'impartialité dans les systèmes d’IA
                       par l’identification et l’évaluation des
                       multiples types de biais affectant
                       l'équité des modèles d'IA.

© 2021 Deloitte SAS                                                                                                 Artificial Intelligence Act   16
MERCI DE VOTRE ATTENTION
Rendez-vous sur le Stand DELOITTE

                      Grégory Abisror        Richard Eudes        Yves Yota Tchoffo
                      Partner                Directeur            Senior Manager
                      Deloitte France        Deloitte France      Deloitte France
                      gabisror@deloitte.fr   reudes@deloitte.fr   yyotatchoffo@deloitte.fr

© 2021 Deloitte SAS                                                                          Artificial Intelligence Act   17
A propos de Deloitte
Deloitte fait référence à un ou plusieurs cabinets membres de Deloitte Touche Tohmatsu Limited (« DTTL »), à son réseau mondial de cabinets membres et à leurs entités liées
(collectivement dénommés « l’organisation Deloitte »). DTTL (également désigné « Deloitte Global ») et chacun de ses cabinets membres et entités liées sont constitués en entités
indépendantes et juridiquement distinctes, qui ne peuvent pas s'engager ou se lier les uns aux autres à l'égard des tiers. DTTL et chacun de ses cabinets membres et entités liées sont
uniquement responsables de leurs propres actes et manquements, et aucunement de ceux des autres. DTTL ne fournit aucun service aux clients. Pour en savoir plus, consulter
www.deloitte.com/about. En France, Deloitte SAS est le cabinet membre de Deloitte Touche Tohmatsu Limited, et les services professionnels sont rendus par ses filiales et ses affiliés.
Deloitte est l'un des principaux cabinets mondiaux de services en audit et assurance, consulting, financial advisory, risk advisory et tax, et services connexes. Nous collaborons avec
quatre entreprises sur cinq du Fortune Global 500® grâce à notre réseau mondial de cabinets membres et d’entités liées (collectivement dénommés « l’organisation Deloitte ») dans
plus de 150 pays et territoires. Pour en savoir plus sur la manière dont nos 330 000 professionnels make an impact that matters (agissent pour ce qui compte), consultez
www.deloitte.com.
Deloitte France regroupe un ensemble de compétences diversifiées pour répondre aux enjeux de ses clients, de toutes tailles et de tous secteurs. Fort des expertises de ses 7 000
associés et collaborateurs et d’une offre multidisciplinaire, Deloitte France est un acteur de référence. Soucieux d’avoir un impact positif sur notre société, Deloitte a mis en place un
plan d’actions ambitieux en matière de développement durable et d’engagement citoyen.
© 2021 Deloitte SAS. Membre de Deloitte Touche Tohmatsu Limited                                                                                                                              Document confidentiel
Vous pouvez aussi lire