L'intelligence - France-Science

La page est créée Sylvain Carlier
 
CONTINUER À LIRE
L'intelligence - France-Science
NIST     AI  Risk  Management
Framework – Vers un standard de
confiance    de   l’intelligence
artificielle

Sous tutelle du Département du Commerce, le National Institute of Standards and
Technology est l’agence fédérale responsable de la métrologie et du développement
des normes technologiques aux Etats-Unis. Au même titre que les autres instances
scientifiques fédérales et avec l’appui du rapport final de la National Security
Commission on AI, le NIST accélère graduellement son effort de recherche en
intelligence artificielle [1].

Doté de près de 32 millions de dollars pour l’exercice fiscal 2021, le NIST a
demandé un rehaussement de son enveloppe de R&D en IA à 46,9 millions de
dollars, soit une hausse de près de 50% par rapport à l’année précédente [2]. Les
bureaux du programme NITRD – Networking and Information Technologies
Research & Development – et de la NAII – National Artificial Intelligence Initiative –
ont travaillé de concert à cette requête budgétaire en identifiant deux axes
prioritaires à son déploiement : (i) l’établissement de nouveaux partenariats public-
privé entre l’enseignement supérieur, l’industrie et le gouvernement via des AI
Collaborative Institutes et (ii) le développement des ressources humaines en
collaboration avec le NIST Advanced Materials Center of Excellence. Le NIST est
convaincu que ces deux accroissements de son activité permettront de développer
des standards et des systèmes d’IA de confiance [3][4].

L’intelligence artificielle de confiance : un enjeu majeur pour
l’administration américaine

Depuis 2016, les Etats-Unis ont pris conscience de l’ampleur des bénéfices que l’IA
pouvait apporter à la société. A cet effet, la Maison Blanche a créé un sous-comité
dédié au sein de son National Science and Technology Council (NSTC) et plusieurs
rapports ont vu le jour. On retrouve notamment le rapport National Artificial
Intelligence Research & Development Strategic Plan qui pose les premières briques
d’investissements fédéraux de long terme autour des technologies IA, parmi lesquels
seront financés les efforts initiaux de R&D pour l’avancement de la sécurité des
systèmes intelligents, du développement de compétences et de normalisation de
l’intelligence artificielle [5].

Dans une démarche de compétitivité au regard de l’avancement international de la
recherche en IA, de garantie de la sécurité nationale et de la prospérité économique,
l’administration Biden conçoit une stratégie fédérale prévoyant d’assurer le

leadership technologique des Etats-Unis en la matière. Le 1 er janvier 2021, le
National AI Initiative Act est voté au Congrès. Le développement d’une intelligence
dite « trustworthy » (« de confiance ») en est une priorité [6][7].

Selon l’Office of Science and Technology Policy (OSTP) du pouvoir exécutif, un des
enjeux principaux de la NAII est « de s’assurer que les États-Unis soient leaders
mondiaux du développement et de l’utilisation de systèmes d’IA de confiance dans
les secteurs public et privé » [8].

Pour ce faire, le programme scientifique national américain décompose son action
en cinq piliers stratégiques :

       Recherche et développement pour l’IA de confiance, civile ou militaire, afin
de résoudre les problématiques légales, éthiques et sociétales soulevées par
      l’IA. Les domaines de recherche à cette fin regroupent également la sûreté,
      la sécurité et l’explicabilité des algorithmes et systèmes intelligents ;
      Mesures, outils d’évaluation et normes technologiques pour lesquels le NIST
      est désigné comme fer de lance de la recherche par Ordre Exécutif [9] ;
      Régulation de l’usage de l’IA dans le secteur privé via un mémorandum de la
      Maison Blanche de 2020 à destination des départements et agences
      fédérales les incitant à publier respectivement des régulations autour des
      applications sectorielles de l’IA. A titre d’exemple, la Federal Trade
      Commission (FTC) a également émis son propre document de bonnes
      pratiques destiné à un usage transparent, lisible et juste de l’IA par les
      entreprises [10][11] ;
      Régulation de l’usage de l’IA par le gouvernement fédéral, en intégrant des
      applications intelligentes de confiance au service de l’administration, par un
      décret présidentiel daté de décembre 2020 [12].
      Participations des parties prenantes, experts et grand public, notamment
      grâce à la diffusion de Requests for Information (RFI) de la part de
      l’administration et de la constitution de comités de conseillers indépendants
      tels que le NSCAI.

NIST Special Publication 1270 : Vers une norme pour l’identification et la
gestion des biais dans l’intelligence artificielle
Prenant acte de l’effort actuel en matière de limitation des biais et des risques
statistiques et informatiques du machine learning, le NIST distingue deux familles,
les biais systémiques et les biais humains, qu’il considère « négligés » à l’heure
actuelle. Le travail d’évaluation des risques est issu de publications alimentées au fil
de l’eau par les RFI (Request for Information) fréquentes à l’attention du public et
des experts en IA. Ce travail est consultable via la bibliothèque de publications
disponible sur le site officiel de la NAII. Le NIST prévoit une version 1.0 de son AI
Risk Management Framework (RMF) à horizon janvier 2023 [13][14].

                                                    L’organisme américain de
                                                    normalisation a également établi
                                                    sa propre taxonomie des
                                                    principes fondamentaux de l’IA de
                                                    confiance, d’après une approche
                                                    comparative avec les définitions
                                                    d’autres institutions nationales ou
                                                    internationales.
Dans son travail de recherche pour la standardisation du RMF, la coopération
internationale s’illustre comme priorité de la stratégie américaine en intelligence
artificielle NAII. Ainsi le NIST travaille conjointement avec les organisations
multilatérales telles que l’OCDE ou les sommets internationaux G7 et G20, qui
depuis 2017 formulent des recommandations pour l’IA de confiance (e.g. Human-
centric AI mentionnée au paragraphe 44 de la Déclaration des Ministres de
l’industrie et des Ministres du numérique du G7 de Sicile) [15]. Le Partenariat
mondial pour l’intelligence artificielle (GPAI), dont les Etats-Unis sont membres, est
également un moteur de discussions et de recherche autour de la conception de la
normalisation du RMF en phase avec les recommandations des autres Etats
membres [16].

En France, la recherche sur l’IA de confiance est également une priorité nationale
prévue dans le cadre de notre stratégie d’accélération, et ce dans ses deux volets. La
France et les Etats-Unis ont convenu de renforcer leur coopération sur la
standardisation et la régulation de l’IA : le thème « IA éthique et de confiance » est
l’un des trois thèmes retenus pour le volet IA de l’axe de coopération prioritaire sur
les technologies émergentes mis en avant lors du comité mixte franco-américain en
science et technologie qui s’est tenu au mois de décembre 2021 à Washington [17].

Rédacteur :
Maxence Balsalobre
Attaché adjoint pour la Science et la Technologie à Washington,
Nouvelles technologies de l’information, de la communication et de la sécurité.
deputy-ntics@ambascience-usa.org

Références :

     1. https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf
     2. https://www.nitrd.gov/pubs/FY2022-NITRD-NAIIO-Supplement.pdf
     3. https://www.nist.gov/system/files/documents/2021/06/08/6.%20Boehm%20NI
        ST%20FY%202022%20Draft%205-27-21%20%281%29%20%28003%29VCA
        T%20%28003%29%20Updated%201.pdf
     4. https://www.nist.gov/coe/advanced-materials-center-excellence
5. https://www.nitrd.gov/pubs/national_ai_rd_strategic_plan.pdf
 6. https://www.congress.gov/bill/116th-congress/house-bill/6216
 7. https://www.ai.gov/about/#NAII-NATIONAL-ARTIFICIAL-INTELLIGENCE-IN
    ITIATIVE
 8. https://www.ai.gov/strategic-pillars/advancing-trustworthy-ai/
 9. https://www.nist.gov/artificial-intelligence/plan-federal-engagement-developi
    ng-ai-technical-standards-and-related-tools
10. https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf
11. https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-intellige
    nce-algorithms
12. https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoti
    ng-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
13. https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf
14. https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pd
    f
15. https://teamdigitale.governo.it/upload/docs/2017/10/Declaration_and_Annexe
    s_final_26_09_2017.pdf#page=20
16. https://gpai.ai
17. https://www.enseignementsup-recherche.gouv.fr/fr/declaration-commune-sur
    -la-cooperation-franco-americaine-en-science-et-technologie-82546
Vous pouvez aussi lire