INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone

La page est créée Antoine Blanchard
 
CONTINUER À LIRE
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
INTELLIGENCE ARTIFICIELLE
ET RESSOURCES HUMAINES

Du cadre éthique à l’action

                          1
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
Cette étude, réalisée dans le cadre du Cercle Humania de
        juin à décembre 2019, vise à apporter un éclairage sur les
        enjeux de l’Intelligence Artificielle et le rôle majeur que
        les DRH ont à jouer dans la transformation numérique
        de leur organisation, de la définition de la stratégie IA
        et du cadre éthique jusqu’à la mise en œuvre des actions
        prioritaires.

        Nous avons choisi d’inscrire l’étude dans un cadre
        systémique de façon à articuler l’IA avec toutes les
        dimensions de l’entreprise. En effet, les technologies liées
        à l’IA se développent rapidement.
        Mais dans un certain nombre de cas, la stratégie IA n’a pas
        été suffisamment définie dans les organisations.

        Les cas d’usages de l’IA ont pu être développés sans
        qu’une définition et une priorisation soient assurées au
        regard notamment de la valeur ajoutée apportée au métier.
        C’est ainsi que de nombreux proof of concept ont été initiés,
        sans pour autant déboucher sur une industrialisation.
        En parallèle, de bonnes pratiques d’intégration de
        technologies existantes et de développement d’applicatifs
        avec de l’IA se sont développées et certaines sont décrites
        dans l’étude.
ÉDITO
        La vision systémique amène à réfléchir en même
        temps aux enjeux stratégiques, éthiques, métiers,
        technologiques et humains pour ensuite définir une
        feuille de route cohérente.

        Le rapport aborde, sous ses dimensions clés, la
        problématique de l’IA et des ressources humaines.
        Notre approche se caractérise par une articulation de
        réflexions pluridisciplinaires, de témoignages d’expériences
        et de propositions d’actions à mener. Vous y trouverez
        des éléments de fond et des illustrations sur le cadre
        éthique, la conciliation des intelligences humaines et de
        l’Intelligence Artificielle, la transformation des emplois, les
        stratégies d’entreprise, les politiques et processus RH, les
        technologies et l’accompagnement des acteurs dans le
        cadre de l’adoption de l’IA.
        C’est pourquoi nous avons intitulé l’étude « Intelligence
        Artificielle & Ressouces Humaines : du cadre éthique à
        l’action ».

        Maud AYZAC
        et Thibault CHEVALEYRIAS
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
résumé
L’étude est composée d’un préambule et de cinq thèmes pour aider le lecteur à se
poser les questions clés relatives à l’adoption de l’IA.

COMMENT REPENSER LES DONNÉES ET L’IA DANS UN CADRE ÉTHIQUE ?
L’enjeu est de trouver le bon équilibre entre performance, éthique et responsabilisation
des hommes. Le développement de la confiance vis-à-vis de la gestion des données et des
solutions dotées d’IA nécessite de disposer de données fiables et éthiques combinée à une
IA éthique, transparente et responsable. Cet objectif pourrait être atteint par une approche
pluridisciplinaire, respectueuse des droits des personnes, avec une production de modèles
performants et explicables qui facilitent la prise de décision par les hommes.
Des labels d’éthique, complémentaires aux réglementations, valoriseront les solutions et
entreprises les plus responsables.

PEUT-ON CONCILIER INTELLIGENCE ARTIFICIELLE ET INTELLIGENCES HUMAINES ?
L’Intelligence Artificielle met l’homme face à de nombreuses questions qu’il n’avait jusqu’alors
pas à se poser, notamment sur ce qui fait sa singularité. Les intelligences humaines, car
l’homme est doté d’intelligences bien différentes (relationnelle, technique, émotionnelle,
empathique...), sont-elles compatibles avec les nouveaux outils utilisant l’IA ?
Dans quelle mesure IA et hommes peuvent-ils collaborer efficacement en entreprise et dans
quelle mesure l’IA rend-elle les hommes plus collaboratifs, créatifs et productifs ?
Les réponses se trouvent à la fois dans la façon de penser les IA de demain, afin d’éviter
les effets de boîte noire, mais aussi dans la faculté des hommes à développer de nouvelles
compétences, ce en quoi la DRH va jouer un rôle majeur.

DANS QUELLES MESURES L’IA TRANSFORME-T-ELLE LES EMPLOIS ?
Du fait de la nouveauté des sujets de l’Intelligence Artificielle et de ses conséquences
concrètes sur l’organisation des entreprises, beaucoup de théories – aussi bien positives
que négatives – sont véhiculées. Vecteurs de craintes ou d’optimisme, l’IA en entreprise ne
laisse pas indifférent. Va-t-elle détruire des emplois ou en créer ?
Quoi qu’il en soit, l’IA aura un impact significatif sur les métiers et la façon de les exercer.
Nous avons étudié différentes hypothèses sur l’impact de l’IA sur les emplois, et la place
de l’homme dans cette transformation.

COMMENT LA FONCTION RH EST-ELLE AMENÉE À ÉVOLUER AVEC L’IA ?
La DRH a un rôle majeur à jouer dans l’adoption de l’IA au sein de sa fonction et à l’échelle
de l’entreprise. Les politiques RH sont repensées. Le strategic workforce planning permet
d’anticiper les ressources nécessaires au développement de l’IA en termes d’emplois, de
compétences, de formations. Les technologies dotées d’IA sont intégrées.
Les processus RH (recrutement, formation, mobilité…) sont redéfinis avec pour cœur les
données et l’IA. L’adoption de l’IA pourra entraîner la transformation des emplois de la DRH.
Les RH seront amenées à acquérir des compétences techniques liées à l’IA et aux données
en complément des savoir-faire RH et des compétences comportementales.

QUELLES SONT LES ACTIONS CLÉS À MENER
POUR ACCOMPAGNER LES ACTEURS DANS L’ADOPTION DE L’IA ?
L’accompagnement des acteurs de l’organisation s’inscrit dans la continuité des plans de
transformation numérique. La DRH intervient dans toutes les phases clés de l’adoption de
l’IA depuis la définition de l’ambition IA, le choix des cas d’usages, l’accompagnement des
profils IA et des autres profils de l’entreprise, le pilotage des cas d’usages, le choix entre
le make or buy, les POCs, l’industrialisation des cas d’usages jusqu’au déploiement de l’IA
à l’échelle de l’entreprise. Les actions sont ciblées par population et sont mises en place à
chaque étape clé.
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
LES MEMBRES DU COMITÉ
DE PILOTAGE DE L’ÉTUDE                                        Point de vue

Nous tenons à remercier chaleureusement Ghislain              de Roland KARSENTY, DRH Europe MEA Latam
MISSONNIER, Président du Cercle Humania.                      du Groupe JOHNSON CONTROLS

Nous remercions également Roland KARSENTY, DRH                L’IA et la donnée sont deux enjeux fondamentaux
Europe MEA Latam du Groupe JOHNSON CONTROLS                   de la transformation digitale dans nos entreprises.
en sa qualité de sponsor de l’étude, ainsi que tous           Défis organisationnels, défis humains, défis de confiance
les membres du comité de pilotage, dans l’ordre               & de réputation, défis technologiques : ce sont tous
alphabétique :                                                ces défis et enjeux de mise en œuvre opérationnelle
                                                              auxquels les DRH vont devoir faire face dans les
    Luc BOIN, Sales Manager de TALK4                          grandes entreprises. Néanmoins, il faudra démystifier
    Nicolas BONTEMPS, DRH CREDIT AGRICOLE CAISSE IDF          l’IA pour saisir l’opportunité de booster le cycle
    du GROUPE CREDIT AGRICOLE                                 savoir-créativité-décision-action.
    Jean-Marc BUGNON, Directeur Qualité de la Caisse          L’IA va supporter la flexibilité des nouveaux processus de
    d’Epargne IDF, GROUPE BPCE                                l’Entreprise et va constituer un socle incontournable dans
    Paul COURTAUD, Directeur Général de NEOBRAIN              la « décision augmentée ». Essayons de capter cette
                                                              intelligence comme accélérateur d’innovation proactive.
    Hugues de La GIRAUDIERE, DRH du CNRS
    Bertrand de SAINT-GERMAIN, Sous-Directeur                 Améliorer l‘analyse prédictive dans les businesss models
    des Personnels à la DRH à la PREFECTURE DE POLICE         de nos entreprises requiert toujours et d’avantage de
                                                              pertinence dans les informations et les recommandations
    Evan FRIBURG, Head of Business Development                apportées aux décideurs, aux collaborateurs, aux clients,
    de DOMOSCIO                                               parce qu’elles sont fondamentales pour l’amélioration
    Yves GRANDMONTAGNE, Président du LAB RH                   des performances : résoudre des problèmes et créer de
    Général Frédéric HINGRAY, DRH de l’ARMEE de TERRE         la valeur.
    Olivier JASKULKE, HR digital Officer du Groupe ORANGE     L’IA est porteuse de progrès ; il faut en revanche se
    Marc LAGRIFFOUL, Directeur Talent Management              préparer à assurer un cadrage éthique, redéfinir et
    et Cadres Supérieurs de SNCF Mobilités                    repenser les activités, les tâches, l’augmentation
                                                              des capacités humaines, la place du travail, l’utilité
    Chantal LEGENDRE, Directrice Talent Management            individuelle, l’expertise, le savoir…
    et Graduates du Groupe ORANGE
    Marie SACKSICK, Data Scientist de DOMOSCIO                Les membres du groupe de travail sont allés à la
                                                              rencontre d’acteurs RH et de décideurs, le plus souvent
    Guillaume SARKOZY, Président de la FONDATION              membres de Comex ou de Directions générales, preuve
    MALAKOFF MEDERIC HANDICAP                                 du caractère hautement stratégique de l’IA et de la
    Mathieu SCHAAL, Chef de département Performance &         donnée.
    Expertise Digitale et Pédagogique ENEDIS                  Nous n’avons pu restituer ici qu’une partie des partages
    Muriel SCHULZ, Directrice Prospective et Stratégie        d’expérience et des réflexions, dont nous espérons qu’elle
    Ressources Humaines d’ADEO, ASSOCIATION FAMILIALE         sera représentative des divers degrés d’avancement et
    MULLIEZ                                                   également porteuse des initiatives les plus inspirantes.
    Camille VEZY, AI ethics & user resercher de PROLOGUE.ai   Bienvenue dans l’ère de l’IA et de la Donnée !
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
Maud AYZAC,
         Senior Manager au sein
         de la Practice People & Change

DE L’ÉTUDE
         Maud a développé
         une expertise en
         accompagnement des
         DRH et des Directions
         métiers de grands
         groupes sur des enjeux
         RH et de transformation
         d’entreprise.
AUTEURS
         maud.ayzac@wavestone.com

         ET L’ÉQUIPE WAVESTONE DÉDIÉE
         À L’ÉTUDE HUMANIA
         Cédric GOUBARD, Damien PROVOST, Léa RASTRELLI, Maja TASIC

         Thibault CHEVALEYRIAS,
         Consultant au sein de
         la Practice People & Change

         Thibault a développé
         un savoir-faire en
         accompagnement des
         DRH et des fonctions
         opérationnelles dans
         les domaines SIRH et
         évolution des emplois.
         thibault.chevaleyrias@wavestone.com
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
SOMMAIRE
           LA MÉTHODOLOGIE DE L’ÉTUDE HUMANIA 2019 .................... P 8

           PRÉAMBULE         ......................................................................................... P11

           COMMENT REPENSER LES DONNÉES
           & L’IA DANS UN CADRE ÉTHIQUE ? ............................................ P13

           PEUT-ON CONCILIER INTELLIGENCE ARTIFICIELLE
           ET INTELLIGENCES HUMAINES ? .................................................. P23
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
DANS QUELLES MESURES L’INTELLIGENCE ARTIFICIELLE
TRANSFORME-T-ELLE LES EMPLOIS ? ....................................... P33

COMMENT LA FONCTION RH EST-ELLE
AMENÉE À ÉVOLUER AVEC L’IA ? ............................................... P41

QUELLES SONT LES ACTIONS CLÉS À MENER
POUR ACCOMPAGNER LES ACTEURS
DANS L’ADOPTION DE L’IA ? ........................................................ P51

CONCLUSION          ...................................................................................... P59
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
LA MÉTHODOLOGIE
DE L’ÉTUDE HUMANIA 2019

                 8
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
RETOUR SUR LA DÉMARCHE DE L’ÉTUDE
L’ÉTUDE HUMANIA 2019 A ÉTÉ SUPERVISÉE                              Le groupe de travail, par sa composition, a permis
PAR UN GROUPE DE TRAVAIL, COMPOSÉ :                                d’appréhender, sous ses différentes dimensions clés, la
                                                                   problématique de l’IA et des ressources humaines de façon
 D e DRH volontaires, de Directeurs opérationnels, de             à apporter une vision systémique.
  représentants de startups, d’une personne rédigeant une
  thèse sur la matérialisation de l’éthique en Intelligence        Pour ce faire, le groupe de travail a fait le choix de proposer
  Artificielle. Les membres du comité de pilotage :                des éléments de fond et des illustrations sur le cadre
 Adeo - Association Familiale Mulliez, Armée de Terre, BPCE,       éthique, la conciliation des intelligences humaines et de
 Crédit Agricole, CNRS, Domoscio, Fondation Malakoff Médéric       l’Intelligence Artificielle, la transformation des emplois,
 Handicap, Johnson Controls, Le Lab RH, Neobrain, Orange,          les stratégies d’entreprise, les politiques et processus RH,
 Préfecture de Police, Prologue.ai, SNCF, Talk4, ENEDIS ;          les technologies et l’accompagnement des acteurs dans le
                                                                   cadre de l’adoption de l’IA.
 Du Cercle Humania, sponsor de l’étude et représenté
 par son président Ghislain MISSONNIER et par Roland
 KARSENTY, DRH Europe MEA Latam du Groupe Johnson
 Controls ;
                                                                         STRATÉGIE                           TRANSFORMATIONS
 De Wavestone, pilote et producteur de l’étude,                             IA              LE RÔLE            DES EMPLOIS
 représenté par Maud AYZAC et Thibault CHEVALEYRIAS.                                       DE LA DRH
                                                                                                               INTERACTIONS
                                                                    ENJEUX                                    HOMME/MACHINE
                                                                   ÉTHIQUES
                                                                   LIÉS À IA          DONNÉES,
                                                                                    ALGORITHMES,
       « Les objectifs définis par le groupe                                        CAS D’USAGE              IA ET LES
                                                                                         RH                DIFFÉRENTES
         de travail ont orienté les travaux                                                               INTELLIGENCES
     de l’étude pour trouver le juste équilibre                                                             HUMAINES
            entre l’analyse des concepts,
                                                                                              ENJEUX DE
          des réflexions pluridisciplinaires                                                 L’ADOPTION
      et des retours d’expériences concrets »

                                                                   LES RÉSULTATS DE CETTE ÉTUDE SE BASENT SUR :
                  VISION SYSTÉMIQUE
                                                                    Une analyse d’ouvrages et de rapports émanant de
                                                                    professionnels de différentes disciplines, cités dans
                                                                    le corps de l’étude. Certains supports sont dédiés à la
                                                                    problématique de l’IA dans sa globalité.
                        DÉBATS                                      Il nous a semblé pertinent d’articuler les réflexions émises
                                                                    aux enjeux de l’IA et des ressources humaines ;

                                                                    L’animation de débats entre les représentants des grandes
                                                                    entreprises et des startups pour enrichir les approches,
                        ÉTUDE                                       intégrer des idées et des expériences complémentaires et
                       HUMANIA                                      identifier des points de convergence ;
 ANALYSE DE              2019               ENQUÊTE
  RÉFLEXIONS                               QUALITATIVE
                                                                    Une enquête qualitative réalisée sur le 2 ème semestre 2019 :
   ET LIEN                                                          une quinzaine d’entretiens auprès de DRH, de Directeurs
    IA/RH                                                           opérationnels et de membres de startups afin de capter
                                                                    les bonnes pratiques, l’apport de solutions techniques, les
                                                                    difficultés rencontrées, les chantiers à adresser.
                                                                    Différents secteurs sont représentés.

                                                               9
INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
10
PRÉAMBULE

Le développement de l’IA est lié notamment à l’augmen-             Pour faciliter la mise en œuvre de la stratégie, il est
tation de données massives (Big Data), à la performance            nécessaire d’assurer un cadrage de la démarche d’adoption
technologique (ex : croissance de la puissance de calcul,          de l’IA et de la Data.
infrastructures réseaux à très haut débit) et aux cas
d’usages qui tendent à contribuer à l’innovation et à la           Avec les parties prenantes, sont définis notamment
performance des organisations.                                     les principes éthiques, le mode de fonctionnement, le
                                                                   processus décisionnel, les méthodes, le pilotage adéquat.

            « L’adoption de l’IA relève                            Et si la DRH contribue à la définition de la stratégie, du
          d’une démarche systémique »                              cadrage et de la feuille de route, elle joue un rôle majeur
                                                                   plus particulièrement dans 5 domaines :
                                                                    La définition du cadre éthique
Pour ce faire, la stratégie des organisations évolue pour           La conciliation des intelligences humaines et de l’IA
englober l’IA et la DataScience dans le but de développer           La transformation des emplois et des compétences
leur business et leur compétitivité.                                Les politique et processus RH
L’adoption de l’IA relève d’une démarche systémique car             L’accompagnement des parties prenantes.
elle touche toutes les dimensions de l’entreprise (éthique,
métier, économique, technique, organisation, management,
emplois et compétences…).

                                                              11
12
COMMENT REPENSER LES DONNÉES
ET L’IA DANS UN CADRE ÉTHIQUE ?

L’enjeu est de trouver le bon équilibre entre performance, éthique et
responsabilisation des hommes.
Le développement de la confiance vis-à-vis de la gestion des données
et des solutions dotées d’IA nécessite de disposer de données fiables et
éthiques combinées à une IA éthique, transparente et responsable.
Cet objectif pourrait être atteint par une approche pluridisciplinaire,
respectueuse des droits des personnes, avec une production de modèles
performants et explicables qui facilitent la prise de décision par les hommes.
Des labels d’éthique complémentaires aux réglementations valoriseront
les solutions et entreprises les plus responsables.

                                             13
LA FIABILITÉ DES DONNÉES, UN ENJEU RÉACTUALISÉ

     en    bref
     Les données sont une source de valeur immense pour les entreprises,
     à condition qu’elles soient qualifiées et que les collaborateurs soient
     acculturés à leur manipulation.

LA FIABILITÉ DES DONNÉES EST UN CONCEPT                              Cette prise de conscience globale demande d’avoir une
QUI A ÉVOLUÉ AVEC L’APPRÉCIATION DE LA DONNÉE.                       vision à la fois commune de la qualité de la donnée et
                                                                     comprise par l’ensemble des collaborateurs.
Les GAFAs ont montré la pertinence de capitaliser sur cette
matière, entraînant une augmentation de sa valeur.                   Les niveaux de gestion de qualité de la donnée vont de
Sa gestion est devenue stratégique et avec elle la gestion           la centralisation de ces dernières dans une base unique,
de sa qualité.                                                       comme le core HR , jusqu’à la prise de conscience de chaque
À l’image d’un carburant non raffiné, si la donnée reste             utilisateur du parcours d’une donnée de sa saisie dans un
brute, sans traitement, le moteur « IA » ne sera ni fiable           outil à son exploitation.
ni autonome et dans l’incapacité de vous propulser
rapidement dans une direction.

                                                                              « Une donnée de bonne qualité
                                                                                 dépasse le seul concept
                                                                                de l’information correcte »

                                                                     QUALIFICATION ET CENTRALISATION
                                                                     DE LA DONNÉE
                                                                     Appréhender un premier niveau de mise en qualité dans
                                                                     les organisations revient à centraliser les données puis
                                                                     automatiser leur entrée et sortie.
                                                                     La mise en place des « core » , comme le core HR , permet
                                                                     de regrouper l’ensemble des données au même endroit
                                                                     afin d’être en capacité de les structurer.
Une donnée de bonne qualité dépasse le seul concept de               Ces politiques permettent de faire un premier tri de
l’information correcte. Cela peut aussi signifier qu’elle est        solutions, clarifier les canaux de distribution des données
issue d’une source fiable dans un cycle de saisie correct            et ainsi de transformer des produits bruts en produits
avec un emplacement dans les bases internes qui est                  exploitables.
identifiable et facile à retrouver.
                                                                     À cet instant, la pertinence du core revêt son deuxième
La justesse de l’information ne suffit plus, il faut qu’elle
                                                                     point fort en proposant une base pour automatiser
soit exploitable c’est-à-dire ancrée dans un contexte et une
                                                                     l’ensemble de la chaîne de vie d’une donnée de son
durée qui permettent son analyse et la prise de décisions.
                                                                     arrivée, à son stock puis sa destruction.
C’est pour cela que les politiques de gestion de la donnée
vont au-delà d’une saisie de données et prennent en                  Dans le cas d’un core HR , automatiser le cycle de la donnée
considération le rapport d’une donnée à la notion de                 permet de tracer son exploitation dans les entreprises et de
confidentialité, de péremption de l’information, de                  répondre à une réglementation telle que le RGPD.
récurrence et de saisie (manuelle ou automatique).

                                                                14
INTÉGRATION DE L’IA
                                                                    La qualité de la donnée et de sa gestion, la clé de l’apport
                                                                    de valeur ajoutée d’une Intelligence Artificielle.

                                                                    L’IA est un nouvel outil de support à l’activité permettant
                                                                    d ’ i n d u st r i a l i s e r d e s p ro ce s s p a r fo i s ré p ét i t i f s et
                                                                    représentant une aide à la prise de décision.
                                                                    Le traitement de données en masse est l’une des forces
                                                                    majeures connues de l’IA. Les organisations qui ont déjà
                                                                    testé cette technologie pour cette raison sans sécuriser la
                                                                    fiabilité de leurs données connaissent un résultat similaire :
                                                                    un manque de valeur ajoutée, des résultats parfois
                                                                    paradoxaux, une perte de confiance en l’outil et le gel des
                                                                    budgets associés.

                                                                    L’IA travaille avec vos données, elle ne les rend pas fiables.
                                                                    Rendre les données fiables n’est pas encore dans les
                                                                    attributs des technologies actuelles avec IA.
                                                                    Néanmoins, une fois qu’une IA est entraînée par des
Crédit: xkcd (https://xkcd.com/1838/)                               données fiables, sa capacité à reconnaître des données de
                                                                    mauvaise qualité est un support de maintien des modèles.
 ACCULTURATION À LA DONNÉE
La mise en qualité de la donnée se trouve dans la
capacité à acculturer, responsabiliser et engager chaque
collaborateur dans sa consommation de données.

Transformer le rapport à la donnée, avec une approche
globale revient à proposer un nouvel environnement de
travail pour fournir des outils adaptés.
Une personne qui a conscience de la valeur d’une donnée
est une personne qui en comprend le cheminement dans
les process de l’organisation.

Il s’agit d’intégrer un volet de maîtrise de la donnée dans
les fiches de postes et de construire des plans de formation
d’acculturation à la donnée personnalisée pour tous les
collaborateurs.
Les collaborateurs sont en mesure de transformer de la
donnée brute et de l’utiliser pour des analyses prédictives
par exemple.                                                            Le POC, « Proof Of Concept », est la matérialisation de ce
                                                                    (1) 

                                                                        tri. Il propose une méthode qui structure le besoin d’une
                                                                        organisation confronté aux solutions qu’elles possèdent.
                                                                        Cela permet d’une part de recentrer sa consommation
          « Les données qui jusqu’alors                                 d’outils à ses besoins réels et d’autre part de mettre en
       ne prenaient parfois pas sens à être                             avant un manque d’outils potentiel sur un process cœur
                                                                        de l’activité.
     exploitées, gagnent une deuxième vie »

Avec un process de mise en qualité fiable de bout-en-bout,
l’outil IA permet de valoriser les données disponibles.

                                                               15
L’ÉTHIQUE DE LA DONNÉE,
PROTECTION DES DROITS ET INNOVATION

     en     bref
     Parler d’éthique de l’IA, c’est poser les questions de responsabilité, du droit
     des personnes face aux « boîtes noires ». Des réglementations telles que
     le RGPD tentent d’y répondre par un cadre légal, mais elles ne suffiront
     pas pour faire évoluer les pratiques.

La question de la gestion de la donnée, et a fortiori                 D a n s l e m o n d e d e l ’e nt re p r i s e, d ’a u t re s c ra i nte s
de la gestion éthique de la donnée, est d’autant plus                 apparaissent comme celle de la surveillance systématique
compliquée à l’échelle mondiale que différentes visions               avec la multiplication des outils de chatbot, de déclaration
s’opposent, pour des raisons historiques et culturelles.              des compétences et appétences, etc.
Aurélie Jean identifie trois grands modèles de gestion de
la donnée, volontairement simplistes, pour expliciter les             De manière générale, on observe que les technologies ont
oppositions idéologiques.                                             été développées sans que les conséquences sociales et
                                                                      sociétales n’aient été anticipées ; et les craintes sont de
Le modèle Américain, celui des GAFAs, tech enthousiaste,              fait légitimes.
développe des solutions sans nécessairement penser aux
conséquences sociales et dans lequel la donnée peut être              L’Union Européenne avec la Réglementation Européenne sur
vendue pour un profit.                                                la Protection des Données (RGPD), a fait un premier grand
Les États-Unis sont cependant en train d’évoluer avec                 pas vers une réglementation de la donnée qui clarifie des
l’entrée en vigueur au 1er janvier 2020 en Californie d’une           droits et des devoirs, aussi bien pour les entreprises que
loi sur les données personnelles. Le Congrès souhaiterait             les utilisateurs, et limite les usages abusifs des données
faire adopter une loi fédérale. Le modèle Chinois prévoit             par les entreprises.
que toute donnée appartient à l’État. Enfin, le modèle
Européen se caractérise par la protection des données.                Cette réglementation va dans la bonne direction et
                                                                      pourtant, il est aussi légitime de la mettre en regard des
C’est une classification volontairement caricaturale                  besoins contradictoires de l’IA qui a besoin de beaucoup
mais elle permet de mettre en évidence les politiques                 de données pour fonctionner.
diamétralement opposées des grandes puissances
mondiales en termes de gestion des données alors que les
données passent les frontières.

Face aux enjeux de l’Intelligence Artificielle, qui se nourrit
de données en masse, une réflexion sur les droits liés
à la donnée et sur l’éthique des données nous semble
essentielle.
D’ailleurs, une partie de la population ressent de la
méfiance face à ces nouvelles technologies utilisant leurs
données.

 Cette méfiance provient en grande partie de l’effet boîte
 noire de l’IA : comment faire confiance à une solution que
 je ne comprends pas ?

 La réserve est liée également à la responsabilité : qui est
 responsable des décisions d’une IA ?

                                                                 16
De plus, l’Intelligence Artificielle est portée par différents           Aussi, si les grands groupes sont intéressés par l’agilité
créneaux : le make , ou la capacité des entreprises                      et l’approche innovante de certaines startups, ils peuvent
à avoir les ressources techniques, fonctionnelles et                     être confrontés à des différences de culture et d’enjeux
juridiques pour créer leurs propres solutions et le buy ,                légaux qui posent des problèmes opérationnels dans
impliquant la contractualisation avec un prestataire pour                l’implémentation de solutions d’Intelligence Artificielle.
l’implémentation d’une solution existante.                               Il semble important de continuer à sensibiliser les startups
                                                                         à l’application d’une telle réglementation au sein des
Se pose donc la question de l’intégration des solutions                  grandes entreprises.
externes souvent portées par des startups connaissant peu
les complexités légales de conformité auxquelles les grands              Un autre point à mentionner ici est le transfer learning :
groupes sont confrontés. S’il est évident aujourd’hui que                comme les algorithmes nécessitent énormément de
les grands groupes et les startups gagnent à collaborer,                 données, certains prestataires peuvent utiliser chez
il est important de comprendre qu’ils ont des codes, des                 un client un modèle ayant déjà été pré-entraîné sur les
habitudes de travail et des cultures très différentes.                   données d’un autre. Cela peut être bénéfique.

Les solutions des startups qui sont intégrées ponctuellement             À titre illustratif, des acteurs du secteur bancaire souhaitant
dans les grandes entreprises par des POC (Proof Of Concept :             analyser des documents financiers peuvent faire appel à la
test d’une solution sur un temps et un périmètre limité)                 même startup pour mutualiser les modèles car le volume
risquent de pas toujours répondre à tous les enjeux des                  de données générées est insuffisant pour obtenir des
entreprises en termes de RGPD lorsqu’il s’agit ensuite                   performances satisfaisantes individuellement.
d’industrialiser une solution de manière pérenne et sur                  Cependant, c’est un point sur lequel il faut être clair
un périmètre plus large.                                                 lorsqu’on sous-traite. C’est d’autant plus le cas quand le
D’ailleurs, certaines entreprises identifient que plusieurs              process d’entraînement du modèle n’est pas destructif et
startups ne passent pas la marche de l’industrialisation à               que, par exemple, les données d’entraînement peuvent être
cause du risque RGPD trop peu anticipé et contrôlé.                      reconstruites à partir du modèle.

      L’EXEMPLE EUROPÉEN
     FOCUS SUR LE RGPD ET L’ANTINOMIE AVEC UNE CERTAINE FORME D’IA
     Afin de personnaliser le parcours d’un collaborateur,             Cette opposition idéologique quant au déploiement de
     d’aiguiller les recherches de compétences ou de gérer des         l’IA s’exprime dans le RGPD par le principe de protection
     processus RH entiers, l’IA requiert pour son analyse une          par défaut (Article 25.2 – RGPD) ainsi que par la notion de
     grande quantité de données, potentiellement des données           minimisation (Article 5.c – RGPD).
     à caractère personnel.                                            La protection par défaut décrit que le traitement à effectuer
     Elle n’intègre pas de limites à la quantité de données            ne doit utiliser, pour une finalité précise, que des données
     analysées, et c’est son principe : la personnalisation par        personnelles nécessaires à celui-ci.
     l’analyse d’un ensemble non caractérisé de données sous
     des formes diverses, structurées (les données du SIRH) et         Cette règle, couplée au principe de minimisation qui lui,
     non structurées (des données textuelles des CV, réseaux           requiert que les traitements ne doivent utiliser que les
     sociaux, etc.).                                                   données adéquates, pertinentes et en quantité limitée,
                                                                       questionne l’application de l’IA. Il est dans ce cadre
     Cependant, cette analyse de masse va à l’encontre de              nécessaire de retraiter les données afin de ne garder que
     certains principes du RGPD. Nous identifions ici une              celles qualifiées de pertinentes.
     confrontation forte entre deux principes structurants
     de l’IA et du RGPD : d’une part, pour être performante,           Or aujourd’hui, les technologies d’Intelligence Artificielle
     une IA a besoin de beaucoup de données, d’autre part, le          permettent l’identification de tendances (patterns en
     RGPD incite à la minimisation et la protection des données        anglais) par l’analyse et le croisement d’un maximum de
     utilisées.                                                        données que l’homme n’est pas en capacité de réaliser.

                                                                  17
L’IA RESPONSABLE : UNE APPROCHE PLURIDISCIPLINAIRE
DANS LAQUELLE LA DRH À UNE VOIX

       en    bref
       Des voix se lèvent pour le développement d’une IA responsable et
       éthique, au-delà et en amont des réglementations. Les travaux doivent
       être pluridisciplinaires et transversaux. Des labels d’éthique valoriseront
       demain les outils et entreprises les plus responsables.

Les réglementations comme le RGPD sont une bonne                         Certains pôles d’innovation en Intelligence Artificielle l’ont
démarche, car cette dernière a également eu le mérite                    d’ailleurs très bien compris.
d’éveiller les consciences et de forcer les entreprises à                Montréal, l’une des places fortes de l’Intelligence Artificielle
changer leurs processus, mais elles ne peuvent suffire                   dans le monde aujourd’hui, a mené et continue de
à établir les bases d’un cadre pour le développement                     conduire de nombreuses réflexions en amont sur l’éthique
d’Intelligence Artificielle de manière éthique.                          et la donnée. L’une des démarches les plus avancée est
                                                                         la Déclaration de Montréal pour le développement
Les réglementations arrivent généralement en retard sur le               responsable de l’IA (2).
déploiement des technologies et le RGPD est encore flou                  Il est intéressant de noter que cette démarche est « pour »
sur de nombreux aspects.                                                 le développement de l’IA et donc favorable à l’innovation,
En effet, les réglementations ne peuvent pas aller assez                 et qu’elle répond aux écueils précédents.
loin car elles ne peuvent pas être adaptées à chaque type
de secteur : on ne gère pas les données de santé comme                   Cette démarche citoyenne, démocratique et pluridis-
les données RH ou comme les données bancaires.                           ciplinaire a répondu à l’une des problématiques de l’IA
                                                                         aujourd’hui : ceux qui développent les outils n’ont pas tou-
Enfin, les réglementations n’impactent pas significative-                jours conscience des impacts sociaux et sociétaux qu’ils
ment la façon dont les technologies sont développées,                    génèrent.
or c’est bien là qu’un éveil des consciences est nécessaire.             C’est pourquoi nous sommes convaincus de la nécessité
                                                                         d’avoir une approche systémique et en transversalité sur
                                                                         plusieurs disciplines.
                                                                         La Déclaration de Montréal a pour objectif de donner un
                                                                         cadre au développement de l’Intelligence Artificielle pour
                                                                         que cette dernière serve au bien-être de tout un chacun.

                                                                         Des apports de sociologues et philosophes permettent la
                                                                         prise en compte de problématiques sociétales et de ce fait
                                                                         de développer des outils de manière responsable, sans
                                                                         aliéner les droits des personnes.
                                                                         La déclaration s’articule autour de 10 valeurs principales
                                                                         que sont le bien-être, l’autonomie, l’intimité et la vie
                                                                         privée, la solidarité, la démocratie, l’équité, l’inclusion,
                                                                         la prudence, la responsabilité et la soutenabilité environ-
                                                                         nementale. La DRH se doit d’être la voix des collaborateurs
                                                                         en entreprise et répondre aux craintes de ces derniers en
                                                                         s’impliquant au sein de ces démarches.

   Déclaration de Montréal pour un développement respon-
(2)

   sable de l’Intelligence Artificielle, Université de Montréal :
   https://www.declarationmontreal-iaresponsable.com/

                                                                    18
Les entreprises peuvent dès aujourd’hui être signataires
de cette initiative ou d’autres démarches similaires afin
d’envoyer le signal à leurs collaborateurs que d’une
part, elles soutiennent l’innovation et s’intéressent au
développement de l’IA, et d’autre part qu’elles le font en
prenant en compte leurs droits.

Il s’agit pour les entreprises de rétablir une forme de
confiance vis-à-vis des nouvelles technologies, afin
de promouvoir leur développement et de garantir une
adoption plus large et aisée.

    « Ceux qui développent les outils n’ont
     pas toujours conscience des impacts
    sociaux et sociétaux qu’ils génèrent »

La Commission Européenne s’est, elle aussi, lancée dans
une réflexion autour d’une IA éthique et responsable.
En 2019, elle a défini 7 principes comprenant notamment
le contrôle humain, la transparence, le bien-être sociétal
et environnemental et la responsabilisation.
Quarante-deux pays ont adopté les Principes de l’OCDE
sur l’IA en 2019.
En parallèle, un regroupement d’entreprises, ONG, juristes
travaillent autour du concept de digital human rights visant
à sauvegarder les avancées en matière de liberté humaine
dans le contexte d’une société digitalisée à grande échelle.

Dans la même démarche de valorisations des outils respon-
sables, et pour répondre aux enjeux sectoriels variés, des
labels d’éthique sont créés.

Ces labels ont pour objectif de valoriser les entreprises
développant et utilisant des outils responsables dans
l’usage qu’ils font des données.                                    « Les apports de sociologues et philosophes
                                                                           permettent la prise en compte
De plus en plus, des labels vont apparaitre pour répondre                  de problématiques sociétales
aux enjeux d’éthique de la donnée de la même manière                   et de ce fait de développer des outils
que des labels sont apparus pour valoriser les entreprises             de manière responsable, sans aliéner
offrant les meilleures conditions de travail.
                                                                             les droits des personnes »
Il existera demain un Great Place to Work de la donnée
récompensant les entreprises engagées dans une gestion
des données et des technologies respectueuses des droits
des personnes.
Ces labels sont le reflet d’une prise de conscience d’une
demande croissante des individus dans la société, et des
collaborateurs en entreprise.

                                                               19
LA TRANSPARENCE ET LA RESPONSABILITÉ BY DESIGN

     en      bref
     Il existe des initiatives pour développer des IA qui intègrent la transparence
     et la responsabilité dans leur mode de fonctionnement.
     L’objectif est de trouver le bon équilibre entre performance, éthique et
     responsabilisation des hommes.

         « The effectiveness of these systems
    is limited by the machine’s current inability
        to explain their decisions and actions
                  to human users » (3)

Il existe des démarches tentant de développer une
Intelligence Artificielle plus transparente, afin de réduire
les effets de boîte noire et de responsabiliser l’homme.

Aux États-Unis, la DARPA (Agence pour les projets de
recherche avancée de défense) fait le constat de la multi-
plication des projets d’Intelligence Artificielle, et se réjouit
des applications toujours plus poussées permises par des
systèmes prenant des décisions de manière autonome.                     Le problème de ce type d’IA est que l’homme n’est pas en
                                                                        mesure de répondre aux questions suivantes :
Cependant, elle note également que « The effectiveness                    Pourquoi avoir pris cette décision ?
of these systems is limited by the machine’s current inabi-               Pourquoi ne pas en avoir pris une autre ?
lity to explain their decisions and actions to human users »              Pourquoi faire confiance à cette décision ?
(“L’efficacité de ces systèmes est limitée par la propre
incapacité de l’IA à expliquer les décisions prises aux uti-            Les recherches menées par l’armée américaine ont pour
lisateurs humains »).                                                   nom XAI, ce qui signifie Explainable AI (Intelligence
L’effet boîte noire est en effet d’autant plus problématique            Artificielle explicable).
dans l’armée pour qui les décisions prises par un outil                 Les objectifs de XAI sont de développer une IA qui en plus
peuvent entraîner la vie ou la mort.                                    de faire des prédictions et proposer des décisions fondées
                                                                        sur l’analyse de données, donne une clé de lecture pour
La question de la responsabilité est fondamentale.                      comprendre le processus de prise de décision.
Comment identifier des responsables si les décisions prises
ne sont pas comprises par l’homme ?                                        Produire des modèles explicables tout en maintenant
La même problématique apparait dans l’armée française.                     une haute performance et une haute fiabilité d’analyse
La chaine de responsabilité dans l’armée ne peut accepter                  et de prédiction.
des zones d’incertitude.
Les enjeux qui existent dans l’armée exacerbent la théma-                  Donner aux hommes les clés de lecture pour comprendre
tique, mais elle est tout aussi vraie en entreprise et dans                et donc s’approprier et faire confiance aux décisions
un service RH.                                                             proposées ; ou si besoin, les challenger.
Personne ne souhaite prendre des décisions de recrutement
ou de licenciement en se fondant sur des conclusions dont                  Explainable Artificial Intelligence (XAI), Dr. Matt Turek,
                                                                        (3)
le cheminement n’est pas compris.                                          DARPA (Defense Advanced Research Projects Agency).

                                                                   20
aujourd’hui                                                             XAI
                            DONNÉES                                                  DONNÉES
                         D’ENTRAÎNEMENT                                           D’ENTRAÎNEMENT

                       PROCESS DE MACHINE                                      NOUVEAU PROCESS
                           LEARNING                                           DE MACHINE LEARNING

                       FONCTION APPRISE                                         MODÈLE EXPLICABLE
                       NON TRANSPARENTE
                                                                            INTERFACE D’EXPLICATION
                      Décision Recommandation

                        TACHE UTILISATEUR                                        TACHE UTILISATEUR

  • Pourquoi cette décision ?                                        • Je comprends le pourquoi de la décision
  • Pourquoi pas une autre décision ?                                • J e comprends pourquoi les autres décisions
                                                                        ne sont pas retenues
  • Dans quelle cas l’IA trouve t-elle une solution ?                • J e comprends pourquoi le modèle trouve
  • Dans quel cas l’IA n’en trouve t-elle pas ?                         une solution
                                                                     • Je comprends pourquoi il n’en trouve pas
  • Quand faire confiance au modèle ?                                • Je sais quand faire confiance au modèle
  • Comment corriger une erreur ?                                    • Je sais quand le modèle se trompe

Ce type d’initiative va dans la bonne direction car elle per-          Les solutions plus transparentes faciliteront l’articula-
met de donner à l’homme un véritable partenaire artificiel             tion entre l’homme et les solutions dotées d’Intelligence
intelligent, qui l’aide dans ses prises de décisions sans le           Artificielle.
déresponsabiliser.                                                     À date, plusieurs avis sont émis sur la garantie de rendre
                                                                       un modèle interprétable. De façon schématique, soit des
Appliqué aux métiers RH, des outils plus transparents ne               modèles simples et faciles à comprendre avec une perfor-
peuvent que faciliter leur déploiement et leur acceptation             mance relative sont utilisés, soit des méthodes expliquant
à la fois par les collaborateurs et par les RH.                        les résultats sont exploitées.
Ils permettraient également de développer la confiance                 Ces dernières sont coûteuses en puissance de calcul.
pour les nouvelles technologies et donc de faciliter le                Dans certains cas, l’explication peut être apportée.
déploiement des outils.                                                Dans d’autres cas, cela n’est pas faisable.

     « La transparence et la responsabilité
               sont essentielles »

                                                                21
22
PEUT-ON CONCILIER
INTELLIGENCE ARTIFICIELLE
ET INTELLIGENCES HUMAINES ?
L’Intelligence Artificielle met l’homme face à de nombreuses questions qu’il
n’avait jusqu’alors pas à se poser, notamment sur ce qui fait sa singularité.
Les intelligences humaines, car l’homme est doté d’intelligences bien
différentes (relationnelle, technique, émotionnelle, empathique, etc.), sont-
elles compatibles avec les nouveaux outils utilisant l’IA ?
Dans quelle mesure IA et hommes peuvent-ils collaborer efficacement
en entreprise et dans quelle mesure l’IA rend-elle les hommes plus
collaboratifs, créatifs et productifs ?
Les réponses se trouvent à la fois dans la façon de penser les IA de demain,
afin d’éviter les effets de boîte noire, mais aussi dans la faculté des hommes
à développer de nouvelles compétences, ce en quoi la DRH va jouer un
rôle majeur.

                                             23
INTELLIGENCE ARTIFICIELLE / INTELLIGENCE HUMAINE
FRONTIÈRE ? SIMILITUDE ? DIFFÉRENCIATION ?

     en    bref
     La similitude entre l’IA et l’intelligence humaine s’illustre par les biais
     humains et algorithmiques ainsi que par le principe de l’intelligence
     ensembliste. L’intelligence humaine est multiforme, émotionnelle,
     empathique. L’homme a une aptitude à la conceptualisation que n’a pas
     la machine. Les problématiques sont identifiées par l’homme.

L’Intelligence Artificielle et ses applications en entreprise        BIAIS ALGORITHMIQUES
nous permettent de décrypter et questionner les capacités
de l’homme.                                                          L’IA reproduit les biais de l’homme : dans la mesure où elle
Elle propose en effet de nouveaux systèmes d’analyse des             intègre des données humaines, ses conclusions tendent à
comportements humains et par ce fait nous questionne sur             se rapprocher des conclusions de l’homme.
notre propre intelligence.                                           L’homme a des biais cognitifs, du fait de son éducation,
La peur du remplacement liée à ces nouvelles technologies,           sa culture, son environnement et toutes sortes de facteurs
est due à un questionnement profond sur ce qui rend                  sociaux-culturels.
l’homme différent de la machine et de l’algorithme.
C’est un réflexe humain que de trouver notre singularité             Ces biais cognitifs se transforment en biais algorithmiques
face à des machines qui sont capables de tâches toujours             dès lors qu’ils sont retranscrits dans une Intelligence
plus avancées. L’Intelligence Artificielle est-elle une              Artificielle ou même un simple programme complexe.
reproduction des capacités d’intelligence de l’homme ?               Les exemples sont multiples aussi bien dans la société
                                                                     que dans les entreprises. Dans les RH par exemple, le
                                                                     phénomène se produit avec des algorithmes utilisant
Ainsi, l’intelligence de l’homme ne se résume-t-elle qu’a            l’IA pour identifier et présélectionner des candidats à un
une puissance de calcul infiniment complexe et capable               poste à partir de l’analyse des données de l’entreprise et
d’appréhender les subtilités des émotions, des relations             du marché de l’emploi.
interpersonnelles ?                                                  En utilisant sans retraitement l’historique des profils de
 Où est la limite entre ces deux types d’intelligences et            l’entreprise, les ambitions affichées des candidats sur les
 qu’est-ce qui les différencient ?                                   réseaux sociaux et tout un ensemble de données, l’IA peut
                                                                     proposer plus de profils d’hommes que de femmes.
                                                                     En utilisant des données humaines, l’IA intègre le biais
                                                                     cognitif lié au contexte humain.

                                                                     La compréhension des biais algorithmiques est l’un des
                                                                     grands enjeux de l’éthique de l’IA et de l’éthique de la
                                                                     donnée. Afin de les identifier et de tenter de les minimiser,
                                                                     la transversalité des disciplines et essentielle.

                                                                            « Afin de les identifier et de tenter
                                                                            de les minimiser, la transversalité
                                                                              des disciplines et essentielle »

                                                                24
INTELLIGENCE ENSEMBLISTE
Dans la volonté de créer des Intelligences Artificielles
toujours plus puissantes, capables de réaliser des tâches
complexes, l’homme a appliqué des concepts qui lui
correspondent, l’intelligence collective par exemple.

La seule puissance de calcul de la machine, aussi forte et
exponentielle qu’elle soit (loi de Moore) ne parvient plus
à résoudre les problématiques les plus avancées telles que
la conduite autonome.
« L’intelligence de Watson repose sur la sagesse d’une foule
d’algorithmes » nous explique Emile Servan-Schreiber dans
Supercollectif (4).
En effet, cette Intelligence Artificielle est construite selon
la méthode ensembliste.

Cette méthode consiste à modifier le processus
d’entraînement pour combiner plusieurs modèles et profiter
de leurs synergies afin de résoudre une problématique
donnée. C’est une forme d’intelligence collective à l’échelle
de l’IA, un brainstorming de l’IA avec elle-même.

Un processus de sélection par vote ou par moyenne est fait
pour proposer la solution finale et un apprentissage peut
être fait par système de pondération pour que l’algorithme
soit plus efficace dans le temps au fil des itérations.

             « L’intelligence de Watson
                repose sur la sagesse
            d’une foule d’algorithmes »

Le phénomène observé par des chercheurs de l’Université
de Carnegie Mellon, du MIT et de l’Union College , selon
lequel l’intelligence d’un groupe est plus grande que la
somme des intelligences individuelles (5) s’applique à une
IA ensembliste comme elle s’applique à l’homme.

   Emile Servan-Schreiber, 2018, Supercollectif :
(4)

   la nouvelle puissance de nos intelligences
   Peter Dizikes, MIT News, 2010 : “Putting heads together
(5)

   – New study: groups demonstrate distinctive ‘collective
   intelligence’ when facing difficult tasks”

                                                                 25
INTELLIGENCE ÉMOTIONNELLE
 ET GLOBALE
Cependant, si la recherche sur les réseaux de neurones
(qui précède d’ailleurs celle de l’IA) est née d’une réflexion
théorique sur la reproduction du fonctionnement du
                                                                                 « Les machines ne font que répondre
cerveau humain, il n’en reste pas moins que ces deux formes                        à des problématiques identifiées
d’intelligences sont très différentes.                                                      par l’homme »
Jean-Claude Heulin rappelle que « la puissance des réseaux
de neurones est essentiellement logique et systématique :                  Il faut noter aussi que lorsqu’un système est capable
elle est capable d’analyser de grands volumes de données qui               d’apprendre de façon autonome à exécuter des tâches, celles-ci
dépassent de très loin nos capacités cognitives, de proposer               sont limitées à un périmètre précis.
plusieurs solutions logiques, et de choisir celle dont la                  Les applications de l’IA sont limitées par rapport à ce que peut
probabilité ou le score est le plus important. » (6)                       produire l’intelligence humaine.

Par opposition l’intelligence humaine est « multiforme,                    En effet, si ces IA sont très puissantes dans des tâches
émotionnelle et empathique ».                                              spécifiques, elles n’ont pas encore d’intelligence globale.
L’homme prend de nombreuses décisions de manière                           Lorsqu’un homme est très doué à une tâche spécifique –
émotionnelle et les rationalise à posteriori.                              identifier les émotions pour reprendre l’exemple précédent
                                                                           – on s’attend à ce qu’il soit doué pour des tâches similaires
                                                                           et proches.

              « L’intelligence humaine                                     Cette faculté n’est pas donnée pour l’IA qui est bien plus
            est multiforme, émotionnelle                                   cloisonnée (pour l’instant). Les IA ne réalisent quasiment
                                                                           jamais la totalité d’une activité, elles viennent compléter
                   et empathique »                                         des tâches réalisées par des humains.
                                                                           Il est rarement rentable d’automatiser entièrement une activité
                                                                           faites de multiples tâches par des machines et IA.
Avant même d’aborder la thématique du processus de
l’intelligence, il est notoire de rappeler que si l’IA répond              Nous y reviendrons dans la partie suivante par rapport à la
parfois très bien à des problématiques spécifiques, c’est                  question de la destruction et transformation des emplois.
toujours l’homme qui pose les questions à traiter.                         La machine ne remplace par l’homme mais l’améliore, le rend
                                                                           plus productif en le libérant d’une tâche, qu’elle fait mieux et
C’est une distinction fondamentale pour appréhender le sujet.              qui lui permet de faire les autres plus efficacement.
Les machines ne font que répondre à des problématiques
identifiées par l’homme et en ce sens, l’entrepreneur, le
créateur, le scientifique et tous ceux qui posent les questions,
qui cherchent des territoires nouveaux, ont toujours un rôle
majeur à jouer pour définir les innovations de demain.

Savoir poser les bonnes questions est une compétence
essentielle et elle demande de l’esprit critique, de la créativité,
de l’inspiration.

De plus, si la machine est capable d’identifier les émotions
humaines avec une grande précision par l’analyse du ton de
la voix, de l’expression du visage, elle ne sait pas utiliser les
émotions comme l’homme pour motiver, persuader, inspirer.

   Jean-Claude Heulin, Futuribles, 2019,
(6)

   « Intelligence Artificielle et intelligence humaine »

                                                                      26
Vous pouvez aussi lire