INTELLIGENCE ARTIFICIELLE ET RESSOURCES HUMAINES - Du cadre éthique à l'action - Wavestone
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Cette étude, réalisée dans le cadre du Cercle Humania de juin à décembre 2019, vise à apporter un éclairage sur les enjeux de l’Intelligence Artificielle et le rôle majeur que les DRH ont à jouer dans la transformation numérique de leur organisation, de la définition de la stratégie IA et du cadre éthique jusqu’à la mise en œuvre des actions prioritaires. Nous avons choisi d’inscrire l’étude dans un cadre systémique de façon à articuler l’IA avec toutes les dimensions de l’entreprise. En effet, les technologies liées à l’IA se développent rapidement. Mais dans un certain nombre de cas, la stratégie IA n’a pas été suffisamment définie dans les organisations. Les cas d’usages de l’IA ont pu être développés sans qu’une définition et une priorisation soient assurées au regard notamment de la valeur ajoutée apportée au métier. C’est ainsi que de nombreux proof of concept ont été initiés, sans pour autant déboucher sur une industrialisation. En parallèle, de bonnes pratiques d’intégration de technologies existantes et de développement d’applicatifs avec de l’IA se sont développées et certaines sont décrites dans l’étude. ÉDITO La vision systémique amène à réfléchir en même temps aux enjeux stratégiques, éthiques, métiers, technologiques et humains pour ensuite définir une feuille de route cohérente. Le rapport aborde, sous ses dimensions clés, la problématique de l’IA et des ressources humaines. Notre approche se caractérise par une articulation de réflexions pluridisciplinaires, de témoignages d’expériences et de propositions d’actions à mener. Vous y trouverez des éléments de fond et des illustrations sur le cadre éthique, la conciliation des intelligences humaines et de l’Intelligence Artificielle, la transformation des emplois, les stratégies d’entreprise, les politiques et processus RH, les technologies et l’accompagnement des acteurs dans le cadre de l’adoption de l’IA. C’est pourquoi nous avons intitulé l’étude « Intelligence Artificielle & Ressouces Humaines : du cadre éthique à l’action ». Maud AYZAC et Thibault CHEVALEYRIAS
résumé L’étude est composée d’un préambule et de cinq thèmes pour aider le lecteur à se poser les questions clés relatives à l’adoption de l’IA. COMMENT REPENSER LES DONNÉES ET L’IA DANS UN CADRE ÉTHIQUE ? L’enjeu est de trouver le bon équilibre entre performance, éthique et responsabilisation des hommes. Le développement de la confiance vis-à-vis de la gestion des données et des solutions dotées d’IA nécessite de disposer de données fiables et éthiques combinée à une IA éthique, transparente et responsable. Cet objectif pourrait être atteint par une approche pluridisciplinaire, respectueuse des droits des personnes, avec une production de modèles performants et explicables qui facilitent la prise de décision par les hommes. Des labels d’éthique, complémentaires aux réglementations, valoriseront les solutions et entreprises les plus responsables. PEUT-ON CONCILIER INTELLIGENCE ARTIFICIELLE ET INTELLIGENCES HUMAINES ? L’Intelligence Artificielle met l’homme face à de nombreuses questions qu’il n’avait jusqu’alors pas à se poser, notamment sur ce qui fait sa singularité. Les intelligences humaines, car l’homme est doté d’intelligences bien différentes (relationnelle, technique, émotionnelle, empathique...), sont-elles compatibles avec les nouveaux outils utilisant l’IA ? Dans quelle mesure IA et hommes peuvent-ils collaborer efficacement en entreprise et dans quelle mesure l’IA rend-elle les hommes plus collaboratifs, créatifs et productifs ? Les réponses se trouvent à la fois dans la façon de penser les IA de demain, afin d’éviter les effets de boîte noire, mais aussi dans la faculté des hommes à développer de nouvelles compétences, ce en quoi la DRH va jouer un rôle majeur. DANS QUELLES MESURES L’IA TRANSFORME-T-ELLE LES EMPLOIS ? Du fait de la nouveauté des sujets de l’Intelligence Artificielle et de ses conséquences concrètes sur l’organisation des entreprises, beaucoup de théories – aussi bien positives que négatives – sont véhiculées. Vecteurs de craintes ou d’optimisme, l’IA en entreprise ne laisse pas indifférent. Va-t-elle détruire des emplois ou en créer ? Quoi qu’il en soit, l’IA aura un impact significatif sur les métiers et la façon de les exercer. Nous avons étudié différentes hypothèses sur l’impact de l’IA sur les emplois, et la place de l’homme dans cette transformation. COMMENT LA FONCTION RH EST-ELLE AMENÉE À ÉVOLUER AVEC L’IA ? La DRH a un rôle majeur à jouer dans l’adoption de l’IA au sein de sa fonction et à l’échelle de l’entreprise. Les politiques RH sont repensées. Le strategic workforce planning permet d’anticiper les ressources nécessaires au développement de l’IA en termes d’emplois, de compétences, de formations. Les technologies dotées d’IA sont intégrées. Les processus RH (recrutement, formation, mobilité…) sont redéfinis avec pour cœur les données et l’IA. L’adoption de l’IA pourra entraîner la transformation des emplois de la DRH. Les RH seront amenées à acquérir des compétences techniques liées à l’IA et aux données en complément des savoir-faire RH et des compétences comportementales. QUELLES SONT LES ACTIONS CLÉS À MENER POUR ACCOMPAGNER LES ACTEURS DANS L’ADOPTION DE L’IA ? L’accompagnement des acteurs de l’organisation s’inscrit dans la continuité des plans de transformation numérique. La DRH intervient dans toutes les phases clés de l’adoption de l’IA depuis la définition de l’ambition IA, le choix des cas d’usages, l’accompagnement des profils IA et des autres profils de l’entreprise, le pilotage des cas d’usages, le choix entre le make or buy, les POCs, l’industrialisation des cas d’usages jusqu’au déploiement de l’IA à l’échelle de l’entreprise. Les actions sont ciblées par population et sont mises en place à chaque étape clé.
LES MEMBRES DU COMITÉ DE PILOTAGE DE L’ÉTUDE Point de vue Nous tenons à remercier chaleureusement Ghislain de Roland KARSENTY, DRH Europe MEA Latam MISSONNIER, Président du Cercle Humania. du Groupe JOHNSON CONTROLS Nous remercions également Roland KARSENTY, DRH L’IA et la donnée sont deux enjeux fondamentaux Europe MEA Latam du Groupe JOHNSON CONTROLS de la transformation digitale dans nos entreprises. en sa qualité de sponsor de l’étude, ainsi que tous Défis organisationnels, défis humains, défis de confiance les membres du comité de pilotage, dans l’ordre & de réputation, défis technologiques : ce sont tous alphabétique : ces défis et enjeux de mise en œuvre opérationnelle auxquels les DRH vont devoir faire face dans les Luc BOIN, Sales Manager de TALK4 grandes entreprises. Néanmoins, il faudra démystifier Nicolas BONTEMPS, DRH CREDIT AGRICOLE CAISSE IDF l’IA pour saisir l’opportunité de booster le cycle du GROUPE CREDIT AGRICOLE savoir-créativité-décision-action. Jean-Marc BUGNON, Directeur Qualité de la Caisse L’IA va supporter la flexibilité des nouveaux processus de d’Epargne IDF, GROUPE BPCE l’Entreprise et va constituer un socle incontournable dans Paul COURTAUD, Directeur Général de NEOBRAIN la « décision augmentée ». Essayons de capter cette intelligence comme accélérateur d’innovation proactive. Hugues de La GIRAUDIERE, DRH du CNRS Bertrand de SAINT-GERMAIN, Sous-Directeur Améliorer l‘analyse prédictive dans les businesss models des Personnels à la DRH à la PREFECTURE DE POLICE de nos entreprises requiert toujours et d’avantage de pertinence dans les informations et les recommandations Evan FRIBURG, Head of Business Development apportées aux décideurs, aux collaborateurs, aux clients, de DOMOSCIO parce qu’elles sont fondamentales pour l’amélioration Yves GRANDMONTAGNE, Président du LAB RH des performances : résoudre des problèmes et créer de Général Frédéric HINGRAY, DRH de l’ARMEE de TERRE la valeur. Olivier JASKULKE, HR digital Officer du Groupe ORANGE L’IA est porteuse de progrès ; il faut en revanche se Marc LAGRIFFOUL, Directeur Talent Management préparer à assurer un cadrage éthique, redéfinir et et Cadres Supérieurs de SNCF Mobilités repenser les activités, les tâches, l’augmentation des capacités humaines, la place du travail, l’utilité Chantal LEGENDRE, Directrice Talent Management individuelle, l’expertise, le savoir… et Graduates du Groupe ORANGE Marie SACKSICK, Data Scientist de DOMOSCIO Les membres du groupe de travail sont allés à la rencontre d’acteurs RH et de décideurs, le plus souvent Guillaume SARKOZY, Président de la FONDATION membres de Comex ou de Directions générales, preuve MALAKOFF MEDERIC HANDICAP du caractère hautement stratégique de l’IA et de la Mathieu SCHAAL, Chef de département Performance & donnée. Expertise Digitale et Pédagogique ENEDIS Nous n’avons pu restituer ici qu’une partie des partages Muriel SCHULZ, Directrice Prospective et Stratégie d’expérience et des réflexions, dont nous espérons qu’elle Ressources Humaines d’ADEO, ASSOCIATION FAMILIALE sera représentative des divers degrés d’avancement et MULLIEZ également porteuse des initiatives les plus inspirantes. Camille VEZY, AI ethics & user resercher de PROLOGUE.ai Bienvenue dans l’ère de l’IA et de la Donnée !
Maud AYZAC, Senior Manager au sein de la Practice People & Change DE L’ÉTUDE Maud a développé une expertise en accompagnement des DRH et des Directions métiers de grands groupes sur des enjeux RH et de transformation d’entreprise. AUTEURS maud.ayzac@wavestone.com ET L’ÉQUIPE WAVESTONE DÉDIÉE À L’ÉTUDE HUMANIA Cédric GOUBARD, Damien PROVOST, Léa RASTRELLI, Maja TASIC Thibault CHEVALEYRIAS, Consultant au sein de la Practice People & Change Thibault a développé un savoir-faire en accompagnement des DRH et des fonctions opérationnelles dans les domaines SIRH et évolution des emplois. thibault.chevaleyrias@wavestone.com
SOMMAIRE LA MÉTHODOLOGIE DE L’ÉTUDE HUMANIA 2019 .................... P 8 PRÉAMBULE ......................................................................................... P11 COMMENT REPENSER LES DONNÉES & L’IA DANS UN CADRE ÉTHIQUE ? ............................................ P13 PEUT-ON CONCILIER INTELLIGENCE ARTIFICIELLE ET INTELLIGENCES HUMAINES ? .................................................. P23
DANS QUELLES MESURES L’INTELLIGENCE ARTIFICIELLE TRANSFORME-T-ELLE LES EMPLOIS ? ....................................... P33 COMMENT LA FONCTION RH EST-ELLE AMENÉE À ÉVOLUER AVEC L’IA ? ............................................... P41 QUELLES SONT LES ACTIONS CLÉS À MENER POUR ACCOMPAGNER LES ACTEURS DANS L’ADOPTION DE L’IA ? ........................................................ P51 CONCLUSION ...................................................................................... P59
RETOUR SUR LA DÉMARCHE DE L’ÉTUDE L’ÉTUDE HUMANIA 2019 A ÉTÉ SUPERVISÉE Le groupe de travail, par sa composition, a permis PAR UN GROUPE DE TRAVAIL, COMPOSÉ : d’appréhender, sous ses différentes dimensions clés, la problématique de l’IA et des ressources humaines de façon D e DRH volontaires, de Directeurs opérationnels, de à apporter une vision systémique. représentants de startups, d’une personne rédigeant une thèse sur la matérialisation de l’éthique en Intelligence Pour ce faire, le groupe de travail a fait le choix de proposer Artificielle. Les membres du comité de pilotage : des éléments de fond et des illustrations sur le cadre Adeo - Association Familiale Mulliez, Armée de Terre, BPCE, éthique, la conciliation des intelligences humaines et de Crédit Agricole, CNRS, Domoscio, Fondation Malakoff Médéric l’Intelligence Artificielle, la transformation des emplois, Handicap, Johnson Controls, Le Lab RH, Neobrain, Orange, les stratégies d’entreprise, les politiques et processus RH, Préfecture de Police, Prologue.ai, SNCF, Talk4, ENEDIS ; les technologies et l’accompagnement des acteurs dans le cadre de l’adoption de l’IA. Du Cercle Humania, sponsor de l’étude et représenté par son président Ghislain MISSONNIER et par Roland KARSENTY, DRH Europe MEA Latam du Groupe Johnson Controls ; STRATÉGIE TRANSFORMATIONS De Wavestone, pilote et producteur de l’étude, IA LE RÔLE DES EMPLOIS représenté par Maud AYZAC et Thibault CHEVALEYRIAS. DE LA DRH INTERACTIONS ENJEUX HOMME/MACHINE ÉTHIQUES LIÉS À IA DONNÉES, ALGORITHMES, « Les objectifs définis par le groupe CAS D’USAGE IA ET LES RH DIFFÉRENTES de travail ont orienté les travaux INTELLIGENCES de l’étude pour trouver le juste équilibre HUMAINES entre l’analyse des concepts, ENJEUX DE des réflexions pluridisciplinaires L’ADOPTION et des retours d’expériences concrets » LES RÉSULTATS DE CETTE ÉTUDE SE BASENT SUR : VISION SYSTÉMIQUE Une analyse d’ouvrages et de rapports émanant de professionnels de différentes disciplines, cités dans le corps de l’étude. Certains supports sont dédiés à la problématique de l’IA dans sa globalité. DÉBATS Il nous a semblé pertinent d’articuler les réflexions émises aux enjeux de l’IA et des ressources humaines ; L’animation de débats entre les représentants des grandes entreprises et des startups pour enrichir les approches, ÉTUDE intégrer des idées et des expériences complémentaires et HUMANIA identifier des points de convergence ; ANALYSE DE 2019 ENQUÊTE RÉFLEXIONS QUALITATIVE Une enquête qualitative réalisée sur le 2 ème semestre 2019 : ET LIEN une quinzaine d’entretiens auprès de DRH, de Directeurs IA/RH opérationnels et de membres de startups afin de capter les bonnes pratiques, l’apport de solutions techniques, les difficultés rencontrées, les chantiers à adresser. Différents secteurs sont représentés. 9
PRÉAMBULE Le développement de l’IA est lié notamment à l’augmen- Pour faciliter la mise en œuvre de la stratégie, il est tation de données massives (Big Data), à la performance nécessaire d’assurer un cadrage de la démarche d’adoption technologique (ex : croissance de la puissance de calcul, de l’IA et de la Data. infrastructures réseaux à très haut débit) et aux cas d’usages qui tendent à contribuer à l’innovation et à la Avec les parties prenantes, sont définis notamment performance des organisations. les principes éthiques, le mode de fonctionnement, le processus décisionnel, les méthodes, le pilotage adéquat. « L’adoption de l’IA relève Et si la DRH contribue à la définition de la stratégie, du d’une démarche systémique » cadrage et de la feuille de route, elle joue un rôle majeur plus particulièrement dans 5 domaines : La définition du cadre éthique Pour ce faire, la stratégie des organisations évolue pour La conciliation des intelligences humaines et de l’IA englober l’IA et la DataScience dans le but de développer La transformation des emplois et des compétences leur business et leur compétitivité. Les politique et processus RH L’adoption de l’IA relève d’une démarche systémique car L’accompagnement des parties prenantes. elle touche toutes les dimensions de l’entreprise (éthique, métier, économique, technique, organisation, management, emplois et compétences…). 11
12
COMMENT REPENSER LES DONNÉES ET L’IA DANS UN CADRE ÉTHIQUE ? L’enjeu est de trouver le bon équilibre entre performance, éthique et responsabilisation des hommes. Le développement de la confiance vis-à-vis de la gestion des données et des solutions dotées d’IA nécessite de disposer de données fiables et éthiques combinées à une IA éthique, transparente et responsable. Cet objectif pourrait être atteint par une approche pluridisciplinaire, respectueuse des droits des personnes, avec une production de modèles performants et explicables qui facilitent la prise de décision par les hommes. Des labels d’éthique complémentaires aux réglementations valoriseront les solutions et entreprises les plus responsables. 13
LA FIABILITÉ DES DONNÉES, UN ENJEU RÉACTUALISÉ en bref Les données sont une source de valeur immense pour les entreprises, à condition qu’elles soient qualifiées et que les collaborateurs soient acculturés à leur manipulation. LA FIABILITÉ DES DONNÉES EST UN CONCEPT Cette prise de conscience globale demande d’avoir une QUI A ÉVOLUÉ AVEC L’APPRÉCIATION DE LA DONNÉE. vision à la fois commune de la qualité de la donnée et comprise par l’ensemble des collaborateurs. Les GAFAs ont montré la pertinence de capitaliser sur cette matière, entraînant une augmentation de sa valeur. Les niveaux de gestion de qualité de la donnée vont de Sa gestion est devenue stratégique et avec elle la gestion la centralisation de ces dernières dans une base unique, de sa qualité. comme le core HR , jusqu’à la prise de conscience de chaque À l’image d’un carburant non raffiné, si la donnée reste utilisateur du parcours d’une donnée de sa saisie dans un brute, sans traitement, le moteur « IA » ne sera ni fiable outil à son exploitation. ni autonome et dans l’incapacité de vous propulser rapidement dans une direction. « Une donnée de bonne qualité dépasse le seul concept de l’information correcte » QUALIFICATION ET CENTRALISATION DE LA DONNÉE Appréhender un premier niveau de mise en qualité dans les organisations revient à centraliser les données puis automatiser leur entrée et sortie. La mise en place des « core » , comme le core HR , permet de regrouper l’ensemble des données au même endroit afin d’être en capacité de les structurer. Une donnée de bonne qualité dépasse le seul concept de Ces politiques permettent de faire un premier tri de l’information correcte. Cela peut aussi signifier qu’elle est solutions, clarifier les canaux de distribution des données issue d’une source fiable dans un cycle de saisie correct et ainsi de transformer des produits bruts en produits avec un emplacement dans les bases internes qui est exploitables. identifiable et facile à retrouver. À cet instant, la pertinence du core revêt son deuxième La justesse de l’information ne suffit plus, il faut qu’elle point fort en proposant une base pour automatiser soit exploitable c’est-à-dire ancrée dans un contexte et une l’ensemble de la chaîne de vie d’une donnée de son durée qui permettent son analyse et la prise de décisions. arrivée, à son stock puis sa destruction. C’est pour cela que les politiques de gestion de la donnée vont au-delà d’une saisie de données et prennent en Dans le cas d’un core HR , automatiser le cycle de la donnée considération le rapport d’une donnée à la notion de permet de tracer son exploitation dans les entreprises et de confidentialité, de péremption de l’information, de répondre à une réglementation telle que le RGPD. récurrence et de saisie (manuelle ou automatique). 14
INTÉGRATION DE L’IA La qualité de la donnée et de sa gestion, la clé de l’apport de valeur ajoutée d’une Intelligence Artificielle. L’IA est un nouvel outil de support à l’activité permettant d ’ i n d u st r i a l i s e r d e s p ro ce s s p a r fo i s ré p ét i t i f s et représentant une aide à la prise de décision. Le traitement de données en masse est l’une des forces majeures connues de l’IA. Les organisations qui ont déjà testé cette technologie pour cette raison sans sécuriser la fiabilité de leurs données connaissent un résultat similaire : un manque de valeur ajoutée, des résultats parfois paradoxaux, une perte de confiance en l’outil et le gel des budgets associés. L’IA travaille avec vos données, elle ne les rend pas fiables. Rendre les données fiables n’est pas encore dans les attributs des technologies actuelles avec IA. Néanmoins, une fois qu’une IA est entraînée par des Crédit: xkcd (https://xkcd.com/1838/) données fiables, sa capacité à reconnaître des données de mauvaise qualité est un support de maintien des modèles. ACCULTURATION À LA DONNÉE La mise en qualité de la donnée se trouve dans la capacité à acculturer, responsabiliser et engager chaque collaborateur dans sa consommation de données. Transformer le rapport à la donnée, avec une approche globale revient à proposer un nouvel environnement de travail pour fournir des outils adaptés. Une personne qui a conscience de la valeur d’une donnée est une personne qui en comprend le cheminement dans les process de l’organisation. Il s’agit d’intégrer un volet de maîtrise de la donnée dans les fiches de postes et de construire des plans de formation d’acculturation à la donnée personnalisée pour tous les collaborateurs. Les collaborateurs sont en mesure de transformer de la donnée brute et de l’utiliser pour des analyses prédictives par exemple. Le POC, « Proof Of Concept », est la matérialisation de ce (1) tri. Il propose une méthode qui structure le besoin d’une organisation confronté aux solutions qu’elles possèdent. Cela permet d’une part de recentrer sa consommation « Les données qui jusqu’alors d’outils à ses besoins réels et d’autre part de mettre en ne prenaient parfois pas sens à être avant un manque d’outils potentiel sur un process cœur de l’activité. exploitées, gagnent une deuxième vie » Avec un process de mise en qualité fiable de bout-en-bout, l’outil IA permet de valoriser les données disponibles. 15
L’ÉTHIQUE DE LA DONNÉE, PROTECTION DES DROITS ET INNOVATION en bref Parler d’éthique de l’IA, c’est poser les questions de responsabilité, du droit des personnes face aux « boîtes noires ». Des réglementations telles que le RGPD tentent d’y répondre par un cadre légal, mais elles ne suffiront pas pour faire évoluer les pratiques. La question de la gestion de la donnée, et a fortiori D a n s l e m o n d e d e l ’e nt re p r i s e, d ’a u t re s c ra i nte s de la gestion éthique de la donnée, est d’autant plus apparaissent comme celle de la surveillance systématique compliquée à l’échelle mondiale que différentes visions avec la multiplication des outils de chatbot, de déclaration s’opposent, pour des raisons historiques et culturelles. des compétences et appétences, etc. Aurélie Jean identifie trois grands modèles de gestion de la donnée, volontairement simplistes, pour expliciter les De manière générale, on observe que les technologies ont oppositions idéologiques. été développées sans que les conséquences sociales et sociétales n’aient été anticipées ; et les craintes sont de Le modèle Américain, celui des GAFAs, tech enthousiaste, fait légitimes. développe des solutions sans nécessairement penser aux conséquences sociales et dans lequel la donnée peut être L’Union Européenne avec la Réglementation Européenne sur vendue pour un profit. la Protection des Données (RGPD), a fait un premier grand Les États-Unis sont cependant en train d’évoluer avec pas vers une réglementation de la donnée qui clarifie des l’entrée en vigueur au 1er janvier 2020 en Californie d’une droits et des devoirs, aussi bien pour les entreprises que loi sur les données personnelles. Le Congrès souhaiterait les utilisateurs, et limite les usages abusifs des données faire adopter une loi fédérale. Le modèle Chinois prévoit par les entreprises. que toute donnée appartient à l’État. Enfin, le modèle Européen se caractérise par la protection des données. Cette réglementation va dans la bonne direction et pourtant, il est aussi légitime de la mettre en regard des C’est une classification volontairement caricaturale besoins contradictoires de l’IA qui a besoin de beaucoup mais elle permet de mettre en évidence les politiques de données pour fonctionner. diamétralement opposées des grandes puissances mondiales en termes de gestion des données alors que les données passent les frontières. Face aux enjeux de l’Intelligence Artificielle, qui se nourrit de données en masse, une réflexion sur les droits liés à la donnée et sur l’éthique des données nous semble essentielle. D’ailleurs, une partie de la population ressent de la méfiance face à ces nouvelles technologies utilisant leurs données. Cette méfiance provient en grande partie de l’effet boîte noire de l’IA : comment faire confiance à une solution que je ne comprends pas ? La réserve est liée également à la responsabilité : qui est responsable des décisions d’une IA ? 16
De plus, l’Intelligence Artificielle est portée par différents Aussi, si les grands groupes sont intéressés par l’agilité créneaux : le make , ou la capacité des entreprises et l’approche innovante de certaines startups, ils peuvent à avoir les ressources techniques, fonctionnelles et être confrontés à des différences de culture et d’enjeux juridiques pour créer leurs propres solutions et le buy , légaux qui posent des problèmes opérationnels dans impliquant la contractualisation avec un prestataire pour l’implémentation de solutions d’Intelligence Artificielle. l’implémentation d’une solution existante. Il semble important de continuer à sensibiliser les startups à l’application d’une telle réglementation au sein des Se pose donc la question de l’intégration des solutions grandes entreprises. externes souvent portées par des startups connaissant peu les complexités légales de conformité auxquelles les grands Un autre point à mentionner ici est le transfer learning : groupes sont confrontés. S’il est évident aujourd’hui que comme les algorithmes nécessitent énormément de les grands groupes et les startups gagnent à collaborer, données, certains prestataires peuvent utiliser chez il est important de comprendre qu’ils ont des codes, des un client un modèle ayant déjà été pré-entraîné sur les habitudes de travail et des cultures très différentes. données d’un autre. Cela peut être bénéfique. Les solutions des startups qui sont intégrées ponctuellement À titre illustratif, des acteurs du secteur bancaire souhaitant dans les grandes entreprises par des POC (Proof Of Concept : analyser des documents financiers peuvent faire appel à la test d’une solution sur un temps et un périmètre limité) même startup pour mutualiser les modèles car le volume risquent de pas toujours répondre à tous les enjeux des de données générées est insuffisant pour obtenir des entreprises en termes de RGPD lorsqu’il s’agit ensuite performances satisfaisantes individuellement. d’industrialiser une solution de manière pérenne et sur Cependant, c’est un point sur lequel il faut être clair un périmètre plus large. lorsqu’on sous-traite. C’est d’autant plus le cas quand le D’ailleurs, certaines entreprises identifient que plusieurs process d’entraînement du modèle n’est pas destructif et startups ne passent pas la marche de l’industrialisation à que, par exemple, les données d’entraînement peuvent être cause du risque RGPD trop peu anticipé et contrôlé. reconstruites à partir du modèle. L’EXEMPLE EUROPÉEN FOCUS SUR LE RGPD ET L’ANTINOMIE AVEC UNE CERTAINE FORME D’IA Afin de personnaliser le parcours d’un collaborateur, Cette opposition idéologique quant au déploiement de d’aiguiller les recherches de compétences ou de gérer des l’IA s’exprime dans le RGPD par le principe de protection processus RH entiers, l’IA requiert pour son analyse une par défaut (Article 25.2 – RGPD) ainsi que par la notion de grande quantité de données, potentiellement des données minimisation (Article 5.c – RGPD). à caractère personnel. La protection par défaut décrit que le traitement à effectuer Elle n’intègre pas de limites à la quantité de données ne doit utiliser, pour une finalité précise, que des données analysées, et c’est son principe : la personnalisation par personnelles nécessaires à celui-ci. l’analyse d’un ensemble non caractérisé de données sous des formes diverses, structurées (les données du SIRH) et Cette règle, couplée au principe de minimisation qui lui, non structurées (des données textuelles des CV, réseaux requiert que les traitements ne doivent utiliser que les sociaux, etc.). données adéquates, pertinentes et en quantité limitée, questionne l’application de l’IA. Il est dans ce cadre Cependant, cette analyse de masse va à l’encontre de nécessaire de retraiter les données afin de ne garder que certains principes du RGPD. Nous identifions ici une celles qualifiées de pertinentes. confrontation forte entre deux principes structurants de l’IA et du RGPD : d’une part, pour être performante, Or aujourd’hui, les technologies d’Intelligence Artificielle une IA a besoin de beaucoup de données, d’autre part, le permettent l’identification de tendances (patterns en RGPD incite à la minimisation et la protection des données anglais) par l’analyse et le croisement d’un maximum de utilisées. données que l’homme n’est pas en capacité de réaliser. 17
L’IA RESPONSABLE : UNE APPROCHE PLURIDISCIPLINAIRE DANS LAQUELLE LA DRH À UNE VOIX en bref Des voix se lèvent pour le développement d’une IA responsable et éthique, au-delà et en amont des réglementations. Les travaux doivent être pluridisciplinaires et transversaux. Des labels d’éthique valoriseront demain les outils et entreprises les plus responsables. Les réglementations comme le RGPD sont une bonne Certains pôles d’innovation en Intelligence Artificielle l’ont démarche, car cette dernière a également eu le mérite d’ailleurs très bien compris. d’éveiller les consciences et de forcer les entreprises à Montréal, l’une des places fortes de l’Intelligence Artificielle changer leurs processus, mais elles ne peuvent suffire dans le monde aujourd’hui, a mené et continue de à établir les bases d’un cadre pour le développement conduire de nombreuses réflexions en amont sur l’éthique d’Intelligence Artificielle de manière éthique. et la donnée. L’une des démarches les plus avancée est la Déclaration de Montréal pour le développement Les réglementations arrivent généralement en retard sur le responsable de l’IA (2). déploiement des technologies et le RGPD est encore flou Il est intéressant de noter que cette démarche est « pour » sur de nombreux aspects. le développement de l’IA et donc favorable à l’innovation, En effet, les réglementations ne peuvent pas aller assez et qu’elle répond aux écueils précédents. loin car elles ne peuvent pas être adaptées à chaque type de secteur : on ne gère pas les données de santé comme Cette démarche citoyenne, démocratique et pluridis- les données RH ou comme les données bancaires. ciplinaire a répondu à l’une des problématiques de l’IA aujourd’hui : ceux qui développent les outils n’ont pas tou- Enfin, les réglementations n’impactent pas significative- jours conscience des impacts sociaux et sociétaux qu’ils ment la façon dont les technologies sont développées, génèrent. or c’est bien là qu’un éveil des consciences est nécessaire. C’est pourquoi nous sommes convaincus de la nécessité d’avoir une approche systémique et en transversalité sur plusieurs disciplines. La Déclaration de Montréal a pour objectif de donner un cadre au développement de l’Intelligence Artificielle pour que cette dernière serve au bien-être de tout un chacun. Des apports de sociologues et philosophes permettent la prise en compte de problématiques sociétales et de ce fait de développer des outils de manière responsable, sans aliéner les droits des personnes. La déclaration s’articule autour de 10 valeurs principales que sont le bien-être, l’autonomie, l’intimité et la vie privée, la solidarité, la démocratie, l’équité, l’inclusion, la prudence, la responsabilité et la soutenabilité environ- nementale. La DRH se doit d’être la voix des collaborateurs en entreprise et répondre aux craintes de ces derniers en s’impliquant au sein de ces démarches. Déclaration de Montréal pour un développement respon- (2) sable de l’Intelligence Artificielle, Université de Montréal : https://www.declarationmontreal-iaresponsable.com/ 18
Les entreprises peuvent dès aujourd’hui être signataires de cette initiative ou d’autres démarches similaires afin d’envoyer le signal à leurs collaborateurs que d’une part, elles soutiennent l’innovation et s’intéressent au développement de l’IA, et d’autre part qu’elles le font en prenant en compte leurs droits. Il s’agit pour les entreprises de rétablir une forme de confiance vis-à-vis des nouvelles technologies, afin de promouvoir leur développement et de garantir une adoption plus large et aisée. « Ceux qui développent les outils n’ont pas toujours conscience des impacts sociaux et sociétaux qu’ils génèrent » La Commission Européenne s’est, elle aussi, lancée dans une réflexion autour d’une IA éthique et responsable. En 2019, elle a défini 7 principes comprenant notamment le contrôle humain, la transparence, le bien-être sociétal et environnemental et la responsabilisation. Quarante-deux pays ont adopté les Principes de l’OCDE sur l’IA en 2019. En parallèle, un regroupement d’entreprises, ONG, juristes travaillent autour du concept de digital human rights visant à sauvegarder les avancées en matière de liberté humaine dans le contexte d’une société digitalisée à grande échelle. Dans la même démarche de valorisations des outils respon- sables, et pour répondre aux enjeux sectoriels variés, des labels d’éthique sont créés. Ces labels ont pour objectif de valoriser les entreprises développant et utilisant des outils responsables dans l’usage qu’ils font des données. « Les apports de sociologues et philosophes permettent la prise en compte De plus en plus, des labels vont apparaitre pour répondre de problématiques sociétales aux enjeux d’éthique de la donnée de la même manière et de ce fait de développer des outils que des labels sont apparus pour valoriser les entreprises de manière responsable, sans aliéner offrant les meilleures conditions de travail. les droits des personnes » Il existera demain un Great Place to Work de la donnée récompensant les entreprises engagées dans une gestion des données et des technologies respectueuses des droits des personnes. Ces labels sont le reflet d’une prise de conscience d’une demande croissante des individus dans la société, et des collaborateurs en entreprise. 19
LA TRANSPARENCE ET LA RESPONSABILITÉ BY DESIGN en bref Il existe des initiatives pour développer des IA qui intègrent la transparence et la responsabilité dans leur mode de fonctionnement. L’objectif est de trouver le bon équilibre entre performance, éthique et responsabilisation des hommes. « The effectiveness of these systems is limited by the machine’s current inability to explain their decisions and actions to human users » (3) Il existe des démarches tentant de développer une Intelligence Artificielle plus transparente, afin de réduire les effets de boîte noire et de responsabiliser l’homme. Aux États-Unis, la DARPA (Agence pour les projets de recherche avancée de défense) fait le constat de la multi- plication des projets d’Intelligence Artificielle, et se réjouit des applications toujours plus poussées permises par des systèmes prenant des décisions de manière autonome. Le problème de ce type d’IA est que l’homme n’est pas en mesure de répondre aux questions suivantes : Cependant, elle note également que « The effectiveness Pourquoi avoir pris cette décision ? of these systems is limited by the machine’s current inabi- Pourquoi ne pas en avoir pris une autre ? lity to explain their decisions and actions to human users » Pourquoi faire confiance à cette décision ? (“L’efficacité de ces systèmes est limitée par la propre incapacité de l’IA à expliquer les décisions prises aux uti- Les recherches menées par l’armée américaine ont pour lisateurs humains »). nom XAI, ce qui signifie Explainable AI (Intelligence L’effet boîte noire est en effet d’autant plus problématique Artificielle explicable). dans l’armée pour qui les décisions prises par un outil Les objectifs de XAI sont de développer une IA qui en plus peuvent entraîner la vie ou la mort. de faire des prédictions et proposer des décisions fondées sur l’analyse de données, donne une clé de lecture pour La question de la responsabilité est fondamentale. comprendre le processus de prise de décision. Comment identifier des responsables si les décisions prises ne sont pas comprises par l’homme ? Produire des modèles explicables tout en maintenant La même problématique apparait dans l’armée française. une haute performance et une haute fiabilité d’analyse La chaine de responsabilité dans l’armée ne peut accepter et de prédiction. des zones d’incertitude. Les enjeux qui existent dans l’armée exacerbent la théma- Donner aux hommes les clés de lecture pour comprendre tique, mais elle est tout aussi vraie en entreprise et dans et donc s’approprier et faire confiance aux décisions un service RH. proposées ; ou si besoin, les challenger. Personne ne souhaite prendre des décisions de recrutement ou de licenciement en se fondant sur des conclusions dont Explainable Artificial Intelligence (XAI), Dr. Matt Turek, (3) le cheminement n’est pas compris. DARPA (Defense Advanced Research Projects Agency). 20
aujourd’hui XAI DONNÉES DONNÉES D’ENTRAÎNEMENT D’ENTRAÎNEMENT PROCESS DE MACHINE NOUVEAU PROCESS LEARNING DE MACHINE LEARNING FONCTION APPRISE MODÈLE EXPLICABLE NON TRANSPARENTE INTERFACE D’EXPLICATION Décision Recommandation TACHE UTILISATEUR TACHE UTILISATEUR • Pourquoi cette décision ? • Je comprends le pourquoi de la décision • Pourquoi pas une autre décision ? • J e comprends pourquoi les autres décisions ne sont pas retenues • Dans quelle cas l’IA trouve t-elle une solution ? • J e comprends pourquoi le modèle trouve • Dans quel cas l’IA n’en trouve t-elle pas ? une solution • Je comprends pourquoi il n’en trouve pas • Quand faire confiance au modèle ? • Je sais quand faire confiance au modèle • Comment corriger une erreur ? • Je sais quand le modèle se trompe Ce type d’initiative va dans la bonne direction car elle per- Les solutions plus transparentes faciliteront l’articula- met de donner à l’homme un véritable partenaire artificiel tion entre l’homme et les solutions dotées d’Intelligence intelligent, qui l’aide dans ses prises de décisions sans le Artificielle. déresponsabiliser. À date, plusieurs avis sont émis sur la garantie de rendre un modèle interprétable. De façon schématique, soit des Appliqué aux métiers RH, des outils plus transparents ne modèles simples et faciles à comprendre avec une perfor- peuvent que faciliter leur déploiement et leur acceptation mance relative sont utilisés, soit des méthodes expliquant à la fois par les collaborateurs et par les RH. les résultats sont exploitées. Ils permettraient également de développer la confiance Ces dernières sont coûteuses en puissance de calcul. pour les nouvelles technologies et donc de faciliter le Dans certains cas, l’explication peut être apportée. déploiement des outils. Dans d’autres cas, cela n’est pas faisable. « La transparence et la responsabilité sont essentielles » 21
22
PEUT-ON CONCILIER INTELLIGENCE ARTIFICIELLE ET INTELLIGENCES HUMAINES ? L’Intelligence Artificielle met l’homme face à de nombreuses questions qu’il n’avait jusqu’alors pas à se poser, notamment sur ce qui fait sa singularité. Les intelligences humaines, car l’homme est doté d’intelligences bien différentes (relationnelle, technique, émotionnelle, empathique, etc.), sont- elles compatibles avec les nouveaux outils utilisant l’IA ? Dans quelle mesure IA et hommes peuvent-ils collaborer efficacement en entreprise et dans quelle mesure l’IA rend-elle les hommes plus collaboratifs, créatifs et productifs ? Les réponses se trouvent à la fois dans la façon de penser les IA de demain, afin d’éviter les effets de boîte noire, mais aussi dans la faculté des hommes à développer de nouvelles compétences, ce en quoi la DRH va jouer un rôle majeur. 23
INTELLIGENCE ARTIFICIELLE / INTELLIGENCE HUMAINE FRONTIÈRE ? SIMILITUDE ? DIFFÉRENCIATION ? en bref La similitude entre l’IA et l’intelligence humaine s’illustre par les biais humains et algorithmiques ainsi que par le principe de l’intelligence ensembliste. L’intelligence humaine est multiforme, émotionnelle, empathique. L’homme a une aptitude à la conceptualisation que n’a pas la machine. Les problématiques sont identifiées par l’homme. L’Intelligence Artificielle et ses applications en entreprise BIAIS ALGORITHMIQUES nous permettent de décrypter et questionner les capacités de l’homme. L’IA reproduit les biais de l’homme : dans la mesure où elle Elle propose en effet de nouveaux systèmes d’analyse des intègre des données humaines, ses conclusions tendent à comportements humains et par ce fait nous questionne sur se rapprocher des conclusions de l’homme. notre propre intelligence. L’homme a des biais cognitifs, du fait de son éducation, La peur du remplacement liée à ces nouvelles technologies, sa culture, son environnement et toutes sortes de facteurs est due à un questionnement profond sur ce qui rend sociaux-culturels. l’homme différent de la machine et de l’algorithme. C’est un réflexe humain que de trouver notre singularité Ces biais cognitifs se transforment en biais algorithmiques face à des machines qui sont capables de tâches toujours dès lors qu’ils sont retranscrits dans une Intelligence plus avancées. L’Intelligence Artificielle est-elle une Artificielle ou même un simple programme complexe. reproduction des capacités d’intelligence de l’homme ? Les exemples sont multiples aussi bien dans la société que dans les entreprises. Dans les RH par exemple, le phénomène se produit avec des algorithmes utilisant Ainsi, l’intelligence de l’homme ne se résume-t-elle qu’a l’IA pour identifier et présélectionner des candidats à un une puissance de calcul infiniment complexe et capable poste à partir de l’analyse des données de l’entreprise et d’appréhender les subtilités des émotions, des relations du marché de l’emploi. interpersonnelles ? En utilisant sans retraitement l’historique des profils de Où est la limite entre ces deux types d’intelligences et l’entreprise, les ambitions affichées des candidats sur les qu’est-ce qui les différencient ? réseaux sociaux et tout un ensemble de données, l’IA peut proposer plus de profils d’hommes que de femmes. En utilisant des données humaines, l’IA intègre le biais cognitif lié au contexte humain. La compréhension des biais algorithmiques est l’un des grands enjeux de l’éthique de l’IA et de l’éthique de la donnée. Afin de les identifier et de tenter de les minimiser, la transversalité des disciplines et essentielle. « Afin de les identifier et de tenter de les minimiser, la transversalité des disciplines et essentielle » 24
INTELLIGENCE ENSEMBLISTE Dans la volonté de créer des Intelligences Artificielles toujours plus puissantes, capables de réaliser des tâches complexes, l’homme a appliqué des concepts qui lui correspondent, l’intelligence collective par exemple. La seule puissance de calcul de la machine, aussi forte et exponentielle qu’elle soit (loi de Moore) ne parvient plus à résoudre les problématiques les plus avancées telles que la conduite autonome. « L’intelligence de Watson repose sur la sagesse d’une foule d’algorithmes » nous explique Emile Servan-Schreiber dans Supercollectif (4). En effet, cette Intelligence Artificielle est construite selon la méthode ensembliste. Cette méthode consiste à modifier le processus d’entraînement pour combiner plusieurs modèles et profiter de leurs synergies afin de résoudre une problématique donnée. C’est une forme d’intelligence collective à l’échelle de l’IA, un brainstorming de l’IA avec elle-même. Un processus de sélection par vote ou par moyenne est fait pour proposer la solution finale et un apprentissage peut être fait par système de pondération pour que l’algorithme soit plus efficace dans le temps au fil des itérations. « L’intelligence de Watson repose sur la sagesse d’une foule d’algorithmes » Le phénomène observé par des chercheurs de l’Université de Carnegie Mellon, du MIT et de l’Union College , selon lequel l’intelligence d’un groupe est plus grande que la somme des intelligences individuelles (5) s’applique à une IA ensembliste comme elle s’applique à l’homme. Emile Servan-Schreiber, 2018, Supercollectif : (4) la nouvelle puissance de nos intelligences Peter Dizikes, MIT News, 2010 : “Putting heads together (5) – New study: groups demonstrate distinctive ‘collective intelligence’ when facing difficult tasks” 25
INTELLIGENCE ÉMOTIONNELLE ET GLOBALE Cependant, si la recherche sur les réseaux de neurones (qui précède d’ailleurs celle de l’IA) est née d’une réflexion théorique sur la reproduction du fonctionnement du « Les machines ne font que répondre cerveau humain, il n’en reste pas moins que ces deux formes à des problématiques identifiées d’intelligences sont très différentes. par l’homme » Jean-Claude Heulin rappelle que « la puissance des réseaux de neurones est essentiellement logique et systématique : Il faut noter aussi que lorsqu’un système est capable elle est capable d’analyser de grands volumes de données qui d’apprendre de façon autonome à exécuter des tâches, celles-ci dépassent de très loin nos capacités cognitives, de proposer sont limitées à un périmètre précis. plusieurs solutions logiques, et de choisir celle dont la Les applications de l’IA sont limitées par rapport à ce que peut probabilité ou le score est le plus important. » (6) produire l’intelligence humaine. Par opposition l’intelligence humaine est « multiforme, En effet, si ces IA sont très puissantes dans des tâches émotionnelle et empathique ». spécifiques, elles n’ont pas encore d’intelligence globale. L’homme prend de nombreuses décisions de manière Lorsqu’un homme est très doué à une tâche spécifique – émotionnelle et les rationalise à posteriori. identifier les émotions pour reprendre l’exemple précédent – on s’attend à ce qu’il soit doué pour des tâches similaires et proches. « L’intelligence humaine Cette faculté n’est pas donnée pour l’IA qui est bien plus est multiforme, émotionnelle cloisonnée (pour l’instant). Les IA ne réalisent quasiment jamais la totalité d’une activité, elles viennent compléter et empathique » des tâches réalisées par des humains. Il est rarement rentable d’automatiser entièrement une activité faites de multiples tâches par des machines et IA. Avant même d’aborder la thématique du processus de l’intelligence, il est notoire de rappeler que si l’IA répond Nous y reviendrons dans la partie suivante par rapport à la parfois très bien à des problématiques spécifiques, c’est question de la destruction et transformation des emplois. toujours l’homme qui pose les questions à traiter. La machine ne remplace par l’homme mais l’améliore, le rend plus productif en le libérant d’une tâche, qu’elle fait mieux et C’est une distinction fondamentale pour appréhender le sujet. qui lui permet de faire les autres plus efficacement. Les machines ne font que répondre à des problématiques identifiées par l’homme et en ce sens, l’entrepreneur, le créateur, le scientifique et tous ceux qui posent les questions, qui cherchent des territoires nouveaux, ont toujours un rôle majeur à jouer pour définir les innovations de demain. Savoir poser les bonnes questions est une compétence essentielle et elle demande de l’esprit critique, de la créativité, de l’inspiration. De plus, si la machine est capable d’identifier les émotions humaines avec une grande précision par l’analyse du ton de la voix, de l’expression du visage, elle ne sait pas utiliser les émotions comme l’homme pour motiver, persuader, inspirer. Jean-Claude Heulin, Futuribles, 2019, (6) « Intelligence Artificielle et intelligence humaine » 26
Vous pouvez aussi lire