Un cadre juridique pour l'intelligence artificielle - Digital ...
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Digital Society Initiative Prise de position Un cadre juridique pour l‘intelligence artificielle Les importantes avancées techniques dans le domaine de l’intelligence artificielle (IA) et la mise en œuvre de Florent Thouvenin, Markus Christen, Abraham Bernstein, Nadja Braun Binder, Thomas Burri, Karsten Donnay, ces technologies dans une multitude de domaines sou- Lena Jäger, Mariela Jaffé, Michael Krauthammer, lèvent des questions fondamentales sur leur impact sur Melinda Lohmann, Anna Mätzener, Sophie Mützel, les individus et la société. La notion d’intelligence ar- Liliane Obrecht, Nicole Ritter, Matthias Spielkamp, tificielle suscite parfois des associations trompeuses et Stephanie Volz des peurs diffuses. D’un point de vue technique, l’in- telligence artificielle est un terme générique établi en- Le présent document de prise de position a été élaboré globant une série de technologies qui prennent des dé- dans le cadre d’un atelier qui s’est déroulé du 26 au 28 août 2021 à Balsthal et qui a été financé par le cisions automatiques, émettent des recommandations, Strategy Lab de la Digital Society Initiative (DSI) de tirent des conclusions ou réalisent des prévisions. Il l’Université de Zurich. Outre les auteurs/-es du présent s’agit notamment de systèmes à base de connaissances, document, trois représentants/-es de l’administration de méthodes statistiques, ainsi que d’approches issues fédérale ont également participé à cet atelier, à savoir de l’apprentissage automatique (par ex. à l’aide de ré- Monique Cossali Sauvain (OFJ), Roger Dubach (DFAE) et seaux neuronaux). La performance considérable de ces Thomas Schneider (OFCOM). Ils représentent la Suisse technologies se fonde le plus souvent sur la succession dans le Comité ad hoc du Conseil de l’Europe sur l’intelli- d’une multitude d’optimisations mathématiques qui, à gence artificielle (CAHAI). l’aide de grandes capacités de calcul, permettent d’ex- Pour plus d’informations : dsi.uzh.ch/strategy-lab traire des structures à partir d’importantes quantités de données. Afin d’éviter les associations trompeuses, nous En ce qui concerne la réglementation nécessaire n’utilisons pas la notion d’intelligence artificielle (IA) dans ce contexte, il convient de noter que la mise en œu- dans la présente prise de position, mais parlons de vre de systèmes algorithmiques n’entraîne générale- « systèmes algorithmiques ». Ainsi, nous ne désignons ment pas de nouveaux défis. En effet, certains d’entre pas des technologies spécifiques actuelles ou futures, eux se présentent même lorsque des décisions sont mais l’application de ces technologies dans un con- prises par l’homme, sans qu’un système algorithmique texte social. En effet, le besoin d’une réglementation ne soit utilisé. Cependant, le recours à ces systèmes rend n’apparaît que lorsque les technologies sont mises en simplement ces décisions plus visibles. En revanche, œuvre et ont un effet sur les individus et/ou la société. d’autres défis acquièrent une nouvelle qualité et une En outre, la notion de « systèmes algorithmiques » per- nouvelle dimension lors de l’utilisation de ces systèmes, met également de prendre en compte des applications par exemple parce que certaines formes d’influence sur qui ont le même effet que l’intelligence artificielle, mais les comportements peuvent être utilisées de manière qui reposent sur d’autres technologies. plus efficace, tant au niveau de la précision (par ex. avec la personnalisation) que de la quantité (mise à l’échelle). Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 1
Le 21 avril 2021, la Commission européenne a pub- européen et international se tourne toujours plus vers la lié une proposition de règlement sur l’intelligence artifi- réglementation de ces systèmes, ce qui entraîne inévita- cielle (« AI Act »)1, qui sera désormais transmise au Par- blement une influence sur la Suisse. lement et au Comité des Ministres. Le Conseil de l’Europe a adopté une première recommandation sur Objectifs législatifs l’intelligence artificielle2 et a mis en place un comité La prise en compte juridique des défis relatifs à la mise d’experts/-es (Comité ad hoc sur l’intelligence artifi- en œuvre de systèmes algorithmiques répond à deux cielle, CAHAI) qui examine la faisabilité et les éléments objectifs similaires : d’une part, la réglementation doit possibles d’un cadre juridique pour le développement, laisser le plus d’espace possible au développement et la conception et l’application de l’IA. La Suisse n’est pas à l’utilisation des systèmes algorithmiques, qui offrent liée aux règles de l’UE et, actuellement, aucune décision des avantages pour les individus et la société. D’autre n’a encore été prise quant à la signature d’une éventuelle part, il convient de garantir que l’utilisation de systèmes convention du Conseil de l’Europe. On peut toutefois algorithmiques ne porte pas préjudice aux personnes s’attendre à ce que les éventuelles règles du Conseil de concernées et à la société dans son ensemble; il convient l’Europe laissent une grande marge de manœuvre aux par exemple de veiller à ce que les personnes concernées États membres lors de la conception de leurs solutions ne soient pas discriminées, à ce que les votations popu- nationales. La Suisse devrait profiter de cette marge de laires ne soient pas manipulées et à ce que les principes manœuvre pour développer sa propre approche. À cet de l’État de droit ne soient pas renversés. égard, il conviendra notamment de décider quelles ap- proches du droit européen seront reprises et à quel Approche réglementaire niveau la Suisse devrait volontairement s’en écarter au La mise en œuvre de systèmes algorithmiques conduit à profit des personnes concernées, de l’économie et de la de multiples défis qui doivent être appréhendés par des société. moyens juridiques ; cinq domaines figurent au premier La présente prise de position explique quelles ap- plan : identification et compréhension, discrimination, proches relatives à la prise en compte juridique des manipulation, responsabilité ainsi que protection et sé- systèmes algorithmiques devraient être poursuivies en curité des données. Suisse, à quelles questions il faut accorder une attention Les défis engendrés par les systèmes algorithmiques particulière et comment la Suisse doit se positionner sont multiples et présentent souvent une dimension ou dans l’environnement des tendances réglementaires eu- qualité inédite ; mais ceux-ci ne se présentent toutefois ropéennes. pas seulement lors de l’utilisation de tels systèmes. La discussion revêt une urgence pratique et Aussi, ces défis ne devraient-ils pas être régis par une stratégique, car les systèmes algorithmiques ont une in- « loi IA » générale ou par une « loi sur les algorithmes ». fluence croissante sur la vie privée et publique, davan- Une combinaison de normes générales et spécifiques tage d’infrastructures sont créées pour des systèmes al- au secteur se révèle bien plus appropriée. À cet égard, gorithmiques en Suisse et à l’étranger, et l’environnement l’adaptation ponctuelle des lois existantes reste l’objec- tif prioritaire. En effet, le système juridique comporte 1 Proposition de règlement du Parlement européen et du Conseil déjà des normes en mesure d’appréhender de nombreux établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifi- défis liés à la mise en œuvre de systèmes algorithmiques. ant certains actes législatifs de l’Union européenne, COM(2021) Toutefois, dans un certain nombre de cas, il sera proba- 206 final. blement nécessaire d’adapter l’interprétation et l’appli- 2 Recommendation CM/Rec(2020)1 of the Committee of Minis- ters to member States on the human rights impacts of algo- cation de normes existantes afin de pouvoir relever les rithmic systems (Adopted by the Committee of Ministers on nouveaux défis de manière appropriée. 8 April 2020 at the 1373rd meeting of the Ministers’ Deputies) https://search.coe.int/cm/pages/result_details.aspx?Objec- Au vu de la multitude de formes de systèmes algo- tId=09000016809e1154 rithmiques, il convient d’adopter une approche tech- Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 2
nologiquement neutre capable d’appréhender les défis (1) Les personnes qui interagissent avec des systèmes indépendamment de la technologie spécifique em- algorithmiques doivent être en mesure de recon- ployée. En raison de l’évolution technologique rapide, naître qu’elles le font avec un tel système et non avec une réglementation ne peut perdurer que si elle n’est un être humain. Cette dimension peut être respectée pas destinée à une technologie spécifique. Ce principe en introduisant une obligation de marquage lors s’applique sans restriction à la conception de normes de la mise en œuvre de systèmes algorithmiques. générales. Toutefois, il n’exclut pas une réglementation L’interaction d’un système algorithmique avec une centrée sur une technologie concrète dans des secteurs personne étant généralement liée au traitement de spécifiques (par ex. produits médicaux, véhicules). données à caractère personnel, cette obligation de marquage pourrait être prévue dans la loi sur la Nécessité d’une réglementation protection des données. Généralement, l’utilisation de systèmes algorithmiques est associée au traitement des données. Le droit sur la (2) Les personnes qui sont affectées de manière signifi- protection des données s’applique s’il s’agit de don- cative par une décision prise par un système algo- nées à caractère personnel. Toutefois, le traitement de rithmique doivent être en mesure de comprendre données à caractère personnel par le biais de systèmes cette décision. Cela ne signifie pas qu’elles doivent algorithmiques ne suscite aucune question fondamenta- comprendre le fonctionnement technique des sys- lement nouvelle. Ainsi, il paraît en principe possible de tèmes dans le détail, mais plutôt que leur intelligibi- résoudre les défis liés à la protection de la sphère privée lité doit être adaptée au destinataire. En outre, l’éten- et des données avec les moyens du droit existant en ma- due de l’intelligibilité dépend de l’importance de la tière de protection des données. décision pour les personnes concernées et des exi- Néanmoins, l’utilisation de systèmes algorith- gences juridiques (par ex. justification de jugements miques conduit aussi à d’autres enjeux. Ainsi, la mise en émis par les tribunaux ou ordonnances édictées par œuvre de ces systèmes n’est souvent pas identifiable les autorités) dans un contexte concret. Il convient pour les personnes concernées et leur fonctionnement donc de s’assurer que les personnes concernées sont n’est pas compréhensible. En outre, de tels systèmes en mesure de comprendre la logique sous-jacente à peuvent mener à la discrimination d’individus et à la une décision automatisée (notamment les données manipulation de leurs pensées et actions. De plus, la utilisées et les critères pertinents à la prise de déci- mise en œuvre de systèmes algorithmiques soulève de sion) et d’obtenir les informations nécessaires afin, nouvelles questions relatives à la responsabilité. Le be- le cas échéant, de contester la décision. Ces infor- soin d’une réglementation subsiste dans tous ces do- mations doivent être rendues facilement accessibles maines, et c’est également le cas pour la garantie de la aux profanes et compréhensibles par ceux-ci. sécurité des systèmes autonomes et certaines procédures d’autorisation. Enfin, il convient de déter- (3) En parallèle à l’identification individuelle, il miner si l’utilisation de certains systèmes autonomes convient de garantir l’identification par le public particulièrement problématiques doit être interdite (du intéressé dans le cas d’une mise en œuvre étatique moins temporairement). de systèmes algorithmiques. À cet égard, il serait envisageable de créer un registre accessible au pu- Identification et compréhension blic qui indique les domaines où l’administration Les personnes concernées doivent identifier et com- publique met en œuvre des systèmes algorith- prendre l’utilisation de systèmes algorithmiques ainsi miques. Entre autres, un tel registre devrait fournir que leur fonctionnement. Cette transparence revêt plu- des informations relatives au type et à l’origine des sieurs dimensions : données traitées, à la législation, à la finalité et aux moyens de traitement, à l’organisme responsable, à Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 3
la logique du système algorithmique et aux acteurs entreprises, en raison de caractéristiques spécifiques et qui ont participé au développement du système. Ces protégées. informations devraient être facilement accessibles et Il est souvent difficile de fournir une preuve de dis- présentées selon un format standardisé. crimination. Ce problème pourrait être résolu par un renversement de la charge de la preuve. La personne se Discrimination disant discriminée devrait seulement établir l’existence Les systèmes algorithmiques ont souvent pour tâche d’une discrimination avec un degré de crédibilité suff- de prendre des décisions. Ces dernières sont probléma- isant, et l’entreprise devrait alors prouver que la décision tiques lorsque des personnes sont traitées différemment ne se fonde pas sur une caractéristique protégée. À cet en raison de caractéristiques protégées, telles que l’ori- égard, l’usage de systèmes algorithmiques peut égale- gine, l’ethnie, le sexe, l’âge, la langue, la position sociale, ment s’avérer avantageux, puisqu’il est possible – con- le mode de vie, les convictions religieuses, idéologiques trairement aux décisions prises par l’être humain – de ou politiques, ou les invalidités d’ordre physique, men- reconnaître les critères utilisés pour la prise de décision tal ou psychique, sans qu’il n’existe une raison objective et de prouver que cette dernière ne repose pas sur des à cet égard. Dans ce cas de figure, il y a discrimination. caractéristiques protégées. Dans le cas de systèmes algorithmiques, des discrimi- nations peuvent notamment survenir du fait qu’ils uti- Manipulation lisent des caractéristiques protégées directement ou in- Les systèmes algorithmiques peuvent influencer la pen- directement comme paramètres décisionnels ou parce sée et les actions des personnes qui interagissent avec de qu’ils sont formés avec des données qui présentent un tels systèmes. Comme exemples typiques, citons l’affi- « biais ». Ainsi, certains préjugés existant dans la société chage de contenus spécifiques et la suppression d’autres peuvent être reproduits dans les prévisions et les déci- contenus pertinents sur les réseaux sociaux, ainsi que la sions de tels systèmes. Dans de nombreux cas toutefois, personnalisation d’offres ou de prix. L’influence ciblée la mise en œuvre de systèmes algorithmiques révèle sur la pensée et sur les agissements d’une personne par une discrimination visible. Ainsi, l’utilisation de tels un tiers (manipulation) constitue toutefois un phéno- systèmes donne la possibilité d’agir à l’encontre des dis- mène largement répandu, par ex. dans le cas de la publi- criminations. cité. Certes, l’influence par des tiers constitue toujours La problématique de la discrimination va bien au- une intrusion dans l’autonomie de la personne concer- delà de la mise en œuvre de systèmes algorithmiques, née. Toutefois, le type et l’ampleur de l’influence sont mais elle est particulièrement visible lors de son utilisa- extrêmement variés et, dans de nombreux cas, une in- tion. Ainsi, le problème de la discrimination devrait être fluence ne pose pas de problème. Un tel cas de figure abordé par le biais de règles s’appliquant indépendam- s’applique par exemple lorsqu’une influence est non ment du fait que la décision ou l’action discriminante ait spécifique et identifiable par la personne concernée, par été effectuée par un être humain ou par une machine. ex. dans le cas des formes traditionnelles de publicité Dans la plupart des cas, la situation juridique actuelle en politique et commerciale. Suisse n’interdit que la discrimination par des acteurs Dans le cas de la prise en compte juridique de formes étatiques. Cependant, de nombreux systèmes algorith- problématiques de manipulation, il faut notamment dif- miques sont mis en œuvre par des organismes privés, férencier les décisions et les actions d’individus dans par ex. lors de l’attribution de crédits ou du recrutement leurs rôles de consommateurs/-trices et de citoyens/-nes : d’employés. Ces discriminations pourraient être prévenues par une loi générale sur l’égalité de traite- (1) Dans le cas de la manipulation de citoyens/-nes ment, qui enregistre et sanctionne les discriminations dans le contexte de processus démocratiques, la infligées par des organismes privés, en particulier des protection de la formation démocratique de la vo- lonté est essentielle. Cette dernière peut être mise Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 4
en danger dans le cas de l’utilisation de systèmes ce type de manipulation peut être couvert par le algorithmiques, car ceux-ci permettent des formes droit en vigueur sur la concurrence (LCD). Il en va particulièrement efficaces et à peine identifiables autrement dans le cas d’autres formes de manipu- de diffusion unilatérale d’information, d’exagéra- lation, comme l’affichage continuel de nouveaux tion et de mensonge. Par ailleurs, il est possible de contenus sur les plates-formes de médias sociaux présenter à des personnes individuelles (ou à des dans le but de maintenir les consommateurs/-trices petits groupes) des contenus individualisés, afin aussi longtemps que possible sur la plate-forme afin d’influencer de manière ciblée leurs pensées, leur de pouvoir leur présenter le plus de publicité pos- formation d’opinion et leur comportement de vote. sible. Il s’agit ici de vérifier s’il existe une nécessité Cette individualisation des contenus peut introduire d’action. Cela pourrait notamment être le cas chez des déclarations qui ne sont pas abordées dans les les personnes vulnérables (par ex. dans le cas d’une débats publics et qui ne peuvent par conséquent pas utilisation addictive des réseaux sociaux chez les être remises en cause ni, le cas échéant, être réfu- mineurs). tées. Dans le cas de la formation démocratique de la volonté, la liberté d’information et d’opinion revêt Pour ces deux groupes, la manipulation ne doit pas né- une importance clé. Cette liberté assure aux acteurs cessairement être enregistrée juridiquement comme une politiques et à la population une importante marge procédure. Au contraire, il peut être suffisant de créer de manœuvre dans la perception et la diffusion des possibilités qui permettent d’annuler la décision d’informations. Cette large marge de manœuvre est si cette dernière est prise à la suite d’une manipulation. essentielle à la formation de l’opinion publique et ne Pour les consommateurs/-trices, l’introduction de droits doit être limitée qu’avec circonspection. Par consé- de rétractation serait notamment envisageable, comme quent, la réglementation des systèmes algorith- il en existe déjà aujourd’hui pour le démarchage à do- miques devrait avant tout viser à créer une trans- micile, les ventes par téléphone, et, de manière générale, parence sur le type et l’ampleur de la diffusion de – dans l’UE – la conclusion de contrats à distance (no- contenus éventuellement discutables (par ex. en di- tamment dans le cadre du commerce électronique). En vulguant les critères selon lesquels Facebook affiche outre, lors des votations, la possibilité de contestation des contenus, les supprime ou les identifie comme existe aujourd’hui déjà lorsque le résultat a par ex. été problématiques), sans évaluer les déclarations elles- massivement influencé par la divulgation de fausses in- mêmes. Cette évaluation doit rester du ressort du formations. processus ouvert de formation de l’opinion pu- blique. En outre, les utilisateurs/-trices doivent être Responsabilité en mesure de reconnaître, par le biais de mesures La responsabilité en cas de dommage constitue un défi appropriées, la manière dont les contenus sont indi- central lors de l’utilisation de systèmes algorithmiques. vidualisés par des systèmes algorithmiques, afin de Bien que les normes du droit général de la responsa- développer une sensibilité à la manière dont ils sont bilité civile s’appliquent également à de tels systèmes, influencés. la preuve des conditions préalables de la responsabili- té des exploitants/-es est difficile, en particulier en cas (2) Dans le cas de la manipulation de consomma- de faute. Dans certains secteurs, il existe déjà des règles teurs/-trices, la protection de la liberté individuelle de responsabilité objective, qui s’appliquent également de décision et la protection de la concurrence ef- dans le cas de systèmes algorithmiques (par ex. aux fective se positionnent au même niveau. Chez les véhicules dans la loi sur la circulation routière ou aux consommateurs/-trices également, la manipulation drones dans la loi sur le trafic aérien). L’introduction par le biais de la diffusion d’informations erronées d’une responsabilité générale des exploitants/-es sous la ou trompeuses revêt une importance clé. Toutefois, forme d’une responsabilité objective est à proscrire. Il Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 5
convient toutefois de vérifier si une responsabilité ob- qu’indirectement les systèmes. En outre, elles ne s’appli- jective des exploitants/-es devrait être introduite dans quent pas lorsque les systèmes algorithmiques ne trait- d’autres secteurs pour les exploitants/-es de systèmes ent pas de données à caractère personnel, ce qui peut algorithmiques. Une procédure spécifique au secteur justement être le cas dans les infrastructures critiques. Il permettrait une coordination prudente avec des pres- convient donc d’examiner si l’introduction d’une loi criptions de sécurité à remplir ex ante. générale de sécurité informatique est nécessaire. En La responsabilité des fabricants/-es est donc mise guise d’alternative à la réglementation étatique d’exi- en avant. Il s’avère problématique que la loi sur la re- gences concrètes de sécurité, la déclaration d’application sponsabilité du fait des produits soit adaptée aux pro- générale des normes développées par des organismes duits conventionnels et, d’une manière générale, aux de normalisation pourrait s’imposer. objets physiques qui sont mis sur le marché après leur fabrication et qui ne peuvent plus être influencés par les Procédure d’autorisation fabricants/-es. L’enregistrement de systèmes algorith- Aujourd’hui déjà, il existe des produits qui ne peuvent miques par le biais de la loi sur la responsabilité du fait être mis sur le marché qu’après lune autorisation par des produits suppose que de tels systèmes soient recon- une autorité étatique (par ex. véhicules ou produits mé- nus comme produits. Les fabricants/-es devraient donc dicaux). Les produits doivent également être soumis à être tenus responsables de l’évolution (ultérieure) sûre des procédures d’autorisation lorsqu’ils font appel à des de leurs produits. Simultanément, ils doivent toutefois systèmes algorithmiques. pouvoir se décharger en cas d’influence inappropriée de Dans le cas des procédures d’autorisation existan- la part d’autres parties prenantes. Par conséquent, la loi tes, les conditions préalables et les procédures pertinen- suisse sur la responsabilité du fait des produits doit être tes doivent être adaptées de telle manière à ce qu’elles actualisée. garantissent également la sécurité et la qualité requises des produits, même si ces derniers reposent sur l’utilisa- Sécurité tion de systèmes algorithmiques. À cet égard, il convient Les systèmes algorithmiques doivent satisfaire les de noter que les systèmes algorithmiques peuvent être normes habituelles de sécurité. Par ailleurs, ils doivent perfectionnés après l’autorisation, voire même être en être suffisamment robustes et protégés contre les in- mesure de se perfectionner par eux-mêmes (via l’ap- fluences environnementales néfastes, ainsi que contre prentissage automatique). Dans ces cas de figure, il con- les erreurs de manipulation. En outre, une protection vient de garantir que l’autorisation sera à nouveau ex- suffisante contre les attaques doit être garantie, de nou- aminée à chaque étape pertinente de développement velles formes d’attaques devant être également prises (« life cycle regulation »). en considération (par ex. manipulation de données de Par ailleurs, il convient de vérifier si de nouvelles formation). La sévérité des exigences dépend des do- procédures d’autorisation doivent être créées afin de maines d’application ; ainsi, par ex., les systèmes algo- garantir la sécurité de produits ou de services à risque rithmiques qui contrôlent les processus dans des in- qui utilisent des systèmes algorithmiques. Les systèmes frastructures critiques (par ex. l’approvisionnement en interagissant avec l’environnement, comme les robots électricité) doivent satisfaire des critères plus stricts que nettoyeurs et les robots de soins, mais aussi les jouets, ceux qui, par exemple, pilotent un robot aspirateur. figurent au premier plan. D’autre part, les instruments Pour autant que les systèmes algorithmiques trait- prévisionnels utilisés dans des domaines sensibles, ent des données à caractère personnel, les dispositions comme dans les procédures pénales ou la prévention de de la loi sur la protection des données sont applicables, la criminalité, pourraient aussi être soumis à autorisa- ce qui implique une sécurité adéquate des données. tion. Une certification pourrait aussi être envisagée pour Toutefois, ces dispositions visent en premier lieu la pro- des produits moins risqués. tection des données à caractère personnel et ne couvrent Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 6
Applications interdites les mêmes opinions. À cet égard, la cohérence entre la Enfin, il convient d’examiner si certaines applications politique intérieure et extérieure devrait être maintenue de systèmes algorithmiques doivent être interdites, et le discours actif devrait également se refléter au ni- parce qu’elles conduisent (ou peuvent conduire) à des veau de la politique intérieure. atteintes aux droits fondamentaux qui ne devraient pas Les entreprises suisses qui proposent des systèmes être acceptées. En guise d’alternative à une interdiction, autonomes sur le marché européen ou qui souhaitent les un moratoire pourrait également être décrété pour l’uti- mettre en œuvre devront se soumettre aux prescriptions lisation de systèmes algorithmiques spécifiques. Un tel à venir du droit européen. Cela ne signifie toutefois pas moratoire permettrait d’examiner de plus près les consé- que la Suisse doit reprendre ces prescriptions telles quences à moyen et à long terme de l’utilisation de sys- quelles dans son droit national. Il semble plutôt judic- tèmes algorithmiques dans des domaines critiques et ieux de créer une marge de manœuvre pour les entre- décider seulement ultérieurement si une mise en œuvre prises suisses qui ne souhaitent pas (encore) proposer de tels systèmes doit être autorisée. Actuellement, l’ac- leurs produits sur le marché européen au moyen d’un cent est mis sur les applications suivantes : cadre juridique suffisamment ouvert (par ex. via une in- terdiction générale de discriminer au lieu de prescrip- – L’usage d’outils de reconnaissance faciale et tions spécifiques relatives à la gestion des risques et à la d’autres procédés biométriques de reconnaissance qualité des données). à distance dans un espace public, dans la mesure où il existe un risque que ces systèmes algorith- Procédure ultérieure miques soient utilisés pour une surveillance de La présente prise de position montre qu’il est néces- masse ; saire d’agir en Suisse. Les défis liés à l’utilisation – L’utilisation du social scoring dans le but de de systèmes algorithmiques par les entreprises et réguler l’accès aux ressources fondamentales (pres- l’État sont suffisamment évidents. Dans ce contexte tations étatiques, crédits, sécurité sociale, etc.). et compte tenu des développements à l’étranger, la Suisse devrait rapidement commencer à élaborer Au vu de l’évolution technologique rapide, il convient des normes qui peuvent appréhender de manière toutefois d’évaluer régulièrement si de nouvelles formes adéquate les défis esquissés. Ce travail devrait être d’utilisation de systèmes algorithmiques (par ex. la pra- assumé par une commission interdisciplinaire tique autonome de force létale dans le domaine de la et diversifiée composée d’experts/-es. En outre, sécurité) devraient également être interdites. davantage de recherches sont nécessaires dans de nombreux domaines, par ex. dans celui de la mani- Position de la Suisse dans un environnement pulation. Les travaux de recherche requis devront international être poursuivis à un rythme soutenu, parallèlement À l’heure actuelle, divers espaces juridiques (UE, USA, aux travaux d’une commission d’experts/-es, afin Chine) travaillent à la régulation des systèmes algorith- de garantir que la réglementation suisse repose sur miques. Les développements en UE et au Conseil de des fondements scientifiques avérés. l’Europe sont notamment pertinents pour la Suisse. La Suisse ne devrait pas chercher à reprendre de manière passive ces approches réglementaires. Au contraire, elle devrait – en se basant sur les principes formulés dans la présente prise de position – élaborer une posi- tion qui lui est propre et la présenter activement dans le cadre du discours international et en particulier euro- péen, avec les partenaires internationaux qui partagent Digital Society Initiative Prise de position : Un cadre juridique pour l‘intelligence artificielle Novembre 2021 7
Vous pouvez aussi lire