IA et droit : dépasser la fiction pour une approche juridique raisonnée - De Gaulle Fleurance & Associés

La page est créée Muriel Loiseau
 
CONTINUER À LIRE
Dossier

IA et droit : dépasser la fiction pour
une approche juridique raisonnée

L
         ’Intelligence Artificielle (« IA ») berce nos existences à travers les plus grandes œuvres
         de science-fiction. L’IA y est présentée comme une menace ou comme une solution
         pour l’humanité. La remise au premier plan de l’IA grâce aux progrès du numérique a
logiquement été accompagnée d’une résurgence de ces réflexes et biais culturels, créant un
véritable mythe autour de l’IA.
Cette mystification de l’IA provient d’une erreur d’analyse initiale qui consiste à croire, comme l’a
présenté la science-fiction, que l’IA est quasiment omnisciente, généraliste, qu’elle comprendrait
par elle-même et qu’elle aurait quasiment conscience de sa propre existence. en somme, l’IA telle
qu’elle est fantasmée est une IA « forte » qui ne correspond aujourd’hui à aucune réalité que ce
soit au regard du niveau d’avancée des travaux de recherche et développement ou des applications
d’IA intégrées aux produits ou services sur le marché.
en effet, l’IA telle qu’elle existe aujourd’hui est loin d’avoir ces caractéristiques. Les IA qui nous
entourent au quotidien sont des IA spécialisées, extrêmement performantes dans des domaines
très pointus, pour lesquels elles ont été spécifiquement entrainées. C’est ce que l’on appelle des IA
faibles. Cette appellation ne doit en aucun cas minimiser les résultats exceptionnels obtenus grâce
à ces IA dans des domaines divers tels que la médecine, la mobilité, la finance, l’énergie ou plus
généralement toute activité basée sur l’exploitation de données.                                             SOMMAIRE
Notre réalité est qu’à chaque instant, des algorithmes sondent, calculent et analysent un nombre
impressionnant de données, qui serviront à trouver un diagnostic, définir des offres, à améliorer un         Intelligence artificielle :
                                                                                                             quels objets de droit
service ou encore, à proposer un prix.                                                                       pour quel encadrement
Face à la montée en puissance des IA et de leur utilisation par divers acteurs économiques et                contractuel ? P. 22
politiques, les questions juridiques et éthiques relatives à cette utilisation se posent. La première        Georgie COURTOIS et Jean-
                                                                                                             Sébastien MARIEZ
question à se poser est d’ailleurs d’examiner la manière dont notre législation actuelle permet
d’ores et déjà d’accueillir ces solutions et d’apporter les garanties nécessaires à la sécurité juridique.   IA et assurance P. 28
ensuite, dans des cas spécifiques, il faut s’interroger sur la nécessité d’adopter des règles spéciales.     Luc GRYNBAUM
Il est donc nécessaire d’anticiper les conséquences juridiques qui découleront de l’utilisation des
                                                                                                             Les données publiques
IA, que ce soit en matière de protection des droits de propriété intellectuelle, de protection des           au cœur de l'IA et
données à caractère personnel, de responsabilités, de mobilité urbaine ou encore de concurrence.             au service de la ville
Au sein de l’Union européenne, la Commission développe des mesures pour encadrer les règles                  intelligente P. 32
en matière de responsabilité et de transparence des IA. Les récents développements autour                    Gaïa WITZ et Jean-Sébastien
                                                                                                             MARIEZ
notamment de la reconnaissance faciale font partie des priorités.
L’heure n’est donc plus à la fiction et au droit prospectif, mais bien à l’analyse concrète des effets       Intelligence artificielle
                                                                                                             et droit de la
des IA sur notre droit et du droit sur les IA. n
                                                                                                             concurrence P. 36
Georgie COURTOIS, Jean-Sébastien MARIEZ et Thierry TITONE                                                    Thierry TITONE et Roxane
Avocats associés, De Gaulle Fleurance et Associés                                                            CHANALET-QUERCY

Nº 151 septembre 2019                           Revue Lamy Droit des Affaires                                                              21
RLDA 6781

     Intelligence artificielle : quels
     objets de droit pour quel
     encadrement contractuel ?
                                                                                                                               Georgie
                                                                                                                              COURTOIS
       Tout d’abord est exposée ici une proposition de modèle d'analyse des composantes                                      Avocat associé
       d'une solution d'intelligence artificielle, avant de présenter un panorama des                                          De Gaulle
       problématiques juridiques récurrentes dans le cadre de la sécurisation des rapports                                    Fleurance et
       transactionnels entre fournisseurs d’intelligence artificielle et clients.(1)                                            Associés

     Le regain que l’intelligence artificielle                    sur la base de ce modèle d’analyse, il est
     (« IA ») connait depuis quelques années                      ensuite possible d’aborder les probléma-
     conduit à la multiplication des rapports                     tiques juridiques qui, de manière trans-
     transactionnels impliquant, d’une part,                      versale, doivent être traitées quel que
     les fournisseurs de produits ou services                     soit le type d’application d’IA en cause.
     informatiques et, d’autre part, leurs                        Dans cette perspective, la seconde par-
     clients personnes morales de droit privé                     tie de cet article présente les principales
     ou de droit public.                                          questions qui doivent retenir l’attention
                                                                  des co-contractants : la protection des
     Dans ce contexte, il est parfois difficile                   droits de propriété intellectuel ; la pro-                Jean-Sébastien
     de faire le distinguo entre d’une part,                      tection des données à caractère person-                      MARIEZ
     les fournisseurs qui, sous couvert d’IA,                     nel ; et la répartition contractuelle des
     proposent en réalité des produits ou ser-                                                                               Avocat associé
                                                                  responsabilités(2). Les régulations secto-                   De Gaulle
     vices informatiques ne générant pas de                       rielles dont l’examen peut s’avérer essen-                  Fleurance et
     spécificités sous un angle juridique (par                    tiel ne seront pas abordées ici.                              Associés
     exemple, un progiciel) et d’autre part, des
     solutions d’IA à proprement parler qui
     méritent une attention particulière dès
     lors que leur encadrement contractuel
                                                                  I. – Proposition d'un modèle
     reste à baliser (solution d’IA).                                  d'analyse juridique des
                                                                       objets de droit composant
     Dans cette seconde hypothèse, afin de                             une solution « IA »
     sécuriser autant que possible le rapport
                                                                  Afin de sécuriser contractuellement la
     contractuel en cause, il est nécessaire de
                                                                  mise à disposition et l’exploitation d’une
     comprendre quels objets de droit com-
                                                                  solution d’IA, il est nécessaire de s’inté-
     posent une IA, afin de déterminer en
                                                                  resser d’une part au modèle économique
     toute connaissance de cause le régime
                                                                  du fournisseur d’IA et d’autre part, au ré-
     que les parties souhaitent convenir. À cet
                                                                  gime qui conduira le sort des objets de
     égard, la première partie de cet article
                                                                  droits constitutifs d’une solution IA.
     expose un modèle d’analyse des compo-
     santes d’une solution d’IA, ses éléments                     s’agissant d’abord des modèles écono-
     et leurs interactions.                                       miques qui peuvent être actuellement
                                                                  rencontrés sur le marché, une première
                                                                  typologie permet de distinguer trois
     (1) Cet article fait suite à la conférence « Démystifier     principaux modèles :
         et comprendre l'Intelligence Artificielle : condi-
         tions nécessaires à une approche juridique sereine
                                                                  • IA « sur l’étagère » : IA, type progi-
         et sécurisée » organisée le 14 mars 2019 par le            ciel, très spécialisée, dont la struc-
         cabinet De Gaulle Fleurance et Associé. Les au-            ture n’évolue pas ou peu au contact
         teurs remercient m. Coulaud, Directeur juridique,
         microsoft France et m. Hindi, président fondateur,
         snips, pour leur participation ainsi que J. roussel,
         avocat et J. bader, juriste, pour leurs précieuses       (2) Les régulations sectorielles dont l’examen peut
         contributions.                                               s’avérer essentiel ne seront pas abordées ici.

22                                                          Revue Lamy Droit des Affaires                               Nº 151 septembre 2019
Dossier
                                         IA et droit : dépasser la fiction pour une approche juridique raisonnée

   des données intégrées. La fourniture de ce type de           ensuite, il est nécessaire d’appréhender les objets de
   solution d’IA est le plus souvent encadrée par des           droit composant une solution d’IA. Une bonne compré-
   conditions générales d’utilisation similaires à celles       hension des éléments en présence et de leurs interactions
   d’un progiciel ;                                             est en effet essentielle lorsqu’il s’agit d’encadrer contrac-
                                                                tuellement un projet d’IA « sur mesure ».
• IA « as a service » : IA mise à disposition sur une
  plateforme Cloud permettant à l’utilisateur d’ex-             Comme le montre le schéma ci-dessous, une solution d’IA
  ploiter des modèles d’IA (ex : microsoft Azure, Goo-          peut être présentée comme étant composée de quatre
  gle Cloud platform, Amazon Web services). La four-            éléments majeurs :
  niture de ce type de solution d’IA est le plus souvent
  encadrée par des conditions générales d’utilisation           résultat de ce processus d’apprentissage, le modèle est
  similaires à celles d’un service de Cloud ;                   alors mis en exploitation pour générer, sur la base de don-
                                                                nées d’exploitation, un ensemble d’informations présen-
• IA « sur mesure » : IA intégrée et développée ad hoc          tées sous une forme quelconque, les données de résultat.
  dans le cadre d’un projet informatique pour les be-
  soins d’une activité spécifique d’une organisation.           Ces quatre objets peuvent être regroupés en deux
  selon son niveau de complexité la fourniture de ce            sous-ensembles.
  type de solution d’IA devra être encadrée par un              Un premier ensemble regroupe les objets constitutifs des
  contrat ad hoc de type projet informatique.                   prérequis au développement d’une solution d’IA. Il s’agit
                                                                des données d’apprentissage et l’algorithme initial, dési-
                                                                gnés ci-dessous sous l’intitulé technologie de base (Back-
                                                                ground technology). selon les modèles, ces deux objets
                                                                peuvent résulter d’apports exclusifs (le fournisseur ap-
                                                                porte l’algorithme initial et le client apporte les données
                                                                d’apprentissage) ou d’apports croisés (l’algorithme initial
                                                                résulte de la combinaison des algorithmes du fournisseur
                                                                et de technologies du client ou encore, les données d’ap-
                                                                prentissage apportées par le client sont toutefois cali-
                                                                brées par le fournisseur).
                                                                Un second ensemble regroupe les objets qui résultent du
                                                                processus d’apprentissage conduisant au développement
                                                                du modèle et à l’exploitation de celui-ci pour générer les
                                                                données de résultat : technologie développée (Foreground
premier objet, le moteur d’une solution d’IA performante        technology) (v. schéma p. 24).
est constitué par la combinaison d’algorithmes auxquels
peuvent s’ajouter d’autres technologies (par exemple :
logiciel, savoir-faire) : l’algorithme initial. en vue de son   II. – Encadrement contractuel d’une
exploitation pour une finalité spécifique, ce premier objet           solution d’IA : points d'attention sur
doit faire l’objet d’un processus d’apprentissage.                    les problématiques récurrentes et
Cet apprentissage implique l’élaboration d’un deuxième                recommandations
objet : un ou plusieurs jeux de données (les données d’ap-      Une fois bien intégrés les objets de droit composants
prentissage) dont la nature propre permet de développer,        d’une solution d’IA, il est possible d’analyser toute ques-
sur la base de l’algorithme initial, un troisième objet : une   tion juridique susceptible d’être levée dans le cadre de son
solution d’IA appliquée à un domaine spécifique et répon-       cycle de vie. La seconde partie de cet article se concentre
dant à une fonctionnalité particulière (le modèle).             sur les problématiques récurrentes que les parties à un

Nº 151 septembre 2019                        Revue Lamy Droit des Affaires                                                      23
contrat de fourniture de solution d’IA ne manqueront pas                      lors, ces éventuelles licences, leur périmètre d’utilisation
     d’aborder afin de sécuriser leur relation.                                    et la gestion du savoir-faire associé, doivent être prévus
                                                                                   contractuellement entre les parties.
       A. – Propriété intellectuelle : de la
                                                                                   bien évidemment, une confidentialité particulièrement
            détermination des apports à la
                                                                                   stricte doit encadrer ces rapports et la fourniture des ob-
            technologie de base aux droits
                                                                                   jets respectifs par les parties.
            d’exploitation de la technologie
            développée                                                             Après avoir encadré les objets respectifs apportés par
                                                                                   les parties dans le cadre du projet IA (« technologie de
     pour chacun des objets de droit constitutifs d’une IA (voir
                                                                                   base »), les parties devront prévoir les conséquences de
     ci-dessus I), il est nécessaire de s’interroger sur le meilleur
                                                                                   cette union des apports (« technologie développée »).
     encadrement contractuel susceptible d’apporter un équi-
     libre entre le client et le fournisseur d’IA.
                                                                                     ➜ Technologie développée
       ➜ Technologie de base                                                       Le point essentiel qu’il est nécessaire de prévoir est ce-
                                                                                   lui de la propriété et de l’éventuelle réutilisation du mo-
     pour ce faire, dès le stade des « technologies de base»,
                                                                                   dèle entrainé. C’est le cœur même de la spécificité de la
     il faut être capable d’identifier précisément les apports
                                                                                   contractualisation de l’IA. en effet, le modèle entrainé
     (informations, données, technologies…) de chacune des
                                                                                   constitue la fusion des apports respectifs des parties : le
     parties et les règles d’utilisation de ces apports.
                                                                                   modèle ne pourrait exister sans les données d’apprentis-
     en premier lieu, le sort des données d’apprentissage du                       sage du client, ni sans l’algorithme initial. mais surtout,
     client qui serviront à nourrir l’algorithme doit être préci-                  en ayant été nourri par les données d’apprentissage, il
     sément encadré. Ces données constituent une partie in-                        constitue en quelque sorte une synthèse des données du
     déniable du patrimoine du client. s’il fait appel à l’IA, c’est               client ayant servi à son apprentissage, ce dont le client n’a
     pour extraire de ces données toute leur valeur. Contrac-                      pas forcément conscience. Ces données d’apprentissage,
     tuellement, le client autorisera au fournisseur d’IA à accé-                  souvent amassées sur de très longues années, ont une va-
     der, extraire et utiliser ces données dans le cadre du projet                 leur particulièrement importante. Le modèle entrainé est
     les liant, en excluant tout transfert de propriété sur ces                    donc susceptible d’intégrer des données d’apprentissage
     données.                                                                      dans lesquelles le client a investi énormément de temps
                                                                                   et d’argent.
     en second lieu, le rôle joué par l’algorithme initial est
     également central. Cet algorithme initial est fourni par                      Ces points de négociation sont fondamentaux pour le
     le fournisseur d’IA. souvent composé d’une combinaison                        client et peuvent-être de nature à orienter le choix entre
     d’algorithmes open source, il n’en demeure pas moins que                      plusieurs fournisseurs d’IA, notamment selon la typologie
     la question de sa protection et de sa propriété doit être                     de projet pour lequel la solution d’IA est développée.
     prévue dans le cadre contractuel. bien qu’un algorithme                       À titre d’exemple, dans un environnement fortement
     ne soit pas protégeable au titre du droit d’auteur par na-                    concurrentiel, le client pourrait souhaiter que le modèle
     ture(3), les algorithmes sont intégrés à un logiciel qui est                  entrainé, en ce qu’il intègre ses données d’apprentissage,
     susceptible de leur conférer une protection au titre du                       reste sa seule propriété afin d’éviter, par exemple, qu’un
     droit d’auteur des logiciels ou éventuellement à un brevet,                   concurrent bénéficie du modèle entrainé grâce à ces don-
     sous réserve de satisfaire aux critères de brevetabilité. Dès                 nées.
                                                                                   Dans d’autres typologies de solution, le fournisseur d’IA
     (3) rapport France IA, mars 2017, Intelligence artificielle et enjeux juri-   pourrait souhaiter réutiliser le modèle entrainé grâce
         diques, p. 295.                                                           aux données d’apprentissage d’un client auprès de ses

24                                                          Revue Lamy Droit des Affaires                                Nº 151 septembre 2019
Dossier
                                                 IA et droit : dépasser la fiction pour une approche juridique raisonnée

propres clients. Le fournisseur d’IA est même susceptible                  que le fournisseur n’a pas de contrôle sur ces données.
de mettre en avant son savoir-faire dans un secteur par-                   toutefois, la responsabilité pourrait être distribuée entre
ticulier et ses modèles déjà pré-entrainés pour conquérir                  le fournisseur et le client, voire peser sur le fournisseur
de nouveaux marchés. Cette autorisation d’utilisation du                   dans l’hypothèse où ce dernier a également pour mission
modèle entrainé peut faire l’objet d’une rémunération du                   de configurer et de nettoyer le jeu de données fourni par
client (si on estime qu’il est copropriétaire du modèle en-                le client. en effet, les projets d’IA contiennent souvent une
trainé) ou d’une réduction du prix de la solution d’IA.                    phase préparatoire de calibration des données d’appren-
                                                                           tissage qui seront utilisées pour nourrir l’algorithme. Le
Les parties pourront également négocier, à titre d’exemple,
                                                                           fournisseur d’IA est censé aider le client, au moins au titre
une propriété exclusive, une copropriété ou encore une li-
                                                                           de son obligation de conseil, pour calibrer les données
cence d’utilisation du modèle entrainé au fournisseur d’IA
                                                                           pour les besoins du projet d’IA.
pour ses besoins de recherche et de développement, sans
qu’il puisse céder le modèle entrainé à des tiers. L’encadre-              en tout état de cause, il faut avoir conscience que des dif-
ment contractuel devra également prévoir le cas échéant                    ficultés pourront se poser quant à la détermination de la
les modalités de dépôt et de cession d’éventuels brevets                   composante à l’origine du fait générateur, cause du dom-
issus du modèle entrainé.                                                  mage. en effet, les solutions d’intelligence artificielle ne
enfin, les parties pourront également prévoir le sort des                  sont pas toujours transparentes. C’est notamment le cas
données de résultat issues du traitement par le modèle.                    des solutions d’intelligence artificielle utilisant la tech-
Ces données sont de nature à intéresser le fournisseur                     nologie du deep learning (apprentissage profond) dont
d’IA pour mieux comprendre le fonctionnement du mo-                        l’utilisation crée un phénomène appelé « boîte noire » : il
dèle créé et, partant, celui des autres modèles qu’il déve-                est possible de comprendre quelles données entrent dans
loppe pour ses autres clients. bien que la propriété de ces                la « boîte » et les résultats qui en sortent, mais sans sa-
données de résultat au client ne fasse pas de doute(4), ce                 voir ni comprendre ce qui se passe à l’intérieur. Dès lors,
dernier peut accorder au fournisseur d’IA une licence pour                 il est parfois impossible de comprendre les étapes ayant
une utilisation limitée en interne.                                        conduit au résultat erroné.

  B. – Responsabilité : recherche d'un équilibre                           L’enjeu pour le client sera donc de comprendre quelles
       au vu des contributions respectives                                 technologies sont utilisées et les conséquences de leur uti-
                                                                           lisation afin de pouvoir négocier en connaissance de cause
La gestion de contours de la responsabilité et ses limita-                 les éventuelles répartitions et limitations de responsabi-
tions dans le cadre d’un projet d’IA est complexe. Une so-                 lité avec le fournisseur d’IA. Dans ce cadre, compte tenu
lution d’IA est développée le plus souvent pour constituer                 de la complexité technologique, il peut être opportun de
une aide à la décision. Dès lors, si la solution préconisée                prévoir en amont un système d’audit et d’expertise de la
par l’IA cause un dommage, toute personne ayant subi un                    solution d’IA par un tiers qui sera à même d’apprécier les
préjudice direct est susceptible d’en demander réparation.                 causes de défaillance potentielles du système.
L’origine distribuée des apports respectifs du fournisseur
d’IA et du client entraine des conséquences en terme de                      C. – Protection des données à caractère
responsabilité qu’il est nécessaire de prévoir dès le stade                       personnel et Big Data : une réconciliation
de la contractualisation.                                                         nécessaire
À titre d’exemple, la responsabilité du fournisseur d’IA
                                                                           La question de la protection des données à caractère per-
pourrait être engagée dans l’hypothèse où le fait géné-
                                                                           sonnel mérite une attention particulière dans le cadre
rateur du dommage est lié à un dysfonctionnement de
                                                                           du développement et de l’exploitation de solutions d’IA.
l’algorithme initial qu’il a fourni. Dans cette hypothèse,
                                                                           en effet, l’IA et en particulier le Big Data(5) se distinguent
le client devrait pouvoir être garanti et ne pas subir les
                                                                           par une série de caractéristiques aux implications im-
conséquences d’un défaut de son fournisseur.
                                                                           portantes quant au respect des exigences issues de la loi
en revanche, la responsabilité du client pourrait être en-                 n° 78-17 du 6 janvier 1978 relative à l’informatique (LIL),
gagée dans l’hypothèse où le fait générateur du dommage                    aux fichiers et aux libertés et du règlement (Ue) 2016/679
est lié à la fourniture de données d’apprentissage biaisées                du parlement européen et du Conseil du 27 avril 2016, re-
ou défectueuses ayant conduit à l’entrainement défaillant                  latif à la protection des personnes physiques à l’égard du
de l’algorithme. Le client est en effet responsable du jeu                 traitement des données à caractère personnel et à la libre
de données d’apprentissage qu’il décide d’utiliser, tant                   circulation de ces données (rGpD).

(4) Une clause permettant la réversibilité pour récupérer l’ensemble       (5) ensembles de données très volumineux dont le traitement et l’ana-
    des données initiales et des données de résultat est conseillée pour       lyse dépasse l’intuition et les capacités informatiques et humaines
    gérer le sort des données à l’issue du contrat.                            classiques.

Nº 151 septembre 2019                                Revue Lamy Droit des Affaires                                                                   25
Au-delà de la nécessité de déterminer contractuelle-                          thèse, l’audit révèle que les jeux de données comportent
     ment les responsabilités respectives du fournisseur d’IA                      des données à caractère personnel non-anonymisées. Il
     et de son client en tant que responsable de traitement,                       s’agira alors de se poser la question de la nécessité d’uti-
     responsables conjoints ou sous-traitants, un certain                          liser des données à caractère personnel. si l’anonymisa-
     nombre de points de vigilance doivent nécessairement                          tion n’est pas adaptée au projet, alors il faudra organiser
     être abordés par les parties. sans vocation exhaustive,                       la mise en conformité de la solution d’IA avec l’ensemble
     nous abordons ici les problématiques qui semblent in-                         des exigences énoncées par la LIL et le rGpD. Dans cha-
     contournables.                                                                cune de ces situations, l’analyse devra tenir compte du
                                                                                   statut des données à la fois au stade du développement
     premier point d’attention à considérer : la notion même                       de la solution d’IA et au stade de son exploitation qui,
     de donnée à caractère personnel dans le contexte du Big                       si elle induit des recoupements, peut faire émerger un
     Data. Étant rappelé qu’une donnée est qualifiée de per-                       risque de ré-identification n’existant pas ab initio. enfin,
     sonnelle dès lors qu’elle permet d’identifier un individu                     il faut souligner que cet audit peut utilement être mis
     directement ou indirectement(6), certaines études sou-                        à profit afin, d’une part, de garantir l’intégrité, l’exacti-
     tiennent que la notion d’identification indirecte prend                       tude, la nécessité et la pertinence des données objet du
     une nouvelle dimension dans le cadre de traitements                           traitement(9) et, d’autre part, mettre en œuvre le principe
     Big Data dès lors que cette technologie induit un risque                      de protection des données dès la conception (privacy by
     exponentiel de ré-identification(7). La mise en œuvre de                      design) et celui de protection des données par défaut
     techniques de recoupement massifs et d’agrégation de                          (privacy by default)(10).
     données, qui, prises isolément sont considérées comme
     anonymes, permettrait de manière indirecte, dans de                           ensuite, il convient de mettre en regard les principales
     nombreux cas, la ré-identification d’individus et donc                        caractéristiques des traitements reposant sur une tech-
     l’application des exigences issues des textes précités.                       nologie Big Data avec les règles de protection des don-
                                                                                   nées à caractère personnel.
     Ce constat conduit à une première recommandation
     pratique : la nécessité de conduire un audit des jeux de
                                                                                   en premier lieu, le Big data implique la collecte et le
     données utilisées tant en leur qualité de données d’ap-
                                                                                   traitement d’autant de données que possible. Comment
     prentissage que de données d’exploitation. La raison
                                                                                   ménager cet impératif technique avec le principe de mi-
     d’être de cette analyse sera de déterminer l’applicabilité
                                                                                   nimisation des données issu de l’article 5(1)(c) ?
     des règles de protection des données à caractère per-
     sonnel. trois situations principales peuvent être distin-
                                                                                   s’il n’existe pas de réponse tranchée à cette question,
     guées. en premier lieu, l’étude permet de confirmer que
                                                                                   une première piste de gestion du risque réside sans doute
     les jeux de données n’ont pas de caractère personnel et
                                                                                   dans la réalisation de l’audit des jeux de données préco-
     donc d’écarter a priori l’application du rGpD et de la LIL.
                                                                                   nisée ci-dessus. Cette analyse doit permettre d’écarter
     en second lieu, il peut s’avérer que les jeux de données
                                                                                   les données dont le caractère adéquat et nécessaire ne
     contiennent au moins en partie des données à caractère
                                                                                   pourrait être démontré. De même, un jeu de données
     personnel qui ont cependant été l’objet d’un procédé
                                                                                   qui révèlerait des inexactitudes devrait faire l’objet d’un
     d’anonymisation. Il s’agira alors de vérifier la robus-
                                                                                   nettoyage, en particulier dès lors qu’il pourrait générer
     tesse du procédé employé(8) pour écarter tout risque de
                                                                                   des biais dans le fonctionnement de la solution d’IA. Une
     ré-identification et, par voie de conséquence, l’applica-
                                                                                   seconde piste consiste à réaliser une analyse d’impact
     tion des règles issues des textes précités. Dernière hypo-
                                                                                   au sens des articles 35 et 36 du rGpD. son objet est pré-
                                                                                   cisément d’évaluer la nécessité et la proportionnalité
                                                                                   des opérations de traitement au regard de leurs finali-
     (6) rGpD, art. 4(1) « "données à caractère personnel", toute informa-         tés afin d’identifier et d’atténuer le risque élevé pour les
         tion se rapportant à une personne physique identifiée ou identifiable
         (ci-après dénommée "personne concernée") ; est réputée être une           personnes concernées. Il faut préciser que la réalisation
         "personne physique identifiable" une personne physique qui peut être      d’une telle analyse est obligatoire dans de nombreuses
         identifiée, directement ou indirectement, notamment par référence à       situations. par exemple, en cas de traitement à grande
         un identifiant, tel qu’un nom, un numéro d’identification, des données    échelle de données sensibles au sens de l’article 9 du
         de localisation, un identifiant en ligne, ou à un ou plusieurs éléments
         spécifiques propres à son identité physique, physiologique, génétique,
         psychique, économique, culturelle ou sociale ».
     (7) Dans ce sens, par exemple : President’s Council of Advisors on Science    (9) rGpD, art. 5(1). : « Les données à caractère personnel doivent être : […]
         and Tecnology. Big data and privacy. A technological perspective.             (c) adéquates, pertinentes et limimtées à ce qui est nécessaire au regard
         White House, mai 2014 ; C. Zolynski et A. bensamoun, Actes du col-            des finalités pour lesquelles elles sont traitées (minimisation des don-
         loque big data et privacy : comment concilier nouveaux modèles                nées) ; (d) exacte et, si nécessaire, tenues à jour, toutes les mesures raison-
         d’affaires et droits des utilisateurs ?, montréal, 15 oct. 2013 : LpA,        nables doivent être prises pour que les données à caractère personnel qui
         18 août 2014.                                                                 sont inexactes, eu égard aux finalités pour lesquelles elles sont traitées,
     (8) V. Groupe de travail protection des données, l’article 29, opinion            soit effacées ou rectifiées sans tarder (exactitude) ».
         05/2014 on Anonymisation techniques, 10 avr. 2014.                        (10) rGpD, art. 25.

26                                                          Revue Lamy Droit des Affaires                                             Nº 151 septembre 2019
Dossier
                                                    IA et droit : dépasser la fiction pour une approche juridique raisonnée

rGpD ou de profilage de personnes sur la base de don-                           nation de la ou les finalités correspondant au traitement
nées provenant de sources externes(11).                                         Big data. Cette réflexion doit intégrer les finalités suscep-
                                                                                tibles d’être anticipées ab initio ainsi que leur compati-
en deuxième lieu, le Big Data repose sur une exploitation                       bilité avec la finalité initiale. pour ce faire, il s’agit de se
des données ne permettant pas toujours de déterminer la                         référer au test de compatibilité issu de l’article 6.4 du
finalité des traitements de manière précise, en amont de                        rGpD(19). Les critères énoncés par cet article reposent sur
leur mise en œuvre. en effet, le processus d’apprentissage                      le lien suffisant avec la finalité initiale, le contexte et les
de l’algorithme initial donne lieu en cours de processus                        attentes raisonnables des personnes concernées au stade
à des calculs et corrélations non anticipées. Ces opéra-                        de la collecte, la nature des données et en particulier leur
tions sont susceptibles de réorienter les finalités du trai-                    caractère sensible ou non(20), les conséquences possibles
tement(12). De prime abord, cette caractéristique semble                        du traitement ultérieur envisagé et les garanties mises en
difficilement réconciliable avec le principe de finalité(13)                    œuvre, y compris, le chiffrement ou la pseudonymisation.
qui, selon l’article 5 du rGpD, impose de déterminer à
l’avance, de manière spécifique, l’objectif ou les objectifs
du traitement(14) afin de les porter à la connaissance des                      Une seconde recommandation concerne la transparence
personnes concernées(15) dès le stade de la collecte(16).                       et la loyauté vis-à-vis des personnes concernées. Le niveau
                                                                                d’information fourni par le responsable de traitement par-
en pratique, il faut d’abord relever que cette question                         ticipe de la compréhension des finalités du traitement. Ain-
aura une acuité variable selon le type de solution d’IA                         si, le contexte du traitement, son objectif, le type de don-
dont le développement ou l’exploitation est envisagée.                          nées collectées, leurs destinataires sont autant d’éléments
par exemple, une IA « sur l’étagère » proposant une fonc-                       qui doivent entrer en considération afin de déterminer si
tionnalité spécifique ne semble pas poser de difficulté. De                     une finalité nouvelle peut être anticipée par les personnes
plus, il faut préciser que s’agissant de traitements à des                      concernées au titre de leurs attentes raisonnable(21).
« fins statistiques », le rGpD et la LIL apportent des pré-
cisions qui peuvent permettre de diminuer le risque d’in-                       en troisième et dernier lieu, selon les technologies mises
compatibilité avec la finalité initiale(17).                                    en œuvre, le Big Data se caractérise par une opacité des
                                                                                traitements. Comme exposé précédemment, certaines
pour les solutions d’IA plus complexes, la gestion du risque
                                                                                solutions d’intelligence artificielle utilisant la technologie
associé à cette question de la finalité doit être abordée
                                                                                du Deep Learning engendrent, en effet, un phénomène
sous le double prisme de la notion de traitement ultérieur
                                                                                appelé « boîte noire ». Cette caractéristique mérite une
compatible avec la finalité initiale(18), d’une part, et de l’in-
                                                                                attention particulière au regard des obligations de trans-
formation des personnes concernées, d’autre part.
                                                                                parence et d’explicabilité issues du rGpD. tout spécia-
Une première recommandation consiste à travailler au-                           lement, s’agissant des applications d’IA en matière de
tant que possible, en amont du traitement, à la détermi-                        « prise de décision automatisée, y compris de profilage »(22),
                                                                                les articles 13 et 14 imposent une information relative à la
                                                                                « logique sous-jacente » de la prise de décision automa-
(11) CNIL, Liste des types d’opérations de traitement pour lesquelles une       tisée(23). L’article 47 de la LIL évoque la communication des
     analyse d’impact relative à la protection des données est requise          règles du traitement et de ses principales caractéristiques
     .                                           cipe de prohibition des décisions prises sur le seul fonde-
(12) N. Forgo, s. Hänold, b. schütze, The Principle of Purpose Limitation and   ment d’un traitement automatisé de données à caractère
     Big Data, in New Technology, Big Data and the Law : springer, 2017.
                                                                                personnel. n
(13) Cons. const., 21 fevr. 2008, n° 2008-562 DC et G29, Wp203, Opi-
     nion on purpose limitation, 2 avr. 2013, p. 14.
(14) s. soltani, « big data » et le principe de finalité, rLDI 2013/97,
     n° 3233.                                                                   (19) V. aussi rGpD, cons. 50.
(15) rGpD, art. 13 et 14.                                                       (20) GpD art. 9 et 10.
(16) rGpD, cons. 39.                                                            (21) G29, Wp203, Opinion on purpose limitation, 2 avr. 2013.
(17) LIL, art. 79 et rGpD, art. 14(5) et cons. 162 : « […] Par "fins statis-    (22) rGpD, art. 22 qui prévoit au bénéfice des personnes concernées, le
     tiques", on entend toute opération de collecte et de traitement de don-         « droit de ne pas faire l'objet d'une décision fondée sur un traitement
     nées à caractère personnel nécessaires pour des enquêtes statistiques           automatisé, y compris le profilage, produisant des effets juridiques la
     ou la production de résultats statistiques. Ces résultats statistiques          concernant ou l'affectant de manière significative de façon similaire »
     peuvent en outre être utilisés à différentes fins, notamment des fins de        et LIL, art. 47.
     recherche scientifique. Les fins statistiques impliquent que le résultat   (23) V. aussi rGpD, cons. 71 : « En tout état de cause, un traitement de ce
     du traitement à des fins statistiques ne constitue pas des données à ca-        type devrait être assorti de garanties appropriées, qui devraient com-
     ractère personnel mais des données agrégées, et que ce résultat ou ces          prendre une information spécifique de la personne concernée ainsi
     données à caractère personnel ne sont pas utilisés à l’appui de mesures         que le droit d’obtenir une intervention humaine, d’exprimer son point
     ou de décisions concernant une personne physique en particulier ».              de vue, d’obtenir une explication quant à la décision prise à l’issue de
(18) rGpD, art. 5 autorise les traitements ultérieurs dès lors qu’ils sont           ce type d’évaluation et de contester la décision. Cette mesure ne de-
     compatibles avec la finalité initiale.                                          vrait pas concerner un enfant. ».

Nº 151 septembre 2019                                    Revue Lamy Droit des Affaires                                                                          27
RLDA 6782

     IA et assurance
        Les assureurs peuvent bénéficier de l'IA afin d'améliorer les techniques de
        souscription, de gestion de sinistre et de lutte contre la fraude. Les assureurs de
        responsabilité civile des professionnels voient un nouveau marché s'ouvrir : celui de
                                                                                                                                     Luc GRYNBAUM
        la responsabilité du fait de l'utilisation d'une IA et de la responsabilité du fait d'une
                                                                                                                                         Professeur à
        IA défectueuse.                                                                                                               l’Université Paris
                                                                                                                                          Descartes
     théorisé dans les 1950(1), le concept d’in-                     rale »(4) qui correspond peu ou prou à celle                         Avocat Of
     telligence artificielle a pu se réaliser plei-                  entre IA faible et IA forte. Dans une sorte de                  Counsel De Gaulle
     nement grâce à la rencontre du Big Data et                      situation intermédiaire on peut identifier l’IA                     Fleurance &
                                                                     en apprentissage profond qui est en mesure                            associés
     de l’accroissement des capacités de stoc-
     kage et de calcul. Aussi, en adoptant la                        d’améliorer ses performances en apprenant
     définition de la Commission européenne,                         au fur et à mesure de sa mise en œuvre.
     peut-on considérer que l’intelligence arti-
                                                                     si, en France, le rapport Villani(5) a permis
     ficielle (IA) « désigne les systèmes qui font
                                                                     une réflexion ordonnée sur les grands mé-
     preuve d’un comportement intelligent en                         rites du développement de l’IA, c’est au
     analysant leur environnement et en pre-                         parlement et à la Commission européenne
     nant des mesures avec un certain degré                          que reviennent le mérite d’une incitation
     d'autonomie pour atteindre des objectifs                        à une évolution législative à propos de l’IA
     spécifiques »(2). La même Commission pré-                       et des robots qui sont des IA dotées d’une
     cise que « les systèmes dotés d'IA peuvent                      enveloppe physique « qui agit par le mouve-
     être purement logiciels, agissant dans le                       ment par et sur le monde réel »(6).
     monde virtuel (assistants vocaux, logiciels
     d'analyse d'images, moteurs de recherche                        pour que le robot soit considéré comme in-
     ou systèmes de reconnaissance vocale et                         telligent, le parlement européen a mis en
     faciale, par exemple) mais l'IA peut aussi                      exergue les critères suivants :
     être intégrée dans des dispositifs maté-                        • « acquisition d’autonomie grâce à des
     riels (robots évolués, voitures autonomes,                        capteurs et/ou à l’échange de données
     drones ou applications de l'internet des ob-                      avec l’environnement (interconnectivité)
     jets, par exemple) »(3).                                          et à l’échange et l’analyse de ces don-
                                                                       nées ;
     On établit souvent une distinction entre IA
                                                                     • capacité d’auto-apprentissage à travers
     faible et IA forte, cette dernière étant ca-
                                                                       l’expérience et les interactions (critère
     pable de produire un comportement intel-                          facultatif) ;
     ligent et d’éprouver une conscience de soi.
     L’IA faible, qui résulte d’algorithmes créés                    • existence d’une enveloppe physique,
     par des ingénieurs, ne peut qu’exécuter des                       même réduite ;
     tâches spécifiques. Dans le même esprit,                        •    capacité d’adaptation de son compor-
     mais plus récemment, une distinction a                              tement et de ses actes à son environne-
     été opérée entre « l'intelligence artificielle                      ment ;
     étroite et l'intelligence artificielle géné-                    • non vivant au sens biologique du
                                                                       terme »(7).

     (1) A. turing, Computing machinery and intelligence,
         Oxford University press, vol. 59, n° 236, oct.
         1950 ; F. rosenblatt, Principles of Neurodynamics:          (4) pe, rés. 12 févr. 2019, sur une politique industrielle
         Perceptrons and the Theory of Brain Mechanisms,                 européenne globale sur l’intelligence artificielle
         éd. spartan books, 1962.                                        et la robotique (2018/2088(INI)), n° 116.
     (2) Comm. Ue, communication, COm(2018) 237 fi-                  (5) Donner un sens à l’intelligence artificielle,
         nal, L’intelligence artificielle pour l’europe, 25 avr.         28 mars 2018.
         2018, p. 1.                                                 (6) Ibid.
     (3) Ibid, p. 1.                                                 (7) pe, rés. 12 févr. 2019, préc.

28                                                             Revue Lamy Droit des Affaires                                      Nº 151 septembre 2019
Dossier
                                                    IA et droit : dépasser la fiction pour une approche juridique raisonnée

enfin la notion d’autonomie, fréquemment évoquée pour                    Le chatbot permet de mieux orienter le candidat souscrip-
caractériser une IA forte a été caractérisée pour le robot               teur à un contrat d’assurance et de dispenser le devoir de
comme « la capacité à prendre des décisions et à les mettre              conseil renforcé depuis la réforme de la distribution d’as-
en pratique dans le monde extérieur, indépendamment de                   surance(14). en outre la blockchain (sorte de registre éten-
tout contrôle ou influence extérieurs »(8).                              du de transactions horodatées et classées, distribuées sur
                                                                         un ensemble de machines) offre la sécurité d’une base de
Après avoir posé les définitions, dans une approche
                                                                         données, sécurisée, inviolable et non falsifiable qui n’est
normative, de l’IA et du robot, il convient de relater les
                                                                         pas contrôlée par une personne déterminée.
ébauches d’encadrement juridique de ces entités. Dans
une première résolution le parlement européen a consi-
déré qu’il était « utile et nécessaire de définir une série de                Le secteur de l’assurance peut
règles, notamment en matière de responsabilité, de trans-
parence, et d'obligation de rendre des comptes », mais
                                                                              bénéficier comme les autres
« que ces règles ne doivent pas brider la recherche, le dé-                   services des apports des nouvelles
veloppement et l'innovation dans le domaine de la robo-
tique »(9). puis, la Commission européenne dans une com-
                                                                              technologies pour renouveler sa
munication du 25 avril 2018 a souhaité qu’il soit établi des                  pratique.
lignes directrices concernant l’éthique de l’IA dans le res-
pect des droits fondamentaux, qu’il soit publié un docu-
ment d’orientation sur l’interprétation de la directive sur              L’une des autres applications consiste de la blockchain
la responsabilité du fait des produits défectueux et que les             dans l’outil smart contract. L’expression constitue à nos
lacunes en matière de responsabilité soient identifiées(10).             yeux un faux ami. Il ne s’agit pas d’une convention née de
Le parlement européen a repris l’initiative en adoptant                  la rencontre d’une offre et d’une acceptation produisant
une nouvelle résolution dans laquelle il est demandé à                   des effets de droit. Nous sommes en présence le plus sou-
la Commission d’améliorer la réglementation en ce qui                    vent, d’un procédé automatique d’exécution d’un contrat
concerne l’IA(11) tout en constatant qu’un groupe de travail             cadre plus vaste et/ou préexistant. par exemple, une assu-
sur la modification de la directive sur la responsabilité du             rance retard dans laquelle l’indemnisation serait déclen-
fait des produits défectueux a été installé(12). Il demande              chée par le chaînage avec le logiciel du transporteur qui
en outre la mise en place de règles éthiques, que le dé-                 enregistre les heures d’arrivée ; ce système de paiement
veloppement de l’IA respecte les règles sur les données                  automatisé constituerait un smart contract ; de même que
personnelles et qu’il soit laissé une place aux citoyens eu-             le paiement par un régime de base en assurance maladie
ropéens qui souhaitent vivre hors ligne(13).                             déclencherait automatiquement le paiement du complé-
                                                                         ment. en outre, l’IA peut aider à la détection des fraudes.
Le secteur de l’assurance peut, comme tous les autres, bé-
néficier de ces nouvelles technologies et il lui appartient                A. – IA et souscription du contrat d’assurance
aussi d’apporter une réponse d’accompagnement aux
éventuelles responsabilités.                                             La première étape pour un assureur consiste à l’identifi-
                                                                         cation de son souscripteur (celui qui conclue le contrat)
                                                                         et de son assuré (celui sur qui pèse le risque). L’IA per-
                                                                         met déjà de créer des chatbots qui orientent le choix du
I. – L'assurance bénéficiaire de l'IA                                    souscripteur en ligne ou par téléphone(15). Le choix du bon
Le secteur de l’assurance peut bénéficier comme les                      contrat et la réalisation du devoir de conseil par une telle
autres services des apports des nouvelles technologies                   méthode permettent de tracer les échanges et de les en-
pour renouveler sa pratique. en effet, dans le cadre de                  registrer dans un secteur où l’ACpr est très vigilante.
la souscription, le chatbot intelligent et la technologie
blockchain sont en mesure d’opérer une nouvelle évolu-                   De surcroît, pour mieux connaître le souscripteur et lui
tion.                                                                    permettre aussi de fournir des informations plus rapide-
                                                                         ment, il serait possible que ce dernier dispose d’un « je-
                                                                         ton » toujours identique sur la blockchain avec ses infor-
                                                                         mations identifiantes ; elles pourraient être utilisées pour
                                                                         toutes sortes de services de nature financière. en premier
(8) pe, rés. 12 févr. 2019, préc.                                        lieu, il faut qu’une telle pratique soit en accord avec l’ar-
(9) pe, rés. 16 févr. 2017, contenant des recommandations à la Com-      ticle 6 du règlement (Ue) n° 2016/679 du 27 avril 2016,
    mission concernant des règles de droit civil sur la robotique
    (2015/2103(INL).
(10) Comm. Ue, communication préc., p. 20.
                                                                         (14) C. assur., art. L. 511-1 et s. ; ord. n° 2018-361, 16 mai 2018, transpo-
(11) pe, rés. 12 févr. 2019, préc., n° 114.                                   sant la directive distribution d’assurance 2016/97 du 20 janv. 2016.
(12) pe, rés. 12 févr. 2019, préc., n° 131.                              (15) en respectant les prescriptions de l’art. L. 112-2-1 du code des assu-
(13) pe, rés. 12 févr. 2019, préc., n° 138 à 142.                             rances.

Nº 151 septembre 2019                                 Revue Lamy Droit des Affaires                                                                      29
relatif à la protection des personnes physiques à l’égard                  dernier ne peut donc imposer aucune forme spécifique(18).
     du traitement des données à caractère personnel et à la                    L’IA peut donc se déployer librement dans la gestion de
     libre circulation de ces données entré en vigueur le 25 mai                sinistre et le règlement des prestations prévues par le
     2018 (ci-après rGDp).                                                      contrat.

     en outre, en matière de garantie IArD portant sur de l’as-                 en premier lieu, le smart contract, outil d’exécution du
     surance de choses (vol, incendie, dégât des eaux…), si l’as-               contrat cadre d’assurance, peut devenir le support du dé-
     sureur veut pouvoir opposer à son assuré ses déclarations                  clenchement du remboursement automatique de pres-
     préalables pour lui imputer ensuite une mauvaise ou une                    tations qui sont commandées par la mise en œuvre d’un
     fausse déclaration, il doit le faire par un questionnaire et               régime de base en santé. Cet outil peut également être
     non par une simple affirmation préétablie(16). Les réponses                utilisé pour le paiement de dommages quand des logiciels
     recueillies par le chatbot et le « jeton » comportant des                  associés à des capteurs transmettent des informations
     informations sur l’assuré, que nous avons évoqué dans la                   livrées par un objet connecté. en assurance auto des pro-
     technologie blockchain, pourraient être intéressants, mais                 fessionnels de santé, un dépannage ou une mise à disposi-
     l’assureur devra continuer de poser systématiquement                       tion d’un véhicule de prêt est tout à fait imaginable.
     des questions s’il souhaite des informations plus précises
                                                                                en assurance vie-décès, la mise en place d’un smart
     ou renouvelées sur le risque à assurer.
                                                                                contract n’est pas, en revanche, d’emblée convaincante
                                                                                pour verser le capital ou la rente au bénéficiaire, car il
          Si l’IA est un outil prometteur, elle                                 convient de bien identifier ce dernier avant de procéder
                                                                                au versement de la prestation. tout au plus, cela permet-
          doit aussi pour l’assureur consister                                  trait-il à l’assureur vie de déclencher une alerte avec une
          en un nouvel objet à assurer.                                         obligation de recherche du bénéficiaire.
                                                                                par ailleurs, l’IA permet de créer de puissants outils contre
     Il est également évoqué, grâce au recueil d’informations                   la fraude en détectant les anomalies dans les déclarations
     par une IA parcourant les données disponibles sur le ré-                   de sinistres grâce au rapprochement de données propres
     seau Internet et à la technologie blockchain, la possibili-                à l’assuré et de données plus générales collectées grâce
     té de mesurer la fiabilité des informations sur un assuré.                 au Big Data. par exemple, des informations recueillies par
     Cependant, une fois encore la limite de l’usage de toutes                  l’assureur sur un réseau social dédié aux carrières profes-
     donnée quelle que soit sa source réside dans la conformité                 sionnelles pourraient être intéressantes comme élément
     du traitement des données au rGDp.                                         de fait pour prouver une éventuelle fraude de l’assuré ;
                                                                                toutefois la collecte de la preuve doit être loyale(19) et, de
     enfin, en matière de conclusion du contrat, il est évoqué                  nouveau, la collecte des données identifiantes doit être
     les contrats collaboratifs en assurance qui utiliseraient le               conforme au rGDp.
     p2p (peer to peer). Cette technique pourrait servir entre
                                                                                si l’IA est un outil prometteur, elle doit aussi pour l’assu-
     assureurs, voire, par l’usage de la DAO (Decentralized Au-
                                                                                reur consister en un nouvel objet à assurer.
     tonomous Organization), entre individus non assureurs.
     sur ce dernier point toutefois, rappelons qu’il n’est pas
     possible de développer une activité d’assurance sans agré-
     ment en France ou au sein de l’Union européenne(17). Ce                    II. – Assurance et responsabilité du fait
     que l’on peut imaginer, c’est que le développement de ces                        d'une IA
     technologies facilite l’entrée de nouveaux acteurs sur les
                                                                                Il existe d’ores et déjà en droit une réponse si un dommage
     garanties non obligatoires en assurance exploitation et,
                                                                                était provoqué par le fonctionnement d’une IA ou d’un ro-
     pour l’essentiel, en complémentaire santé. Ces nouvelles
                                                                                bot. en effet, un juge qui serait saisi de la réparation d’un
     technologies sont également porteuses d’évolution en
                                                                                dommage du fait d’une IA ou d’un robot serait obligé de
     matière de demande de prestations et de déclaration de
                                                                                statuer sur la demande d’indemnisation en appliquant le
     sinistre.
                                                                                droit positif.

        B. – IA et gestion des prestations                                      On peut alors prendre deux exemples qui pourraient il-
                                                                                lustrer les solutions applicables en cas de dommage : le
     L’article L. 113-2, 4° du code des assurances impose à l’as-               chatbot intelligent utilisé par un assureur, qui conduirait
     suré de déclarer son sinistre. Cette déclaration consiste à                systématiquement à délivrer un conseil erroné à un sous-
     porter à la connaissance de l’assureur un fait juridique, ce

                                                                                (18) Cass. civ. 4 juin 1945, rGAt 1945, p. 151, note A. besson.
     (16) Cass. ch. mixte, 7 févr. 2014, n° 12-85.107, bull. ch. mixte, n° 1.   (19) Cass. ass. plén., 7 janv. 2011, n° 09-14.316 et 09-14.667, bull. Ass.
     (17) C. assur., art. L. 310-1.                                                  plén. n° 1.

30                                                            Revue Lamy Droit des Affaires                                   Nº 151 septembre 2019
Vous pouvez aussi lire