Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi

La page est créée Grégory Brunel
 
CONTINUER À LIRE
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
Sylvain Hanneton

Laboratoire de Physiologie de la Perception
Institut des Sciences du Sport-Santé de Paris

                   16 janvier 2019
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
Informatique & Intelligence sont-elles de même nature ?
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
La nature de la pensée ? → question de philosophe !

  La philosophie de l'esprit est l'étude philosophique de la nature de l'esprit
  (psyché), des événements, des fonctions et des propriétés mentales, de la
  conscience, et de leurs rapports avec le corps, particulièrement avec le
  cerveau.
      ●   Un système informatique peut-il être doué de quelque chose qui
          ressemble à l’intelligence ? (spoiler : oui)

      ●    L’intelligence d’un système informatique est-elle de même nature que
          la pensée humaine ?

              → mais de quelle NATURE est la pensée humaine ???
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
Essence spirituelle
Essence matérielle

                      Monisme                    Monisme
                                     Dualisme
                      Spiritualist              Matérialiste
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
→ envisager que la pensée et l’ « intelligence » d’un système informatique sont de
      même nature c’est adopter une approche matérialiste

                                      Le matérialisme est un système philosophique qui
                                      soutient que toute chose est composée de matière et
                                      que, fondamentalement, tout phénomène est le résultat
                                      d'interactions matérielles.

                                      → la « pensée » ne serait qu’une propriété émergente
                                      fonctionnelle de la matière vivante...

Par le Médecin et philosophe La Mettrie
Laboratoire de Physiologie de la Perception Institut des Sciences du Sport-Santé de Paris - Sylvain Hanneton - Causa Mundi
Intelligence artifcielle forte et faible ...

        IA FAIBLE               Système artifcielle capable de résoudre des
                                problèmes précis avec une effcacité comparable à
                                celle de l’être humain

        IA FORTE                Comportement intelligent, mais aussi
                               ● Conscience de soi

                               ● Sentiments

                               ● Émotions
→ La question posée revient à examiner l’hypothèse du cerveau-ordinateur

                         Neurosciences
                                  (Hebb, ...)

                                                                                          1958
                   Sciences du langage                                                                               Hypothèse du
                    (fonctionnalisme)
                   (Fodor, Putnam, Harman, Chomsky...)                                                       cerveau-ordinateur
                                                                                                            (J. von Neuman, « The computer
Sciences de la communication, Mathématiques                                                                 and the brain)
          (théorie de l’information)
                     (Shannon, Turing, von Neuman….)

           « le fonctionnalisme soutient que nous sommes semblables à des
             ordinateurs et que nos états psychologiques sont simplement des
             états fonctionnels »                 Putnam, 1994, p. 507
      Putnam (1994) article Putnam, in Guttenplan, S. (éd.) A Companion to the Philosophy of Mind, Oxford, Blackwell, pp. 507-513. [tr. fr. à paraître
      sous le titre Aller et retour au pays du fonctionnalisme].
Software

                                        Connexionnisme : software
                                        = connaissance distribuée
                                        dans les poids des synapses

10010100010011110101010010001…….

                             Hardware
Comment pense-t-on que cela marche dans le cerveau   ?
→ le cerveau en quelques mots...
         ●   Il consomme environ 20 watts
         ●   Il comporte environ 100 milliards de neurones mais aussi des cellules gliales
         ●   Ces neurones établissent 100 000 milliards de connexions

                                                       Le neurone est la cellule spécialisée du
                                                       système nerveux qui transmet et intègre
                                                       les signaux.
                                                       C’est une cellule polarisée : les signaux
                                                       transitent depuis les synapses des
                                                       dendrites ou du corps cellulaires vers le
                                                       bouton terminal via l’axone.
                                                       Chaque neurone n’a qu’un seul axone et
                                                       ne synthétise et libère qu’un seul type de
                                                       neurotransmetteur.
Chaque neurone communique en moyenne avec 10 000 autres neurones via des
synapses.

                                       Le dogme est donc que l’information transite
                                       par des décharges électro-chimiques : les
                                       potentiels d’action.

Hypothèse : Notre cerveau apprend en modifant l’efficacité des synapses via notre
expérience du réel. (Connexionnisme)
Les algorithmes d’intelligence artifcielle imitent-ils le cerveau   ?
→ C’est quoi un algorithme d’intelligence artifcielle ?

      C’est un programme informatique qui apprend à résoudre un problème
      par un apprentissage.

      Ce programme utilise des paramètres dont les valeurs sont optimisées
      (apprises petit à petit), au cours de cet apprentissage

      La plupart du temps, il apprend à résoudre le problème parce qu’on lui
      présente une série d’exemples

      Lorsqu’il a appris à donner des réponses correctes pour ces exemples, on
      attend de lui qu’il soit capable de généraliser les connaissances apprises
      pour des situations nouvelles
Apprentissage supervisé et non supervisé
→ Dans l’apprentissage supervisé, le superviseur (humain) guide lui même l’IA en
l’entraînant sur un ensemble d’exemples (base d’exemples)

             C’est un peu comme « dresser » l’IA à répondre correctement

On espère qu’ensuite l’IA sera capable de généraliser ce qu’il a appris à des cas qui ne
font pas partie de la base d’exemple.

→ Lors d’un apprentissage non-supervisé, l’IA est censé apprendre toute seule, par
l’expérience qu’il a de son environnement

  → Ce qu’on sait le mieux faire, pour l’instant, c’est l’apprentissage supervisé
Apprentissage supervisé

                                                              ERROR !

                                              Sortie
                                    IA                    NON        OUI

                                                                  superviseur

Lors de chaque pas d’apprentissage, un exemple est présenté au réseau. Le
superviseur compare la réponse du réseau à la bonne réponse et l’erreur
éventuelle est utilisée pour changer les paramètres du réseau.
→ Quelle est la nature des systèmes d’intelligence artifcielle utilisés aujourd’hui ?
  Les plus courants utilisent des petites unités de calcul, organisées en couches de
  traitement, connectée entre elles… Ces systèmes sont appelés réseaux de
  neurones formels.

      ENTRÉES                                                                 SORTIE
  (images, sons….)                                                           = réponse

   Les réseaux de neurones formels apprennent en modifant la force des
   connexions entre neurones.
→ C’est quoi un neurone artifciel ?
                                                 Paramètres du neurones : poids synaptiques

                      ?

                     ?                  calcul                                ?
  ENTRÉES
                                                                         SORTIE
                                                                        = réponse
                         ?

     C’est une unité de calcul qui produit une valeur de sortie en fonction de
     valeurs d’entrées

     Le calcul accorde plus ou moins d’importance aux entrées, selon la force
     (poids synaptique) associée à chaque entrée
Erreur ?

    ENTRÉES         SORTIE
(images, sons….)   = réponse
← 1936 – Machine de Turing

1959 – Simple cells and complex cells - David H. Hubel and
Torsten Wiesel                                                ← 1957 – Le perceptron – Frank Rosenblatt

        1966 – Synaptic Long term potentiation – Serge Lomo
                                                              ← 1969 – Perceptrons - Marvin Minsky and Seymour Papert

                    1987 – Long term depression – Sakurai     ← 1986 – Backpropagation - Rumelhart, Hinton and Williams

                                                                            Désaffection pour les
                                                                         Réseaux de neurones formels
                   1996 – Mirror neurons / neurones miroirs
                   – Rizzolati et al.                         ← 1998 – Gradient-based learning - Yann LeCun
                                                              ← 2009 – Launch of ImageNet - Fei-Fei Li
                                                              ← 2011 – Win of AlexNet - Alex Krizhevsky

                                                                             Deep Learning
Alan Turing, « On Computable Numbers, with an
                                                                                                     Application to the Entscheidungsproblem »,
                                                               ← 1936 – Machine de Turing            Proceedings of the London Mathematical Society,
                                                                                                     série 2, vol. 45, 1936, p. 230-265

                                                               ← 1943 – First mathematical model of a neural network - Pitts
                                                               and McCulloch
                                                                                                                            F.         ROSENBLATT.       THE
                                                                                                                            PERCEPTRON: A PROBABILISTIC
                                                               ← 1957 – Le perceptron – Frank Rosenblatt                    MODEL         FOR    INFORMATION
1959 – Simple cells and complex cells - David H. Hubel and                                                                  STORAGE AND ORGANIZATION IN
                                                                                                                            THE BRAIN. Psychological Review
Torsten Wiesel                                                                                                              Vol. 65, No. 6, 1958

                                                               ←1965 – First working deep learning networks - Alexey Ivakhnenko and V.G. Lapa
        1966 – Synaptic Long term potentiation – Serge Lomo
                                                               ← 1969 – Perceptrons - Marvin Minsky and Seymour Papert
                                                                                                                           Rumelhart, David E.; Hinton, Geoffrey E.;
                                                                                                                           Williams, Ronald J. (8 October 1986).
                                                                                                                           "Learning representations by back-
                                                                                                                           propagating errors". Nature. 323 (6088):
                                                                                                                           533–536.

                     1987 – Long term depression – Sakurai     ← 1986 – Backpropagation - Rumelhart, Hinton and Williams

                                                               ← 1995 – Support vector machines - Cortes and Vapnik
                    1996 – Mirror neurons / neurones miroirs
                    – Rizzolati et al.                         ← 1998 – Gradient-based learning - Yann LeCun
                                                               ← 2009 – Launch of ImageNet - Fei-Fei Li
                                                               ← 2011 – Win of AlexNet - Alex Krizhevsky
→ Beaucoup de réussites récentes en IA pour les réseaux de neurones artifciels

                   ●   Identifcation d’objets/visages dans les images (Google, Facebook etc.)
                   ●   Reconnaissance de la voix (Assistants Google Home,Alexia…)
                   ●   Reconnaissance des émotions (dans un visage, une voix...)
                   ●   Aide au diagnostic en imagerie médicale
                   ●   Aide à la conduite ou conduite autonome pour les véhicules
                   ●   Assistants intelligents (chat bots)

→ Et des réseaux capables de créer, d ‘ « imaginer » (?) des choses qui n’existent pas

                                                          Generative Adversial Neural Networks

                                                          (Grigory Antipov Moez Baccouche
                                                           Jean-Luc Dugelay, Orange Labs 2017)
→ Opposer l’humain à l’ordinateur ?
                                          1996 : Kasparov - Deep Blue : 4-2
                                          1997 : Kasparov - Deep Blue : 2,5 - 3,5
                                          2002 : Kramnik - Deep Fritz : 4-4
                                          2003 : Kasparov - Deep Junior : 3-3
                                          2003 : Kasparov - Fritz X3D : 2-2
                                          2006 : Kramnik - Deep Fritz : 2-4

                              2012 – Zen vs Takemiya Masaki
                              2013 – Crazy Stone vs Ishida Yoshio
                              2015 – AlphaGo vs Fan Hui (champion d’europe)
                              2016 – AlphaGo – Lee Sedol
                              2016 – AlphaGo devient le meilleur joueur du monde

2017 : DeepMind présente AlphaZero, capable d'apprendre à jouer au go, aux échecs
ou au shōgi à partir de la simple connaissance des règles ; le programme parvient en
quelques heures à battre les meilleurs programmes existants.
→ Alors ? Où en est l’IA ?

    Intelligence artifcielle au sens faible : nul doute que le contrat est rempli

    Les algorithmes d’intelligence artifcielle sont maintenant capables de résoudre
    des problèmes, d’effectuer des tâches intelligentes, mieux et souvent plus
    rapidement qu’un opérateur humain
MAIS Attention…..
1
Il n’existe pas d’architecture intelligente omnipotente, capable de s’attaquer à la
résolution d’un très grand nombre de problèmes variés, comme le cerveau humain
est capable de le faire

Les algorithmes d’intelligence artifcielle sont conçu, optimisés, adaptés, par leurs
créateurs, dans le but d’être effcace dans l’accomplissement d’une tâche
spécialisée.
2
L’intelligence des systèmes d’IA provient en partie de l’intelligence de leurs créateurs :

●   Par le choix de l’architecture utilisée (ANN, RNN, CNN … ?)
●   Par la nécessité de créer des bases de données organisées et souvent annotées qui
    sont nécessaire à l’apprentissage.
●   Par l’utilisation de « recettes » , de « bidouilles » , souvent choisies par essais-erreurs
    permettant d’obtenir les meilleurs performances.
●   Beaucoup de paramètres de l’apprentissage doivent être défnis « à la main »

                                                  ing                  t d ecay
                      out                    r un                   gh
                 Dro
                    p
                                       Unit
                                            p                   Wei
3
Les systèmes d’IA ne comprennent pas ce qu’ils font !

●   Percevoir et créer des concepts n’est pas vraiment comprendre !
●   Il ne sont pas capables « d’auto-programmation », l’apprentissage non
    supervisé n’est pas encore maîtrisé.
●   Le système d’IA n’a pas d’accès déclaratif à son fonctionnement : il ne peut
    expliquer comment il s’y prend pour résoudre un problème.
Existe-t-il une autre voie pour créer un « système pensant » ?
La connectomique : peut-on « copier » un cerveau dans un ordinateur ?
→ L’idée de cette approche alternative est de construire des outils imitant au plus près
le fonctionnement des neurones et du cerveau...

      Créer un cerveau synthétique par « rétro-ingénierie » du cerveau humain

  ●   Années 1990 : Réseaux de neurones biologiquement plausibles (XNBC, Genesis etc.)
  ●   2005 - Le « blue brain project » (avec IBM)
  ●   2013 - Le « human brain project » (contesté en 2015)
  ●   2005 – Naissance du mot connectome
  ●   2009 – Création de SpikeNet devenu BrainChip (puce Akida)
  ●   Open connectome project
  ●   NIH Human Connectome project
  ●   Harvard Connectome project

  Un connectome optimal : cartographie précise des connexions de
  chaque neurone.
→ Comment peut-on construire un connectome ?

        Chez l’humain on utilise l’imagerie par résonance magnétique (IRM)

        Avec des techniques adaptées : IRM de diffusion (DTI)

        Et des logiciels de traitement très puissants capables de reconstruire le
        trajet des fbres dans le cerveau.

        Ce domaine technique s’appelle la TRACTOGRAPHIE

   Le connectome de la mouche (Drosophile) a été complètement réalisé !
   (cf virtualfybrain)
Gigandet X, Hagmann P, Kurant M, Cammoun L, Meuli R, et al. (2008) Estimating the
Confdence Level of White Matter Connections Obtained with MRI Tractography. PLoS
ONE 3(12): e4006                                                                    (Thomas Schulz)

              Trajets des fbres de la matière
              blanche dans le cerveau humain
Dans le cerveau, les neurones forment des cartes (layers) ou des noyaux, qui s’inter-
connectent

                                     This  image shows the group connectome, with the nodes and
                                     connections colored according to their rich-club participation. Green
                                     represents few connections. Red represents the most. Credit: Van den
                                     Heuvel, et al. The Journal of Neuroscience 2011

                                     Dans certaines régions les connexions sont
                                     surtout locales (connections longues), alors
                                     que d’autres régions envoies des fibres dans des
                                     régions plus distantes (connections longues).
→ relation entre organisation des connexions et comportement ?
         Différence entre hommes et femmes :
         ●    Une connectivité forte dans les sous-réseaux du cerveau impliquées dans les fonctions
              motrices, sensorielles et exécutives correspondant à des compétences motrices et
              spatiales supérieures -en moyenne- chez les hommes.
         ●    Chez les femmes, la connectivité est plus élevée dans les sous-réseaux associés aux
              tâches cognitives, sociales, d’attention et de mémoire, ce qui corrobore une capacité
              de mémoire et des compétences sociales plus développées chez les femmes.

         Connectome et émotions : le stress
         ●     de multiples zones corticales sont liées anatomiquement aux glandes surrénales.
              (cortisol).
         ●    les plus grandes zones de connexions sont celles impliquées dans la cognition et l’affect.

 Birkan Tunç , et al. Establishing a link between sex-related differences in the structural connectome and behaviour.Philosophical Transactions of the Royal Society B 1
 February 2016.
 Richard P. Dum, David J. Levinthal, Peter L. Strick. Cortical infuence over the adrenal medulla.Proceedings of the National Academy of Sciences Aug 2016
→ Où en est-on de cette approche ?

    ●   Les projets « human brain project » et « blue brain project » ont été critiqués,
        abandonnés ou bien ont changé d’objectifs.
    ●   La connectomique progresse mais pas dans le but de vraiment « copier un
        cerveau », plutôt pour mieux connaître le cerveau

« reconstructing and simulating the human brain is a vision, a target; the benefts will
come from the technology needed to get there. That technology, developed by the HBP,
will beneft all of neuroscience as well as related felds... »

                                                                      (HBP head)
→ Pourquoi cette approche est en échec ?

 ●   Enorme complexité du projet : niveaux moléculaires, cellulaires, tissulaires…

 ●   Des freins technologiques : puissance de calcul, stockage des données…

 ●   … mais surtout : en ce moment la recherche en neurosciences semble avancer
     « moins vite » que la technologie informatique !

 On ne sait vraiment pas tout du fonctionnement du cerveau…

 Des données récentes montrent des difficultés ou des phénomènes encore
 inexpliqués
Non-synaptic neurotransmission

Les autres cellules du système nerveux, les cellules gliales, sont souvent vues
comme des cellules de statut inférieure, s’occupant juste de donner un
environnement contrôlé aux neurones.

Cependant, de nombreux travaux actuels semblent infrmer cette vision simple.

Par exemple : Lorsque les neurones sont actifs, les cellules gliales voient leur
concentration interne en calcium (Ca2+) augmenter, et répondent en libérant des
transmetteurs chimiques dans l’espace cellulaires. Ces molécules vont en retour
moduler l’activité du neurone et des synapses contactant les neurones.
On parle de synapse tripartite.

       Alfonso Araque, Vladimir Parpura, Rita P. Sanzgiri, Philip G. Haydon. (1999). Tripartite
       synapses: glia, the unacknowledged partner, Trends in Neurosciences, Volume
       22(5):208-215.
Non-synaptic release of neurotransmitters

                                                                             Il existe des boutons synaptiques
                                                                             qui ne font pas contact avec un
                                                                             autre neurone.

                (neurones de l’hippocampe)

Vizi, E. , Fekete, A. , Karoly, R. and Mike, A. (2010), Non‐synaptic receptors and transporters involved in brain
functions and targets of drug treatment. British Journal of Pharmacology, 160: 785-809. doi:10.1111/j.1476-
5381.2009.00624.x
Autres modes de communication

                     Activité ondulatoire : Certains neurones fonctionnent dans un mode
                     oscillatoire : leur activité crée des « ondes » se propageant dans le système
                     nerveux. Nous ne connaissons pas à l’heure actuelle la fonction précise de
                     ces ondes ni la façon dont elles participent au traitement de l’information.
                     Ainsi les ondes alpha se déclenchent lorsque l’on se réveille doucement, mais
                     sont aussi présentent dans les mécanismes de l’attention. Certains chercheurs
                     ont émis l’hypothèse que ces ondes présentes dans le cortex serait à la base
                     de notre perception unifée de la conscience.

 Biophotonique : Des expériences montrent que les cellules (et donc les neurones) émettent de
 la lumière. Cette lumière est appelée la lumière biophotonique. Des chercheurs ont émis
 l’hypothèse (très controversée) que cette lumière porte des signaux et que les biophotons sont
 des médiateurs d’information dans le système nerveux.

 Phénomènes quantiques : les théories de l’esprit quantique suggèrent que des phénomènes
 quantiques (intrication et superposition d’états) seraient impliqués dans l’émergence de la
 conscience (Penrose, Pribram, Stapp...)
Vous pouvez aussi lire