Option Mathématiques Appliquées - département de Mathématiques

La page est créée Catherine Durand
 
CONTINUER À LIRE
Option Mathématiques Appliquées - département de Mathématiques
Option Mathématiques Appliquées
                                  2017-2018

                      Cursus ingénieur Centralien et Supélec
                                   02/11/2017

Catalogue des cours (en construction)

  •   Cours de base

  •   Electifs de Data Sciences
  •   Electifs de Finance
  •   Electifs de Modélisation Mathématique
  •   Electifs de Signal et Statistique
  •   Cours de Math-Physique
Option Mathématiques Appliquées - département de Mathématiques
Table des matières
Table des cours 2017-2018...................................................................................................................3
Cours de base........................................................................................................................................6
   Analyse Fonctionnelle.....................................................................................................................7
   Assurance Vie..................................................................................................................................8
   Machine Learning et Classification.................................................................................................9
   Optimisation...................................................................................................................................10
   Processus et calcul stochastiques...................................................................................................11
   Séries chronologiques....................................................................................................................12
   Statistique......................................................................................................................................13
Electifs de Data Sciences....................................................................................................................14
   Foundations of Geometric Methods in Data Analysis (E1)...........................................................15
   Discrete Inference and Learning (E2)............................................................................................16
   Distributed optimization (E3-1).....................................................................................................17
   Natural Language Processing (E3-2).............................................................................................18
   Foundations of Computer Graphics (E3-3)...................................................................................19
   Deep Learning (E4).......................................................................................................................20
   Advanced Machine Learning (E5-1) (Reinforcement Learning & Information Theory)..............21
   Massive Data Processing (E7).......................................................................................................22
Electifs de Finance.............................................................................................................................23
   Modèles dérivés action (E1)..........................................................................................................24
   Méthodes numériques en finance (E2)..........................................................................................25
   Physique des marchés (E3)............................................................................................................26
   Portfolio Metrics (E4-1).................................................................................................................27
   Cas appliqués de Structuration et Gestion d’Actifs (E4-2)............................................................28
   Calibration de modèles pour les dérivés (E5)................................................................................29
   Fixed income (E6).........................................................................................................................30
   Données haute-fréquence et carnets d’ordres (E7-1).....................................................................32
   Réassurance (E7-2)........................................................................................................................33
Electifs de Modélisation Mathématique.............................................................................................34
   Systèmes Hyperboliques de Lois de Conservation (E1)................................................................35
   Equations de Hamilton-Jacobi (E2)...............................................................................................36
   Systèmes désordonnés et percolation............................................................................................37
   Maîtrise des Risques......................................................................................................................39
   Equations différentielles et aux dérivées partielles stochastiques.................................................40
   Processus de Lévy..........................................................................................................................41
Electifs de Signal et Statistiques.........................................................................................................42
   Analyse spectrale et temps-fréquence (E1)...................................................................................43
   Biostatistique (E2).........................................................................................................................44
   Distributed optimization (E3)........................................................................................................45
   Stastique Bayésienne et Applications (E4)....................................................................................46
   Apprentissage en grande dimension (E5)......................................................................................47
   Traitement des images : méthodes et outils (E6)...........................................................................48
   Théorie des Grandes Matrices Aléatoires et Apprentissage (E7)..................................................49
Cours de Math-Physique....................................................................................................................50
   Topics in Mathematical Physics....................................................................................................51
   Théorie quantique des champs.......................................................................................................52
   Groupes et Algèbres de Lie...........................................................................................................53
   Systèmes désordonnés et percolation............................................................................................54
Option Mathématiques Appliquées - département de Mathématiques
Table des cours 2017-2018

                        Table des cours 2017-2018
Type            Titre                  TC/E   HYP    Apogée
Tronc commun    Analyse                TC     AF     MA3112AA
                Fonctionnelle
                Assurance Vie          TC     AV     MA3901AA
                Méthodes               TC     MN     MA3120AA
                Numériques (*)
                Machine Learning       TC     MLC    MA3XXX
                Optimisation           TC     OPT    MA3150AD
                Plateformes et         TC     PLP    MA3XXX
                Langages de
                Programmation (*)
                Processus et Calcul    TC     PS     MA3131AB
                Stochastiques
                Séries                 TC     SCH    MA3502AC
                chronologiques
                Statistique            TC     STAT   MA3XXX
Data Sciences   Foundations of         E1     GMDA   MA3302AE
                Geometric Methods
                in Data Analysis
                Discrete inference &   E2     DIL    MAXXXX
                Learning in Data
                Analysis
                Distributed            E3-1   LSD    MA3604AB
                Optimization
                Natural Language       E3-2   NLP    MA3320AA
                Processing
                Foundations of         E3-3   FCG    MA3310AC
                Computer Graphics
                Deep Learning          E4     DL     MA3601AB
                Advanced Machine       E5-1   AML    MA3608AA
                Learning
                Advanced Medical       E5-2   MIA
                Image Analysis (*)
                Network & Graph-       E6     NGSA   MAXXX
                based Science
                Analytics (*)
                Massive Data           E7     MDP    XX
                Processing
Finance         Modèles Dérivés        E1     MDA    MA3201AB
                Action
                Méthodes               E2     MNF    MA3202AC
                Numériques en
                Finance
                Physique des           E3     PHM    MA3216AC
Table des cours 2017-2018

                  marchés
                  Portfolio Metrics      E4-1    PM      MA3312AA
                  Structuration et       E4-2    SGA     MA3212AC
                  Gestion d'actifs
                  Calibration de         E5      CAL     MA3211AC
                  modèles pour les
                  dérivés
                  Fixed income           E6      FI      MA3203AC
                  Données haute-       E7-1      DHF
                  fréquence et carnets
                  d'ordres
                  Réassurance            E7-2    REA     MA3903AC
Signal et Stat.   Analyse spectrale et   E1      ASTF
                  temps-fréquence
                  Biostatistique         E2      BS
                  Distributed            E3      LSD     MA3604AB
                  Optimization
                  Statistique            E4      SBA
                  bayésienne et
                  applications
                  Apprentissage en       E5      AGD
                  grande dimension
                  Traitement des         E6      TIMO
                  images
                  Théorie des matrices E7        TMAA
                  aléatoires et
                  apprentissage
Modélisation      Systèmes             E1        SHLC    MA3401AB
                  Hyperboliques de
                  Lois de Conservation
                  Equations de           E2      EHJ     MA3403AD
                  Hamilton-Jacobi
                  Systèmes               E3      SyD&P   MA3607AA
                  Désordonnés et
                  Percolation
                  HPC et Modélisation    E4      HPC     MA3405AC
                  (*)
                  Equations              E5      EDPS    MA3218AA
                  différentielles et aux
                  d.p. stochastiques
                  Processus de Lévy et E6        PLM     MA3407AD
                  Markov
                  Maîtrise des Risques E7        MRI     MA3205AB
Math-Physique     Topics in              PMPE2   TMP     MA3190AA
                  Mathematical
                  Physics
                  Théorie Quantique      PMPE4   TQC     MA3609AA
                  des Champs
Table des cours 2017-2018

                Systèmes              PMPE3   SyD&P   MA3607AA
                Désordonnés et
                Percolation
                Groupes et Algèbres   PMPE7   GAL     MA3180AA
                de Lie
Cours de base

                                                         Cours de base

Contenu
Cours de base........................................................................................................................................6
  Analyse Fonctionnelle.....................................................................................................................7
  Assurance Vie..................................................................................................................................8
  Machine Learning et Classification.................................................................................................9
  Optimisation...................................................................................................................................10
  Processus et calcul stochastiques...................................................................................................11
  Séries chronologiques....................................................................................................................12
  Statistique......................................................................................................................................13
Cours de base

                                          Analyse Fonctionnelle

   Enseignant responsable : Anna Rozanova-Pierrat MDC
   Période : du 28/11 /2017 au 06/02/2018
   Lieu : Gif-sur-Yvette
   Prérequis : les cours de première année du cursus centralien, Analyse et EDPs

   Description :
   L’analyse fonctionnelle est un outil puissant permettant de résoudre des problèmes de
   mathématiques et de physique et toutes sortes de problèmes liés aux modèles impliquant des
   équations intégrales et/ou différentielles aux applications multiples (modèles de biologie, de
   finance, de physique, de techniques d’imagerie et problèmes inverses, problèmes d’optimisation...).
   Pour être capable de résoudre n’importe quel type de problème, il faut comprendre la philosophie
   d’une construction théorique. Le but du cours est donc non seulement de connaître les résultats les
   plus fondamentaux de la théorie de l’analyse fonctionnelle mais aussi savoir les démontrer. Cette
   vision abstraite globale amènera à des solutions adéquates des problèmes concrets de nature
   différente, abordés à la dernière séance.

   Contenu :        [Séance 1.] Rappels sur les espaces topologiques et métriques.
                    [Séance 2.] Compacité. Opérateurs linéaires.
                    [Séance 3.] Espaces de Hilbert.
                    [Séance 4.] Convergences faible et faible*.
                    [Séance 5.] Opérateurs compacts et théorie spectrale.
                    [Séance 6.] Distributions.
                    [Séance 7.] Transformation de Fourier des distributions. Fonctions de Green.
                    [Séance 8.] Espaces de Sobolev.
                    [Séance 9.] Applications. Conséquences des inclusions des espaces de Sobolev.

   Bibliographie :
           [1] H. Brézis. Analyse fonctionnelle : Théorie et applications. Sciences SUP, 2005.
           [2] L. C. Evans. Partial Differential Equations. Graduate Studies in Mathematics, 1994.
           [3] F. Golse, Y. Laszlo, F. Pacard, and C. Viterbo. Analyse réelle et complexe. École Polytechnique,
   2014.
           [4] A.N. Kolmogorov and S.V. Fomin. Introductory Real Analysis. Dover publications, INC., 1975.
           [5] V.S. Vladimirov. Equations of Mathematical Physics. Pure and Applied Mathematics, 1971.

   Equipe pédagogique : Anna Rozanova-Pierrat

   Modalités d'évaluation : examen écrit (3h) sans documents

   Remarques : site du cours http://cours.etudes.ecp.fr/claroline/course/index.php?cid=MA3100
Cours de base

                                                 Assurance Vie

 Enseignant responsable : Simon COLBOC / Guillaume METGE
 Période : du 28/11/2017 au 06/02/2018
 Lieu : Gif-sur-Yvette
 Prérequis : notions élémentaires de probabilité

Description : Assurance vie : marché, principes, fonctionnement et calcul actuariel

Contenu :

        Objectif du cours :

             L’objectif du cours est d’introduire les étudiants aux différentes techniques actuarielles
    utilisées         pour modéliser un portefeuille d’assurance-vie (comportement de l’assuré,
    démographie, finance). Par ailleurs, une attention particulière sera portée à la compréhension du
    marché de l’assurance vie.

        Plan du cours :

        1.   Produits d’assurance-vie, perspectives d’évolution du marché

        2.   Calcul des engagements en assurance-vie

                 Comment calcule-t-on la prime d’un produit d’assurance-vie ?

        3.   Valorisation d’un portefeuille d’assurance-vie

                 Market Consistent Embedded Value, valorisation déterministe et valorisation stochastique,
                 introduction à l’Asset & Liabilities Management

        4.   Construction de tables de mortalité et calcul de l’espérance de vie

                 Modèles de durée, estimateur de Kaplan-Meier, modèle de Lee-Carter et dérivés

        5.   L’option de rachat : modélisations actuarielle

                 Focus sur l’option de rachat des contrats d’assurance vie : modèles économiques, modèles
                 statistiques (GLM), modèles machine learning

        6.   La vision Solvabilité II

                 Revue des risques précédemment abordés et calcul au quantile 99.5%

        7.   La distribution dans l’assurance

     Equipe pédagogique : Simon COLBOC / Guillaume METGE
     Modalités d'évaluation : examen écrit (3h) + 2 TP
Cours de base

                                  Machine Learning et Classification

   Enseignant responsable : Hani Hamdan (Professeur à CentraleSupélec) et Arthur Tenenhaus (Professeur à
   CentraleSupélec)
   Période :
   Lieu : Gif-sur-Yvette
   Prérequis : Statistique, Algèbre linéaire

   Description :
   L'évolution technologique amène à des acquisitions de données de plus en plus volumineuses
   (signaux, images, résultats de mesure, etc.) qui nécessitent l'utilisation de techniques permettant
   d'en extraire la connaissance utile. La classification et l'apprentissage automatique qui cherchent à
   transformer les données brutes en connaissances plus structurées, fournissent des outils adaptés à
   ce type de problème. Cet enseignement présente une vue d'ensemble des méthodes d'apprentissage
   automatique et de classification ainsi que des exemples d'application des différentes approches
   développées. À l'issue de ce cours, les élèves seront capables de définir, comprendre, choisir une
   méthode d'apprentissage automatique et la mettre en œuvre, en adéquation avec le problème posé.

   Contenu :
   Apprentissage supervisé

      - Outils classiques : analyse discriminante, SVM, régression multiple, régression logistique, régression Ridge,
      régression PLS, LASSO, régression sur composantes principales, etc.
      - Extensions non linéaires de ces approches (régression Ridge à noyau, PLS à noyau, SVM à noyau, etc.).
      - Sélection de modèle : validation croisée, bootstrap, etc.
   Apprentissage non supervisé
      - Familles de méthodes : hiérarchie, partition, partition floue.
      - Modèle de mélange : définition, algorithmes EM et CEM, utilisation lors de situations spécifiques (données
      imprécises, données discrétisées, etc.), modèles gaussiens parcimonieux.
      - Sélection de modèle et choix du nombre de classes : critères d'information, etc.

   Bibliographie :
            [1] T. Hastie, R. Tibshirani, et J. Friedman, "The Elements of Statistical Learning: Data Mining,
   Inference                   and Prediction", Springer, 2001.
           [2] R. Duda, P. Hart, et D. Stork, "Pattern classification", John Wiley, 2001.

   Equipe pédagogique : Hani Hamdan et Arthur Tenenhaus

   Modalités d'évaluation : projet, soutenance
Cours de base

                                                  Optimisation

   Enseignants responsables : Paul-Henry Cournède, Laurent Le Brusquet, CentraleSupélec
   Période : du 26/09/2017 au 27/10/2017
   Lieu : Gif-sur-Yvette
   Prérequis : Calcul Différentiel

   Description :
   L'optimisation est le domaine étudiant la minimisation ou la maximisation d'un critère à valeurs réelles.
   Pour l’optimisation continue, le critère est défini sur un ensemble fermé, d'intérieur non vide. Pour
   l’optimisation discrète, le critère est défini sur un ensemble fini ou dénombrable.
   L’objectif de ce cours est tout d’abord de présenter le cadre formel des problèmes d’optimisation et
   d’étudier les questions d’existence et d’unicité, de caractérisation des solutions. Une large gamme de
   méthodes de résolution numérique sera exposée. Pour l’optimisation continue, ces méthodes concerneront
   la recherche d’optima locaux ou globaux, avec ou sans contraintes. Pour l’optimisation discrète, ces
   méthodes pourront être exactes ou approchées.
   La capacité des méthodes à fournir de bons résultats dépendant fortement de la description mathématique
   du problème à résoudre, le cours insistera sur l’étape de formalisation mathématique préalable à
   l’utilisation de tout algorithme d’optimisation.

   Contenu : [10 lignes max., têtes de chapitres]
      -   Problèmes d’optimisation, Existence et unicité, Caractérisation des solutions
      -   Théorème de Fritz John
      -   Méthodes numériques pour la recherche de minima locaux sans contraintes
      -   Optimisation sous contraintes : projection, pénalisation, dualité
      -   Contrôle optimal
      -   Méthodes heuristiques
      -   Résolution exacte de problèmes d’optimisation discrète : branch and bound, programmation
      dynamique
      -   Principaux problème d’optimisation sur les graphes
      -   Optimisation multi-objectifs : dominance de Pareto.

   Bibliographie : [5 références max.]
      [1] Culioli, J. (1994). Introduction à l'Optimisation. Paris : Ellipses.

      [2] Evans, LC. (1987). An Introduction to Mathematical Optimal Control Theory. Berkeley Lecture Notes.

      [3] Hiriart-Urruty, J. and Lemaréchal, C. (2001). Fundamentals of Convex Analysis. Springer-Verlag.

      [4] Nocedal, J. and Wright, S. (2006). Numerical Optimization (2nd ed.). Springer-Verlag.

      [5] Charon I., Germa A et Hudry O. (1996). Méthodes d'optimisation combinatoire, Masson.

   Equipe pédagogique : PH Cournède, L Le Brusquet, J Bect (TP), xxx (TP)
   Modalités d'évaluation : examen écrit (3h) + Note de TP
Cours de base

                                          Processus et calcul stochastiques

    Enseignantes responsables : Hana Baili et Sarah Lemler, CS (2 cours prévus)
    Période : du 26/09/2017 au 28/11/2017
    Lieu : campus de Gif-sur-Yvette
    Prérequis 1 : cours de probabilités de première année
    Prérequis 2 : cours de probabilités avancées (processus gaussien, espérance conditionnelle, temps d’arrêt,
    martingale)
    Description
    Cet enseignement contient une initiation au calcul stochastique utile pour étudier des phénomènes
    aléatoires dépendant du temps. Ce qu'on appelle communément calcul stochastique est constitué de la
    théorie des intégrales stochastiques et des règles de calcul qui président à l'usage de ces intégrales. À l'issue
    de ce cours les élèves seront capables :
             • de comprendre les mécanismes de construction d’une intégrale stochastique ; ils verront en
             particulier la différence par rapport à l’intégration classique au sens de Lebesgue ;
             • de manipuler les semimartingales et en particulier les processus de diffusion via la formule d’Itô ;
             • de transformer une semimartingale en une martingale par un changement de mesure ;
             • d'appliquer ces objets mathématiques à des problèmes concrets d’analyse, de filtrage ou d
             ’optimisation de systèmes dynamiques incertains.
    Contenu
    Quelques rappels sur les processus. Filtrations. Temps d'arrêt. Espérance conditionnelle. Martingales.
    Mouvement brownien. Contruction de l’intégrale stochastique. Formule d’Itô. Théorème de Girsanov.
    Equations différentielles stochastiques.

    Bibliographie

    [1] P. Protter (2005), "Stochastic Integration and Differential Equations", Springer, 2nd edition.
    [2] B. Øksendal (2003), "Stochastic Differential Equations: An Introduction with Applications", Springer, 6th
             edition.
    [3] J.-F. Le Gall, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 1996-1997, Université
               Pierre et Marie Curie.
    [4] J. Jacod, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 2007-2008, Université
              Pierre et Marie Curie.

Modalité d'évaluation : examen écrit
Cours de base

                                            Séries chronologiques

   Enseignants responsables : Pascal Bondon, CNRS-CS, et Emmanuelle Clément, CS
   Période : du 09/01/2018 au 13/03/2018
   Lieu : Gif-sur-Yvette
   Prérequis : Cours de probabilités, statistiques, processus stochastiques.

   Description : L’objectif de ce cours d'introduction aux séries temporelles est de présenter des
   modèles paramétriques de séries d'observations et leurs applications à l'analyse et à la prévision de
   données observées séquentiellement dans le temps. On commence par présenter les techniques
   d'estimation de la tendance et de la saisonnalité d'une série temporelle. Puis on introduit le modèle
   autorégressif à moyenne mobile (ARMA) et on étudie les notions de causalité et d'inversibilité. On
   aborde ensuite la théorie de la prédiction linéaire d'une série chronologique stationnaire quelconque
   à passé fini et infini. Le problème de l'estimation statistique d'un modèle ARMA est étudié dans le
   détail et est illustré d’exemples de modélisation de séries réelles. Enfin, on présente les modèles non
   linéaires conditionnellement hétéroscédastiques utilisés dans l'analyse de séries financières.

   Contenu :
      • Généralités sur les séries temporelles : exemples, modèles simples de séries temporelles,
         estimation et élimination de la tendance et de la saisonnalité.

      •    Stationnarité au second ordre : fonction de covariance, densité spectrale, processus linéaire.

       •   Processus ARMA et ses généralisations : stationnarité, causalité, inversibilité, série ARIMA
           saisonnière,
      •    série à longue mémoire.

      •    Prédiction linéaire : passé fini, passé infini, interpolation, filtrage.

       •   Estimation d’un modèle ARMA : estimation préliminaire, estimation du maximum de
           vraisemblance gaussien, estimation des moindres carrés, propriétés asymptotiques des
           estimateurs, exemples.

      •    Modèles conditionnellement hétéroscédastiques : modèles ARCH, GARCH, modèles à volatilité
           stochastique, modèles à longue mémoire.

   Bibliographie :
   [1] P. J. Brockwell and R. A. Davis. Time Series : Theory and Methods. Springer Verlag, New York,
              second edition, 1991.
   [2] J. D. Cryer and K. S. Chan, Time Series Analysis with Applications in R. Springer Verlag, New York,
              second edition, 2008.
   [3] W. A. Fuller. Introduction to Statistical Time Series. Wiley, New York, second edition, 1995.
   [4] R. H. Shumway and D. S. Stoffer, Time Series Analysis and Its Applications with R Examples,
              Springer Verlag, New York, second edition, 2005.
   [5] R. S. Tsay. Analysis of Financial Time Series. Wiley Series in Probability and Statistics : Probability
              and Statistics. Wiley-Interscience, New York, 2001.

   Equipe pédagogique : Pascal Bondon (cours), Mabrouk Chetouane (TD) / Emmanuelle Clément
   Modalités d'évaluation : Examen écrit (3h) et comptes rendus de TD.
Cours de base

                                               Statistique

   Enseignant responsable : Julien BECT, Maître de Conférence de l’Ecole CentraleSupélec
   Période : du 31/10/2017 au 12/01/2018
   Lieu : Gif-sur-Yvette
   Prérequis : Cours de probabilités / statistique niveau 1A

   Description : Ce cours présente un panorama assez large des possibilités offertes par la statistique
   moderne, à la fois en terme de modélisation (des modèles paramétriques, tels les modèles linéaires
   généralisés, aux modèles non-paramétriques) et d’outils (M-estimateurs, estimateurs à noyaux, tests fondés
   sur la vraisemblance, etc.).
   Le cours s’appuie sur des fondements théoriques fournis par la théorie statistique asymptotique. Des
   travaux dirigés réalisés en langage R ou Matlab complètent le cours théorique et permettent l’application
   des méthodes présentées à des jeux de données issus de domaines divers.

   Contenu
          ·    Convergence de la loi empirique (FRE, théorèmes de Glivenko-Cantelli et de Donsker)
          ·    Estimation non-paramétrique de densité (histogrammes, estimateurs à noyau, biais/variance)
          ·    Modélisation multivariée (copules, modèles de régression, etc.)
          ·    Théorie asymptotique des M-estimateurs, efficacité asymptotique
          ·    Test fondés sur la vraisemblance (la « Saint Trinité » Wald / Rao / Wilks)
          ·    Introductions à la robustesse et à la sélection de modèle

   Bibliographie :
   [1] Wasserman, “All of Nonparametric Statistics”, 2006, Springer
   [2] Dobson & Barnett, “An introduction to General Linear Models”, 3rd ed., 2008, Chapman & Hall / CRC.
   [3] Gourieroux & Monfort, “Statistique et modèles économétriques”, vol. 1 et 2, 2e éd., 1996, Economica
   [4] Van der Vaart, “Asymptotic Statistics”, 1998, CUP

   Equipe pédagogique : Julien Bect, Laurent Le Brusquet, Arthur Tenenhaus
   Modalités d'évaluation : Examen écrit (3h)
Electifs de Data Sciences

                                         Electifs de Data Sciences
Liste
Electifs de Data Sciences....................................................................................................................14
   Foundations of Geometric Methods in Data Analysis (E1)...........................................................15
   Discrete Inference and Learning (E2)............................................................................................16
   Distributed optimization (E3-1).....................................................................................................17
   Natural Language Processing (E3-2).............................................................................................18
   Foundations of Computer Graphics (E3-3)...................................................................................19
   Deep Learning (E4).......................................................................................................................20
   Advanced Machine Learning (E5-1) (Reinforcement Learning & Information Theory)..............21
   Massive Data Processing (E7).......................................................................................................22
Electifs de Data Sciences

                     Foundations of Geometric Methods in Data Analysis (E1)

    Enseignant responsable : Frederic Cazals (Frederic.Cazals@inria.fr)

    Période : du 12/10/2017 au 14/12/2018 (E1)

    Lieu : Gif-sur-Yvette

    Prérequis : course on algorithms ; undergrad classes in geometry and topology.

    Description : Data analysis is the process of cleaning, transforming, modelling or comparing data, in
    order to infer useful information and gain insights into complex phenomena. From a geometric
    perspective, when an instance (a physical phenomenon, an individual, etc.) is given as a fixed-sized
    collection of real-valued observations, it is naturally indentified with a geometric point having these
    observations as coordinates. Any collection of such instances is then seen as a point cloud sampled in
    some metric or normed space. This course reviews fundamental constructions related to the
    manipulation of such point clouds, mixing ideas from computational geometry and topology,
    statistics, and machine learning. The emphasis is on methods that not only come with theoretical
    guarantees, but also work well in practice. In particular, software references and example datasets
    will be provided to illustrate the constructions.

    Contenu : The class consists of the following eight lectures (3h each) ,
    see details at http://www-sop.inria.fr/abs/teaching/centrale-FGMDA/centrale-FGMDA.html
    1. Nearest neighbor search: Euclidean and metric spaces
    2. Nearest neighbors: selected applications and related topics
    3. Clustering algorithms
    4. Dimensionality reduction algorithms: basic methods
    5. Dimensionality reduction algorithms: advanced methods
    6. Reeb graphs and mapper
    7. Statistical hypothesis testing and two-sample tests
    8. Comparing high-dimensional distributions, with applications to feature selection

Bibliographie :

       [1] G. Shakhnarovich and T. Darrell and P. Indyk, Nearest-Neighbors Methods in Learning and Vision.
                Theory and Practice, MIT press, 2005.
       [2] S. Har-Peled; Geometric Approximation Algorithms; Mathematical Surveys and Monographs, AMS
       [3] Lee, John A., and Michel Verleysen. Nonlinear dimensionality reduction. Springer, 2007.
       [4] H. Edelsbrunner, J. Harer; Computational Topology: An Introduction; AMS, 2009
       [5] A. Blum, J. Hopcroft and R.Kannan, Foundations of Data Science,2016.

    Equipe pédagogique : Frederic Cazals (Inria Sophia Antipolis), Steve Oudot (Inria Saclay)

    Modalités d'évaluation : written exam (3h).
Electifs de Data Sciences

                                 Discrete Inference and Learning (E2)

   Enseignant responsable : Nikos Paragios, professeur CS
   Période : du 16/10 /2017 au 18 /12 /2017
   Lieu : Gif-sur-Yvette
   Prérequis : Solid understanding of mathematical methods, including linear algebra, integral transforms
   and differential equations

   Description :Discrete optimization provides a very general and flexible modeling paradigm that is
   ubiquitous in several research areas, such as machine learning and computer vision. As a result, related
   optimization methods form an indispensable computational tool for a wide variety of inference and learning
   tasks nowadays. The aim of this course is to introduce students to the relevant concepts and techniques of
   discrete inference and learning and to familiarize them with how these methods can be applied. We will
   cover state of the art algorithms used for energy minimization, marginal computation and parameter
   estimation of rich, expressive models, focusing not only on the accuracy but also on the efficiency of the
   resulting methods.

   Contenu :
   Introduction, basic concepts, dynamic programming, message-passing methods
   Sum-product belief propagation, generalizing belief propagation, message-passing for higher-order models,
   accelerating message-passing
   Graph-cuts: binary energy minimization, multi-label energy minimization
   Reparameterization
   Convex relaxations, linear programming relaxations
   Tree-reweighted message passing
   Dual decomposition
   Minimizing free energy
   Recent advances

   Bibliographie :
   Convex Optimization, Stephen Boyd and Lieven Vanderbeghe
   Numerical Optimization, Jorge Nocedal and Stephen J. Wright
   Introduction to Operations Research, Frederick S. Hillier and Gerald J. Lieberman
   An Analysis of Convex Relaxations for MAP Estimation of Discrete MRFs, M. Pawan Kumar, Vladimir
   Kolmogorov and Phil Torr
   Convergent Tree-reweighted Message Passing for Energy Minimization, Vladimir Kolmogorov

   Equipe pédagogique : TARABALKA Yuliya, ALAHARI Karteek , Chargés de recherche Inria
   16/10 13h45   COURS    ALAHARI
   23/10 13h45   COURS    TARABALKA
   30/10 13h45   COURS    ALAHARI
   06/11 13h45   COURS    PARAGIOS
   20/11 13h45   COURS    ALAHARI
   27/11 13h45   COURS    TARABALKA
   04/12 13h45   COURS    TARABALKA
   11/12 13h45   COURS    TARABALKA
   18/12 13h45   CTRL

   Modalités d'évaluation : examen écrit (3h), contrôle continu
Electifs de Data Sciences

                                    Distributed optimization (E3-1)
   Enseignant responsable : Jean-Christophe PESQUET (Professeur)
   Période : du 12/01/2018 au 23/03/2018 (E4-2)
   Lieu : Gif-sur-Yvette
   Prérequis :

   Description :

   In a wide range of application fields (inverse problems, machine learning, computer vision, data
   analysis, networking,...), large scale optimization problems need to be solved.
   The objective of this course is to introduce the theoretical background which makes it possible to
   develop efficient algorithms to successfully address these problems by taking advantage of modern
   multicore or distributed computing architectures. This course will be mainly focused on nonlinear
   optimization tools for dealing with convex problems. Proximal tools, splitting techniques and
   Majorization-Minimization strategies which are now very popular for processing massive datasets
   will be presented. Illustrations of these methods on various applicative examples will be provided.

   Contenu :

   The course consists of eight sessions (3h each) combining lectures and exercices. The following concepts
   will be presented:

                     1. Background on convex analysis
                             (Convex sets and functions - Differentiability and subdifferentiability - Proximity
   operator -                                 Conjugate function - Duality results)

                     2. Parallel and distributed proximal splitting methods
                              ( Fixed point algorithm and Fejér sequences - Minimization of a sum of convex
   functions –                                  Primal-dual proximal parallel algorithms - Distributed techniques)

                  3. Parallelization through Majorization-Minimization approaches
                           (Majorization-Minimization principle - Majorization techniques - Half-Quadratic
   methods -                                Variable metric Forward-Backward algorithm - Subspace
   algorithms (memory gradient,                              BFGS, ...) - Parallel block coordinate descent
   approaches)

   Bibliographie :

   Equipe pédagogique : Jean-Christophe PESQUET and Emilie CHOUZENOUX
   Modalités d'évaluation : [par ex. examen écrit (3h), projet, soutenance, contrôle continu]
   Examen écrit (2h)
   Rapport de TP (par binôme)
Electifs de Data Sciences

                                    Natural Language Processing (E3-2)

   Enseignant responsable : Matthias Gallé, Senior Scientist & Group Leader (NLP) – Naver Labs Europe
   Période : du 08 /01 /2018 au 26 / 03 /2018
   Lieu : Gif-sur-Yvette
   Prérequis : introduction machine learning & optimization, linear algebra, programming language
   (preferably python), data-structures

   Description : This course will give an overview of the topics of study of the field of Natural Language
   Processing. It will take a problem-centric approach, introducing increasingly complexer problems, starting
   from basic building blocks like language modeling, tagging and parsing ; and progressing towards complex
   problems like opinion mining, machine translation, question & answering and dialogue. While important
   historical methods will be mentioned (and studied if still relevant), a focus will be on current state-of-the-art
   involving many times recent advances in training neural networks and novel architectures.

   Contenu :

   1. Introduction

   2. Language model

   3. Representation of words & documents

   4. Tagging, Named Entity Recognition

   5. Parsing

   6. Social Media Analytics (information extraction, sentiment analysis)

   7. Machine Translation and Natural Language Generation

   8. Machine Reading

   9. Dialogue

   Bibliographie : Speech and Language Processing. Jurafsky & Martin. Draft of 3rd edition online at
   https://web.stanford.edu/~jurafsky/slp3/

   Equipe pédagogique : All members of Naver Labs: Matthias Gallé, Salah Ait-Mokhtar (Senior Scientist),
   Caroline Brun (Senior Scientist), Marc Dymetman (Principal Scientist), Julien Perez (Senior Scientist –
   Group Leader (Machine Learning and Optimization))

   Modalités d'évaluation : contrôle continu, based on programming exercises and landmark and/or recent papers
Electifs de Data Sciences

                            Foundations of Computer Graphics (E3-3)

   Enseignant responsable : George Drettakis, Directeur de Recherche Inria
   Période : du 12/01 au 23/03 (E4-1)
   Lieu : Gif-sur-Yvette
   Prérequis :
   Linear Algebra, Statistics, Calculus, Geometry, Good programming skills (preferably C++).

   Description : This course provides an introduction to the foundations of computer-graphics, and
   presentation of several advanced features that are advanced research topics. The course has a strong
   theoretical part on the mathematical foundations of computer graphics, and an applied component
   (programming exercises based on modern tools for programming graphics systems). The course
   starts with a general introduction of the vast set applications of computer graphics and underlying
   mathematical and algorithmic principles. The following sessions present the principles of real-time
   rendering, representation of materials and textures, shadow calculation, rendering image-based and
   non-photorealistic rendering which allow the generation of realistic computer graphics images;
   these all include a programming component. One session is dedicated the mathematical principles of
   global illumination (finite element and Monte Carlo) and uses the nori system for the programming
   exercise and the final session presents the fields of computational photography and image-based
   rendering.

   Contenu :
   Session 1: Introduction to Image Synthesis
   Session 2: Ray tracing and OpenGL
   Session 3: Lighting and Materials
   Session 4: Textures and Filtering
   Session 5: Shadows
   Session 6: Global Illumination
   Session 7: Computational Photography

   Bibliographie :
           [1] Marscher, Shirley, Introduction to Computer Graphics, CRC Press
           [2] Hughes, van Dam, McGuire, Sklar, et al. Computer Graphics: Principles and Practice, AddisonWesley
           [3] W. Jakub Nori – an educational ray-tracer: https://wjakob.github.io/nori/
           [4] Dutre, Bejaert, Bala Advanced Global Illumination, CRC Press

   Equipe pédagogique : G. Drettakis, A. Bousseau
   Modalités d'évaluation : Continuous evaluation, programming exercises and group mini-projects.
Electifs de Data Sciences

                                          Deep Learning (E4)

   Enseignant responsable : V. Lepetit [U. Bordeaux]
   Période : du 08/01 /2018 au 12 /03 /2018 (E3)
   Lieu : To be determined
   Prérequis : Linear Algebra, Probability & Statistics

   Description : While being conceptually identical to neural networks used in the 80's, the advent of
   big data and powerful computers have made deep learning algorithms the current method of choice.
   Over the last few years deep learning systems have been beating with a large margin the previous
   state-of-the-art systems in tasks as diverse as speech recognition, image classification, and object
   detection.

   Deep architectures are composed of multiple levels of non-linear operations, such as in neural nets
   with many hidden layers. Searching the parameter space of deep architectures is a difficult task, but
   learning algorithms such as those for Deep Belief Networks have recently been proposed to tackle this
   problem with notable success, beating the state-of-the-art in certain areas. This course will discuss
   the motivations and principles regarding learning algorithms for deep architectures, in particular
   those exploiting as building blocks unsupervised learning of single-layer models such as Restricted
   Boltzmann Machines, used to construct deeper models such as Deep Belief Networks.

   Contenu :
   •      Shallow Linear Models & Energy Minimization formulations
                  Factor Analysis/PCA, Sparse Coding, Logistic Regression
   •      Deep Probabilistic Models
                  Hopfield Networks, Boltzmann Machines, Markov Random Fields,
                  Mean Field Theory and Energy Minimization, Restricted Boltzmann Machines (RBM's)
   •      Sampling
                  Monte Carlo, Gibbs Sampling, RBM Sampling, Gaussian Perturbation Sampling, Perturb-and-Map
   •      Parameter Estimation Algorithms
                  Exponential Models and Maximum Entropy, Moment Matching, Contrastive Divergence
   •      Discriminative Training
                  Backpropagation, Deep Belief Networks , Stochastic Gradient Descent, Training with momentum,
   •      Deep Learning Tricks
                  Training with noise/early stopping, Dropout, Stochastic vs. Marginal-based learning
   •      Deep Vision
                 Overview of current systems, OverFeat, SuperVision, Deep Fishervectors,Visualizing
   Deep                   Networks

   Bibliographie :
   K. Murphy, « Machine Learning : A Probabilistic Approach », MIT Press 2013

   Equipe pédagogique :
   Modalités d'évaluation : 50% lab assignments, 50% final project
Electifs de Data Sciences

                                  Advanced Machine Learning (E5-1)
                           (Reinforcement Learning & Information Theory)

   Enseignant responsable : Guillaume Charpiat, researcher at INRIA (TAO team)
   Période : du 11/ 01/2018 au 15/03/2018 (E5-1)
   Lieu : Gif-sur-Yvette
   Prérequis : mathematics (probabilities/statistics, linear algebra, differential calculus, analysis)
               programming (python)

    Description : Machine learning is at the core of many recent technological revolutions and is
    required to extract information from the large amounts of data that are now produced daily. Its
    applications are wide, from training robots how to walk, to clinical trials, advertisement suggestions,
    recognizing handwritten characters, playing Go, detecting spam… This course is the continuation of
    the course Foundations of Machine Learning and will cover the remaining main domains of machine
    learning, i.e. information theory and reinforcement learning.

    Contents : Information theory is the mathematical foundation of machine learning: it is essential to
    understand its underlying concepts, and to model machine learning problems properly. We will see
    how the notions of prediction (what is likely to be the next character in this text?), generation
    (improvising new sentences) and compression (how to store losslessly large amounts of text as
    compactly as possible) are closely related, and what are the natural quantities to consider when
    considering distributions, in order to quantify the efficiency of machine learning algorithms.
    Reinforcement learning is the part of machine learning dedicated to exploration strategies. In a
    given environment (a video game, clinical trials, robot moving in a gravitational field), given a set of
    possible actions (press this key, test this drug, move this articulation), what is the best sequence of
    actions to achieve the goal (winning the game, finding out the best drug, walking without falling) ?

    Program :
       0 - Introduction
   Part A - Reinforcement Learning
       1 - Bandits and Combination of Experts for time series prediction
       2 - Learning dynamics (Bellman equation, Q-learning...)
       3 - Monte Carlo Tree Search
   Part B - Information Theory
       4 - Entropy
       5 - Compression/Prediction/Generation equivalence
       6 - Kolmogorov complexity
       7 - Information geometry (Fisher information)
   Part C – Putting everything together
       8 – Reinforcement Learning using Information Theory

   Bibliography :
   Reinforcement learning:
      [1] Reinforcement Learning: An Introduction : Richard S. Sutton & Andrew G. Barto
      [2] Statistical Learning and Sequential Prediction : Alexander Rakhlin & Karthik Sridharan
   Information theory:
      [3] Information theory, inference, and learning algorithms : David MacKay
      [4] Elements of information theory (2nd edition) : Thomas Cover & Joy Thomas
      [5] Notes by Jérémy Bensadon of courses by Yann Ollivier
   Equipe pédagogique : Guillaume Charpiat (lessons) and Corentin Tallec (practical sessions)
   Modalités d'évaluation : project + exercises
   More information at https://www.lri.fr/~gcharpia/machinelearningcourse/ .
Electifs de Data Sciences

                                        Massive Data Processing (E7)

   Enseignant responsable : Vassilis Christophides, INRIA
   Période : du 15/ 01 /2018 au 12/03/2018 (E7)
   Lieu : Gif-sur-Yvette
   Prérequis : Bases de Données, Programmation oriente objet

   Description :
   Big Data requires the storage, organization, and processing of data at a scale and efficiency -typically
   of heterogeneous nature and in streaming flow- that go well beyond the capabilities of conventional
   information technologies. Such requirements have been first introduced for processing the web, and
   they are today a common place in many industries. In this respect many traditional assumptions
   break, new query and programming interfaces are required (Map/Reduce), and new computing
   models will emerge (Cloud Computing).
   This course aims to introduce parallel/distributed data processing using the MapReduce (M/R)
   paradigm and provide insights for developing applications on top of the Hadoop platform. Big data
   raises also new challenges in data mining. Given the scale and speed of data that needs to be
   processed as well the variety of parameters to be taken into account, state of the art machine
   learning algorithms working offline and expecting homogeneous and clean data are also challenged.
   There is on ongoing effort to design Big Data Mining algorithms accommodating a
   parallel/distributed or even a streaming evaluation. Of course such kind of incremental, partial
   evaluation impacts the quality of obtained statistical models and thus algorithms compromise
   between quality of the learning and computation time. The course will adopt an algorithmic
   viewpoint: data mining is about applying algorithms to data, rather than using data to “train” a
   machine-learning engine of some sort.

   Contenu :
        • Understand different models of computation:
             MapReduce
             Streams and online algorithms
        • Mine different types of data:
             Data is high dimensional
             Data is infinite/never-ending
        • Use different mathematical ‘tools’:
             Hashing (LSH, Bloom filters)
             Dynamic programming (frequent itemsets)
        • Solve real-world problems:
             Duplicate document detection
             Market Basket Analysis

   Bibliographie :
           [1] Jure Leskovec, Anand Rajaraman, Jeff Ullman. “Mining of Massive Datasets”
                    Cambridge University Press, 2014
           [2] Donald Miner, Adam Shook “MapReduce Design Patterns” O'Reilly Media 2013
           [3] Tom White Hadoop: The Definitive Guide, 3rd Edition Storage and Analysis at
                    Internet Scale O'Reilly Media / Yahoo Press May 2012

           Equipe pédagogique : Vassilis Christophides + TA
       Modalités d'évaluation : Examen Ecrit + 2 Exercices de Programmation

  Remarques : The course will consist of lectures based both on textbook material (freely-available for download on
  the Web) and scientific papers. It will also include programming assignments that will provide students with
  hands-on experience on building data-intensive applications using existing Big Data tools and platforms. The
  intended audience of this course is MSc and PhD students but also practitioners who plan to design or develop
  state-of-the-art algorithms available today for Big Data analysis.
Electifs de Finance

                                                 Electifs de Finance

Liste
Electifs de Finance.............................................................................................................................23
   Modèles dérivés action (E1)..........................................................................................................24
   Méthodes numériques en finance (E2)..........................................................................................25
   Physique des marchés (E3)............................................................................................................26
   Portfolio Metrics (E4-1).................................................................................................................27
   Cas appliqués de Structuration et Gestion d’Actifs (E4-2)............................................................28
   Calibration de modèles pour les dérivés (E5)................................................................................29
   Fixed income (E6).........................................................................................................................30
   Données haute-fréquence et carnets d’ordres (E7-1).....................................................................32
   Réassurance (E7-2)........................................................................................................................33
Electifs de Finance

                                      Modèles dérivés action (E1)
   Enseignant responsable : Ioane Muni Toke, Maître de conférences, CentraleSupélec
   Période : du 12/10/2017 au 14/12/2017 (E1)
   Lieu : Gif-sur-Yvette

   Description : Ce cours est présente les modèles stochastiques désormais classiques utilisés pour
   l’évaluation de produits dérivés en finance, principalement sur les marchés actions. Les notions
   mathématiques de base du calcul stochastique sont (re)vues dans l’optique des applications
   financières. La théorie de l’évaluation par arbitrage et le modèle fondateur de Black & Scholes sont
   présentées et critiquées au regard de données empiriques. Les modèles plus complexes de volatilité
   (locale et stochastique) et les modèles dits « à sauts » sont également présentés. Le cours fournit
   donc aux étudiants un large panorama des méthodes probabilistes pour l’évaluation de dérivés
   action.

   Contenu : Rappels sur les processus stochastiques. Mouvement brownien. Intégrale stochastique.
   Equations différentielles stochastiques. Evaluation par arbitrage. Modèle de Black et Scholes et
   extensions (dépendance temporelle, dividendes). Théorèmes fondamentaux de l’évaluation par
   arbitrage. Evaluation par EDP (Feynman-Kac). Notions de trading et « grecques ». Modèles de
   volatilité locale (Dupire) et stochastique (Heston). Introduction aux modèles à sauts.

   Bibliographie :
   [1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance, Ellipse.
   [2] Shreve S., Stochastic calculus for finance II : Continuous-time models, Springer.

   Equipe pédagogique : Ioane Muni Toke
   Modalités d'évaluation : un partiel et un examen final
Electifs de Finance

                           Méthodes numériques en finance (E2)

     Enseignant responsable : Ioane Muni Toke, CentraleSupélec.
     Période : du 16 / 10 /2017 au 11 / 12 /2017 (E2)
     Lieu : Gif-sur-Yvette
     Prérequis :

     Description : Ce cours présente quelques méthodes numériques classiques fréquemment
     utilisées pour l’évaluation de produits financiers. Une séance (ou un groupe de deux séances)
     comprend un cours théorique présentant le modèle financier et sa résolution numérique
     proposée, suivi d’un TP au cours duquel l’étudiant est invité à implémenter une solution en C++
     et/ou Python et/ou R (suivant les sujets).

     Contenu : Méthodes de Monte Carlo. Méthodes d’arbres. Schémas numériques pour la diffusion.
     Schéma numériques pour les EDP. Programmation dynamique et options américaines. Utilisation
     de copules en finance.

     Bibliographie :
              [1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance,
     Ellipse.
                   [2] Achdou, Pironneau, Computational methods for Option Pricing, SIAM.

     Equipe pédagogique : Ioane Muni Toke
     Modalités d'évaluation : contrôle continu (Comptes-rendus de TP à rédiger) et soutenance
Vous pouvez aussi lire