Option Mathématiques Appliquées - département de Mathématiques
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Option Mathématiques Appliquées 2017-2018 Cursus ingénieur Centralien et Supélec 02/11/2017 Catalogue des cours (en construction) • Cours de base • Electifs de Data Sciences • Electifs de Finance • Electifs de Modélisation Mathématique • Electifs de Signal et Statistique • Cours de Math-Physique
Table des matières Table des cours 2017-2018...................................................................................................................3 Cours de base........................................................................................................................................6 Analyse Fonctionnelle.....................................................................................................................7 Assurance Vie..................................................................................................................................8 Machine Learning et Classification.................................................................................................9 Optimisation...................................................................................................................................10 Processus et calcul stochastiques...................................................................................................11 Séries chronologiques....................................................................................................................12 Statistique......................................................................................................................................13 Electifs de Data Sciences....................................................................................................................14 Foundations of Geometric Methods in Data Analysis (E1)...........................................................15 Discrete Inference and Learning (E2)............................................................................................16 Distributed optimization (E3-1).....................................................................................................17 Natural Language Processing (E3-2).............................................................................................18 Foundations of Computer Graphics (E3-3)...................................................................................19 Deep Learning (E4).......................................................................................................................20 Advanced Machine Learning (E5-1) (Reinforcement Learning & Information Theory)..............21 Massive Data Processing (E7).......................................................................................................22 Electifs de Finance.............................................................................................................................23 Modèles dérivés action (E1)..........................................................................................................24 Méthodes numériques en finance (E2)..........................................................................................25 Physique des marchés (E3)............................................................................................................26 Portfolio Metrics (E4-1).................................................................................................................27 Cas appliqués de Structuration et Gestion d’Actifs (E4-2)............................................................28 Calibration de modèles pour les dérivés (E5)................................................................................29 Fixed income (E6).........................................................................................................................30 Données haute-fréquence et carnets d’ordres (E7-1).....................................................................32 Réassurance (E7-2)........................................................................................................................33 Electifs de Modélisation Mathématique.............................................................................................34 Systèmes Hyperboliques de Lois de Conservation (E1)................................................................35 Equations de Hamilton-Jacobi (E2)...............................................................................................36 Systèmes désordonnés et percolation............................................................................................37 Maîtrise des Risques......................................................................................................................39 Equations différentielles et aux dérivées partielles stochastiques.................................................40 Processus de Lévy..........................................................................................................................41 Electifs de Signal et Statistiques.........................................................................................................42 Analyse spectrale et temps-fréquence (E1)...................................................................................43 Biostatistique (E2).........................................................................................................................44 Distributed optimization (E3)........................................................................................................45 Stastique Bayésienne et Applications (E4)....................................................................................46 Apprentissage en grande dimension (E5)......................................................................................47 Traitement des images : méthodes et outils (E6)...........................................................................48 Théorie des Grandes Matrices Aléatoires et Apprentissage (E7)..................................................49 Cours de Math-Physique....................................................................................................................50 Topics in Mathematical Physics....................................................................................................51 Théorie quantique des champs.......................................................................................................52 Groupes et Algèbres de Lie...........................................................................................................53 Systèmes désordonnés et percolation............................................................................................54
Table des cours 2017-2018 Table des cours 2017-2018 Type Titre TC/E HYP Apogée Tronc commun Analyse TC AF MA3112AA Fonctionnelle Assurance Vie TC AV MA3901AA Méthodes TC MN MA3120AA Numériques (*) Machine Learning TC MLC MA3XXX Optimisation TC OPT MA3150AD Plateformes et TC PLP MA3XXX Langages de Programmation (*) Processus et Calcul TC PS MA3131AB Stochastiques Séries TC SCH MA3502AC chronologiques Statistique TC STAT MA3XXX Data Sciences Foundations of E1 GMDA MA3302AE Geometric Methods in Data Analysis Discrete inference & E2 DIL MAXXXX Learning in Data Analysis Distributed E3-1 LSD MA3604AB Optimization Natural Language E3-2 NLP MA3320AA Processing Foundations of E3-3 FCG MA3310AC Computer Graphics Deep Learning E4 DL MA3601AB Advanced Machine E5-1 AML MA3608AA Learning Advanced Medical E5-2 MIA Image Analysis (*) Network & Graph- E6 NGSA MAXXX based Science Analytics (*) Massive Data E7 MDP XX Processing Finance Modèles Dérivés E1 MDA MA3201AB Action Méthodes E2 MNF MA3202AC Numériques en Finance Physique des E3 PHM MA3216AC
Table des cours 2017-2018 marchés Portfolio Metrics E4-1 PM MA3312AA Structuration et E4-2 SGA MA3212AC Gestion d'actifs Calibration de E5 CAL MA3211AC modèles pour les dérivés Fixed income E6 FI MA3203AC Données haute- E7-1 DHF fréquence et carnets d'ordres Réassurance E7-2 REA MA3903AC Signal et Stat. Analyse spectrale et E1 ASTF temps-fréquence Biostatistique E2 BS Distributed E3 LSD MA3604AB Optimization Statistique E4 SBA bayésienne et applications Apprentissage en E5 AGD grande dimension Traitement des E6 TIMO images Théorie des matrices E7 TMAA aléatoires et apprentissage Modélisation Systèmes E1 SHLC MA3401AB Hyperboliques de Lois de Conservation Equations de E2 EHJ MA3403AD Hamilton-Jacobi Systèmes E3 SyD&P MA3607AA Désordonnés et Percolation HPC et Modélisation E4 HPC MA3405AC (*) Equations E5 EDPS MA3218AA différentielles et aux d.p. stochastiques Processus de Lévy et E6 PLM MA3407AD Markov Maîtrise des Risques E7 MRI MA3205AB Math-Physique Topics in PMPE2 TMP MA3190AA Mathematical Physics Théorie Quantique PMPE4 TQC MA3609AA des Champs
Table des cours 2017-2018 Systèmes PMPE3 SyD&P MA3607AA Désordonnés et Percolation Groupes et Algèbres PMPE7 GAL MA3180AA de Lie
Cours de base Cours de base Contenu Cours de base........................................................................................................................................6 Analyse Fonctionnelle.....................................................................................................................7 Assurance Vie..................................................................................................................................8 Machine Learning et Classification.................................................................................................9 Optimisation...................................................................................................................................10 Processus et calcul stochastiques...................................................................................................11 Séries chronologiques....................................................................................................................12 Statistique......................................................................................................................................13
Cours de base Analyse Fonctionnelle Enseignant responsable : Anna Rozanova-Pierrat MDC Période : du 28/11 /2017 au 06/02/2018 Lieu : Gif-sur-Yvette Prérequis : les cours de première année du cursus centralien, Analyse et EDPs Description : L’analyse fonctionnelle est un outil puissant permettant de résoudre des problèmes de mathématiques et de physique et toutes sortes de problèmes liés aux modèles impliquant des équations intégrales et/ou différentielles aux applications multiples (modèles de biologie, de finance, de physique, de techniques d’imagerie et problèmes inverses, problèmes d’optimisation...). Pour être capable de résoudre n’importe quel type de problème, il faut comprendre la philosophie d’une construction théorique. Le but du cours est donc non seulement de connaître les résultats les plus fondamentaux de la théorie de l’analyse fonctionnelle mais aussi savoir les démontrer. Cette vision abstraite globale amènera à des solutions adéquates des problèmes concrets de nature différente, abordés à la dernière séance. Contenu : [Séance 1.] Rappels sur les espaces topologiques et métriques. [Séance 2.] Compacité. Opérateurs linéaires. [Séance 3.] Espaces de Hilbert. [Séance 4.] Convergences faible et faible*. [Séance 5.] Opérateurs compacts et théorie spectrale. [Séance 6.] Distributions. [Séance 7.] Transformation de Fourier des distributions. Fonctions de Green. [Séance 8.] Espaces de Sobolev. [Séance 9.] Applications. Conséquences des inclusions des espaces de Sobolev. Bibliographie : [1] H. Brézis. Analyse fonctionnelle : Théorie et applications. Sciences SUP, 2005. [2] L. C. Evans. Partial Differential Equations. Graduate Studies in Mathematics, 1994. [3] F. Golse, Y. Laszlo, F. Pacard, and C. Viterbo. Analyse réelle et complexe. École Polytechnique, 2014. [4] A.N. Kolmogorov and S.V. Fomin. Introductory Real Analysis. Dover publications, INC., 1975. [5] V.S. Vladimirov. Equations of Mathematical Physics. Pure and Applied Mathematics, 1971. Equipe pédagogique : Anna Rozanova-Pierrat Modalités d'évaluation : examen écrit (3h) sans documents Remarques : site du cours http://cours.etudes.ecp.fr/claroline/course/index.php?cid=MA3100
Cours de base Assurance Vie Enseignant responsable : Simon COLBOC / Guillaume METGE Période : du 28/11/2017 au 06/02/2018 Lieu : Gif-sur-Yvette Prérequis : notions élémentaires de probabilité Description : Assurance vie : marché, principes, fonctionnement et calcul actuariel Contenu : Objectif du cours : L’objectif du cours est d’introduire les étudiants aux différentes techniques actuarielles utilisées pour modéliser un portefeuille d’assurance-vie (comportement de l’assuré, démographie, finance). Par ailleurs, une attention particulière sera portée à la compréhension du marché de l’assurance vie. Plan du cours : 1. Produits d’assurance-vie, perspectives d’évolution du marché 2. Calcul des engagements en assurance-vie Comment calcule-t-on la prime d’un produit d’assurance-vie ? 3. Valorisation d’un portefeuille d’assurance-vie Market Consistent Embedded Value, valorisation déterministe et valorisation stochastique, introduction à l’Asset & Liabilities Management 4. Construction de tables de mortalité et calcul de l’espérance de vie Modèles de durée, estimateur de Kaplan-Meier, modèle de Lee-Carter et dérivés 5. L’option de rachat : modélisations actuarielle Focus sur l’option de rachat des contrats d’assurance vie : modèles économiques, modèles statistiques (GLM), modèles machine learning 6. La vision Solvabilité II Revue des risques précédemment abordés et calcul au quantile 99.5% 7. La distribution dans l’assurance Equipe pédagogique : Simon COLBOC / Guillaume METGE Modalités d'évaluation : examen écrit (3h) + 2 TP
Cours de base Machine Learning et Classification Enseignant responsable : Hani Hamdan (Professeur à CentraleSupélec) et Arthur Tenenhaus (Professeur à CentraleSupélec) Période : Lieu : Gif-sur-Yvette Prérequis : Statistique, Algèbre linéaire Description : L'évolution technologique amène à des acquisitions de données de plus en plus volumineuses (signaux, images, résultats de mesure, etc.) qui nécessitent l'utilisation de techniques permettant d'en extraire la connaissance utile. La classification et l'apprentissage automatique qui cherchent à transformer les données brutes en connaissances plus structurées, fournissent des outils adaptés à ce type de problème. Cet enseignement présente une vue d'ensemble des méthodes d'apprentissage automatique et de classification ainsi que des exemples d'application des différentes approches développées. À l'issue de ce cours, les élèves seront capables de définir, comprendre, choisir une méthode d'apprentissage automatique et la mettre en œuvre, en adéquation avec le problème posé. Contenu : Apprentissage supervisé - Outils classiques : analyse discriminante, SVM, régression multiple, régression logistique, régression Ridge, régression PLS, LASSO, régression sur composantes principales, etc. - Extensions non linéaires de ces approches (régression Ridge à noyau, PLS à noyau, SVM à noyau, etc.). - Sélection de modèle : validation croisée, bootstrap, etc. Apprentissage non supervisé - Familles de méthodes : hiérarchie, partition, partition floue. - Modèle de mélange : définition, algorithmes EM et CEM, utilisation lors de situations spécifiques (données imprécises, données discrétisées, etc.), modèles gaussiens parcimonieux. - Sélection de modèle et choix du nombre de classes : critères d'information, etc. Bibliographie : [1] T. Hastie, R. Tibshirani, et J. Friedman, "The Elements of Statistical Learning: Data Mining, Inference and Prediction", Springer, 2001. [2] R. Duda, P. Hart, et D. Stork, "Pattern classification", John Wiley, 2001. Equipe pédagogique : Hani Hamdan et Arthur Tenenhaus Modalités d'évaluation : projet, soutenance
Cours de base Optimisation Enseignants responsables : Paul-Henry Cournède, Laurent Le Brusquet, CentraleSupélec Période : du 26/09/2017 au 27/10/2017 Lieu : Gif-sur-Yvette Prérequis : Calcul Différentiel Description : L'optimisation est le domaine étudiant la minimisation ou la maximisation d'un critère à valeurs réelles. Pour l’optimisation continue, le critère est défini sur un ensemble fermé, d'intérieur non vide. Pour l’optimisation discrète, le critère est défini sur un ensemble fini ou dénombrable. L’objectif de ce cours est tout d’abord de présenter le cadre formel des problèmes d’optimisation et d’étudier les questions d’existence et d’unicité, de caractérisation des solutions. Une large gamme de méthodes de résolution numérique sera exposée. Pour l’optimisation continue, ces méthodes concerneront la recherche d’optima locaux ou globaux, avec ou sans contraintes. Pour l’optimisation discrète, ces méthodes pourront être exactes ou approchées. La capacité des méthodes à fournir de bons résultats dépendant fortement de la description mathématique du problème à résoudre, le cours insistera sur l’étape de formalisation mathématique préalable à l’utilisation de tout algorithme d’optimisation. Contenu : [10 lignes max., têtes de chapitres] - Problèmes d’optimisation, Existence et unicité, Caractérisation des solutions - Théorème de Fritz John - Méthodes numériques pour la recherche de minima locaux sans contraintes - Optimisation sous contraintes : projection, pénalisation, dualité - Contrôle optimal - Méthodes heuristiques - Résolution exacte de problèmes d’optimisation discrète : branch and bound, programmation dynamique - Principaux problème d’optimisation sur les graphes - Optimisation multi-objectifs : dominance de Pareto. Bibliographie : [5 références max.] [1] Culioli, J. (1994). Introduction à l'Optimisation. Paris : Ellipses. [2] Evans, LC. (1987). An Introduction to Mathematical Optimal Control Theory. Berkeley Lecture Notes. [3] Hiriart-Urruty, J. and Lemaréchal, C. (2001). Fundamentals of Convex Analysis. Springer-Verlag. [4] Nocedal, J. and Wright, S. (2006). Numerical Optimization (2nd ed.). Springer-Verlag. [5] Charon I., Germa A et Hudry O. (1996). Méthodes d'optimisation combinatoire, Masson. Equipe pédagogique : PH Cournède, L Le Brusquet, J Bect (TP), xxx (TP) Modalités d'évaluation : examen écrit (3h) + Note de TP
Cours de base Processus et calcul stochastiques Enseignantes responsables : Hana Baili et Sarah Lemler, CS (2 cours prévus) Période : du 26/09/2017 au 28/11/2017 Lieu : campus de Gif-sur-Yvette Prérequis 1 : cours de probabilités de première année Prérequis 2 : cours de probabilités avancées (processus gaussien, espérance conditionnelle, temps d’arrêt, martingale) Description Cet enseignement contient une initiation au calcul stochastique utile pour étudier des phénomènes aléatoires dépendant du temps. Ce qu'on appelle communément calcul stochastique est constitué de la théorie des intégrales stochastiques et des règles de calcul qui président à l'usage de ces intégrales. À l'issue de ce cours les élèves seront capables : • de comprendre les mécanismes de construction d’une intégrale stochastique ; ils verront en particulier la différence par rapport à l’intégration classique au sens de Lebesgue ; • de manipuler les semimartingales et en particulier les processus de diffusion via la formule d’Itô ; • de transformer une semimartingale en une martingale par un changement de mesure ; • d'appliquer ces objets mathématiques à des problèmes concrets d’analyse, de filtrage ou d ’optimisation de systèmes dynamiques incertains. Contenu Quelques rappels sur les processus. Filtrations. Temps d'arrêt. Espérance conditionnelle. Martingales. Mouvement brownien. Contruction de l’intégrale stochastique. Formule d’Itô. Théorème de Girsanov. Equations différentielles stochastiques. Bibliographie [1] P. Protter (2005), "Stochastic Integration and Differential Equations", Springer, 2nd edition. [2] B. Øksendal (2003), "Stochastic Differential Equations: An Introduction with Applications", Springer, 6th edition. [3] J.-F. Le Gall, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 1996-1997, Université Pierre et Marie Curie. [4] J. Jacod, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 2007-2008, Université Pierre et Marie Curie. Modalité d'évaluation : examen écrit
Cours de base Séries chronologiques Enseignants responsables : Pascal Bondon, CNRS-CS, et Emmanuelle Clément, CS Période : du 09/01/2018 au 13/03/2018 Lieu : Gif-sur-Yvette Prérequis : Cours de probabilités, statistiques, processus stochastiques. Description : L’objectif de ce cours d'introduction aux séries temporelles est de présenter des modèles paramétriques de séries d'observations et leurs applications à l'analyse et à la prévision de données observées séquentiellement dans le temps. On commence par présenter les techniques d'estimation de la tendance et de la saisonnalité d'une série temporelle. Puis on introduit le modèle autorégressif à moyenne mobile (ARMA) et on étudie les notions de causalité et d'inversibilité. On aborde ensuite la théorie de la prédiction linéaire d'une série chronologique stationnaire quelconque à passé fini et infini. Le problème de l'estimation statistique d'un modèle ARMA est étudié dans le détail et est illustré d’exemples de modélisation de séries réelles. Enfin, on présente les modèles non linéaires conditionnellement hétéroscédastiques utilisés dans l'analyse de séries financières. Contenu : • Généralités sur les séries temporelles : exemples, modèles simples de séries temporelles, estimation et élimination de la tendance et de la saisonnalité. • Stationnarité au second ordre : fonction de covariance, densité spectrale, processus linéaire. • Processus ARMA et ses généralisations : stationnarité, causalité, inversibilité, série ARIMA saisonnière, • série à longue mémoire. • Prédiction linéaire : passé fini, passé infini, interpolation, filtrage. • Estimation d’un modèle ARMA : estimation préliminaire, estimation du maximum de vraisemblance gaussien, estimation des moindres carrés, propriétés asymptotiques des estimateurs, exemples. • Modèles conditionnellement hétéroscédastiques : modèles ARCH, GARCH, modèles à volatilité stochastique, modèles à longue mémoire. Bibliographie : [1] P. J. Brockwell and R. A. Davis. Time Series : Theory and Methods. Springer Verlag, New York, second edition, 1991. [2] J. D. Cryer and K. S. Chan, Time Series Analysis with Applications in R. Springer Verlag, New York, second edition, 2008. [3] W. A. Fuller. Introduction to Statistical Time Series. Wiley, New York, second edition, 1995. [4] R. H. Shumway and D. S. Stoffer, Time Series Analysis and Its Applications with R Examples, Springer Verlag, New York, second edition, 2005. [5] R. S. Tsay. Analysis of Financial Time Series. Wiley Series in Probability and Statistics : Probability and Statistics. Wiley-Interscience, New York, 2001. Equipe pédagogique : Pascal Bondon (cours), Mabrouk Chetouane (TD) / Emmanuelle Clément Modalités d'évaluation : Examen écrit (3h) et comptes rendus de TD.
Cours de base Statistique Enseignant responsable : Julien BECT, Maître de Conférence de l’Ecole CentraleSupélec Période : du 31/10/2017 au 12/01/2018 Lieu : Gif-sur-Yvette Prérequis : Cours de probabilités / statistique niveau 1A Description : Ce cours présente un panorama assez large des possibilités offertes par la statistique moderne, à la fois en terme de modélisation (des modèles paramétriques, tels les modèles linéaires généralisés, aux modèles non-paramétriques) et d’outils (M-estimateurs, estimateurs à noyaux, tests fondés sur la vraisemblance, etc.). Le cours s’appuie sur des fondements théoriques fournis par la théorie statistique asymptotique. Des travaux dirigés réalisés en langage R ou Matlab complètent le cours théorique et permettent l’application des méthodes présentées à des jeux de données issus de domaines divers. Contenu · Convergence de la loi empirique (FRE, théorèmes de Glivenko-Cantelli et de Donsker) · Estimation non-paramétrique de densité (histogrammes, estimateurs à noyau, biais/variance) · Modélisation multivariée (copules, modèles de régression, etc.) · Théorie asymptotique des M-estimateurs, efficacité asymptotique · Test fondés sur la vraisemblance (la « Saint Trinité » Wald / Rao / Wilks) · Introductions à la robustesse et à la sélection de modèle Bibliographie : [1] Wasserman, “All of Nonparametric Statistics”, 2006, Springer [2] Dobson & Barnett, “An introduction to General Linear Models”, 3rd ed., 2008, Chapman & Hall / CRC. [3] Gourieroux & Monfort, “Statistique et modèles économétriques”, vol. 1 et 2, 2e éd., 1996, Economica [4] Van der Vaart, “Asymptotic Statistics”, 1998, CUP Equipe pédagogique : Julien Bect, Laurent Le Brusquet, Arthur Tenenhaus Modalités d'évaluation : Examen écrit (3h)
Electifs de Data Sciences Electifs de Data Sciences Liste Electifs de Data Sciences....................................................................................................................14 Foundations of Geometric Methods in Data Analysis (E1)...........................................................15 Discrete Inference and Learning (E2)............................................................................................16 Distributed optimization (E3-1).....................................................................................................17 Natural Language Processing (E3-2).............................................................................................18 Foundations of Computer Graphics (E3-3)...................................................................................19 Deep Learning (E4).......................................................................................................................20 Advanced Machine Learning (E5-1) (Reinforcement Learning & Information Theory)..............21 Massive Data Processing (E7).......................................................................................................22
Electifs de Data Sciences Foundations of Geometric Methods in Data Analysis (E1) Enseignant responsable : Frederic Cazals (Frederic.Cazals@inria.fr) Période : du 12/10/2017 au 14/12/2018 (E1) Lieu : Gif-sur-Yvette Prérequis : course on algorithms ; undergrad classes in geometry and topology. Description : Data analysis is the process of cleaning, transforming, modelling or comparing data, in order to infer useful information and gain insights into complex phenomena. From a geometric perspective, when an instance (a physical phenomenon, an individual, etc.) is given as a fixed-sized collection of real-valued observations, it is naturally indentified with a geometric point having these observations as coordinates. Any collection of such instances is then seen as a point cloud sampled in some metric or normed space. This course reviews fundamental constructions related to the manipulation of such point clouds, mixing ideas from computational geometry and topology, statistics, and machine learning. The emphasis is on methods that not only come with theoretical guarantees, but also work well in practice. In particular, software references and example datasets will be provided to illustrate the constructions. Contenu : The class consists of the following eight lectures (3h each) , see details at http://www-sop.inria.fr/abs/teaching/centrale-FGMDA/centrale-FGMDA.html 1. Nearest neighbor search: Euclidean and metric spaces 2. Nearest neighbors: selected applications and related topics 3. Clustering algorithms 4. Dimensionality reduction algorithms: basic methods 5. Dimensionality reduction algorithms: advanced methods 6. Reeb graphs and mapper 7. Statistical hypothesis testing and two-sample tests 8. Comparing high-dimensional distributions, with applications to feature selection Bibliographie : [1] G. Shakhnarovich and T. Darrell and P. Indyk, Nearest-Neighbors Methods in Learning and Vision. Theory and Practice, MIT press, 2005. [2] S. Har-Peled; Geometric Approximation Algorithms; Mathematical Surveys and Monographs, AMS [3] Lee, John A., and Michel Verleysen. Nonlinear dimensionality reduction. Springer, 2007. [4] H. Edelsbrunner, J. Harer; Computational Topology: An Introduction; AMS, 2009 [5] A. Blum, J. Hopcroft and R.Kannan, Foundations of Data Science,2016. Equipe pédagogique : Frederic Cazals (Inria Sophia Antipolis), Steve Oudot (Inria Saclay) Modalités d'évaluation : written exam (3h).
Electifs de Data Sciences Discrete Inference and Learning (E2) Enseignant responsable : Nikos Paragios, professeur CS Période : du 16/10 /2017 au 18 /12 /2017 Lieu : Gif-sur-Yvette Prérequis : Solid understanding of mathematical methods, including linear algebra, integral transforms and differential equations Description :Discrete optimization provides a very general and flexible modeling paradigm that is ubiquitous in several research areas, such as machine learning and computer vision. As a result, related optimization methods form an indispensable computational tool for a wide variety of inference and learning tasks nowadays. The aim of this course is to introduce students to the relevant concepts and techniques of discrete inference and learning and to familiarize them with how these methods can be applied. We will cover state of the art algorithms used for energy minimization, marginal computation and parameter estimation of rich, expressive models, focusing not only on the accuracy but also on the efficiency of the resulting methods. Contenu : Introduction, basic concepts, dynamic programming, message-passing methods Sum-product belief propagation, generalizing belief propagation, message-passing for higher-order models, accelerating message-passing Graph-cuts: binary energy minimization, multi-label energy minimization Reparameterization Convex relaxations, linear programming relaxations Tree-reweighted message passing Dual decomposition Minimizing free energy Recent advances Bibliographie : Convex Optimization, Stephen Boyd and Lieven Vanderbeghe Numerical Optimization, Jorge Nocedal and Stephen J. Wright Introduction to Operations Research, Frederick S. Hillier and Gerald J. Lieberman An Analysis of Convex Relaxations for MAP Estimation of Discrete MRFs, M. Pawan Kumar, Vladimir Kolmogorov and Phil Torr Convergent Tree-reweighted Message Passing for Energy Minimization, Vladimir Kolmogorov Equipe pédagogique : TARABALKA Yuliya, ALAHARI Karteek , Chargés de recherche Inria 16/10 13h45 COURS ALAHARI 23/10 13h45 COURS TARABALKA 30/10 13h45 COURS ALAHARI 06/11 13h45 COURS PARAGIOS 20/11 13h45 COURS ALAHARI 27/11 13h45 COURS TARABALKA 04/12 13h45 COURS TARABALKA 11/12 13h45 COURS TARABALKA 18/12 13h45 CTRL Modalités d'évaluation : examen écrit (3h), contrôle continu
Electifs de Data Sciences Distributed optimization (E3-1) Enseignant responsable : Jean-Christophe PESQUET (Professeur) Période : du 12/01/2018 au 23/03/2018 (E4-2) Lieu : Gif-sur-Yvette Prérequis : Description : In a wide range of application fields (inverse problems, machine learning, computer vision, data analysis, networking,...), large scale optimization problems need to be solved. The objective of this course is to introduce the theoretical background which makes it possible to develop efficient algorithms to successfully address these problems by taking advantage of modern multicore or distributed computing architectures. This course will be mainly focused on nonlinear optimization tools for dealing with convex problems. Proximal tools, splitting techniques and Majorization-Minimization strategies which are now very popular for processing massive datasets will be presented. Illustrations of these methods on various applicative examples will be provided. Contenu : The course consists of eight sessions (3h each) combining lectures and exercices. The following concepts will be presented: 1. Background on convex analysis (Convex sets and functions - Differentiability and subdifferentiability - Proximity operator - Conjugate function - Duality results) 2. Parallel and distributed proximal splitting methods ( Fixed point algorithm and Fejér sequences - Minimization of a sum of convex functions – Primal-dual proximal parallel algorithms - Distributed techniques) 3. Parallelization through Majorization-Minimization approaches (Majorization-Minimization principle - Majorization techniques - Half-Quadratic methods - Variable metric Forward-Backward algorithm - Subspace algorithms (memory gradient, BFGS, ...) - Parallel block coordinate descent approaches) Bibliographie : Equipe pédagogique : Jean-Christophe PESQUET and Emilie CHOUZENOUX Modalités d'évaluation : [par ex. examen écrit (3h), projet, soutenance, contrôle continu] Examen écrit (2h) Rapport de TP (par binôme)
Electifs de Data Sciences Natural Language Processing (E3-2) Enseignant responsable : Matthias Gallé, Senior Scientist & Group Leader (NLP) – Naver Labs Europe Période : du 08 /01 /2018 au 26 / 03 /2018 Lieu : Gif-sur-Yvette Prérequis : introduction machine learning & optimization, linear algebra, programming language (preferably python), data-structures Description : This course will give an overview of the topics of study of the field of Natural Language Processing. It will take a problem-centric approach, introducing increasingly complexer problems, starting from basic building blocks like language modeling, tagging and parsing ; and progressing towards complex problems like opinion mining, machine translation, question & answering and dialogue. While important historical methods will be mentioned (and studied if still relevant), a focus will be on current state-of-the-art involving many times recent advances in training neural networks and novel architectures. Contenu : 1. Introduction 2. Language model 3. Representation of words & documents 4. Tagging, Named Entity Recognition 5. Parsing 6. Social Media Analytics (information extraction, sentiment analysis) 7. Machine Translation and Natural Language Generation 8. Machine Reading 9. Dialogue Bibliographie : Speech and Language Processing. Jurafsky & Martin. Draft of 3rd edition online at https://web.stanford.edu/~jurafsky/slp3/ Equipe pédagogique : All members of Naver Labs: Matthias Gallé, Salah Ait-Mokhtar (Senior Scientist), Caroline Brun (Senior Scientist), Marc Dymetman (Principal Scientist), Julien Perez (Senior Scientist – Group Leader (Machine Learning and Optimization)) Modalités d'évaluation : contrôle continu, based on programming exercises and landmark and/or recent papers
Electifs de Data Sciences Foundations of Computer Graphics (E3-3) Enseignant responsable : George Drettakis, Directeur de Recherche Inria Période : du 12/01 au 23/03 (E4-1) Lieu : Gif-sur-Yvette Prérequis : Linear Algebra, Statistics, Calculus, Geometry, Good programming skills (preferably C++). Description : This course provides an introduction to the foundations of computer-graphics, and presentation of several advanced features that are advanced research topics. The course has a strong theoretical part on the mathematical foundations of computer graphics, and an applied component (programming exercises based on modern tools for programming graphics systems). The course starts with a general introduction of the vast set applications of computer graphics and underlying mathematical and algorithmic principles. The following sessions present the principles of real-time rendering, representation of materials and textures, shadow calculation, rendering image-based and non-photorealistic rendering which allow the generation of realistic computer graphics images; these all include a programming component. One session is dedicated the mathematical principles of global illumination (finite element and Monte Carlo) and uses the nori system for the programming exercise and the final session presents the fields of computational photography and image-based rendering. Contenu : Session 1: Introduction to Image Synthesis Session 2: Ray tracing and OpenGL Session 3: Lighting and Materials Session 4: Textures and Filtering Session 5: Shadows Session 6: Global Illumination Session 7: Computational Photography Bibliographie : [1] Marscher, Shirley, Introduction to Computer Graphics, CRC Press [2] Hughes, van Dam, McGuire, Sklar, et al. Computer Graphics: Principles and Practice, AddisonWesley [3] W. Jakub Nori – an educational ray-tracer: https://wjakob.github.io/nori/ [4] Dutre, Bejaert, Bala Advanced Global Illumination, CRC Press Equipe pédagogique : G. Drettakis, A. Bousseau Modalités d'évaluation : Continuous evaluation, programming exercises and group mini-projects.
Electifs de Data Sciences Deep Learning (E4) Enseignant responsable : V. Lepetit [U. Bordeaux] Période : du 08/01 /2018 au 12 /03 /2018 (E3) Lieu : To be determined Prérequis : Linear Algebra, Probability & Statistics Description : While being conceptually identical to neural networks used in the 80's, the advent of big data and powerful computers have made deep learning algorithms the current method of choice. Over the last few years deep learning systems have been beating with a large margin the previous state-of-the-art systems in tasks as diverse as speech recognition, image classification, and object detection. Deep architectures are composed of multiple levels of non-linear operations, such as in neural nets with many hidden layers. Searching the parameter space of deep architectures is a difficult task, but learning algorithms such as those for Deep Belief Networks have recently been proposed to tackle this problem with notable success, beating the state-of-the-art in certain areas. This course will discuss the motivations and principles regarding learning algorithms for deep architectures, in particular those exploiting as building blocks unsupervised learning of single-layer models such as Restricted Boltzmann Machines, used to construct deeper models such as Deep Belief Networks. Contenu : • Shallow Linear Models & Energy Minimization formulations Factor Analysis/PCA, Sparse Coding, Logistic Regression • Deep Probabilistic Models Hopfield Networks, Boltzmann Machines, Markov Random Fields, Mean Field Theory and Energy Minimization, Restricted Boltzmann Machines (RBM's) • Sampling Monte Carlo, Gibbs Sampling, RBM Sampling, Gaussian Perturbation Sampling, Perturb-and-Map • Parameter Estimation Algorithms Exponential Models and Maximum Entropy, Moment Matching, Contrastive Divergence • Discriminative Training Backpropagation, Deep Belief Networks , Stochastic Gradient Descent, Training with momentum, • Deep Learning Tricks Training with noise/early stopping, Dropout, Stochastic vs. Marginal-based learning • Deep Vision Overview of current systems, OverFeat, SuperVision, Deep Fishervectors,Visualizing Deep Networks Bibliographie : K. Murphy, « Machine Learning : A Probabilistic Approach », MIT Press 2013 Equipe pédagogique : Modalités d'évaluation : 50% lab assignments, 50% final project
Electifs de Data Sciences Advanced Machine Learning (E5-1) (Reinforcement Learning & Information Theory) Enseignant responsable : Guillaume Charpiat, researcher at INRIA (TAO team) Période : du 11/ 01/2018 au 15/03/2018 (E5-1) Lieu : Gif-sur-Yvette Prérequis : mathematics (probabilities/statistics, linear algebra, differential calculus, analysis) programming (python) Description : Machine learning is at the core of many recent technological revolutions and is required to extract information from the large amounts of data that are now produced daily. Its applications are wide, from training robots how to walk, to clinical trials, advertisement suggestions, recognizing handwritten characters, playing Go, detecting spam… This course is the continuation of the course Foundations of Machine Learning and will cover the remaining main domains of machine learning, i.e. information theory and reinforcement learning. Contents : Information theory is the mathematical foundation of machine learning: it is essential to understand its underlying concepts, and to model machine learning problems properly. We will see how the notions of prediction (what is likely to be the next character in this text?), generation (improvising new sentences) and compression (how to store losslessly large amounts of text as compactly as possible) are closely related, and what are the natural quantities to consider when considering distributions, in order to quantify the efficiency of machine learning algorithms. Reinforcement learning is the part of machine learning dedicated to exploration strategies. In a given environment (a video game, clinical trials, robot moving in a gravitational field), given a set of possible actions (press this key, test this drug, move this articulation), what is the best sequence of actions to achieve the goal (winning the game, finding out the best drug, walking without falling) ? Program : 0 - Introduction Part A - Reinforcement Learning 1 - Bandits and Combination of Experts for time series prediction 2 - Learning dynamics (Bellman equation, Q-learning...) 3 - Monte Carlo Tree Search Part B - Information Theory 4 - Entropy 5 - Compression/Prediction/Generation equivalence 6 - Kolmogorov complexity 7 - Information geometry (Fisher information) Part C – Putting everything together 8 – Reinforcement Learning using Information Theory Bibliography : Reinforcement learning: [1] Reinforcement Learning: An Introduction : Richard S. Sutton & Andrew G. Barto [2] Statistical Learning and Sequential Prediction : Alexander Rakhlin & Karthik Sridharan Information theory: [3] Information theory, inference, and learning algorithms : David MacKay [4] Elements of information theory (2nd edition) : Thomas Cover & Joy Thomas [5] Notes by Jérémy Bensadon of courses by Yann Ollivier Equipe pédagogique : Guillaume Charpiat (lessons) and Corentin Tallec (practical sessions) Modalités d'évaluation : project + exercises More information at https://www.lri.fr/~gcharpia/machinelearningcourse/ .
Electifs de Data Sciences Massive Data Processing (E7) Enseignant responsable : Vassilis Christophides, INRIA Période : du 15/ 01 /2018 au 12/03/2018 (E7) Lieu : Gif-sur-Yvette Prérequis : Bases de Données, Programmation oriente objet Description : Big Data requires the storage, organization, and processing of data at a scale and efficiency -typically of heterogeneous nature and in streaming flow- that go well beyond the capabilities of conventional information technologies. Such requirements have been first introduced for processing the web, and they are today a common place in many industries. In this respect many traditional assumptions break, new query and programming interfaces are required (Map/Reduce), and new computing models will emerge (Cloud Computing). This course aims to introduce parallel/distributed data processing using the MapReduce (M/R) paradigm and provide insights for developing applications on top of the Hadoop platform. Big data raises also new challenges in data mining. Given the scale and speed of data that needs to be processed as well the variety of parameters to be taken into account, state of the art machine learning algorithms working offline and expecting homogeneous and clean data are also challenged. There is on ongoing effort to design Big Data Mining algorithms accommodating a parallel/distributed or even a streaming evaluation. Of course such kind of incremental, partial evaluation impacts the quality of obtained statistical models and thus algorithms compromise between quality of the learning and computation time. The course will adopt an algorithmic viewpoint: data mining is about applying algorithms to data, rather than using data to “train” a machine-learning engine of some sort. Contenu : • Understand different models of computation: MapReduce Streams and online algorithms • Mine different types of data: Data is high dimensional Data is infinite/never-ending • Use different mathematical ‘tools’: Hashing (LSH, Bloom filters) Dynamic programming (frequent itemsets) • Solve real-world problems: Duplicate document detection Market Basket Analysis Bibliographie : [1] Jure Leskovec, Anand Rajaraman, Jeff Ullman. “Mining of Massive Datasets” Cambridge University Press, 2014 [2] Donald Miner, Adam Shook “MapReduce Design Patterns” O'Reilly Media 2013 [3] Tom White Hadoop: The Definitive Guide, 3rd Edition Storage and Analysis at Internet Scale O'Reilly Media / Yahoo Press May 2012 Equipe pédagogique : Vassilis Christophides + TA Modalités d'évaluation : Examen Ecrit + 2 Exercices de Programmation Remarques : The course will consist of lectures based both on textbook material (freely-available for download on the Web) and scientific papers. It will also include programming assignments that will provide students with hands-on experience on building data-intensive applications using existing Big Data tools and platforms. The intended audience of this course is MSc and PhD students but also practitioners who plan to design or develop state-of-the-art algorithms available today for Big Data analysis.
Electifs de Finance Electifs de Finance Liste Electifs de Finance.............................................................................................................................23 Modèles dérivés action (E1)..........................................................................................................24 Méthodes numériques en finance (E2)..........................................................................................25 Physique des marchés (E3)............................................................................................................26 Portfolio Metrics (E4-1).................................................................................................................27 Cas appliqués de Structuration et Gestion d’Actifs (E4-2)............................................................28 Calibration de modèles pour les dérivés (E5)................................................................................29 Fixed income (E6).........................................................................................................................30 Données haute-fréquence et carnets d’ordres (E7-1).....................................................................32 Réassurance (E7-2)........................................................................................................................33
Electifs de Finance Modèles dérivés action (E1) Enseignant responsable : Ioane Muni Toke, Maître de conférences, CentraleSupélec Période : du 12/10/2017 au 14/12/2017 (E1) Lieu : Gif-sur-Yvette Description : Ce cours est présente les modèles stochastiques désormais classiques utilisés pour l’évaluation de produits dérivés en finance, principalement sur les marchés actions. Les notions mathématiques de base du calcul stochastique sont (re)vues dans l’optique des applications financières. La théorie de l’évaluation par arbitrage et le modèle fondateur de Black & Scholes sont présentées et critiquées au regard de données empiriques. Les modèles plus complexes de volatilité (locale et stochastique) et les modèles dits « à sauts » sont également présentés. Le cours fournit donc aux étudiants un large panorama des méthodes probabilistes pour l’évaluation de dérivés action. Contenu : Rappels sur les processus stochastiques. Mouvement brownien. Intégrale stochastique. Equations différentielles stochastiques. Evaluation par arbitrage. Modèle de Black et Scholes et extensions (dépendance temporelle, dividendes). Théorèmes fondamentaux de l’évaluation par arbitrage. Evaluation par EDP (Feynman-Kac). Notions de trading et « grecques ». Modèles de volatilité locale (Dupire) et stochastique (Heston). Introduction aux modèles à sauts. Bibliographie : [1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance, Ellipse. [2] Shreve S., Stochastic calculus for finance II : Continuous-time models, Springer. Equipe pédagogique : Ioane Muni Toke Modalités d'évaluation : un partiel et un examen final
Electifs de Finance Méthodes numériques en finance (E2) Enseignant responsable : Ioane Muni Toke, CentraleSupélec. Période : du 16 / 10 /2017 au 11 / 12 /2017 (E2) Lieu : Gif-sur-Yvette Prérequis : Description : Ce cours présente quelques méthodes numériques classiques fréquemment utilisées pour l’évaluation de produits financiers. Une séance (ou un groupe de deux séances) comprend un cours théorique présentant le modèle financier et sa résolution numérique proposée, suivi d’un TP au cours duquel l’étudiant est invité à implémenter une solution en C++ et/ou Python et/ou R (suivant les sujets). Contenu : Méthodes de Monte Carlo. Méthodes d’arbres. Schémas numériques pour la diffusion. Schéma numériques pour les EDP. Programmation dynamique et options américaines. Utilisation de copules en finance. Bibliographie : [1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance, Ellipse. [2] Achdou, Pironneau, Computational methods for Option Pricing, SIAM. Equipe pédagogique : Ioane Muni Toke Modalités d'évaluation : contrôle continu (Comptes-rendus de TP à rédiger) et soutenance
Vous pouvez aussi lire