Huitièmes Journées Franco-Chiliennes d'optimisation 5 - 7 juillet 2017 Institut de Mathématiques de Toulouse Université Toulouse 3 Paul Sabatier ...
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Huitièmes Journées Franco-Chiliennes d’optimisation 5 – 7 juillet 2017 Institut de Mathématiques de Toulouse Université Toulouse 3 Paul Sabatier
Bienvenue aux Journées Fanco-Chiliennes d’optimisation Ces journées s’inscrivent dans une tradition de collaboration en mathématiques appli- quées, entre les laboratoires français et chiliens oeuvrant dans le domaine de l’optimisation et ses applications. Elles sont organisées par les équipes françaises, les précédentes édi- tions ayant eu lieu à Limoges (1995), Paris (1997), Avignon (1998), Montpellier (2003), Dijon (2006), Toulon (2008) et Perpignan (2011). La huitième édition est organisée à l’institut de mathématiques sur le site de l’Université Toulouse 3 Paul Sabatier du 5 au 7 juillet 2017. Les journées sont dédiées aux développements récents touchant à la théorie, les algorithmes et les applications de l’optimisation. L’une des spécificités de cette hui- tième édition est une ouverture vers la thématique de l’apprentissage et du traitement de données. Les journées ont pu être organisées grace aux contributions des institutions qui leur ont- apporté leur soutien : — Centre international de mathématiques et d’informatique de Toulouse (CIMI) — Center for mathematical modeling (CMM) — Chaire digitale Jean-Jacques Laffont — Institut de mathématiques de Toulouse (IMT) — Institut de recherche en informatique de Toulouse (IRIT) — Mathématiques de l’Optimisation et Applications (GDR MOA) — Toulouse school of economics (TSE) — Université Toulouse 3, Paul Sabatier (UPS) A la mémoire de Felipe Álvarez (1972-2017). Le professeur Álvarez a reçu le titre d’ingénieur civil mathématicien à l’Université du Chili et un doctorat en optimi- sation mathématique et en mécanique théorique décerné conjointement par la chambre de Bello et l’Université de Montpellier. Son activité de recherche se trouvait à l’interface entre l’optimisation, les systèmes dynamiques, les algorithmes numériques, les méthodes de pénalisation et barrières, et le calcul des variations. Felipe Álvarez était une figure importante du monde universitaire et a été une force motrice pour la collaboration entre le Chili et la France. Sa disparition prématurée est la cause d’une très grande tristesse pour la communauté. Ces journées sont dédiées à sa mémoire. A la memoria de Felipe Álvarez (1972-2017). El profesor Álvarez obtuvo el título de ingeniero civil matemático en la Universidad de Chile y un doctorado en optimización matemática y mecánica teórica otorgado conjuntamente por la casa de Bello y la Univer- sidad de Montpellier. Su actividad de investigación se desarrolló en la interfaz entre la optimización, los sistemas dinámicos, los algoritmos numéricos, los métodos de penaliza- ción y de barrera, y el cálculo de variaciones. Felipe Álvarez fué una figura importante del mundo universitario y una fuerza motriz para la colaboración entre Chile y Francia. Su desaparición prematura es causa de una profunda tristeza para la comunidad. Estas jornadas están dedicadas a su memoria. 2
JFCO 2017 Mercredi 5/7 Jeudi 6/7 Vendredi 7/7 09h00-09h30 Bienvenue Malick Cominetti 09h30-10h00 Ekeland Chouzenoux Bravo 10h00-10h30 Jofré Daniilidis Cabot 10h30-10h50 Pause café 10h50-11h20 Garrigos J. R. Correa Problèmes ouverts: Seeger, De 11h20-11h50 Peypouquet Leclere Lara. 11h50-12h20 Sorin Combettes 12h20-14h00 Déjeuner Clôture 14h00-14h30 Fadili Problèmes ouverts: Baillon, 14h30-15h00 Mairal Hiriart-Urrurty. 15h00-15h30 Dossal Programme des journées 15h30-16h00 Pause café 16h00-16h30 Champion Problèmes ouverts: Attouch, 16h30-17h00 Rondepierre Cominetti. 17h00-17h30 Hantoute 17h30-18h00 R. Correa 18h00-18h30 Hommage Felipe Álvarez 18h30-19h00 19h00-19h30 Session Pisco Sour déplacement 19h30-22h00 Diner
Mercredi 5 Juillet 9:00 - 9:30 Accueil 9:30 - 10:00 Ivar Ekeland (CEREMADE, Université Paris-Dauphine) “Le problème de Monge revu : la forme optimale d’un déblai” 10:00 – 10:30 Alejandro. Jofré (Universidad de. Chile, CMM) “Variance-based stochastic extragradient methods with linear search for stochastic variational inequalities” 10 :30 – 10 :50 Pause Café 10 :50 – 11:20 Guillaume.Garrigos ( Istituto Italiano di Tecnologia ) “Iterative regularization for general inverse problems” 11:20 – 11:50 Juan Peypouquet (Universidad Federico Santa María, Valparaiso.) “Inertia and acceleration in convex optimization” 11 :50 – 12 :20 Sylvain Sorin (Institut de Mathématiques de Jussieu, Paris) “Optimization, learning and games:” Replicator dynamics: old and new” 12 :20 – 14 :00 Déjeuner 14 : 00 – 15 :30 Discussions et problèmes ouverts 15 :30 – 16 :00 Pause-Café 16:00 – 16:30 Thierry Champion ( Université de Toulon et du Var) “Transport optimal multimarginal pour un coût répulsif” 16:30 – 17:00 Aude. Rondepierre ( IMT - INSA Toulouse.) “Evaluation du risque et calcul de manoeuvres pour l’évitement de collision” 17 :00 – 17 :30 Abderrahim Hantoute ( Universidad de Chile, CMM) “A convex approach to differential inclusions with pro-regular sets” 17 :30 – 18 :00 Rafael Correa (Universidad de Chile et Universidad de O’Higgins) “A Complete characterization of the subdifferential of convex integral functions” 18 :00 – 22 :00 Session Pisco Sour 4
Jeudi 6 Juillet 9:00 – 09 :30 Jérôme Malick (Université de Grenoble) “Sensitivity analysis for mirror-stratifiable convex functions” 9:30 - 10:00 Emilie Chouzenoux (Université Marne-La-Vallée) “ Proximity operator computation for video restoration” 10:00 – 10:30 Aris Daniilidis (Universidad de Chile; CMM and DIM ) “On the conjecture of Demyanov-Ryabova” 10 :30 – 10 :50 Pause Café 10 :50 – 11:20 Discussions et problèmes ouverts 12 :20 – 14 :00 Déjeuner 14:00 – 14:30 Jalal Fadili ( Ensi caen,Caen) “ Propriétés locales des algorithmes d’éclatement proximaux” 14:30 – 15 :00 Julien Mairal ( INRIA Grenoble.) “ A Generic Quasi-Newton Algorithm for Faster Gradient-Based Optimization ” 15 :00 – 15 :30 Charles Dossal (Université de Bordeaux) “ODE and FISTA, Fast Iterative Shrinkage Thresholding Algorithm, beyond Nesterov rules” 15 :30 – 16 :00 Pause-Café 16:00 – 17:30 Discussions et problèmes ouverts 17:30 – 19:00 Hommage à Felipe Alvarez 19 :30 – 22 :00 Dîner au restaurant « Les Arcades » 5
Vendredi 5 Juillet 9:00 – 09 :30 Roberto Cominetti (Adolfo Ibañez University, Santiago) “Krasnoselskii-Mann : Sharp rates of convergence” 9:30 - 10:00 Mario Bravo (USACH, Santiago) “Krasnoselskii-Mann : Inexact iteration” 10:00 – 10:30 Alexandre Cabot (Université de Bourgogne) “Rapidité de convergence des algorithmes forward-backward inertiels” 10 :30 – 10 :50 Pause Café 10 :50 – 11:20 José R. Correa ( Universidad de Chile, DII) “Personalization in Prophet Inequalities” 11:20 – 11:50 Vincent Leclere ( North Carolina State University.) “Computing risk averse equilibrium in incomplete markets” 11 :50 – 12 :20 Patrick L ; Combettes (Institut de Mathématiques de Jussieu, Paris) “Optimization via nonautonomous difference equations with affine weights” 12 :20 – 14 :00 Clôture 6
Résumés des exposés Le problème de Monge revu : la forme optimale d’un déblai I. Ekeland, CEREMADE, Université Paris-Dauphine joint work with M. Queyrane (U. Catholique de Louvain et Université de British Columbia) Un trésor est enfoui sous le sol, et il s’agit de le récupérer en minimisant le coût d’extrac- tion. C’est un problème qui a attiré l’attention des ingénieurs (Matheron), mais non des mathématiciens, à quelques rares exceptions près, dont Felipe Alvarez. Je ferai l’historique du problème et, si le temps le permet, je présenterai les résultats obtenus avec Maurice Queyranne dans [1]. Références [1] Ekeland, Ivar, and Maurice Queyranne. Optimal pits and optimal transportation. ESAIM : Mathematical Modelling and Numerical Analysis 49.6 (2015) : 1659-1670. Variance-based stochastic extragradient methods with linear search for stochastic variational inequalities A. Jofre, U. Chile, CMM Joint work with A. Iusem and R. Oliveira (IMPA) and P. Thompson (CMM, U. Chile) We propose stochastic extragradient methods for stochastic variational inequalities with a linear search requiring only pseudo-monotonicity of the operator and no knowledge of the Lipschitz constant L. We provide convergence and complexity analysis, allowing for an unbounded feasible set, unbounded operator, non-uniform variance of the oracle and we do not require any regularization. We also prove the generated sequence is bounded in Lp . Alongside the stochastic approximation procedure, we iteratively reduce the variance of the stochastic error. Our methods cope with stepsizes bounded away from zero and attain the near-optimal oracle complexity. Explicit estimates for the convergence rate, oracle complexity and the p-moments are given depending on problem parameters and the distance of initial iterates to the solution set. 7
Iterative regularization for general inverse problems G. Garrigos1 , Istituto Italiano di Tecnologia Joint work with L. Rosasco (Istituto Italiano di Tecnologia) and S. Villa (Politecnico di Milano) In the context of linear inverse problems, we propose and study a general iterative regu- larization method allowing to consider large classes of regularizers and data-fit terms. We propose for this an algorithm, based on a primal-dual diagonal descent method, designed to solve hierarchical optimization problems. Our analysis establishes convergence of the method as well as stability results, in presence of error in the data. In this noisy case, the number of iterations is shown to act as a regularization parameter, which makes our algorithm an iterative regularization method. In practice, this means that the number of iterations should not be let to tend to infinity, but instead should be controlled and stopped early to recover a regularized solution. 1 email :guillaume.garrigos@iit.it. Inertia and acceleration in convex optimization J. Peypouquet Universidad Federico Santa María, Valparaiso. In this talk, we comment on the dynamical system known as the heavy ball with friction, and its relationship with a class of accelerated convex optimization algorithms. Optimization, learning and games : ”Replicator dynamics : old and new” Sylvain Sorin Paris We will describe the unilateral version associated to the replicator dynamics and its connection to classical gradient descent procedures and on-line learning in discrete and continuous time. We will survey recent results on extension of this algorithm : penalization function, variable weights and application to variational inequalities. 8
Transport optimal multimarginal pour un coût répulsif T. Champion, Université de Toulon et du Var en collaboration avec G. Buttazzo et L. DePascale Le transport optimal multimarginal pour le coût de Coulomb apparait dans la modélisa- tion des intéractions fortes électrons-électrons dans le cadre de la Théorie de la fonction de densité (chimie quantique). Je présenterai ce domaine, et exposerai des résultats de régularité pour les solutions primales et duales, et une application à la continuité du coût global. Evaluation du risque et calcul de manoeuvres pour l’évitement de collision A. Rondepierre, IMT - INSA Toulouse Travaux en collaboration avec D. Arzelier, M. Joldes (LAAS-CNRS) et R. Serra (Department of Mechanical and Aerospace Engineering, Glasgow, UK) Depuis la collision entre le satellite russe COSMOS 1934 et un débris de COSMOS 926 en décembre 1991, pas moins de huit collisions ont été recensées en orbite entre des satellites opérationnels, ou entre des satellites et des débris. Les risques de collision sont parti- culièrement importants sur les orbites basses et les différentes agences spatiales (CNES, ESA, NASA) et les opérateurs du domaine (Airbus Defence and Space, GMV) ont mis en place des procédures d’alerte permettant d’évaluer les risques de collision concernant les satellites contrôlés, et autorisant le déclenchement des manoeuvres d’évitement si le risque de collision est jugé important. Ces procédures ont connu de nombreuses évolutions ces dernières années et le domaine de l’évitement de collision est actuellement en plein développement. Dans cet exposé, nous nous intéresserons à l’évitement de collision entre un engin spatial opérationnel et un débris orbital. La première partie de l’exposé portera sur l’évaluation du risque. Sous certaines hypothèses, nous expliquerons comment exprimer la probabilité de collision comme l’intégrale d’une fonction gaussienne sur une boule euclidienne, en dimension 2 ou 3, pour laquelle nous avons proposé, dans la thèse de Romain Serra, une nouvelle formule analytique basée sur les théories de la transformée de Laplace et des fonctions holonomes. La seconde partie de cet exposé concernera le calcul de manoeuvres, plus particulièrement dans le cadre des rencontres lentes. Sous l’hypothèse de lois de commande impulsionnelles, le problème d’évitement de collision est formulé comme un problème d’optimisation sous contraintes en probabilité pour lequel nous avons proposé deux approches : un algorithme de résolution efficace basé les travaux de R. Henrion et A. Möller ainsi que le code d’Alan Genz pour le calcul des probabilités et de leurs gradients et une approche alternative conduisant à un problème MILP. 9
A convex approach to differential inclusions with pro-regular sets A. Hantoute., Universidad de Chile, CMM Joint work with S. Adly (U. Limoges) and Bao Tran Nguyen (CMM - U. de Chile) We study the existence and stability of the solutions for differential inclusions governed by the normal cone to a prox-regular set and subject to a Lipschitz perturbation. We prove that such apparently more general systems can be indeed remodeled into the clas- sical theory of differential inclusions involving maximal monotone operators. This result permits us to make use of the rich and abundant achievements in this class of monotone operators to derive the desired existence result and stability analysis, as well as the conti- nuity and differentiability properties of the solutions. This going back and forth between these two kinds of differential inclusions is made possible thanks to a viability result for maximal monotone operators. This is a joint work with S. Adly and Bao Tran Nguyen. A Complete characterization of the subdifferential of convex integral functions R. Correa, Universidad de Chile et Universidad de O’Higgins Joint work with Abderrahim Hantoute (U. de Chile, CMM) and Pedro Pérez-Aros (U. de Chile, DIM) We study some subdifferentiation proprerties of integral functionals, given in the form Z Z ˆ If (x) := max{f (t, x(t)), 0}dµ(t) + min{f (t, x(t)), 0}dµ(t), x(·) ∈ X, T T with the associated integrand f : T × X → [−∞, +∞] being measurable in (t, x) and convex in x, where (T, A, µ) is a complete σ-finite measure space and X is a linear space of A-measurable functions with values on a locally convex space X. In this work, we confine ourselves to the space of constant functions, in which case If becomes the continuous sum Z x ∈ X → If (x) = f (t, x)dµ(t). T Then we give a characterization of -subdifferential of the integral functional If in terms of the -subdifferential of the data functions ft := f (t, ·). This provides a generalization of a well-known formula given by Ioffe-Levin [1]. Others formulae for the sum rule and for infinite series of convex functions will be presen- ted. We shall also investigate exact rules to characterize the subdifferential of the integral functional If at a point x ∈ X in terms of measurable selections x∗ (t) ∈ ∂ft (x(t)) for measurable functions x(·) close to the point x. This result is compared to the work of [2] and Lopez-Thibault [3]. 10
Références [1] Ioffe, A. D. and Levin, V. L., Subdifferentials of convex functions.. Trudy Moskov. Mat. Obšč. 26 (1972), 3–73. [2] Ioffe, A. D., Three theorems on subdifferentiation of convex integral functionals.. J. Convex Anal. 13 (2006), no. 3-4, 759–772. [3] Lopez, O. and Thibault, L., Sequential formula for subdifferential of integral sum of convex functions.. J. Nonlinear Convex Anal. 9 (2008), no. 2, 295–308. Sensitivity analysis for mirror-stratifiable convex functions J. Malick, Université de Grenoble Joint work with Jalal Fadili (EnsiCaen) and Gabriel Peyre (ENS) The class of mirror-stratifiable convex functions encompasses all regularizers routinely used in signal processing and machine learning, including l1-norm and nuclear norm for instance. The strong geometric structure of these functions leads to a simple but powerful sensitivity theory, allowing us to study stability of solutions of optimization problems to small perturbations, as well as activity identification of first-order proximal splitting-type algorithms. In contrast with existing results, our results do not require any non-degeneracy conditions and can thus be applied to ill-posed inverse problems. Proximity operator computation for video restoration E. Chouzenoux Université Marne-La-Vallée Proximal methods have gained much interest for solving large-scale possibly non smooth optimization problems. When dealing with complicated convex functions, the expression of the proximity operator is however often non explicit and it thus needs to be determined numerically. We show in this work how block-coordinate algorithms can be designed to perform this task. We deduce also distributed optimization strategies allowing us to im- plement our solutions on multicore architectures. Applications of these methods to video restoration of old TV sequences illustrate the good performance of the proposed algo- rithms. 11
Références [1] F. Abboud, E. Chouzenoux, J.-C. Pesquet, J.-H. Chenot and L. Laborelli. Dual Block Coordinate Forward-Backward Algorithm with Application to Deconvolution and Deinterlacing of Video Sequences. To appear in Journal of Mathematical Imaging and Vision, 2016 [2] F. Abboud, E. Chouzenoux, J.-C. Pesquet, J.-H. Chenot and L. Laborelli. A Distri- buted Strategy for Computing Proximity Operators. In Proceedings of 50th Asilomar Conference on Signals, Systems, and Computers (ASILOMAR 2015), pages 396-400, Asilomar, Pacific Grove, CA, 8-11 novembre 2015. On the conjecture of Demyanov-Ryabova A. Daniilidis,CMM and DIM, U. Chile Joint work with C. Petitjean (U.Franche-Comté, Besançon) In this talk we shall discuss the conjecture of Demyanov-Ryabova for finite families of polytopes in a finite dimensional space. The conjecture asserts that applying successively a certain transformation process (based on dualization) to each such family, leads inevitably to a 2-cycle stabilization. We shall provide a partial answer to this conjecture under the assumption that the initial family contains enough minimal polytopes whose extreme points are "well-placed". Propriétés locales des algorithmes d’éclatement proximaux J. Fadili Ensicaen, Caen Proximal splitting algorithms are very popular to solve structured convex optimization problems. Within these algorithms, the Forward-Backward and its variants (e.g. inertial Forward-Backward, FISTA, Forward-Backward-Forward), Douglas-Rachford, ADMM and primal-dual splitting are widely used. The goal of this work is to provide a unified fra- mework to investigate the local convergence behavior of these schemes when the involved functions are partly smooth relative to the so-called active/identifiable smooth submani- fold. We show in particular that (i) all these splitting algorithms correctly identify the active manifolds in a finite number of iterations, and (ii) then either have a finite conver- gence property or enter a local linear convergence regime, which we characterize precisely in terms of the structure of the involved active manifolds. These results may have nu- merous applications including in signal/image processing, inverse problems and machine learning to name a few. 12
A Generic Quasi-Newton Algorithm for Faster Gradient-Based Optimization J. Mairal INRIA Grenoble We propose a generic approach to accelerate gradient-based optimization algorithms with quasi-Newton principles. The proposed scheme, called QuickeNing, can be applied to a large class of first-order methods such as incremental approaches for minimizing large finite sums of functions. It is also compatible with composite objectives, meaning that it has the ability to provide exactly sparse solutions when the objective involves a sparsity-inducing regularization. QuickeNing relies on limited-memory BFGS rules, making it appropriate for solving high-dimensional optimization problems. Besides, it enjoys a worst-case linear convergence rate for strongly convex problems. We present experimental results where QuickeNing gives significant improvements over competing methods for solving large-scale high-dimensional machine learning problems. ODE and FISTA, Fast Iterative Shrinkage Thresholding Algorithm, beyond Nesterov rules Ch. Dossal Université de Bordeaux FISTA is a classical optimization algorithm defined by an over-relaxation paramter and has been associated naturally to a 2nd degree ODE parameterized by a real number b. All studies are made with b greater or equal to 3, which corresponds for FISTA to a parameter sequence that obeys to a rule given by Nesterov. In this talk we will give new results on the behavior of the solutions of this ODE when b < 3 and explain what happen for FISTA when the Nesterov rule is broken. Krasnoselskii-Mann : Sharp rates of convergence Roberto Cominetti, Adolfo Ibañez University, Santiago Joint work with Mario Bravo (USACH, Santiago) We establish sharp estimates for the convergence rate of the Kranoselskii–Mann fixed point iteration in general normed spaces, and we use them to compute the sharp optimal constant of asymptotic regularity. To this end we consider a nested family of optimal transport problems that provide a recursive bound for the distance between the iterates. We show that these bounds are tight by building a nonexpansive map that attains them with equality. The recursive bounds are in turn reinterpreted as absorption probabilities for an underlying Markov chain which is used to find the optimal constant. 13
Krasnoselskii-Mann : Inexact iteration Mario Bravo, USACH, Santiago Joint work with Roberto Cominetti (UAI, Santiago) and Matías Pavez-Signé (U. de Chile, DIM) We study the convergence of an inexact version of the classical Krasnoselskii-Mann itera- tion for computing fixed points of nonexpansive maps in Banach spaces. Our main result establishes a new metric bound for the fixed-point residuals, from which we derive their rate of convergence as well as the convergence of the iterates towards a fixed point. The results are applied to study three variants of the basic iteration : infeasible iterations with approximate projections, the Ishikawa iteration, and diagonal schemes. The results are extended to continuous time in order to study the asymptotics of nonautonomous evolution equations governed by nonexpansive operators. Rapidité de convergence des algorithmes forward-backward inertiels A. Cabot, U. de Bourgogne en collaboration avec H. Attouch (U. Montpellier) On s’intéresse au problème de minimisation de la somme de deux fonctions convexes réelles f et g définies sur un espace de Hilbert. La fonction f est supposée différentiable à gra- dient lipschitzien, tandis que g est seulement semicontinue inférieurement. L’algorithme forward-backward consiste à faire à chaque itération un pas de gradient suivant la fonction f et un pas proximal suivant la fonction g. On se propose dans cet exposé d’étudier un algorithme forward-backward inertiel, correspondant à l’ajout d’un terme d’extrapolation dans le calcul des itérés. Les méthodes inertielles ont eu beaucoup de succès ces dernières décennies avec la méthode de la boule pesante, due à Polyak (1964) et la méthode du gradient accéléré due à Nesterov (1983). L’algorithme FISTA, très utilisé en traitement d’image, est une méthode forward-backward basée sur l’accélération de Nesterov. L’ob- jectif de cet exposé est de présenter un cadre unifié permettant de regrouper un certain nombre de résultats obtenus ces dernières années dans les méthodes forward-backward inertielles. Sous certaines conditions, on obtient la convergence faible des itérés, ainsi que la convergence en o(1/k 2 ) des valeurs. 14
Personalization in Prophet Inequalities J.R. Correa, Universida de Chile, DII joint work with P. Foncea, R. Hoeksma, T. Ooosterwijk, and T. Vredeveld Consider n nonnegative and independent random variables that arrive over time. Upon arrival of a rv we observe its value and make an irrevocable decision of whether to keep it and stop, or to drop it and continue. The goal is to maximize the value of the kept value. A classic result of Krengel, Sucheston, and Garling (1977), known as the prophet inequality, states that a simple threshold strategy guarantees that we can obtain half of the expectation of the maximum of all rvs (i.e., what a prophet could obtain). In this talk we consider the situation in which the rvs arrive in random order and prove that there is a strategy with personalized thresholds that guarantees a fraction 1 − 1/e of what the prophet could get. Furthermore in the iid case we prove that there is an adaptive strategy that guarantees a fraction 0.745, resolving a problem posed by Hill and Kertz (1982). The talk is based on joint work with P. Foncea, R. Hoeksma, T. Ooosterwijk, and T. Vredeveld Computing risk averse equilibrium in incomplete markets V. Leclere Cermics- École National de Ponts et Chausées We discuss risked competitive partial equilibrium in a setting in which agents are endowed with coherent risk measures. In contrast to social planning models, we show by example that risked equilibria are not unique, even when agents’ objective functions are strictly concave. We also show that standard computational methods find only a subset of the equilibria, even with multiple starting points. OPTIMIZATION VIA NONAUTONOMOUS DIFFERENCE EQUATIONS WITH AFFINE WEIGHTS P.L. Combettes, North Carolina State University Joint work with Lilian Glaudin (Pierre et Marie Curie - Paris 6) Difference equations driven by fixed point iterations play a central role in the design and the analysis of a large number of optimization algorithms. We study a new iterative scheme in which the update is obtained by applying a composition of quasinonexpansive operators to a point in the affine hull of the orbit generated up to the current iterate. This investigation unifies seemingly unrelated algorithmic constructs, including the Mann mean value method, inertial methods, and multi-layer memoryless iterations. It also provides a framework for the development of new methods, such as those we propose to solve monotone inclusion and minimization problems. 15
Sessions de discussions Session 1 Jean-Bernard Baillon. “En souvenir de Felipe : Comportement des solutions d’un problème d’évolution à frontière périodique.” Nous avons travaillé avec Felipe sur le problème type suivant : du + ∂χC(t) (u) 3 0 dt où C(t) est un convexe borné périodique. La question est de savoir la vitesse de convergence vers une solution périodique. Jean-Baptiste Hiriart-Urruty. “Open problems and conjectures in Mathema- tics, especially in Optimization” We have written a lot on conjectures and open questions in mathematics, witness the papers [1], [2], [3] published in the recent years. In the forthcoming book [5], we present the eight following open problems. We have chosen them at the level and on topics consi- dered in this volume (transition from undergraduate to graduate level ; Numbers, Real analysis, Matrices, Optimization,... ) : easy to understand, concerning various areas of mathematics, original for some of them. Since the main interest in the present JFCO meeting is Optimization, we shall focus in our presentation on Problems 4, 5, 6, 7, since they harmoniously mix Matrix analysis, Optimization and Variational analysis. 1. Open question on the sequence of successive prime numbers. 2. Open question on the Euler-Mascheroni constant. 3. Open question on the hadamard matrices. 4. Open question on the determinant of normal matrices. 5. An open global volume minimization problem. 6. A shortest curve problem in the three-dimensional space. 7. M. Crouzeix’s conjecture in Matrix theory. 8. A simple equivalent form of Riemann’s open problem. “You are never sure whether or not a problem is good unless you actually solve it" M. Gromov (1943–) Références [1] J.-B. Hiriart-Urruty, Potpourri of conjectures and open questions in nonlinear ana- lysis and optimization. SIAM Review 49, 2, 255-273 (2007). 16
[2] J.-B. Hiriart-Urruty, A new series of conjectures and open ques- tions in optimization and matrix analysis. ESAIM : Control, Optimisation and Calculus of Variations 15, 454-470 (2009). [3] J.-B. Hiriart-Urruty, Le rôle des conjectures dans l’avancement des mathématiques : tours et détours à l’aide d’exemples. Revue Quadrature, numéro 83, 27-33 (2012) [traduit et disponible en espagnol]. [4] J.-B. Hiriart-Urruty, Mathematical tapas, Volume 1 (for Undergraduates). Springer (October 2016). [5] J.-B. Hiriart-Urruty, Mathematical tapas, Volume 2 (From Undergraduate to Gra- duate level). Springer (Book to appear in October 2017). Session 2 Alberto Seeger. “On Complementarity in Eigenvalues and Applications to Graph Theory” The complementarity eigenvalues of a matrix are defined in terms of a certain comple- mentarity system. Of special interest is the case in which the matrix under consideration is the adjacency matrix of a connected graph. There are several open questions in this field. Michel de Lara. “Game Theory with Information : Introducing the Witsen- hausen Intrinsic Model” In a context of competition, information (who knows what and before whom) play a crucial role. Witsenhausen proposed a model to handle, in all generality, information in stochastic control problems. To our knowledge, this model has not been introduced until now in game theory. We propose to revisit concepts of game theory — Nash equilibium, Bayesian Nash equilibium, repeated games, backward induction, subgame — to grasp them in the Witsenhausen intrinsic model (WIM) framework. We outline how the WIM offers an intrinsic way to describe and classify classic specimen like Stackelberg leadership model, principal-agent models, moral hazard, adverse selection, signaling. We discuss a possible research program. 17
Session 3 Hédy Attouch. “Autour du cas critique α = 3 pour la convergence des trajec- toires de la méthode du gradient accéléré” Il s’agit de discuter de questions ouvertes relatives au comportement asymptotique de la dynamique inertielle avec coefficient de dissipation évanescent α ẍ(t) + ẋ(t) + ∇Φ(x(t)) = 0, t où Φ : H → R est un potentiel convexe continuement différentiable agissant sur un espace de Hilbert H, et α est un coefficient positif d’amortissement. Comme l’ont montré Su-Boyd-Candès [10], dans le cas α = 3, cette dynamique est associée à la méthode du gradient accéléré de Nesterov, avec la convergence des valeurs en O t12 . Le cas surcritique α > 3 a fait l’objet de plusieurs travaux récents (Attouch-Peypouquet [5], Attouch-Cabot [1], May [8],...) qui apportent des améliorations par rapport au cas α = 3 : on a alors la convergence faible de chaque trajectoire vers une solution optimale, et la convergence des 1 valeurs en o t2 . Nous aborderons les questions suivantes : 1 — Dans le cas sous-critique α ≤ 3, la convergence des valeurs en O 2α a été obtenu t 3 récemment par Attouch-Chbani-Riahi [3]. Pour la convergence des valeurs, il n’y a donc pas de discontinuité à travers la valeur critique α = 3. Plusieurs questions restent ouvertes liées à la rapidité de convergence des valeurs lorsque 2 < α < 3. — Dans le cas critique α = 3, la convergence des trajectoires en dimension un d’es- pace a été obtenue récemment dans [3]. Dans le cas général, la convergence des trajectoires est toujours un problème ouvert. — Enfin, nous souléverons la question concernant la possibilité d’obtenir à la fois la convergence rapide des valeurs et la convergence forte des trajectoires vers la solution de norme minimale. Des progrès récents sur cette question, reposant sur la combinaison des méthodes de Nesterov et Tikhonov (évanescent), ont été obtenus dans [2]. Références [1] H. Attouch, A. Cabot, Asymptotic stabilization of inertial gradient dynamics with time-dependent viscosity, to appear in J. Differential Equations. 2017. HAL-01453108. [2] H. Attouch, Z. Chbani, H. Riahi, Combining fast inertial dynamics for convex optimization with Tikhonov regularization, Journal of Mathematical Analysis and Applications, In Press, Available online 9 December 2016. [3] H. Attouch, Z. Chbani, H. Riahi, Rate of convergence of the Nesterov accelerated gradient method in the subcritical case α ≤ 3, arXiv :1706.05671v1 [math.OC] 18 June 2017. [4] H. Attouch, Z. Chbani, J. Peypouquet, P. Redont, Fast convergence of iner- tial dynamics and algorithms with asymptotic vanishing damping, Math. Program. (2016) doi :10.1007/s10107-016-0992-8, pp. 1-53. 18
[5] H. Attouch, J. Peypouquet, The rate of convergence of Nesterov’s accelerated forward-backward method is actually faster than k12 , SIAM J. Optim., 26 (2016), No. 3, pp. 1824–1834. [6] A. Beck, M. Teboulle, A fast iterative shrinkage-thresholding algorithm for linear inverse problems, SIAM J. Imaging Sci., 2 (2009), No. 1, pp. 183–202. [7] A. Chambolle, C. Dossal, On the convergence of the iterates of the “Fast Itera- tive Shrinkage/Thresholding Algorithm”, Journal of Optimization Theory and Appli- cations, 166 (2015), pp. 968–982. [8] R. May, Asymptotic for a second order evolution equation with convex potential and vanishing damping term, Turkish Journal of Mathematics, 41 (3), (2017), pp. 681–685. [9] Y. Nesterov, Introductory lectures on convex optimization : A basic course, volume 87 of Applied Optimization. Kluwer Academic Publishers, Boston, MA, 2004. [10] W. Su, S. Boyd, E.J. Candès, A Differential Equation for Modeling Nesterov’s Accelerated Gradient Method : Theory and Insights, Journal of Machine Learning Research, 17 (2016), pp. 1–43. Roberto Cominetti. “A conjecture on risk-averse route choice”. How can we measure the risk of a route whose travel time is random ? And then, how do we find a risk-minimizing route ? Under two natural axioms — monotonicity and additive consistency — finding a risk- minimizing path is easy : it reduces to a standard shortest path problem. The question is then to characterize those risk measures that satisfy these axioms. It is known that within the standard theories of choice the only such risk measures are the entropic ones 1 φβ (X) = ln(E(eβX )). β But there is more to say. 19
Présentations des sponsors Centre international de mathématiques et d’informatique de Toulouse (CIMI). CIMI est l’un des projets d’excellence LabEx retenus par l’Agence Nationale de la Recherche pour la période 2012- 2020. C’est un centre innovatif en mathématiques et informatique, et à leur interface, qui va aborder les nouveaux challenges de la recherche mondiale actuelle et répondre aux besoins de la recherche et de la formation académique et du monde socio-économique. S’appuyant sur les équipes de l’Institut de mathématiques de Toulouse (IMT) et de l’Ins- titut de Recherche en Informatique de Toulouse (IRIT), CIMI est appelé, sur la base d’un programme scientifique conseillé par des personnalités scientifiques de premier plan, à porter au plus haut niveau les activités scientifiques en mathématiques et en informa- tique, à développer les synergies, et à devenir une référence internationale et un acteur majeur du tissu académique et industriel. Center for mathematical modeling (CMM). The Center for Mathematical Modeling (CMM) is a national leading scientific center for research and applications of mathematics. It aims to create new mathematics and use it to solve problems coming from other sciences, the industry and public policies. It was created in 2000 by a group of researchers of the Department of Mathematical Engineering at Uni- versidad de Chile, with the support of FONDAP CONICYT. CMM is also the International Mixed Unit #2807 of the National Center for Scientific Research (CNRS) of France, and has an important wide world network of counterparts. Over these two decades the Center has contributed to the innovation and solution of public and industrial problems in areas where mathematical modeling has shown to be essential, specially where the Chilean economy has advantages, like mining, astronomy, energy and natural resources. Nowadays features four strategic areas (Mining, Bio, Education, and Resource Management), two initiatives and one national laboratory, covering a wide range of application areas. Chaire digitale Jean-Jacques Laffont. Le rapide développe- ment des technologies numériques provoque une profonde trans- formation du quotidien des citoyens et des organisations impac- tant grandement les individus, les gouvernements et les entre- prises de la planète. Dans ce contexte, La Chaire Jean-Jacques Laffont, nommée en mé- moire de l’économiste co-fondateur de l’école de Toulouse avec Jean Tirole, a vu le jour en février 2015, grâce au soutien du Ministère de la Culture et de la Communication, d’en- treprises telles que Accor, la Caisse des Dépôts, Orange, Samsung, la Société Générale, et des sociétés d’auteurs telles que la SACEM et la SACD. La Chaire permet aux chercheurs (de TSE et de l’IAST), aux décideurs politiques et aux partenaires privés de discuter des récents travaux de recherche liés aux nouvelles technologies numériques et de discuter de leur impact sur la société. 20
Institut de mathématiques de Toulouse (IMT). L’Insti- tut de Mathématiques de Toulouse (Unité Mixte de Recherche 5219) rassemble 240 enseignants-chercheurs et chercheurs perma- nents, ingénieurs, techniciens et administratifs ainsi que 120 doc- torants et environ 30 post-doctorants en moyenne. Les thèmes de recherche couvrent l’ensemble des domaines mathématiques depuis les as- pects les plus théoriques jusqu’aux plus appliqués et s’organisent autour de 3 équipes : Statistique et Probabilités, Mathématiques pour l’Industrie et la Physique, Mathéma- tiques Fondamentales Emile Picard. L’IMT accueille chaque année des chercheurs étrangers de tous les horizons géographiques et mathématiques, dans le cadre de projets nationaux et internationaux (ANR, GDR, accords de coopérations internationaux . . . ), de contrats industriels, de colloques interna- tionaux ou plus spécifiquement sur des postes de Professeurs invités (Chaires d’excellence P. de Fermat, postes de professeurs invités à l’UPS, UT1 ou l’INSA). Institut de recherche en informatique de Toulouse (IRIT). L’Institut de Recherche en Informatique de Toulouse (IRIT) une des plus imposantes Unité Mixte de Recherche (UMR) au niveau natio- nal, est l’un des piliers de la recherche en Midi-Pyrénées avec ses 700 membres, permanents et non-permanents. De par son caractère multi-tutelle (CNRS, INPT, Universités toulousaines), son impact scientifique et ses interactions avec les autres domaines, le laboratoire constitue une des forces structurantes du paysage de l’informa- tique et de ses applications dans le monde du numérique, tant au niveau régional que national. Notre unité a su, par ses travaux de pointe et sa dynamique, définir son identité et acquérir une visibilité incontestable, tout en se positionnant au cœur des évolutions des structures locales : Université de Toulouse, IDEX, ainsi que les divers dispositifs issus des investissements d’avenir (LABEX CIMI, IRT Saint-Exupéry, SAT TTT,. . . ). Mathématiques de l’Optimisation et Applications (GDR MOA). Le GdR Mathématiques de l’Optimisation et Applications, groupe de recherche CNRS, a pour vocation de regrouper un nombre important de chercheurs français, sur les aspects les plus divers de l’op- timisation et de la programmation mathématique et d’en développer les applications et les interactions. Toulouse school of economics (TSE). Imaginé par Jean-Jacques Laffont il y a 40 ans, Toulouse School of Economics est depuis 10 ans un centre de recherche et d’enseignement en économie parmi les meilleurs du monde, regroupant 150 chercheurs internationaux dont son Pré- sident, Jean Tirole, lauréat 2014 du Prix Nobel d’économie. Depuis 2011 TSE forme les économistes de demain. Les 2500 étudiants bénéficient de l’excellence aca- démique de la communauté TSE mais également d’interventions d’experts internationaux et d’un réseau d’alumni en pleine expansion. 21
Université Toulouse 3, Paul Sabatier (UPS). Héritière di- recte de l’ancienne Université de Toulouse fondée en 1229, l’Uni- versité Toulouse III – Paul Sabatier est née officiellement en 1969 de la fusion des Facultés de médecine, de pharmacie et des sciences. Elle se situe aujourd’hui parmi les premières universités françaises, grâce à son rayonne- ment scientifique et à la diversité des laboratoires et des formations qu’elle propose en sciences, en santé, en sport, en technologie et en ingénierie. 22
Diner le 6/07/2017 de 19h30 à 23h Huitièmes journées franco chiliennes d'optimisation (JFCO 2017,Toulouse) du 5 au 7 Juillet 2017 à l’Institut de Mathématiques à l’Université Toulouse 3 Paul Sabatier Conférence : l’Institut de Mathématiques à l’UT3 Paul Sabatier Se rendre aux Arcades
Vous pouvez aussi lire