DISPLAY : distributed processing for very large arrays in radioastronomy

 
CONTINUER À LIRE
DISPLAY : distributed processing for very large arrays in radioastronomy
DISPLAY :
     distributed processing for
very large arrays in radioastronomy

         Colloque MASTODONS
       A. Ferrari UNS/CNRS/OCA

         22 et 23 janvier 2015

                                      1
DISPLAY : distributed processing for very large arrays in radioastronomy
DISPLAY :
  distributed data processing for
very large arrays in radioastronomy

         Colloque MASTODONS
       A. Ferrari UNS/CNRS/OCA

         22 et 23 janvier 2015

                                      2
DISPLAY : distributed processing for very large arrays in radioastronomy
Plan de la présentation

◮   Contexte scientifique : les très grands réseaux d’antennes pour la
    radioastronomie

◮   Deux axes principaux :
     1. Reconstruction d’image par les très grands réseaux d’antennes.
     2. Techniques d’optimisation en grande dimension.

◮   Bilan et faits marquants en 2014.

                                                                         3
Principe de l’interférométrie

                                4
Principe de l’interférométrie (cont.)

◮   Les données sont les visibilité complexes :

                                                                    ~
                                                                    B   u~2 − u~1
             hE~1 , E~2 i = TF de l’objet à la fréquence spatiale     =
                                                                    λ       λ
                                                                                    5
Nouvelle génération de radiotélescopes
             « Le passé »

                                                         Le futur !

◮   Avantages : très grand champs de vue, très flexibles et très économiques.
◮   Inconvénients : complexité du système, débit de données, traitements.
                               « Software telescopes »
                                                                                6
Un exemple : LOFAR (LOw Frequency ARray)

                      ◮   Une station : 96 LBA, 48 HBA.
                      ◮   jusqu’à 488 faisceaux simultanément.
                      ◮   256 bandes de fréquences.
                      ◮   centralisé à l’Université de Groningen par
                          réseaux optiques, ≈ 1 terabit/seconde.
                                                                       7
Effet de la ionosphère

◮   Modèle « idéal » :

           v = DF i + n.    F : matrice de Fourier, D : matrice de décimation.

◮   Reconstruction 3D, (x, y , λ).
◮   Effets de la ionosphère et calibration :

                             Iono
                                    sph
                                          ère
                                                                   re
                                                        Ionosphè

◮                b : matrice de Fourier « calibrée ».
    Modèle : F → F
      ◮                             b i + n.
          Espace de Fourier : v = D F
      ◮                         b + e avec H
          Espace image : i D = Hi               b †D †D F
                                             b =F       b.
                                                                                 8
SKA : Square Kilometre Array

                               ◮   Australie et Afrique du sud.
                               ◮   1km2 de surface collectrice.
                               ◮   >250 000 dipoles LF, 2500 dish...
                               ◮   Sensibilité de 60 dB.
                               ◮   phase 1 : 2018-2023 (10% de 1km2 ).
                               ◮   phase 2 : 2023-2030.
                               ◮   14 exabyte/jour.

                                                                         9
Projet DISPLAY

◮   Problèmes inverses linéaires
      ◮   avec des erreurs de modèle : complexité de la calibration,
      ◮   de très grande taille. SKA : cubes hyperspectraux ≈ 80 TB,
      ◮    « difficiles » : grande variété et complexité morphologique des sources,
          sensibilité cible de 60 dB.

◮   Optimisation en grande dimension.
      ◮   Optimisation stochastique.
      ◮   Optimisation distribuée.
    Contributions méthodologiques, convergences, méthodes d’accélérations,...

                                                                                      10
Consortium DISPLAY

◮   20 C/EC/Ast.

◮   Lagrange (UNS, OCA) : reconstruction d’image, radioastronomie, optimisation.
                        A. Ferrari, C. Ferrari, C. Févotte, R. Flamary, T. Lanz, D. Mary, C. Richard.

◮   LTCI (Télécom ParisTech) : traitement d’antennes, optimisation stochastique et
    distribuée.
                            P. Bianchi, O. Cappé, G. Fort, W. Hachem, E. Moulines, J.-F. Cardoso.

◮   SATIE (ENS Cachan) : traitement d’antennes éloignées, auto-calibration.
                                                        P. Forster, P. Larzabal, T. Rodet.,P. Forster

◮   Autres laboratoires : L2S et LEME. Traitement d’antennes et architecture.
                                                                   R. Boyer, M.N. El Korso, N. Gac.

                                                                                                   11
Axe reconstruction d’image par les très grands réseaux
◮   CLEAN (Högbom 1974). « Famille » des algorithmes gloutons (MP, OMP. . . ).
    Compétitif : modulaire (calibration), pas d’optimisation.
◮   Depuis 2005 :
      ◮   parcimonie en synthèse : (Mary et al. 2007), (Wenger et al. 2010), (Wiaux et al.
          2009), (Li et al. 2011).
                                                 b
                           ı̂ = S{arg min ki D − HSγk 2
                                                      2 + µkγk1 , Sγ  0}
                                       γ

      ◮   parcimonie en analyse : (Carillo et al. 2013)
                                                  b k22 + µkAi k1 , i  0}
                             ı̂ = {arg min ki D − Hi
                                           i

      ◮   parcimonie en analyse et synthèse (Starck et al. 2014).

◮   Contribution : « Analyse par synthèse », (Dabbech et al. 2015). Itérativement :
     1. Une analyse en ondelettes de i D produit un ensemble de coefficients de
        corrélations significatifs.
     2. Synthèse : la source correspondante est déconvoluée en minimisant l’écart entre
        les corrélations mesurées et le modèle.
     3. La source ainsi estimée est reconvoluée et soustraite de i D .                  12
Axe reconstruction d’image (cont.)

◮   Nombreuses comparaisons avec méthodes de l’état de l’art : CS-IUWT, SARA,...
◮   https://github.com/ratt-ru/PyMORESANE
                                                                               13
Axe reconstruction d’image (cont.)

◮   Détection dans les grandes masses de données.
     1. Une petite fraction des données contient la signature d’une hypothèse alternative
        de faible amplitude.
        Alternative/amélioration du Higher Criticism (HC), (Mary et al. 2014).
     2. Détection d’une alternative prise dans un dictionnaire donné.
        Réduction de dictionnaire par un critère robuste minimax (Suleiman et al. 2014a).

◮   Calibration et traitement d’antennes.
     1. Traitement de données pour les réseaux éloignés, (Bosse et al. 2015).
     2. Exploitation des structures particulières des réseaux, (Haardt et al. 2014).

◮   Séparation de sources. Best Student Paper Award IEEE ICASSP’14 (Sun et al.
    2014).
◮   Organisation de deux sessions spéciales à IEEE SAM’2014 (Sensor Array and
    Multichannel Signal Processing Workshop) :
      Traitement d’antennes dans des conditions critiques telles que l’absence de
           calibration, l’erreur de modèle ou un faible rapport signal à bruit.
                                                                                       14
Axes techniques d’optimisation en grande dimension

◮   Optimisation non convexe stochastique

                                      min f (θ) + g (θ)
                                        θ

    lorsque f régulière non convexe, f et ∇f incalculable et g convexe.
◮   Méthodes de gradients proximaux avec approximation Monte Carlo de ∇f
      ◮   Approche adaptée au cas (i) de très grands jeux de données, (ii) du traitement
          en ligne des observations.
      ◮   Stratégie d’approximation stochastique, Stratégie par mini-batch.

◮   Contributions :
     1. Méthodes de Monte Carlo adaptatives, robustes à la très grande dimension (Fort
        et al. 2014 ; Schreck et al. 2013).
     2. Analyse des algorithmes gradient-proximaux stochastiques (Atchade et al. 2014).

◮   Régularisation non convexe. Ensembles actifs. (Boisbunon et al. 2014a).
                                                                                           15
Axes techniques d’optimisation en grande dimension (cont.)

◮   Optimisation distribuée. Collaboration LTCI/Lagrange.
      ◮   Le jeu de données est partitionné en sous-ensembles : chaque sous-ensemble est
          traité par une machine dédiée (agent).
      ◮   Étapes d’optimisation locales des agents et de dialogue entre les agents.

◮   Contributions portent sur l’analyse d’algorithmes d’approximation stochastique
    distribués.
     1. Effet du protocole de communication (Morral et al. 2014).
     2. Versions asynchrones des algorithmes (Bianchi et al. 2014).
     3. Algorithmes multitâches « collaboratifs » : agents regroupés en clusters avec
        chacun un jeu de paramètres propre à estimer (Nassif et al. 2014b).
◮   Organisation de deux sessions spéciales à IEEE MLSP’2014 (Machine Learning
    for Signal Processing) :
          Méthodes d’apprentissage pour le traitement des masses de données et
               méthodes bayésiennes non paramétriques en apprentissage

                                                                                           16
DISPLAY : Bilan et faits marquants en 2014

◮   Une compréhension commune des problèmes.

◮   ANR MAGELLAN :
                    Méthodes d’apprentissage pour les très grands
                       réseaux d’antennes en radioastronomie
    KickOff le 16 janvier 2015.

◮   Nicolas Gac, L2S : adéquation algorithme architecture,
    Thomas Rodet, SATIE : problèmes inverses en grande dimension,
    Jean-François Cardoso, LTCI : traitement de données astro.

◮   Workshop organisé avec le projet GARGANTUA
                       Stochastic and Distributed Optimization
    Une trentaine de participants.

◮   30 publications « MASTODONS » pour 2014.
                                                                    17
DISPLAY

          18
Publications DISPLAY

Atchade, Yves F., Gersende Fort et Eric Moulines (2014). “On stochastic proximal gradient algorithms”. In :
   eprint : 1402.2365. url : http://arxiv.org/abs/1402.2365.
Bernhardt, S., R. Boyer, Bo Zhang, S. Marcos et P. Larzabal (2014). “Performance analysis for sparse based
   biased estimator : Application to line spectra analysis”. In : Sensor Array and Multichannel Signal
   Processing Workshop (SAM), 2014 IEEE 8th, p. 365–368.
Bianchi, Pascal, Walid Hachem et Franck Iutzeler (2014). “A Stochastic Coordinate Descent Primal-Dual
   Algorithm and Applications to Large-Scale Composite Optimization”. In : arXiv preprint arXiv :1407.0898.
Boisbunon, A., R. Flamary et A. Rakotomamonjy (2014a). “Active set strategy for high-dimensional
   non-convex sparse optimization problems”. In : International Conference on Acoustic, Speech and Signal
   Processing (ICASSP).
Boisbunon, A., R. Flamary, A. Rakotomamonjy, A. Giros et J. Zerubia (2014b). “Large scale sparse
   optimization for object detection in high resolution images”. In : IEEE Workshop in Machine Learning for
   Signal Processing (MLSP).
Bosse, J., A. Ferréol et P. Larzabal (2015). “A spatio-temporal array processing for passive localization of
   radio transmitters”. In : IEEE Trans. on signal processing. Accepted. To be published.
Boyer, R. et P. Larzabal (2014). “Special session Sparsity in array processing : methods and performances”.
   In : Sensor Array and Multichannel Signal Processing Workshop (SAM), 2014 IEEE 8th.
Dabbech, A., C. Ferrari, D. Mary, E. Slezak et O. Smirnov (2015). “MORESANE : MOdel REconstruction by
   Synthesis-ANalysis Estimators. A sparse deconvolution algorithm for radio interferometric imaging”. In :
   Astronomy & Astrophysics. accepted. To be published.
Djuric, P. et A. Ferrari (2014). “Special session Bayesian Nonparametric Methods for Machine Learning”. In :
   Machine Learning for Signal Processing (MLSP), 2013 IEEE International Workshop on.
El Korso, M. N., R. Boyer et S. Marcos (2014a). “A root-finding technique for direction of arrival estimation”.
    In : Detection, Architecture and Technology Workshop (DAT-2014).
El Korso, M. N., A. Renaux et P. Forster (2014b). “CRLB under K-distributed observation with
   parameterized mean”. In : Sensor Array and Multichannel Signal Processing Workshop (SAM), 2014 IEEE
   8th, p. 461–464.
                                                                                                             19
Publications DISPLAY (cont.)
El Korso, M. N., A. Renaux et P. Forster (2014c). “Special session Dealing with Non-Standard Conditions in
   Array Processing and Spectral Analysis”. In : Sensor Array and Multichannel Signal Processing Workshop
   (SAM), 2014 IEEE 8th.
Ferrari, A., D. Mary, R. Flamary et C. Richard (2014). “Distributed image reconstruction for very large arrays
   in radio astronomy”. In : IEEE Sensor Array and Multichannel Signal Processing Workshop (SAM),
   p. 389–392.
Fort, G. (2013). “Convergence of the Wang-Landau algorithm”. In : International Conference on Scientific
   Computation and Differential Equations.
— (2014a). “Convergence and Efficiency of the Wang Landau algorithm”. In : Computational methods for
   statistical mechanics.
— (2014b). “Sampling multimodal densities on large dimensional spaces”. In : 7th Journées de Statistique
   du Sud, Barcelone (Spain).
— (2014c). “Stochastic Proximal Gradient Algorithm”. In : Journée Phone & Stat, Sélection dans les
   modèles mixtes.
Fort, G., B. Jourdain, T. Lelievre et G. Stoltz (2014). “Self-Healing Umbrella Sampling : Convergence and
   efficiency”. In : eprint : 1410.2109. url : http://arxiv.org/abs/1410.2109.
Haardt, M., M. Pesavento, F. Roemer et M. N. El Korso (2014). “Communications and Radar Signal
   Processing”. In : 1re éd. T. 2. Academic Press Library in Signal Processing, Elsevier. Chap. Subspace
   Methods and Exploitation of Special Array Structures, p. 651–717. isbn : 978-0-12-411597-2.
Mary, D. et A. Ferrari (2014). “A non-asymptotic standardization of binomial counts in Higher Criticism”.
   In : Information Theory (ISIT), 2014 IEEE International Symposium on, p. 561–565.
Morral, Gemma, Pascal Bianchi et Gersende Fort (2014). “Success and Failure of Adaptation-Diffusion
   Algorithms for Consensus in Multi-Agent Networks”. In : eprint : 1410.6956. url :
   http://arxiv.org/abs/1410.6956.
Moulines, E. (2014a). “On Stochastic Proximal Gradient Algorithms”. In : Univ. of Florida, USA.
— (2014b). “On Stochastic Proximal Gradient Algorithms”. In : Journées MAS, session “Statistique et
   Optimisation”.
                                                                                                            20
Publications DISPLAY (cont.)

Nassif, R., C. Richard, A. Ferrari et A. H. Sayed (2014a). “Performance analysis of multitask diffusion
   adaptation over asynchronous networks”. In : Asilomar Conference on Signals, Systems, and Computers,
   Pacific Grove, CA.
Nassif, Roula, Cédric Richard, André Ferrari et Ali H. Sayed (2014b). “Multitask diffusion adaptation over
   asynchronous networks”. In : eprint : 1412.1798. url : http://arxiv.org/abs/1412.1798.
Ren, C., M. N. El Korso, J. Galy, E. Chaumette, P. Larzabal et A. Renaux (2014). “On the Accuracy and
   Resolvability of Vector Parameter Estimates”. In : Signal Processing, IEEE Transactions on 62.14,
   p. 3682–3694.
Richard, C. (2014). “Special session Machine Learning for Big Data”. In : Machine Learning for Signal
   Processing (MLSP), 2013 IEEE International Workshop on.
Schreck, Amandine, Gersende Fort, Sylvain Le Corff et Eric Moulines (2013). “A shrinkage-thresholding
   Metropolis adjusted Langevin algorithm for Bayesian variable selection”. In : eprint : 1312.5658. url :
   http://arxiv.org/abs/1312.5658.
Suleiman, R.F.R., D. Mary et A. Ferrari (2014a). “Dimension Reduction for Hypothesis Testing in Worst-Case
   Scenarios”. In : Signal Processing, IEEE Transactions on 62.22, p. 5973–5986. issn : 1053-587X.
— (2014b). “Subspace learning in minimax detection”. In : Acoustics, Speech and Signal Processing
   (ICASSP), 2014 IEEE International Conference on, p. 3062–3066.
Sun, D.L. et C. Fevotte (2014). “Alternating direction method of multipliers for non-negative matrix
   factorization with the beta-divergence”. In : Acoustics, Speech and Signal Processing (ICASSP), 2014
   IEEE International Conference on, p. 6201–6205.

                                                                                                        21
Vous pouvez aussi lire