Recueil des résumés - 10èmes Journées Informatique de l'IN2P3-IRFU

 
CONTINUER À LIRE
Recueil des résumés - 10èmes Journées Informatique de l'IN2P3-IRFU
10èmes
 Journées Informatique de
       l’IN2P3-IRFU
Monday 26 September 2016 - Thursday 29 September 2016
            VVF Villages Le Grand Lioran

 Recueil des résumés
Contents

Activités des réseaux Instrumentation : DAQ & Slow Control . . . . . . . . . . . . . . .              1

Activités européennes pour la physique des hautes énergies dans AIDA-2020 WP3 . . . .                 1

Analyse de PetaOctets de données cosmiques pour LSST . . . . . . . . . . . . . . . . . .              1

Après PLUME : FENIX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .         2

Arrêt automatique de serveurs basé sur un DNS . . . . . . . . . . . . . . . . . . . . . . .           2

Atelier Atrium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    3

Atelier Docker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    3

Atelier IPV6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    3

Atelier Sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    4

Atelier: Programmation concurrente en Go . . . . . . . . . . . . . . . . . . . . . . . . . .          4

Atrium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    5

Bilan de l’utilisation du framework Symfony2 pour le développement d’applications Web
    au LAL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .   5

CCIN2P3 Enjeux, bilan et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . .         6

CMDB du CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .        6

Chartbeams : une carte intéractive des noyaux pour le GANIL . . . . . . . . . . . . . . .             6

Chartbeams : une carte intéractive des noyaux pour le GANIL . . . . . . . . . . . . . . .             7

Cluster de Virtualisation Haute Disponibilité avec Redhat Cluster Suite . . . . . . . . . .           7

Clustering NFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .      7

Comment optimiser l’utilisation du CPU . . . . . . . . . . . . . . . . . . . . . . . . . . .          8

Communication du RI3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .        8

Comparaison et retour d’expériences des implémentations OPC UA . . . . . . . . . . . .                8

Comparatif des systèmes de stockage distribués dans le cas d’écritures intensives . . . .             9

                                                  iii
Compte-rendu de l’école informatique IN2P3 « Parallélisme sur Matériel Hétérogène » (23-
  27 mai 2016) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Control room pour AUGER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .       9

DJANGO et PyQt4 : technologies Python pour la réalisation d’une base de données de
   simulations numériques en astrophysique . . . . . . . . . . . . . . . . . . . . . . . . 10

Du ‘calcul électronique’ au ‘calcul intensif’: soixante ans d’ordinateurs dans la recherche
   nucléaire française . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

Développement du système DAQ pour des caméras de l’expérience CTA . . . . . . . . . 10

Développement et évaluation d’une méthode de reconstruction par réseau de neurones
   pour l’imagerie radio-isotopique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Entre blog et IRC : Slack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Equipements réseaux Juniper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Evolution des modèles de calcul au LHC . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

FG-Cloud : Cloud académique pour le calcul scientifique . . . . . . . . . . . . . . . . . . 12

GPU, HPC : nouveautés et calcul parallèle au CC-IN2P3 . . . . . . . . . . . . . . . . . . . 13

GitLab CI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Go & Polymer: slow control, monitoring & computing . . . . . . . . . . . . . . . . . . . 14

Hadoop on the Cloud: the SlipStream deployment tool . . . . . . . . . . . . . . . . . . . 15

IDNum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

IHM pour contröle/commande, client lourd ou léger, la solution ADA . . . . . . . . . . . 16

Implémentation sur GPU de la propagation des photons à l’aide de l’information par trans-
   mission et de noyaux de convolutions. . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Integration d’Openldap et d’Active Directory . . . . . . . . . . . . . . . . . . . . . . . . . 17

Interface Graphique Web de Contrôle Commande pour AERA / AUGER . . . . . . . . . . 17

LSST ou la numérisation de l’Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

La gestion des dépôts RPM avec Pulp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Le CEA dans la fédération Renater . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Le VPN au LPNHE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

Les projets Web du CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Les rencontres jDev en 2017 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Load Balancing avec Keepalived . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Migration des plateformes NIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Mot de la direction LPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Méthode de compression polynomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Nouvelle acquisition pour LHCb avec reconstruction de tous les évènements en ligne à
   30MHz sans filtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Observatoire Virtuel : Provenance des données . . . . . . . . . . . . . . . . . . . . . . . 21

Optimisation de l’infrastructure du cluster de calcul IMNC avec HTCondor . . . . . . . . 22

Outils collaboratifs CEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Plateforme Zimbra, statut et perspectives. . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Pourquoi pas Ada 2012 ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Projet de journal SW&C for Big Sciences . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Puppet: C’est vous qui tirez les ficelles! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

RabbitMQ : un protocole de messagerie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Retour d’expérience avec sonarqube pour le contrôle-commande de la caméra du télescope
   LSST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Retour des groupes de discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Retour d’expérience de l’utilisation du plugin pnp4nagios pour visualiser les données de
   performances des sondes de Nagios. . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Salle de TP Virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Sauvegarde des données locales des postes clients . . . . . . . . . . . . . . . . . . . . . . 25

Service France Grille DIRAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Statut du cloud au CC-IN2P3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Summer : Stockage mutualisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Test d’authentification de connexions par tokens . . . . . . . . . . . . . . . . . . . . . . 27

UTENTOMATIC: la Gestion des comptes Unix sous Active Directory . . . . . . . . . . . 27

Une nouvelle passerelle entre l’instrumentation et l’informatique : l’Arduino . . . . . . . 27

Utilisation d’une plateforme Hadoop/Spark pour des données astrophysiques . . . . . . 28

Utiliser des radiateurs pour calculer? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

VPN au LPC Caen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Vision de la direction IN2P3 sur l’informatique et le calcul . . . . . . . . . . . . . . . . . 29

Webinaires RI3: Le retour! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Webinaires RI3: le retour! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Windows 10: Configuration entreprise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

agata : de GPFS à Ceph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
10èmes Journées Informatique de …            / Recueil des résumés

Ouverture / 82

Activités des réseaux Instrumentation : DAQ & Slow Control
Eric Chabanne1 ; Jean-Pierre Cachemiche2 ; Pierre-Yves Duval3

 1
     LAPP/service electronique
 2
     Centre de Physique des Particules de Marseille
 3
     CPPM

     Cette présentation sera scindée en 2 parties, elle pourra donner lieu à une discussion dans le cadre
     même de ces JI2016, l’idée étant, bien évidemment, de renforcer les liens des 2 réseaux Instrumenta-
     tion de l’IN2P3 proches de la thématique “Online” avec le réseau RI3, réseau des informaticiens et
     de collaborer à la frontière entre informatique et électronique.
     Dans le cadre des activités du réseau DAQ, un certain nombre de solutions communes sont en cours
     de définition tant au plan matériel que logiciel. L’objectif est de disposer d’un tronc commun mod-
     ifiable par chaque développeur selon le contexte de son projet, et de façon à accélérer son propre
     développement. L’objectif affiché du travail au sein du réseau DAQ consiste à élaguer le champs des
     possibilités pour aboutir à un ensemble plus facile à gérer par une communauté.
     Le réseau Slow Control cherche à identifier des points communs dans l’approche et la conception
     d’un système de contrôle-commande au sein de l’Institut afin d’élaborer une sorte de référentiel
     IN2P3. Même si il existe clairement deux schémas d’intégration et de développement du contrôle-
     commande, l’objectif est de travailler sur une ou plusieurs problématiques communes tout en s’intéressant
     à ce qui se fait à l’extérieur.

Online / 61

Activités européennes pour la physique des hautes énergies dans
AIDA-2020 WP3
Hadrien Grasland1

 1
     UMR 8607 - LAL

Auteur(s) contact: grasland@lal.in2p3.fr

     Le projet européen AIDA-2020 s’introduit dans la continuité du projet AIDA, dédié à la recherche
     sur les détecteurs de physique des particules et technologies associées.
     Un important volet de ce projet, le Work Package 3, est consacré au développement logiciel pour
     la physique des particules: nouvelles bibliothèques implémentant des représentations de données
     plus efficaces, mise à niveau de frameworks existants pour les nouvelles architectures parallèles,
     alignement online de l’expérience LHCb…
     Je me propose donc de présenter les efforts soutenus dans le cadre de ce work package, et en partic-
     ulier des manières dont l’IN2P3 y contribue.

Offline / 23

Analyse de PetaOctets de données cosmiques pour LSST
Auteur(s): Fabrice Jammes1
Co-auteur(s) Fabio Hernandez 2 ; Yvan Calas 2

                                                      Page 1
10èmes Journées Informatique de …                  / Recueil des résumés

 1
     CNRS
 2
     CC-IN2P3

Auteur(s) contact: fabrice.jammes@clermont.in2p3.fr

     Le Large Synoptic Survey Telescope (LSST) va bouleverser l’astronomie. Équipé du plus grand cap-
     teur photographique jamais conçu pour l’astronomie, ce télescope permettra de constituer le plus
     large et le plus profond relevé de l’univers. Dès sa mise en exploitation en 2022, le traitement des
     données produites par LSST nécessitera des dizaines de milliers de processeurs et une capacité de
     stockage de données en augmentation de plusieurs dizaines de pétaoctets chaque année et ce pendant
     au moins une décennie.
     Des objets célestes et leurs propriétés physiques seront identifiés et catalogués dans une base de
     données qui sera composée à terme de milliers de milliards d’entrées. D’un volume de l’ordre de
     plusieurs dizaines de pétaoctets, ce catalogue jouera un rôle majeur dans l’exploitation scientifique
     des données produites par le télescope. Pour satisfaire ce besoin, un logiciel spécifique nommé Qserv
     est actuellement développé par une équipe majoritairement basée à l’Université de Stanford aux Etats
     Unis.
     Cette présentation décrira l’architecture de Qserv, les défis auxquels il doit répondre, son état d’avancement
     ainsi que les résultats de plusieurs campagnes des tests réalisées pendant les dernières années.
     Les contributeurs de cet exposé font partie de l’équipe de développement de Qserv et de l’équipe
     opérant l’infrastructure de tests composée actuellement de 400 processeurs et 500 téraoctets de stock-
     age, localisée au centre de calcul de l’IN2P3 / CNRS.

Outils collaboratifs / 17

Après PLUME : FENIX
Auteur(s): Sophie Nicoud1
Co-auteur(s) Anne Cheylus 2 ; Cyrille Allet 3 ; Damien Ferney 4 ; Dirk Hoffmann 5 ; Henri Valeins 6 ; Karl Oulmi 7
; Laurent Pérochon 8

 1
     CNRS LIRMM
 2
     ISC
 3
     Université Lille 1
 4
     Université Blaise Pascal Clermont-Ferrand
 5
     Centre de Physique des Particules de Marseille
 6
     Université Bordeaux 2
 7
     IBL
 8
     VetAgro-Sup

Auteur(s) contact: hoffmann@cppm.in2p3.fr

     Le projet PLUME (https://www.projet-plume.org) a connu un franc succès comme référentiel des
     logiciels utilisés et produits dans l’enseignements supérieur et de la recherche en France. Après une
     coupure drastique des moyens en 2013, le projet a été mis en sommeil jusqu’à la reprise par Resinfo
     début 2016.
     Un groupe de travail a créé pour donner une nouvelle mouture au projet, que nous présenterons à
     la communauté RI3 lors de ses JI.

ASR / 41

Arrêt automatique de serveurs basé sur un DNS

                                                      Page 2
10èmes Journées Informatique de …             / Recueil des résumés

Auteur(s): Nicolas RUDOLF1
Co-auteur(s) Christophe Helfer 1

 1
     IPHC

     Avec le démarrage de la grille de calcul en 2008, un système d’arrêt automatique des serveurs a été
     mise en place. Il basé sur un mode client-serveur dont le serveur est un DNS, que nous utilisons tous
     de manière plus traditionnelle tous les jours. Depuis l’origine il permet un arrêt automatique en cas
     d’éventuel problème de climatisation, en 2016 il intègrera également un volet électrique.

Atelier / 15

Atelier Atrium
Alexandre Perrier1 ; Cedric MULLER2 ; Mathieu WALTER3

 1
     IN2P3
 2
     IPHC
 3
     Services centraux IN2P3

Auteur(s) contact: mathieu.walter@in2p3.fr, cedric.muller@iphc.cnrs.fr

     Atelier Atrium :
     Tout en assurant une continuité de service par rapport à l’outil EDMS, Atrium se présente résolument
     comme une application moderne alliant la puissance de ses concepts à une ergonomie intuitive, exclu-
     sivement basée sur une interface Web, que ce soit pour l‘utilisation quotidienne ou pour les fonctions
     d’administration. Cet atelier interactif vous permettra de découvrir Atrium et de vous familiariser
     avec les fonctionnalités essentielles et avancées de la plateforme. Nous pourrons également étudier
     vos besoins et vous proposer des solutions avec Atrium.

Atelier / 32

Atelier Docker
Auteur(s): Sebastien Binet1
Co-auteur(s) Antoine Pérus 2

 1
     LPC/IN2P3
 2
     Cnrs/In2p3/Lal

Auteur(s) contact: sebastien.binet@cern.ch

     Cet Atelier presentera la technologie de virtualisation legere telle qu’implementee par Docker.
     Nous verrons l’architecture globale des containers docker ainsi que leurs avantages et inconvenients
     par rapport aux machines virtuelles (VMs).
     Les participants pourront ensuite creer leur premier container pas-a-pas.
     Tout d’abord en utilisant la methode interactive, puis via les Dockerfiles.
     Enfin, nous verrons comment publier et partager des containers docker au moyen du Hub.

Atelier / 79

                                                   Page 3
10èmes Journées Informatique de …                / Recueil des résumés

Atelier IPV6
Jerome Bernier1 ; Laurent Caillat-Vallet1 ; Thierno BALDE2

 1
     CC-IN2P3
 2
     CCIN2P3

Auteur(s) contact: tbalde@cc.in2p3.fr, jerome.bernier@in2p3.fr, caillat@cc.in2p3.fr

     Dans cet atelier vous étudierez le format des adresses IPv6, les différents types d’adresses (locales,
     globales…), les mécanismes de configuration d’IPv6. Vous verrez en pratique comment cela fonc-
     tionne grâce à des machines et routeurs virtuels.

Atelier / 60

Atelier Sécurité
Bernard Boutherin1 ; Fouad Yahia2 ; Jean-Michel Barbet3 ; Yoann KERMORVANT4 ; david zwolinski5

 1
     LPSC
 2
     I.P.N.Orsay
 3
     Subatech
 4
     LPC CAEN
 5
     cnrs

Auteur(s) contact: zwolinski@lpccaen.in2p3.fr

     Cet atelier permettra aux participants dans une première partie de mettre en évidence des vulnéra-
     bilités affectant un serveur Web classique .
     Seront évoqués alors :

       • Les problèmes de configuration et leurs conséquences : arborescence trop permissive, compro-
         mission de données par écritures
       • La résistance aux intrusions par injection de code : injections SQL, injection système
       • Les failles du type Cross-Site Scripting (XSS)

     Une seconde partie sera consacrée à la sécurité de navigateurs courants. Les points abordés seront
     :

       • Cookies traçant (Third-party cookies)
       • Traçabilité du navigateur (fingerprinting)
       • Détournement et vol de session

     Cet atelier disposera de 5 à 6 machines clientes virtuelles, pouvant accueillir chacune un binôme.
     Les participants devront simplement disposer d’un pc portable équipé d’un client SSH et d’un serveur
     X.

Atelier / 33

Atelier: Programmation concurrente en Go
Auteur(s): Sebastien Binet1

                                                    Page 4
10èmes Journées Informatique de …               / Recueil des résumés

Co-auteur(s) Thomas Bellembois 2

 1
     LPC/IN2P3
 2
     LPC Clermont-Ferrand

Auteur(s) contact: sebastien.binet@cern.ch

     Cet Atelier formera les heureux participants aux concepts de base de la programmation concurrente,
     en Go.
     Nous commencerons avec un petit “Hello World” en Go pour rapidement introduire la syntaxe des
     fonctions, variables, packages et interfaces.
     Puis nous etudierons les deux outils disponibles pour organiser et orchestrer un programme concur-
     rent en Go: les channels et les goroutines.
     Cette introduction a la programmation concurrente se fera via l’implementation d’une application
     peer-to-peer echangeant des messages pur texte a travers le reseau.
     La premiere mouture de cette application se fera en mode console, puis au fur et a mesure des amelio-
     rations apportees au cours de l’atelier, la derniere version tournera dans un navigateur et permettra
     une utilisation en mode “tchat”.

Outils collaboratifs / 13

Atrium
Alexandre Perrier1 ; Mathieu WALTER2

 1
     IAO/CAO
 2
     Services centraux IN2P3

     Afin de faire évoluer la gestion documentaire dans l’Institut, la direction adjointe technique de
     l’IN2P3 a souhaité mettre en place un nouvel espace collaboratif pour la gestion électronique des
     documents. Atrium permet notamment d’assurer la pérennité de vos documents tout en vous pro-
     posant une interface intuitive.
     Réalisée en étroite collaboration avec les experts des laboratoires, la migration d’EDMS vers Atrium
     est finalisée depuis mars 2016. Atrium est basé sur l’outil de gestion documentaire Nuxeo (plateforme
     Open Source). La Cellule IAO/CAO de l’IN2P3 et l’Equipe Projet Atrium assurent le support aux
     utilisateurs dans la phase d’exploitation de ce portail documentaire.
     Atrium a pour but d’être utilisé par tous. Son ergonomie, sa simplicité d’utilisation et la richesse de
     ses fonctionnalités apportent une réelle amélioration de la production et de la gestion documentaire
     dans les laboratoires. Atrium offre également la possibilité à tout agent de l’Institut de gérer ses pro-
     pres documents dans un espace personnel limité par des quotas. Atrium a pour ambition d’occuper,
     à terme, la place centrale dans la gestion documentaire de l’Institut.

Eclair / 29

Bilan de l’utilisation du framework Symfony2 pour le développe-
ment d’applications Web au LAL.
Justine YUAN1 ; Serge Du1

 1
     LAL

                                                    Page 5
10èmes Journées Informatique de …           / Recueil des résumés

Auteur(s) contact: yuan@lal.in2p3.fr

     Résumé: Nous avons adopté Symfony2 pour la refonte de 2 Applications Web en 2010. Six ans après,
     nous pouvons évaluer les bénéfices de ce framework pour faciliter l’évolution des applications et le
     démarrage de nouveaux projets.

Ouverture / 77

CCIN2P3 Enjeux, bilan et perspectives
Pierre-Etienne Macchi1

 1
     CC-IN2P3

     CCIN2P3 Enjeux, bilan et perspectives

Offline / 50

CMDB du CC
Sylvain Reynaud1

 1
     CNRS

Auteur(s) contact: sreynaud@in2p3.fr

      Description détaillée du projet
     - Choix d’un produit open-source
     - Design du schéma de données
     - Implémentation spécifique pour le CC
     - Lavoisier au coeur du process
     - Limitations du produit choisi
     - Intégration d’un base de donnée orientée Graphe
     - Interface WEB (graphe dynamique)

Poster / 75

Chartbeams : une carte intéractive des noyaux pour le GANIL

Laurent Fortin1

 1
     GANIL

Auteur(s) contact: fortin@ganil.fr

     Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et com-
     préhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL.
     Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en
     2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est
     proposée à la communauté avec intégration des données SPIRAL2.

                                                 Page 6
10èmes Journées Informatique de …            / Recueil des résumés

Eclair / 71

Chartbeams : une carte intéractive des noyaux pour le GANIL

Laurent Fortin1

 1
     GANIL

Auteur(s) contact: fortin@ganil.fr

     Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et com-
     préhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL.
     Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en
     2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est
     proposée à la communauté avec intégration des données SPIRAL2.

ASR / 9

Cluster de Virtualisation Haute Disponibilité avec Redhat Clus-
ter Suite
Christophe DIARRA1

 1
     IPN ORSAY

Auteur(s) contact: diarra@ipno.in2p3.fr

     Redhat Cluster Suite (RHCS) permet de créer un cluster de virtualisation haute disponibilité (High
     Availability). A l’IPNO RHCS a été déployé sur deux noeuds Dell R620 en mode actif-actif permet-
     tant la migration à chaud des VM. Par ailleurs en cas de défaillance d’un des deux noeuds, le noeud
     vivant redémarre automatiquement les VM du noeud absent. Les images des VM sont installées sur
     des volumes LVM reposant sur DRBD (Distributed Replicated Block Device). DRBD assure la repli-
     cation des blocs entre les deux noeuds via une liaison dédiée 10Gb permettant ainsi un mirroring des
     données sur les deux noeuds. DRBD évite le recours à un stockage de type SAN ou NFS pour stocker
     les images des VM. Les 14 VM gérées actuellement (des services de la grille de calcul) tournent sous
     KVM. Un mécanisme de fencing assure qu’une VM ne peux jamais être démarrée en même temps
     sur les deux noeuds en cas de perte de connectivité entre les deux neouds (split brain).
     Les scripts maison, les utilitaires et les images ISO sont sauvées dans une partition GFS2 sous Clus-
     tered LVM au dessus de DRDB.
     Le cluster est en production depuis fin Décembre 2014 sous Linux SL 6.5.

42

Clustering NFS
Benoit DELAUNAY1

 1
     Centre de Calcul de l’IN2P3

Auteur(s) contact: delaunay@in2p3.fr

     L’objectif de cette présentation est de dresser un inventaire (pas forcément exhaustif) des technolo-
     gies disponibles dans l’opensource pour construire un cluster NFS, c’est à dire une plateforme NFS

                                                  Page 7
10èmes Journées Informatique de …                 / Recueil des résumés

     disponible, maintenable et performante. Ces 3 critères seront présentés et discutés. 2 architectures
     de plateformes seraient présentées.
     Mots clés : NFS, opensource, haute disponibilité, systèmes de fichiers distribués

Offline / 30

Comment optimiser l’utilisation du CPU
Jean Jacquemier1 ; Pierre Aubert1

 1
     LAPP

Auteur(s) contact: pierre.aubert@lapp.in2p3.fr

     L’expérience CTA sera le plus grand observatoire d’astronomie gamma au monde. Elle produira
     un flux de données 1000 fois plus important que l’expérience précédente H.E.S.S. Les performances
     des codes d’analyse existants ne permettent pas de soutenir le traitement d’une telle quantité de
     données.
     Nous présenterons les différentes techniques d’optimisation qui viennent de l’informatique hautes
     performances que nous mettons en œuvre dans nos codes d’analyse. Ceci afin de garantir une utili-
     sation du CPU de 99% au lieu des 2 à 5% actuels.

Eclair / 63

Communication du RI3
Auteur(s): Frédérique Chollet1
Co-auteur(s) Christian Helft 2 ; Dirk Hoffmann 3 ; Eric Legay 4 ; Jean-René Rouet 5 ; Muriel GOUGEROT 6 ; Pierre-
Etienne Macchi 7 ; joel surget 8

 1
     LAPP-IN2P3
 2
     LAL
 3
     Centre de Physique des Particules de Marseille
 4
     CSNSM
 5
     CC-IN2P3/CNRS
 6
     LAPP
 7
     CC-IN2P3
 8
     CEA/Saclay IRFU

Auteur(s) contact: hoffmann@cppm.in2p3.fr

     Présentation rapide du RI3 (Réseau des Informaticiens de l’IN2P3 et de l’IRFU), des actions récur-
     rentes, des groupes existants et des prochains rendez-vous… …en attendant les prochaines JIs en
     2018!

Online / 67

Comparaison et retour d’expériences des implémentations OPC
UA

                                                      Page 8
10èmes Journées Informatique de …                 / Recueil des résumés

Dirk Hoffmann1 ; Eric Chabanne2 ; Jean Luc Panazol2 ; Patrick Sizun3 ; Philippe Gauron4 ; Piotr NIKIEL5 ; Thierry
Le Flour2

 1
     CPPM
 2
     LAPP
 3
     CEA, IRFU, SEDI
 4
     LAL
 5
     CERN

Auteur(s) contact: gauron@lal.in2p3.fr, piotr.nikiel@cern.ch, chabanne@lapp.in2p3.fr, hoffmann@cppm.in2p3.fr,
leflour@lapp.in2p3.fr

Offline / 28

Comparatif des systèmes de stockage distribués dans le cas d’écritures
intensives
Denis PUGNERE1

 1
     IPNL

Auteur(s) contact: d.pugnere@ipnl.in2p3.fr

     Dans cette présentation, je vous décrierai les besoins de l’expérience WA105, la configuration tech-
     nique de tests (1 client équipé de 2 cartes 40gb/s, 9 éléments de stockage à 10gb/s chacun), les choix
     initiaux des systèmes de fichiers distribués que nous testerons (Lustre, BeeGFS, GPFS, Xtremefs,
     GlusterFS, MooseFS, XrootD, EOS…) mais aussi les tests réalisés pour chacun avec les débits ob-
     servés en fonction du nombre d’éléments de stockage (1, 2, 4, 8…), de la taille des fichiers (100Mo,
     1Go, 10Go, 20Go) mais aussi en fonction du nombre de processus simultanés en écriture (1,6,8). Je
     vous monterai ensuite les débit attendus et présents, ainsi que les résultats pour chacun des tests
     réalisés. Je conclurai alors avec les préconisations adaptées à ce cas précis.

Offline / 78

Compte-rendu de l’école informatique IN2P3 « Parallélisme sur
Matériel Hétérogène » (23-27 mai 2016)
Vincent LAFAGE1

 1
     CNRS

Auteur(s) contact: lafage@ipno.in2p3.fr

     Je récapitulerai sommairemment les différentes technologies mise en œuvre (OpenMP, C++’11 &
     HPX, MPI, OpenCL, DSL-Python) lors de cette école notamment au niveau des résultats et de l’impact
     sur le code initial ainsi que les présentations qui n’ont pas débouché sur une implémentation (comme
     OpenCL pour FPGA). On fera notamment le lien avec la programmation fonctionnelle dont il a été
     question lors de la précédente sessio (JI 2014).

Eclair / 44

Control room pour AUGER

                                                    Page 9
10èmes Journées Informatique de …           / Recueil des résumés

Frédéric Melot1

 1
     LPSC

Auteur(s) contact: melot@in2p3.fr

     Afin de diminuer les voyages couteux vers l’Argentine, le LPSC est en cours de préparation d’une
     salle de contrôle à distance pour l’expérience AUGER.
     Cette salle dédiée sera équipée de trois ordinateurs et de 10 écrans et permettra de participer aux
     shifts de l’expérience à distance.

Offline / 25

DJANGO et PyQt4 : technologies Python pour la réalisation d’une
base de données de simulations numériques en astrophysique
Damien CHAPON1

 1
     CEA

Auteur(s) contact: damien.chapon@cea.fr

     Le framework de développement d’application web DJANGO (Python) est utilisé pour l’implémentation
     d’une base de données de simulations numériques en astrophysique, appelée CoastDB (online). Le
     modèle de données suit fidèlement le standard SimDM de l’observatoire virtuel international (IVOA).
     Le système d’ORM de DJANGO calque ce modèle de données dans une base MySQL.
     Le remplissage de cette base de données est facilité par une interface graphique Horus (offline),
     implémentée en PyQt4 (binding Python à la librairie Qt4), et qui permet d’exporter des données
     réduites issues des simulations numériques réalisées par les astrophysiciens directement dans un
     format téléchargeable sur l’application web CoastDB.

Ouverture / 73

Du ‘calcul électronique’ au ‘calcul intensif’: soixante ans d’ordinateurs
dans la recherche nucléaire française
Pierre Mounier-Kuhn1

 1
     CNRS & Université Paris - Sorbonne

     résumé à suivre (juillet-août)

Online / 66

Développement du système DAQ pour des caméras de l’expérience
CTA
Dirk Hoffmann1 ; Julien Houles1

 1
     Centre de Physique des Particules de Marseille

                                                      Page 10
10èmes Journées Informatique de …                / Recueil des résumés

Auteur(s) contact: houles@cppm.in2p3.fr, hoffmann@cppm.in2p3.fr

Eclair / 59

Développement et évaluation d’une méthode de reconstruction
par réseau de neurones pour l’imagerie radio-isotopique
Françoise Lefebvre1

 1
     IMNC CNRS

Auteur(s) contact: lefebvre@imnc.in2p3.fr

     Dans le cadre de la mise au point d’instruments pour guider le chirurgien en temps réel dans la
     localisation et l’ablation précise des foyers tumoraux, une nouvelle génération de détecteurs per-
     opératoires basés sur la technologie des photomultiplicateurs silicium est en cours de développement.
     Au-delà du système de détection, la qualité des images obtenues dépend fortement du choix de la
     méthode de reconstruction de la position d’interaction des particules dans le détecteur à partir des
     caractéristiques des signaux physiques générés.
     Outre permettre de reconstruire les images avec une bonne résolution et une faible distorsion, la
     méthode retenue doit être opérationnelle pour un système d’imagerie temps réel afin d’être intégrée
     dans le logiciel d’acquisition existant (Qt/C++).
     Nous avons mené une étude basée sur l’approche par réseaux de neurones. Pour cela, une base
     de signaux d’évènements de caractéristiques connues a été générée afin d’apprendre au réseau à
     associer une position à un signal donné. Après cette phase d’apprentissage, le réseau est en mesure
     de généraliser à des signaux inconnus.
     Nous proposons de présenter les outils développés et testés pour mener cette étude ainsi que les
     principaux résultats obtenus en imagerie beta et gamma.

Eclair / 64

Entre blog et IRC : Slack
Dirk Hoffmann1 ; Jean-Paul Le Fèvre2

 1
     Centre de Physique des Particules de Marseille
 2
     CEA Irfu

Auteur(s) contact: hoffmann@cppm.in2p3.fr

     L’outil Slack (slack.com) a récemment fait apparition sur nos radars. Il semble très intéressant, peut-
     être qu’on pourrait même l’exploiter à titre d’essai / d’illustration. Dans ce cas, il faudrait prévoir
     notre présentation en début des JI pour expliquer comment cela marche (ji.slack.com). C’est un
     bon moyen pour impliquer les gens à distance via un chat non-existant ; à voir dans le contexte du
     webcast, selon s’il est possible ou pas.
     Il y a par ailleurs la collaboration IceCube qui l’utilise de manière professionnelle (c’est-à-dire ils ont
     payé le service amélioré de Slack) ; on essaiera d’en savoir plus. Il faut voir, si on peut établir un lien
     avec les présentaitons “outils collaboratifs” du CEA et de LSST.

Eclair / 40

Equipements réseaux Juniper

                                                      Page 11
10èmes Journées Informatique de …                   / Recueil des résumés

Nicolas RUDOLF1

 1
     IPHC

      Après plus de 20 ans de fonctionnement avec des équipements de marque Cisco, le réseau de l’IPHC
      a été renouvelé en 2015 avec du matériel de marque Juniper. Un bref aperçu de JunOS le système
      d’exploitation, sa structure et son langage. Un bilan après un an de fonctionnement.

Offline / 58

Evolution des modèles de calcul au LHC
Catherine Biscarat1

 1
     LPSC/IN2P3/CNRS

Auteur(s) contact: biscarat@in2p3.fr

      Les modèles de calcul des expériences du LHC ont été mis en place autour de la création d’une grille
      de calcul et de stockage mondiale dans les années 2000. Cette infrastructure distribuée a parfaite-
      ment rempli son rôle et a été l’un des ingrédients indéniables des avancées scientifiques obtenues
      au LHC depuis son démarrage en 2009. Fortes de l’expérience gagnée lors des premières années de
      fonctionnement de cette grille, les expériences du LHC modifient leurs modèles de calcul pour gag-
      ner en efficacité et en souplesse dans le but notamment d’intégrer des ressources “hors grille” afin
      d’anticiper le déluge de données du LHC. Dans cette présentation, nous décrirons l’infrastructure
      de ce système distribué et les modèles mis en place par les expériences, la contribution française au
      calcul pour le LHC et les évolutions récentes des modèles de calcul. Quelques mots sur les challenges
      qui nous attendent à plus long terme concluront cette présentation.

ASR / 68

FG-Cloud : Cloud académique pour le calcul scientifique
Auteur(s): Nicolas CLEMENTIN1
Co-auteur(s) Adrien RAMPARISON 2 ; Andrei Tsaregorodtsev 3 ; Catherine Biscarat 4 ; Charles Loomis 5 ; Christine
GONDRAND 6 ; Cyrille Toulet 7 ; Cécile Cavet 8 ; François Thiebolt 9 ; Geneviève Romier 10 ; Gilles Mathieu 11 ;
Guillaume PHILIPPON 12 ; Jean-Marc Pierson 9 ; Jerome Pansanel 13 ; Matthieu Marquillie 7 ; Mattieu Puel 14 ; Michel
Jouvin 15 ; Samuel VISCAPI 16 ; Vanessa Hamar 17 ; Vincent Legoll 18 ; sebastien geiger 19

 1
     CNRS-LUPM
 2
     CNRS
 3
     CPPM, Marseille
 4
     LPSC/IN2P3/CNRS
 5
     LAL-Orsay
 6
     LPSC
 7
     Université de Lille 1
 8
     APC
 9
     IRIT
 10
      CNRS-IN2P3 Institut des Grilles et du Cloud
 11
      INSERM
 12
      LAL - CNRS
 13
      IPHC - CNRS

                                                     Page 12
10èmes Journées Informatique de …               / Recueil des résumés

 14
      CC-IN2P3
 15
      LAL / CNRS
 16
      LUPM / CNRS
 17
      CC - IN2P3
 18
      IDGC / CNRS
 19
      IN2P3

Auteur(s) contact: nicolas.clementin@univ-montp2.fr

      Le GIS France Grilles, initialement focalisé sur les grilles de calcul et de stockage, propose désormais
      une offre de services basée sur le « Cloud Computing » IaaS.
      Il s’agit, au travers de l’intégration des dernières avancées technologiques, de proposer un service
      répondant aux évolutions des besoins de traitement des données scientifiques, notamment en terme
      d’élasticité et de flexibilité.
      France Grilles a donc développé, toujours sur le principe de partage et de mutualisation d’expertise,
      une fédération de Clouds IaaS, rassemblant des ressources (calcul, stockage, réseau et humaines)
      fournies librement par les différents sites participants en leur imposant le minimum de contraintes.
      En première partie, nous présenterons les caractéristiques de l’infrastructure :

       • les sites et le réseau humain à la base de l’infrastructure
       • les technologies utilisées
       • les services en production
       • l’accueil de nouveaux sites participants
       • l’intégration à l’échelle européenne et la certification EGI

      La deuxième partie détaillera quelques exemples d’utilisation de l’infrastructure, et en particulier les
      apprentissages que nous avons pu tirer du Cloud Challenge, test grandeur nature de l’infrastructure
      par un utilisateur expert.
      Nous finirons par un rappel sur les modalités d’accès au Cloud France Grilles et les différents services
      offerts aux utilisateurs :

       • Instanciation de clusters (calcul, stockage, réseau) à la demande
       • Accompagnement (formation, conseil, aide)
       • Documentation
       • Développements (relatifs à l’instanciation sur le Cloud)
       • Passerelle vers le Cloud fédéré EGI

ASR / 39

GPU, HPC : nouveautés et calcul parallèle au CC-IN2P3
Nicolas Fournials1

 1
     CC-IN2P3

Auteur(s) contact: nicolas.fournials@cc.in2p3.fr

      Le CC-IN2P3 a deux actualités marquantes cette année en matière de calcul parallèle :

       • une nouvelle ferme HPC

                                                    Page 13
10èmes Journées Informatique de …              / Recueil des résumés

      • une ferme équipée de GPU

     Tour d’horizon de ces nouveautés : à quoi ressemblent-elles, pourquoi et comment les utiliser ?

Eclair / 49

GitLab CI
Jean-René Rouet1 ; Thibaut Salanon2

 1
     CC-IN2P3/CNRS
 2
     CC-IN2P3

Auteur(s) contact: rouet@in2p3.fr

     Vous connaissez tous gitlab.in2p3.fr, le clone de GitHub pour les collaborateurs des projets de développe-
     ments de l’IN2P.
     Avec GitLab est fourni maintenant une fonctionnalité d’intégration continue.
     Cela permet d’exécuter de façon automatique des tests, des builds et des déploiements.
     Ceci sera le teaser de la fonctionnalité.

Online / 56

Go & Polymer: slow control, monitoring & computing
Sebastien Binet1

 1
     LPC/IN2P3

Auteur(s) contact: sebastien.binet@cern.ch

     Go est un langage de programmation relativement récent qui a pour substrat un code ADN qui
     facilite la programmation concurrente.

     Dans cette présentation, nous verrons comment ce langage peut être utilisé dans le cadre d’applications
     temps réels (soft realtime) comprenant plusieurs modules:

      • acquisition de données provenant d’un bus système ou d’un socket,

      • réception/envoi de commandes depuis/vers des variateurs et

      • présentation et monitoring de données en temps réel mou (soft realtime), en mode déporté ou
        local.

     Nous présenterons les différentes technologies utilisées (Go, Polymer/JS, WebSockets) et les perfor-
     mances obtenues dans quelques cas concrets:

      • contrôle commande du testbench LSST-LPC,

      • DAQ d’AVIRM-LPC,

      • simulation de supernovae pour LSST.

                                                  Page 14
10èmes Journées Informatique de …             / Recueil des résumés

14

Hadoop on the Cloud: the SlipStream deployment tool
Cécile Cavet1

 1
     APC

Auteur(s) contact: cecile.cavet@apc.univ-paris7.fr

     Cloud computing is a recent informatics paradigm which offers IT resources on-demand. The IaaS
     (Infrastructure-as-a-Service) layer provides virtual machines, storage and network to run applica-
     tions in a customised environment. Since recently, Cloud technology has reached a high level of
     maturity by offering a huge stack of services. But the management of complex workflow can still
     encounter some problems. Indeed, automatic deployment of environnement on the Cloud can be
     difficult, especially in the case of cluster. In cluster environnement, master and slave nodes need to
     exchange information in order to set up system services. Several tools such as SlipStream (1), a PaaS
     (Platform-as-a-Service) solution, have been developed in order to manage automatic deployment
     on interoperable Cloud platforms. The SlipStream solution provides a Web interface allowing the
     use of several Cloud connectors. The management of the automatic deployment is based on recipes
     (shell script) which install and configure each type of nodes. The SlipStream tool was first developed
     in accordance with the StratusLab (2) solution. This european research project has provided since
     2010 a public open-source Cloud solution to the academic community. For this study, we have used
     StratusLab@LAL (Laboratoire de l’Accélérateur Linéaire, Orsay, France).
     In the Big Data framework, the Hadoop (3) technology is often associated to the Cloud technol-
     ogy. Indeed, the treatment of huge volume of data requires specific Hadoop clusters that are not
     often present at this time. The Cloud infrastructure thus allows to deploy a Hadoop virtual clus-
     ter on-demand. We have used the HortonWorks (4) distribution to build a Hadoop cluster on the
     StratusLab infrastructure with the SlipStream tool. We have written recipes to deploy the Hadoop 2
     (YARN) services on one master and three slaves. We describe the methodology that we have followed
     to fine-tune Hadoop configuration file parameters. Furthermore, we have realised benchmarks of
     performance (HiBench, (5)) in order to validate the cluster set up. We have also run typical MapRe-
     duce jobs on huge volume of data in order to show the interest of this data treatment for scientific
     projects.
     References:
     (1) SlipStream: http://sixsq.com/products/slipstream.html
     (2) StratusLab: http://stratuslab.eu/index.html
     (3) Hadoop: http://hadoop.apache.org
     (4) HortonWorks: http://hortonworks.com
     (5) HiBench: https://github.com/intel-hadoop/HiBench

51

IDNum
Jean-René Rouet1

 1
     CC-IN2P3/CNRS

Auteur(s) contact: rouet@in2p3.fr

      Gestion d’identité numérique du CC
     - but du projet
     - architecture globale
     - use case compte de calcul
     - self service
     - use case annuaire page blanche
     - Identity Provider IN2P3

                                                     Page 15
10èmes Journées Informatique de …           / Recueil des résumés

Online / 57

IHM pour contröle/commande, client lourd ou léger, la solution
ADA
Jean Louis Coacolo1

 1
     IPNO

     Présentation de l’interface graphique développée à l’aide de la bibliothèque Gtkada pour le contrôle
     et commande de l’équipex Andromede (instrument pour l’analyse par spectrométrie de masse) et
     des interfaces web utilisant le serveur AWS (Ada Web Server) dans le cadre des projets Cocote et
     Gaspard (détecteurs).

53

Implémentation sur GPU de la propagation des photons à l’aide
de l’information par transmission et de noyaux de convolutions.

Clément Rey1 ; Emmanuel Medernach2 ; Ziad EL BITAR3

 1
     CNRS
 2
     CNRS IN2P3 IPHC
 3
     IPHC

Auteur(s) contact: emmanuel.medernach@iphc.cnrs.fr

     La Tomographie d’Emission MonoPhotonique (TEMP) est une modalité d’imagerie
     médicale basée sur l’administration à un patient de molécules
     radio-labellisées. Le radio-isotope utilisé en TEMP est un émetteur de photons
     détectés par une gamma-caméra. En mode tomographique, la gamma-caméra tourne
     autour du patient et acquiert un ensemble de projections. A partir des
     projections acquises, on estime la distribution 3D du radio-isotope injecté. Les
     effets physiques comme l’effet Photoélectrique et la diffusion Compton sont
     responsables de la dégradation des images reconstruites car ils sont à l’origine
     d’une fausse estimation de la concentration du produit radioactif et/ou de sa
     localisation. Si ces effets physiques ne sont pas corrigés, une dégradation
     importante du rapport signal-sur-bruit, de la restauration de contraste et de la
     résolution spatiale est observée dans les images reconstruites ce qui pourrait
     fausser le diagnostique établi par le médecin. Une méthode pour corriger ces
     effets physiques consiste à les modéliser et à intégrer le modèle dans un
     algorithme de reconstruction itérative. Plusieurs méthodes analytiques ont été
     utilisées pour modéliser ces effets (Photoélectrique, Compton). Bien que les
     méthodes analytiques soient rapides, leur mise en œuvre peut être complexe quand
     il s’agit de les implémenter pour des milieux hétérogènes (composition du corps
     humain) et les géométries originales de détecteurs. Aussi l’utilisation des
     simulations Monte-Carlo permet la modélisation des effets physiques subies par
     les photons durant un examen TEMP et donc la correction implicite lors de la
     reconstruction. Cependant, ces simulations sont très couteuses en temps de
     calcul et leur utilisation est à ce jour inappropriée pour des applications
     cliniques où souvent le taux d’examens d’imagerie journalier est assez élevé
     surtout si des reconstructions d’images personnalisées sont demandées. Durant
     ce projet, nous proposons une méthode d’accélération sur carte graphique (GPU)
     de la modélisation des effets physiques subis par des photons à l’intérieur d’un
     patient et ce dans un délai acceptable en routine clinique.

                                                 Page 16
10èmes Journées Informatique de …             / Recueil des résumés

     Les noyaux d’émission et de transmission seront calculés par l’outil de
     simulation Geant4. La carte de densité d’un patient est donnée par un examen de
     scanner X. La navigation des photons sera implémentée sur cartes graphiques en
     utilisant des convolutions successives de noyaux d’émission et de transmission
     pré-calculés. La méthode de navigation proposée sera validée sur des données
     précliniques et des données cliniques.

12

Integration d’Openldap et d’Active Directory
anthony gautier1

 1
     CEA/irfu

Auteur(s) contact: anthony.gautier-de-lahaut@cea.fr

      Présentation de la nouvelle plateforme d’annuaire mise en place à l’IRFU.
      Cette solution permet de répondre aux problématiques de l’ancienne infrastructure basée sur NIS :
     - Centralisation des données (un seul “cluster” d’annauire).
     - Sécurisation des données (SSL/TLS).
     - Mot de passe unique (Windows/Linux).
     - Système redondant (4 serveurs/VMs).

Eclair / 24

Interface Graphique Web de Contrôle Commande pour AERA /
AUGER
Frédéric Melot1

 1
     LPSC

Auteur(s) contact: melot@in2p3.fr

     Le projet AERA de l’expérience AUGER, installée dans la pampa argentine, consiste à utiliser un
     réseau de 160 antennes radio. Nous avons développé une interface graphique permettant de surveiller
     l’état du réseau, gérer les runs et les logiciels d’acquisition ainsi que de commander les antennes. Sa
     spécificité est d’avoir été implémentée sur le Web. Elle utilise les technologies AJAX / PHP et est
     actuellement en production.

Offline / 11

LSST ou la numérisation de l’Univers
Auteur(s): Fabio Hernandez1

Co-auteur(s) Dominique Boutigny 1 ; Gaëlle SHIFRIN 2 ; Yvan Calas 1

 1
     CC-IN2P3
 2
     Centre de Calcul de l’IN2P3

                                                  Page 17
10èmes Journées Informatique de …            / Recueil des résumés

Auteur(s) contact: fabio@in2p3.fr

     L’IN2P3 participe activement à plusieurs volets du projet Large Synoptic Survey Telescope (LSST).
     Actuellement en cours de construction, ce grand instrument est conçu pour effectuer le relevé des
     objets célestes le plus complet jamais entrepris.
     Une caméra numérique de 3.2 Gigapixels installée dans un télescope de 8.4m de diamètre localisé au
     Chili permettra de capturer des images à très haute résolution du ciel observable depuis l’hémisphère
     sud. L’ensemble du ciel sera numérisé toutes les 4 nuits. Des processus automatisés de détection et
     de caractérisation des objets célestes permettront de constituer un catalogue astronomique qui sera
     progressivement raffiné, à partir du début des opérations programmé pour l’année 2022.
     Les images et le catalogue produits par l’instrument seront mis à disposition des chercheurs et per-
     mettront de couvrir un champ large de l’astrophysique : de la recherche sur le système solaire à
     la cosmologie. Au bout des dix ans du programme, le LSST aura permis de réaliser un film de
     l’univers visible depuis l’hémisphère austral et d’observer de façon instantanée les changements
     dans le ciel.
     Dans cette contribution nous présenterons une vue d’ensemble du projet, de l’acquisition des don-
     nées aux produits finaux, avec un accent sur le système distribué de traitement de données de LSST
     pour lequel le Centre de Calcul de l’IN2P3 se prépare à jouer un rôle central.

Eclair / 38

La gestion des dépôts RPM avec Pulp
Nicolas Fournials1

 1
     CC-IN2P3

Auteur(s) contact: nicolas.fournials@cc.in2p3.fr

     Pulp est le projet upstream de Red Hat Satellite 6 en matière de gestion de dépôts (RPM mais aussi
     modules Puppet, images Docker, …). Rapide présentation du nouveau compagnon de Puppet et
     Foreman dans le déploiement et la gestion de parcs Red Hat et dérivés.

Eclair / 5

Le CEA dans la fédération Renater
joel surget1

 1
     CEA/Saclay IRFU

Auteur(s) contact: joel.surget@cea.fr

     Jusqu’a maintenant, le CEA utilisait des comptes CRU pour accéder aux services Renater.
     LE CEA devrait enfin rentrer en partie dans la fédération d’identité renater courant 2016.
     La présentation portera sur les choix du CEA et le basculement des comptes CRU en comptes stan-
     dards.

Eclair / 69

                                                   Page 18
10èmes Journées Informatique de …           / Recueil des résumés

Le VPN au LPNHE
Thomas Audo1

 1
     LPNHE

     Afin de répondre à certaines difficultés rencontrées par les utilisateurs nomades, nous avons mis en
     place un accès par VPN aux différentes ressources informatiques du laboratoire. Je vous propose de
     vous présenter l’architecture mise en oeuvre basée sur OpenVPN et Docker ainsi que les questions
     et les réponses apportées concernant la sécurisation de ce type de service.

Offline / 48

Les projets Web du CC
Jean-René Rouet1

 1
     CC-IN2P3/CNRS

Auteur(s) contact: rouet@in2p3.fr

     L’équipe “Applications” a réalisé dans les dernières années des applications web en PHP basé sur le
     framework Symfony.
     Nous présenterons, l’historique et la montée en compétences sur le produit et comment nous gérons
     les projets en mode agile avec intégration continue.

Eclair / 65

Les rencontres jDev en 2017
Auteur(s): Adrien Rivière1 ; Christophe Meessen2 ; Dirk Hoffmann1
Co-auteur(s) Comité Local Organisation 3

 1
     Centre de Physique des Particules de Marseille
 2
     CPPM
 3
     proDev

Auteur(s) contact: hoffmann@cppm.in2p3.fr

     Le réseaux DevLOG organise la quatrième édition de la rencontre nationale biannuelle des développeurs
     de logiciels dans le domaine de l’Enseignement Supérieur et de la Recherche du mardi 4 au vendredi
     7 juillet 2017 à Marseille. Cet événement a vu augmenter le nombre de ses participants d’édition à
     édition. Plus de 500 personnes sont attendues à Marseille l’année prochaine.
     Nous nous proposons de faire passer un bref message de la part du comité d’organisation sur l’était
     de l’organisation, les liens et attentes vis-à-vis du RI3 et l’état d’avancement du programme.

Eclair / 20

Load Balancing avec Keepalived
François Legrand1

                                                      Page 19
Vous pouvez aussi lire