Recueil des résumés - 10èmes Journées Informatique de l'IN2P3-IRFU
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
10èmes Journées Informatique de l’IN2P3-IRFU Monday 26 September 2016 - Thursday 29 September 2016 VVF Villages Le Grand Lioran Recueil des résumés
Contents Activités des réseaux Instrumentation : DAQ & Slow Control . . . . . . . . . . . . . . . 1 Activités européennes pour la physique des hautes énergies dans AIDA-2020 WP3 . . . . 1 Analyse de PetaOctets de données cosmiques pour LSST . . . . . . . . . . . . . . . . . . 1 Après PLUME : FENIX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Arrêt automatique de serveurs basé sur un DNS . . . . . . . . . . . . . . . . . . . . . . . 2 Atelier Atrium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Atelier Docker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Atelier IPV6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Atelier Sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Atelier: Programmation concurrente en Go . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Atrium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Bilan de l’utilisation du framework Symfony2 pour le développement d’applications Web au LAL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 CCIN2P3 Enjeux, bilan et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 CMDB du CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Chartbeams : une carte intéractive des noyaux pour le GANIL . . . . . . . . . . . . . . . 6 Chartbeams : une carte intéractive des noyaux pour le GANIL . . . . . . . . . . . . . . . 7 Cluster de Virtualisation Haute Disponibilité avec Redhat Cluster Suite . . . . . . . . . . 7 Clustering NFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Comment optimiser l’utilisation du CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Communication du RI3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Comparaison et retour d’expériences des implémentations OPC UA . . . . . . . . . . . . 8 Comparatif des systèmes de stockage distribués dans le cas d’écritures intensives . . . . 9 iii
Compte-rendu de l’école informatique IN2P3 « Parallélisme sur Matériel Hétérogène » (23- 27 mai 2016) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Control room pour AUGER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 DJANGO et PyQt4 : technologies Python pour la réalisation d’une base de données de simulations numériques en astrophysique . . . . . . . . . . . . . . . . . . . . . . . . 10 Du ‘calcul électronique’ au ‘calcul intensif’: soixante ans d’ordinateurs dans la recherche nucléaire française . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Développement du système DAQ pour des caméras de l’expérience CTA . . . . . . . . . 10 Développement et évaluation d’une méthode de reconstruction par réseau de neurones pour l’imagerie radio-isotopique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Entre blog et IRC : Slack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Equipements réseaux Juniper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Evolution des modèles de calcul au LHC . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 FG-Cloud : Cloud académique pour le calcul scientifique . . . . . . . . . . . . . . . . . . 12 GPU, HPC : nouveautés et calcul parallèle au CC-IN2P3 . . . . . . . . . . . . . . . . . . . 13 GitLab CI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Go & Polymer: slow control, monitoring & computing . . . . . . . . . . . . . . . . . . . 14 Hadoop on the Cloud: the SlipStream deployment tool . . . . . . . . . . . . . . . . . . . 15 IDNum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 IHM pour contröle/commande, client lourd ou léger, la solution ADA . . . . . . . . . . . 16 Implémentation sur GPU de la propagation des photons à l’aide de l’information par trans- mission et de noyaux de convolutions. . . . . . . . . . . . . . . . . . . . . . . . . . . 16 Integration d’Openldap et d’Active Directory . . . . . . . . . . . . . . . . . . . . . . . . . 17 Interface Graphique Web de Contrôle Commande pour AERA / AUGER . . . . . . . . . . 17 LSST ou la numérisation de l’Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 La gestion des dépôts RPM avec Pulp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Le CEA dans la fédération Renater . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Le VPN au LPNHE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 Les projets Web du CC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Les rencontres jDev en 2017 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Load Balancing avec Keepalived . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Migration des plateformes NIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Mot de la direction LPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Méthode de compression polynomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Nouvelle acquisition pour LHCb avec reconstruction de tous les évènements en ligne à 30MHz sans filtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Observatoire Virtuel : Provenance des données . . . . . . . . . . . . . . . . . . . . . . . 21 Optimisation de l’infrastructure du cluster de calcul IMNC avec HTCondor . . . . . . . . 22 Outils collaboratifs CEA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Plateforme Zimbra, statut et perspectives. . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Pourquoi pas Ada 2012 ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Projet de journal SW&C for Big Sciences . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Puppet: C’est vous qui tirez les ficelles! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 RabbitMQ : un protocole de messagerie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Retour d’expérience avec sonarqube pour le contrôle-commande de la caméra du télescope LSST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Retour des groupes de discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Retour d’expérience de l’utilisation du plugin pnp4nagios pour visualiser les données de performances des sondes de Nagios. . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Salle de TP Virtuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Sauvegarde des données locales des postes clients . . . . . . . . . . . . . . . . . . . . . . 25 Service France Grille DIRAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Statut du cloud au CC-IN2P3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Summer : Stockage mutualisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Test d’authentification de connexions par tokens . . . . . . . . . . . . . . . . . . . . . . 27 UTENTOMATIC: la Gestion des comptes Unix sous Active Directory . . . . . . . . . . . 27 Une nouvelle passerelle entre l’instrumentation et l’informatique : l’Arduino . . . . . . . 27 Utilisation d’une plateforme Hadoop/Spark pour des données astrophysiques . . . . . . 28 Utiliser des radiateurs pour calculer? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 VPN au LPC Caen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Vision de la direction IN2P3 sur l’informatique et le calcul . . . . . . . . . . . . . . . . . 29 Webinaires RI3: Le retour! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Webinaires RI3: le retour! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Windows 10: Configuration entreprise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 agata : de GPFS à Ceph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
10èmes Journées Informatique de … / Recueil des résumés Ouverture / 82 Activités des réseaux Instrumentation : DAQ & Slow Control Eric Chabanne1 ; Jean-Pierre Cachemiche2 ; Pierre-Yves Duval3 1 LAPP/service electronique 2 Centre de Physique des Particules de Marseille 3 CPPM Cette présentation sera scindée en 2 parties, elle pourra donner lieu à une discussion dans le cadre même de ces JI2016, l’idée étant, bien évidemment, de renforcer les liens des 2 réseaux Instrumenta- tion de l’IN2P3 proches de la thématique “Online” avec le réseau RI3, réseau des informaticiens et de collaborer à la frontière entre informatique et électronique. Dans le cadre des activités du réseau DAQ, un certain nombre de solutions communes sont en cours de définition tant au plan matériel que logiciel. L’objectif est de disposer d’un tronc commun mod- ifiable par chaque développeur selon le contexte de son projet, et de façon à accélérer son propre développement. L’objectif affiché du travail au sein du réseau DAQ consiste à élaguer le champs des possibilités pour aboutir à un ensemble plus facile à gérer par une communauté. Le réseau Slow Control cherche à identifier des points communs dans l’approche et la conception d’un système de contrôle-commande au sein de l’Institut afin d’élaborer une sorte de référentiel IN2P3. Même si il existe clairement deux schémas d’intégration et de développement du contrôle- commande, l’objectif est de travailler sur une ou plusieurs problématiques communes tout en s’intéressant à ce qui se fait à l’extérieur. Online / 61 Activités européennes pour la physique des hautes énergies dans AIDA-2020 WP3 Hadrien Grasland1 1 UMR 8607 - LAL Auteur(s) contact: grasland@lal.in2p3.fr Le projet européen AIDA-2020 s’introduit dans la continuité du projet AIDA, dédié à la recherche sur les détecteurs de physique des particules et technologies associées. Un important volet de ce projet, le Work Package 3, est consacré au développement logiciel pour la physique des particules: nouvelles bibliothèques implémentant des représentations de données plus efficaces, mise à niveau de frameworks existants pour les nouvelles architectures parallèles, alignement online de l’expérience LHCb… Je me propose donc de présenter les efforts soutenus dans le cadre de ce work package, et en partic- ulier des manières dont l’IN2P3 y contribue. Offline / 23 Analyse de PetaOctets de données cosmiques pour LSST Auteur(s): Fabrice Jammes1 Co-auteur(s) Fabio Hernandez 2 ; Yvan Calas 2 Page 1
10èmes Journées Informatique de … / Recueil des résumés 1 CNRS 2 CC-IN2P3 Auteur(s) contact: fabrice.jammes@clermont.in2p3.fr Le Large Synoptic Survey Telescope (LSST) va bouleverser l’astronomie. Équipé du plus grand cap- teur photographique jamais conçu pour l’astronomie, ce télescope permettra de constituer le plus large et le plus profond relevé de l’univers. Dès sa mise en exploitation en 2022, le traitement des données produites par LSST nécessitera des dizaines de milliers de processeurs et une capacité de stockage de données en augmentation de plusieurs dizaines de pétaoctets chaque année et ce pendant au moins une décennie. Des objets célestes et leurs propriétés physiques seront identifiés et catalogués dans une base de données qui sera composée à terme de milliers de milliards d’entrées. D’un volume de l’ordre de plusieurs dizaines de pétaoctets, ce catalogue jouera un rôle majeur dans l’exploitation scientifique des données produites par le télescope. Pour satisfaire ce besoin, un logiciel spécifique nommé Qserv est actuellement développé par une équipe majoritairement basée à l’Université de Stanford aux Etats Unis. Cette présentation décrira l’architecture de Qserv, les défis auxquels il doit répondre, son état d’avancement ainsi que les résultats de plusieurs campagnes des tests réalisées pendant les dernières années. Les contributeurs de cet exposé font partie de l’équipe de développement de Qserv et de l’équipe opérant l’infrastructure de tests composée actuellement de 400 processeurs et 500 téraoctets de stock- age, localisée au centre de calcul de l’IN2P3 / CNRS. Outils collaboratifs / 17 Après PLUME : FENIX Auteur(s): Sophie Nicoud1 Co-auteur(s) Anne Cheylus 2 ; Cyrille Allet 3 ; Damien Ferney 4 ; Dirk Hoffmann 5 ; Henri Valeins 6 ; Karl Oulmi 7 ; Laurent Pérochon 8 1 CNRS LIRMM 2 ISC 3 Université Lille 1 4 Université Blaise Pascal Clermont-Ferrand 5 Centre de Physique des Particules de Marseille 6 Université Bordeaux 2 7 IBL 8 VetAgro-Sup Auteur(s) contact: hoffmann@cppm.in2p3.fr Le projet PLUME (https://www.projet-plume.org) a connu un franc succès comme référentiel des logiciels utilisés et produits dans l’enseignements supérieur et de la recherche en France. Après une coupure drastique des moyens en 2013, le projet a été mis en sommeil jusqu’à la reprise par Resinfo début 2016. Un groupe de travail a créé pour donner une nouvelle mouture au projet, que nous présenterons à la communauté RI3 lors de ses JI. ASR / 41 Arrêt automatique de serveurs basé sur un DNS Page 2
10èmes Journées Informatique de … / Recueil des résumés Auteur(s): Nicolas RUDOLF1 Co-auteur(s) Christophe Helfer 1 1 IPHC Avec le démarrage de la grille de calcul en 2008, un système d’arrêt automatique des serveurs a été mise en place. Il basé sur un mode client-serveur dont le serveur est un DNS, que nous utilisons tous de manière plus traditionnelle tous les jours. Depuis l’origine il permet un arrêt automatique en cas d’éventuel problème de climatisation, en 2016 il intègrera également un volet électrique. Atelier / 15 Atelier Atrium Alexandre Perrier1 ; Cedric MULLER2 ; Mathieu WALTER3 1 IN2P3 2 IPHC 3 Services centraux IN2P3 Auteur(s) contact: mathieu.walter@in2p3.fr, cedric.muller@iphc.cnrs.fr Atelier Atrium : Tout en assurant une continuité de service par rapport à l’outil EDMS, Atrium se présente résolument comme une application moderne alliant la puissance de ses concepts à une ergonomie intuitive, exclu- sivement basée sur une interface Web, que ce soit pour l‘utilisation quotidienne ou pour les fonctions d’administration. Cet atelier interactif vous permettra de découvrir Atrium et de vous familiariser avec les fonctionnalités essentielles et avancées de la plateforme. Nous pourrons également étudier vos besoins et vous proposer des solutions avec Atrium. Atelier / 32 Atelier Docker Auteur(s): Sebastien Binet1 Co-auteur(s) Antoine Pérus 2 1 LPC/IN2P3 2 Cnrs/In2p3/Lal Auteur(s) contact: sebastien.binet@cern.ch Cet Atelier presentera la technologie de virtualisation legere telle qu’implementee par Docker. Nous verrons l’architecture globale des containers docker ainsi que leurs avantages et inconvenients par rapport aux machines virtuelles (VMs). Les participants pourront ensuite creer leur premier container pas-a-pas. Tout d’abord en utilisant la methode interactive, puis via les Dockerfiles. Enfin, nous verrons comment publier et partager des containers docker au moyen du Hub. Atelier / 79 Page 3
10èmes Journées Informatique de … / Recueil des résumés Atelier IPV6 Jerome Bernier1 ; Laurent Caillat-Vallet1 ; Thierno BALDE2 1 CC-IN2P3 2 CCIN2P3 Auteur(s) contact: tbalde@cc.in2p3.fr, jerome.bernier@in2p3.fr, caillat@cc.in2p3.fr Dans cet atelier vous étudierez le format des adresses IPv6, les différents types d’adresses (locales, globales…), les mécanismes de configuration d’IPv6. Vous verrez en pratique comment cela fonc- tionne grâce à des machines et routeurs virtuels. Atelier / 60 Atelier Sécurité Bernard Boutherin1 ; Fouad Yahia2 ; Jean-Michel Barbet3 ; Yoann KERMORVANT4 ; david zwolinski5 1 LPSC 2 I.P.N.Orsay 3 Subatech 4 LPC CAEN 5 cnrs Auteur(s) contact: zwolinski@lpccaen.in2p3.fr Cet atelier permettra aux participants dans une première partie de mettre en évidence des vulnéra- bilités affectant un serveur Web classique . Seront évoqués alors : • Les problèmes de configuration et leurs conséquences : arborescence trop permissive, compro- mission de données par écritures • La résistance aux intrusions par injection de code : injections SQL, injection système • Les failles du type Cross-Site Scripting (XSS) Une seconde partie sera consacrée à la sécurité de navigateurs courants. Les points abordés seront : • Cookies traçant (Third-party cookies) • Traçabilité du navigateur (fingerprinting) • Détournement et vol de session Cet atelier disposera de 5 à 6 machines clientes virtuelles, pouvant accueillir chacune un binôme. Les participants devront simplement disposer d’un pc portable équipé d’un client SSH et d’un serveur X. Atelier / 33 Atelier: Programmation concurrente en Go Auteur(s): Sebastien Binet1 Page 4
10èmes Journées Informatique de … / Recueil des résumés Co-auteur(s) Thomas Bellembois 2 1 LPC/IN2P3 2 LPC Clermont-Ferrand Auteur(s) contact: sebastien.binet@cern.ch Cet Atelier formera les heureux participants aux concepts de base de la programmation concurrente, en Go. Nous commencerons avec un petit “Hello World” en Go pour rapidement introduire la syntaxe des fonctions, variables, packages et interfaces. Puis nous etudierons les deux outils disponibles pour organiser et orchestrer un programme concur- rent en Go: les channels et les goroutines. Cette introduction a la programmation concurrente se fera via l’implementation d’une application peer-to-peer echangeant des messages pur texte a travers le reseau. La premiere mouture de cette application se fera en mode console, puis au fur et a mesure des amelio- rations apportees au cours de l’atelier, la derniere version tournera dans un navigateur et permettra une utilisation en mode “tchat”. Outils collaboratifs / 13 Atrium Alexandre Perrier1 ; Mathieu WALTER2 1 IAO/CAO 2 Services centraux IN2P3 Afin de faire évoluer la gestion documentaire dans l’Institut, la direction adjointe technique de l’IN2P3 a souhaité mettre en place un nouvel espace collaboratif pour la gestion électronique des documents. Atrium permet notamment d’assurer la pérennité de vos documents tout en vous pro- posant une interface intuitive. Réalisée en étroite collaboration avec les experts des laboratoires, la migration d’EDMS vers Atrium est finalisée depuis mars 2016. Atrium est basé sur l’outil de gestion documentaire Nuxeo (plateforme Open Source). La Cellule IAO/CAO de l’IN2P3 et l’Equipe Projet Atrium assurent le support aux utilisateurs dans la phase d’exploitation de ce portail documentaire. Atrium a pour but d’être utilisé par tous. Son ergonomie, sa simplicité d’utilisation et la richesse de ses fonctionnalités apportent une réelle amélioration de la production et de la gestion documentaire dans les laboratoires. Atrium offre également la possibilité à tout agent de l’Institut de gérer ses pro- pres documents dans un espace personnel limité par des quotas. Atrium a pour ambition d’occuper, à terme, la place centrale dans la gestion documentaire de l’Institut. Eclair / 29 Bilan de l’utilisation du framework Symfony2 pour le développe- ment d’applications Web au LAL. Justine YUAN1 ; Serge Du1 1 LAL Page 5
10èmes Journées Informatique de … / Recueil des résumés Auteur(s) contact: yuan@lal.in2p3.fr Résumé: Nous avons adopté Symfony2 pour la refonte de 2 Applications Web en 2010. Six ans après, nous pouvons évaluer les bénéfices de ce framework pour faciliter l’évolution des applications et le démarrage de nouveaux projets. Ouverture / 77 CCIN2P3 Enjeux, bilan et perspectives Pierre-Etienne Macchi1 1 CC-IN2P3 CCIN2P3 Enjeux, bilan et perspectives Offline / 50 CMDB du CC Sylvain Reynaud1 1 CNRS Auteur(s) contact: sreynaud@in2p3.fr Description détaillée du projet - Choix d’un produit open-source - Design du schéma de données - Implémentation spécifique pour le CC - Lavoisier au coeur du process - Limitations du produit choisi - Intégration d’un base de donnée orientée Graphe - Interface WEB (graphe dynamique) Poster / 75 Chartbeams : une carte intéractive des noyaux pour le GANIL Laurent Fortin1 1 GANIL Auteur(s) contact: fortin@ganil.fr Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et com- préhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL. Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en 2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est proposée à la communauté avec intégration des données SPIRAL2. Page 6
10èmes Journées Informatique de … / Recueil des résumés Eclair / 71 Chartbeams : une carte intéractive des noyaux pour le GANIL Laurent Fortin1 1 GANIL Auteur(s) contact: fortin@ganil.fr Cette carte, dans son nouvel habit, se veut un outil interactif fournissant, de façon rapide et com- préhensible, les données et caractéristiques des faisceaux produits dans les installations du GANIL. Présentation de l’outil ; Initiée en 2006 avec les SHE, une première version fait son apparition en 2011. En 2013, une version « Européenne » ChartECOS voit le jour. 2015 une nouvelle carte est proposée à la communauté avec intégration des données SPIRAL2. ASR / 9 Cluster de Virtualisation Haute Disponibilité avec Redhat Clus- ter Suite Christophe DIARRA1 1 IPN ORSAY Auteur(s) contact: diarra@ipno.in2p3.fr Redhat Cluster Suite (RHCS) permet de créer un cluster de virtualisation haute disponibilité (High Availability). A l’IPNO RHCS a été déployé sur deux noeuds Dell R620 en mode actif-actif permet- tant la migration à chaud des VM. Par ailleurs en cas de défaillance d’un des deux noeuds, le noeud vivant redémarre automatiquement les VM du noeud absent. Les images des VM sont installées sur des volumes LVM reposant sur DRBD (Distributed Replicated Block Device). DRBD assure la repli- cation des blocs entre les deux noeuds via une liaison dédiée 10Gb permettant ainsi un mirroring des données sur les deux noeuds. DRBD évite le recours à un stockage de type SAN ou NFS pour stocker les images des VM. Les 14 VM gérées actuellement (des services de la grille de calcul) tournent sous KVM. Un mécanisme de fencing assure qu’une VM ne peux jamais être démarrée en même temps sur les deux noeuds en cas de perte de connectivité entre les deux neouds (split brain). Les scripts maison, les utilitaires et les images ISO sont sauvées dans une partition GFS2 sous Clus- tered LVM au dessus de DRDB. Le cluster est en production depuis fin Décembre 2014 sous Linux SL 6.5. 42 Clustering NFS Benoit DELAUNAY1 1 Centre de Calcul de l’IN2P3 Auteur(s) contact: delaunay@in2p3.fr L’objectif de cette présentation est de dresser un inventaire (pas forcément exhaustif) des technolo- gies disponibles dans l’opensource pour construire un cluster NFS, c’est à dire une plateforme NFS Page 7
10èmes Journées Informatique de … / Recueil des résumés disponible, maintenable et performante. Ces 3 critères seront présentés et discutés. 2 architectures de plateformes seraient présentées. Mots clés : NFS, opensource, haute disponibilité, systèmes de fichiers distribués Offline / 30 Comment optimiser l’utilisation du CPU Jean Jacquemier1 ; Pierre Aubert1 1 LAPP Auteur(s) contact: pierre.aubert@lapp.in2p3.fr L’expérience CTA sera le plus grand observatoire d’astronomie gamma au monde. Elle produira un flux de données 1000 fois plus important que l’expérience précédente H.E.S.S. Les performances des codes d’analyse existants ne permettent pas de soutenir le traitement d’une telle quantité de données. Nous présenterons les différentes techniques d’optimisation qui viennent de l’informatique hautes performances que nous mettons en œuvre dans nos codes d’analyse. Ceci afin de garantir une utili- sation du CPU de 99% au lieu des 2 à 5% actuels. Eclair / 63 Communication du RI3 Auteur(s): Frédérique Chollet1 Co-auteur(s) Christian Helft 2 ; Dirk Hoffmann 3 ; Eric Legay 4 ; Jean-René Rouet 5 ; Muriel GOUGEROT 6 ; Pierre- Etienne Macchi 7 ; joel surget 8 1 LAPP-IN2P3 2 LAL 3 Centre de Physique des Particules de Marseille 4 CSNSM 5 CC-IN2P3/CNRS 6 LAPP 7 CC-IN2P3 8 CEA/Saclay IRFU Auteur(s) contact: hoffmann@cppm.in2p3.fr Présentation rapide du RI3 (Réseau des Informaticiens de l’IN2P3 et de l’IRFU), des actions récur- rentes, des groupes existants et des prochains rendez-vous… …en attendant les prochaines JIs en 2018! Online / 67 Comparaison et retour d’expériences des implémentations OPC UA Page 8
10èmes Journées Informatique de … / Recueil des résumés Dirk Hoffmann1 ; Eric Chabanne2 ; Jean Luc Panazol2 ; Patrick Sizun3 ; Philippe Gauron4 ; Piotr NIKIEL5 ; Thierry Le Flour2 1 CPPM 2 LAPP 3 CEA, IRFU, SEDI 4 LAL 5 CERN Auteur(s) contact: gauron@lal.in2p3.fr, piotr.nikiel@cern.ch, chabanne@lapp.in2p3.fr, hoffmann@cppm.in2p3.fr, leflour@lapp.in2p3.fr Offline / 28 Comparatif des systèmes de stockage distribués dans le cas d’écritures intensives Denis PUGNERE1 1 IPNL Auteur(s) contact: d.pugnere@ipnl.in2p3.fr Dans cette présentation, je vous décrierai les besoins de l’expérience WA105, la configuration tech- nique de tests (1 client équipé de 2 cartes 40gb/s, 9 éléments de stockage à 10gb/s chacun), les choix initiaux des systèmes de fichiers distribués que nous testerons (Lustre, BeeGFS, GPFS, Xtremefs, GlusterFS, MooseFS, XrootD, EOS…) mais aussi les tests réalisés pour chacun avec les débits ob- servés en fonction du nombre d’éléments de stockage (1, 2, 4, 8…), de la taille des fichiers (100Mo, 1Go, 10Go, 20Go) mais aussi en fonction du nombre de processus simultanés en écriture (1,6,8). Je vous monterai ensuite les débit attendus et présents, ainsi que les résultats pour chacun des tests réalisés. Je conclurai alors avec les préconisations adaptées à ce cas précis. Offline / 78 Compte-rendu de l’école informatique IN2P3 « Parallélisme sur Matériel Hétérogène » (23-27 mai 2016) Vincent LAFAGE1 1 CNRS Auteur(s) contact: lafage@ipno.in2p3.fr Je récapitulerai sommairemment les différentes technologies mise en œuvre (OpenMP, C++’11 & HPX, MPI, OpenCL, DSL-Python) lors de cette école notamment au niveau des résultats et de l’impact sur le code initial ainsi que les présentations qui n’ont pas débouché sur une implémentation (comme OpenCL pour FPGA). On fera notamment le lien avec la programmation fonctionnelle dont il a été question lors de la précédente sessio (JI 2014). Eclair / 44 Control room pour AUGER Page 9
10èmes Journées Informatique de … / Recueil des résumés Frédéric Melot1 1 LPSC Auteur(s) contact: melot@in2p3.fr Afin de diminuer les voyages couteux vers l’Argentine, le LPSC est en cours de préparation d’une salle de contrôle à distance pour l’expérience AUGER. Cette salle dédiée sera équipée de trois ordinateurs et de 10 écrans et permettra de participer aux shifts de l’expérience à distance. Offline / 25 DJANGO et PyQt4 : technologies Python pour la réalisation d’une base de données de simulations numériques en astrophysique Damien CHAPON1 1 CEA Auteur(s) contact: damien.chapon@cea.fr Le framework de développement d’application web DJANGO (Python) est utilisé pour l’implémentation d’une base de données de simulations numériques en astrophysique, appelée CoastDB (online). Le modèle de données suit fidèlement le standard SimDM de l’observatoire virtuel international (IVOA). Le système d’ORM de DJANGO calque ce modèle de données dans une base MySQL. Le remplissage de cette base de données est facilité par une interface graphique Horus (offline), implémentée en PyQt4 (binding Python à la librairie Qt4), et qui permet d’exporter des données réduites issues des simulations numériques réalisées par les astrophysiciens directement dans un format téléchargeable sur l’application web CoastDB. Ouverture / 73 Du ‘calcul électronique’ au ‘calcul intensif’: soixante ans d’ordinateurs dans la recherche nucléaire française Pierre Mounier-Kuhn1 1 CNRS & Université Paris - Sorbonne résumé à suivre (juillet-août) Online / 66 Développement du système DAQ pour des caméras de l’expérience CTA Dirk Hoffmann1 ; Julien Houles1 1 Centre de Physique des Particules de Marseille Page 10
10èmes Journées Informatique de … / Recueil des résumés Auteur(s) contact: houles@cppm.in2p3.fr, hoffmann@cppm.in2p3.fr Eclair / 59 Développement et évaluation d’une méthode de reconstruction par réseau de neurones pour l’imagerie radio-isotopique Françoise Lefebvre1 1 IMNC CNRS Auteur(s) contact: lefebvre@imnc.in2p3.fr Dans le cadre de la mise au point d’instruments pour guider le chirurgien en temps réel dans la localisation et l’ablation précise des foyers tumoraux, une nouvelle génération de détecteurs per- opératoires basés sur la technologie des photomultiplicateurs silicium est en cours de développement. Au-delà du système de détection, la qualité des images obtenues dépend fortement du choix de la méthode de reconstruction de la position d’interaction des particules dans le détecteur à partir des caractéristiques des signaux physiques générés. Outre permettre de reconstruire les images avec une bonne résolution et une faible distorsion, la méthode retenue doit être opérationnelle pour un système d’imagerie temps réel afin d’être intégrée dans le logiciel d’acquisition existant (Qt/C++). Nous avons mené une étude basée sur l’approche par réseaux de neurones. Pour cela, une base de signaux d’évènements de caractéristiques connues a été générée afin d’apprendre au réseau à associer une position à un signal donné. Après cette phase d’apprentissage, le réseau est en mesure de généraliser à des signaux inconnus. Nous proposons de présenter les outils développés et testés pour mener cette étude ainsi que les principaux résultats obtenus en imagerie beta et gamma. Eclair / 64 Entre blog et IRC : Slack Dirk Hoffmann1 ; Jean-Paul Le Fèvre2 1 Centre de Physique des Particules de Marseille 2 CEA Irfu Auteur(s) contact: hoffmann@cppm.in2p3.fr L’outil Slack (slack.com) a récemment fait apparition sur nos radars. Il semble très intéressant, peut- être qu’on pourrait même l’exploiter à titre d’essai / d’illustration. Dans ce cas, il faudrait prévoir notre présentation en début des JI pour expliquer comment cela marche (ji.slack.com). C’est un bon moyen pour impliquer les gens à distance via un chat non-existant ; à voir dans le contexte du webcast, selon s’il est possible ou pas. Il y a par ailleurs la collaboration IceCube qui l’utilise de manière professionnelle (c’est-à-dire ils ont payé le service amélioré de Slack) ; on essaiera d’en savoir plus. Il faut voir, si on peut établir un lien avec les présentaitons “outils collaboratifs” du CEA et de LSST. Eclair / 40 Equipements réseaux Juniper Page 11
10èmes Journées Informatique de … / Recueil des résumés Nicolas RUDOLF1 1 IPHC Après plus de 20 ans de fonctionnement avec des équipements de marque Cisco, le réseau de l’IPHC a été renouvelé en 2015 avec du matériel de marque Juniper. Un bref aperçu de JunOS le système d’exploitation, sa structure et son langage. Un bilan après un an de fonctionnement. Offline / 58 Evolution des modèles de calcul au LHC Catherine Biscarat1 1 LPSC/IN2P3/CNRS Auteur(s) contact: biscarat@in2p3.fr Les modèles de calcul des expériences du LHC ont été mis en place autour de la création d’une grille de calcul et de stockage mondiale dans les années 2000. Cette infrastructure distribuée a parfaite- ment rempli son rôle et a été l’un des ingrédients indéniables des avancées scientifiques obtenues au LHC depuis son démarrage en 2009. Fortes de l’expérience gagnée lors des premières années de fonctionnement de cette grille, les expériences du LHC modifient leurs modèles de calcul pour gag- ner en efficacité et en souplesse dans le but notamment d’intégrer des ressources “hors grille” afin d’anticiper le déluge de données du LHC. Dans cette présentation, nous décrirons l’infrastructure de ce système distribué et les modèles mis en place par les expériences, la contribution française au calcul pour le LHC et les évolutions récentes des modèles de calcul. Quelques mots sur les challenges qui nous attendent à plus long terme concluront cette présentation. ASR / 68 FG-Cloud : Cloud académique pour le calcul scientifique Auteur(s): Nicolas CLEMENTIN1 Co-auteur(s) Adrien RAMPARISON 2 ; Andrei Tsaregorodtsev 3 ; Catherine Biscarat 4 ; Charles Loomis 5 ; Christine GONDRAND 6 ; Cyrille Toulet 7 ; Cécile Cavet 8 ; François Thiebolt 9 ; Geneviève Romier 10 ; Gilles Mathieu 11 ; Guillaume PHILIPPON 12 ; Jean-Marc Pierson 9 ; Jerome Pansanel 13 ; Matthieu Marquillie 7 ; Mattieu Puel 14 ; Michel Jouvin 15 ; Samuel VISCAPI 16 ; Vanessa Hamar 17 ; Vincent Legoll 18 ; sebastien geiger 19 1 CNRS-LUPM 2 CNRS 3 CPPM, Marseille 4 LPSC/IN2P3/CNRS 5 LAL-Orsay 6 LPSC 7 Université de Lille 1 8 APC 9 IRIT 10 CNRS-IN2P3 Institut des Grilles et du Cloud 11 INSERM 12 LAL - CNRS 13 IPHC - CNRS Page 12
10èmes Journées Informatique de … / Recueil des résumés 14 CC-IN2P3 15 LAL / CNRS 16 LUPM / CNRS 17 CC - IN2P3 18 IDGC / CNRS 19 IN2P3 Auteur(s) contact: nicolas.clementin@univ-montp2.fr Le GIS France Grilles, initialement focalisé sur les grilles de calcul et de stockage, propose désormais une offre de services basée sur le « Cloud Computing » IaaS. Il s’agit, au travers de l’intégration des dernières avancées technologiques, de proposer un service répondant aux évolutions des besoins de traitement des données scientifiques, notamment en terme d’élasticité et de flexibilité. France Grilles a donc développé, toujours sur le principe de partage et de mutualisation d’expertise, une fédération de Clouds IaaS, rassemblant des ressources (calcul, stockage, réseau et humaines) fournies librement par les différents sites participants en leur imposant le minimum de contraintes. En première partie, nous présenterons les caractéristiques de l’infrastructure : • les sites et le réseau humain à la base de l’infrastructure • les technologies utilisées • les services en production • l’accueil de nouveaux sites participants • l’intégration à l’échelle européenne et la certification EGI La deuxième partie détaillera quelques exemples d’utilisation de l’infrastructure, et en particulier les apprentissages que nous avons pu tirer du Cloud Challenge, test grandeur nature de l’infrastructure par un utilisateur expert. Nous finirons par un rappel sur les modalités d’accès au Cloud France Grilles et les différents services offerts aux utilisateurs : • Instanciation de clusters (calcul, stockage, réseau) à la demande • Accompagnement (formation, conseil, aide) • Documentation • Développements (relatifs à l’instanciation sur le Cloud) • Passerelle vers le Cloud fédéré EGI ASR / 39 GPU, HPC : nouveautés et calcul parallèle au CC-IN2P3 Nicolas Fournials1 1 CC-IN2P3 Auteur(s) contact: nicolas.fournials@cc.in2p3.fr Le CC-IN2P3 a deux actualités marquantes cette année en matière de calcul parallèle : • une nouvelle ferme HPC Page 13
10èmes Journées Informatique de … / Recueil des résumés • une ferme équipée de GPU Tour d’horizon de ces nouveautés : à quoi ressemblent-elles, pourquoi et comment les utiliser ? Eclair / 49 GitLab CI Jean-René Rouet1 ; Thibaut Salanon2 1 CC-IN2P3/CNRS 2 CC-IN2P3 Auteur(s) contact: rouet@in2p3.fr Vous connaissez tous gitlab.in2p3.fr, le clone de GitHub pour les collaborateurs des projets de développe- ments de l’IN2P. Avec GitLab est fourni maintenant une fonctionnalité d’intégration continue. Cela permet d’exécuter de façon automatique des tests, des builds et des déploiements. Ceci sera le teaser de la fonctionnalité. Online / 56 Go & Polymer: slow control, monitoring & computing Sebastien Binet1 1 LPC/IN2P3 Auteur(s) contact: sebastien.binet@cern.ch Go est un langage de programmation relativement récent qui a pour substrat un code ADN qui facilite la programmation concurrente. Dans cette présentation, nous verrons comment ce langage peut être utilisé dans le cadre d’applications temps réels (soft realtime) comprenant plusieurs modules: • acquisition de données provenant d’un bus système ou d’un socket, • réception/envoi de commandes depuis/vers des variateurs et • présentation et monitoring de données en temps réel mou (soft realtime), en mode déporté ou local. Nous présenterons les différentes technologies utilisées (Go, Polymer/JS, WebSockets) et les perfor- mances obtenues dans quelques cas concrets: • contrôle commande du testbench LSST-LPC, • DAQ d’AVIRM-LPC, • simulation de supernovae pour LSST. Page 14
10èmes Journées Informatique de … / Recueil des résumés 14 Hadoop on the Cloud: the SlipStream deployment tool Cécile Cavet1 1 APC Auteur(s) contact: cecile.cavet@apc.univ-paris7.fr Cloud computing is a recent informatics paradigm which offers IT resources on-demand. The IaaS (Infrastructure-as-a-Service) layer provides virtual machines, storage and network to run applica- tions in a customised environment. Since recently, Cloud technology has reached a high level of maturity by offering a huge stack of services. But the management of complex workflow can still encounter some problems. Indeed, automatic deployment of environnement on the Cloud can be difficult, especially in the case of cluster. In cluster environnement, master and slave nodes need to exchange information in order to set up system services. Several tools such as SlipStream (1), a PaaS (Platform-as-a-Service) solution, have been developed in order to manage automatic deployment on interoperable Cloud platforms. The SlipStream solution provides a Web interface allowing the use of several Cloud connectors. The management of the automatic deployment is based on recipes (shell script) which install and configure each type of nodes. The SlipStream tool was first developed in accordance with the StratusLab (2) solution. This european research project has provided since 2010 a public open-source Cloud solution to the academic community. For this study, we have used StratusLab@LAL (Laboratoire de l’Accélérateur Linéaire, Orsay, France). In the Big Data framework, the Hadoop (3) technology is often associated to the Cloud technol- ogy. Indeed, the treatment of huge volume of data requires specific Hadoop clusters that are not often present at this time. The Cloud infrastructure thus allows to deploy a Hadoop virtual clus- ter on-demand. We have used the HortonWorks (4) distribution to build a Hadoop cluster on the StratusLab infrastructure with the SlipStream tool. We have written recipes to deploy the Hadoop 2 (YARN) services on one master and three slaves. We describe the methodology that we have followed to fine-tune Hadoop configuration file parameters. Furthermore, we have realised benchmarks of performance (HiBench, (5)) in order to validate the cluster set up. We have also run typical MapRe- duce jobs on huge volume of data in order to show the interest of this data treatment for scientific projects. References: (1) SlipStream: http://sixsq.com/products/slipstream.html (2) StratusLab: http://stratuslab.eu/index.html (3) Hadoop: http://hadoop.apache.org (4) HortonWorks: http://hortonworks.com (5) HiBench: https://github.com/intel-hadoop/HiBench 51 IDNum Jean-René Rouet1 1 CC-IN2P3/CNRS Auteur(s) contact: rouet@in2p3.fr Gestion d’identité numérique du CC - but du projet - architecture globale - use case compte de calcul - self service - use case annuaire page blanche - Identity Provider IN2P3 Page 15
10èmes Journées Informatique de … / Recueil des résumés Online / 57 IHM pour contröle/commande, client lourd ou léger, la solution ADA Jean Louis Coacolo1 1 IPNO Présentation de l’interface graphique développée à l’aide de la bibliothèque Gtkada pour le contrôle et commande de l’équipex Andromede (instrument pour l’analyse par spectrométrie de masse) et des interfaces web utilisant le serveur AWS (Ada Web Server) dans le cadre des projets Cocote et Gaspard (détecteurs). 53 Implémentation sur GPU de la propagation des photons à l’aide de l’information par transmission et de noyaux de convolutions. Clément Rey1 ; Emmanuel Medernach2 ; Ziad EL BITAR3 1 CNRS 2 CNRS IN2P3 IPHC 3 IPHC Auteur(s) contact: emmanuel.medernach@iphc.cnrs.fr La Tomographie d’Emission MonoPhotonique (TEMP) est une modalité d’imagerie médicale basée sur l’administration à un patient de molécules radio-labellisées. Le radio-isotope utilisé en TEMP est un émetteur de photons détectés par une gamma-caméra. En mode tomographique, la gamma-caméra tourne autour du patient et acquiert un ensemble de projections. A partir des projections acquises, on estime la distribution 3D du radio-isotope injecté. Les effets physiques comme l’effet Photoélectrique et la diffusion Compton sont responsables de la dégradation des images reconstruites car ils sont à l’origine d’une fausse estimation de la concentration du produit radioactif et/ou de sa localisation. Si ces effets physiques ne sont pas corrigés, une dégradation importante du rapport signal-sur-bruit, de la restauration de contraste et de la résolution spatiale est observée dans les images reconstruites ce qui pourrait fausser le diagnostique établi par le médecin. Une méthode pour corriger ces effets physiques consiste à les modéliser et à intégrer le modèle dans un algorithme de reconstruction itérative. Plusieurs méthodes analytiques ont été utilisées pour modéliser ces effets (Photoélectrique, Compton). Bien que les méthodes analytiques soient rapides, leur mise en œuvre peut être complexe quand il s’agit de les implémenter pour des milieux hétérogènes (composition du corps humain) et les géométries originales de détecteurs. Aussi l’utilisation des simulations Monte-Carlo permet la modélisation des effets physiques subies par les photons durant un examen TEMP et donc la correction implicite lors de la reconstruction. Cependant, ces simulations sont très couteuses en temps de calcul et leur utilisation est à ce jour inappropriée pour des applications cliniques où souvent le taux d’examens d’imagerie journalier est assez élevé surtout si des reconstructions d’images personnalisées sont demandées. Durant ce projet, nous proposons une méthode d’accélération sur carte graphique (GPU) de la modélisation des effets physiques subis par des photons à l’intérieur d’un patient et ce dans un délai acceptable en routine clinique. Page 16
10èmes Journées Informatique de … / Recueil des résumés Les noyaux d’émission et de transmission seront calculés par l’outil de simulation Geant4. La carte de densité d’un patient est donnée par un examen de scanner X. La navigation des photons sera implémentée sur cartes graphiques en utilisant des convolutions successives de noyaux d’émission et de transmission pré-calculés. La méthode de navigation proposée sera validée sur des données précliniques et des données cliniques. 12 Integration d’Openldap et d’Active Directory anthony gautier1 1 CEA/irfu Auteur(s) contact: anthony.gautier-de-lahaut@cea.fr Présentation de la nouvelle plateforme d’annuaire mise en place à l’IRFU. Cette solution permet de répondre aux problématiques de l’ancienne infrastructure basée sur NIS : - Centralisation des données (un seul “cluster” d’annauire). - Sécurisation des données (SSL/TLS). - Mot de passe unique (Windows/Linux). - Système redondant (4 serveurs/VMs). Eclair / 24 Interface Graphique Web de Contrôle Commande pour AERA / AUGER Frédéric Melot1 1 LPSC Auteur(s) contact: melot@in2p3.fr Le projet AERA de l’expérience AUGER, installée dans la pampa argentine, consiste à utiliser un réseau de 160 antennes radio. Nous avons développé une interface graphique permettant de surveiller l’état du réseau, gérer les runs et les logiciels d’acquisition ainsi que de commander les antennes. Sa spécificité est d’avoir été implémentée sur le Web. Elle utilise les technologies AJAX / PHP et est actuellement en production. Offline / 11 LSST ou la numérisation de l’Univers Auteur(s): Fabio Hernandez1 Co-auteur(s) Dominique Boutigny 1 ; Gaëlle SHIFRIN 2 ; Yvan Calas 1 1 CC-IN2P3 2 Centre de Calcul de l’IN2P3 Page 17
10èmes Journées Informatique de … / Recueil des résumés Auteur(s) contact: fabio@in2p3.fr L’IN2P3 participe activement à plusieurs volets du projet Large Synoptic Survey Telescope (LSST). Actuellement en cours de construction, ce grand instrument est conçu pour effectuer le relevé des objets célestes le plus complet jamais entrepris. Une caméra numérique de 3.2 Gigapixels installée dans un télescope de 8.4m de diamètre localisé au Chili permettra de capturer des images à très haute résolution du ciel observable depuis l’hémisphère sud. L’ensemble du ciel sera numérisé toutes les 4 nuits. Des processus automatisés de détection et de caractérisation des objets célestes permettront de constituer un catalogue astronomique qui sera progressivement raffiné, à partir du début des opérations programmé pour l’année 2022. Les images et le catalogue produits par l’instrument seront mis à disposition des chercheurs et per- mettront de couvrir un champ large de l’astrophysique : de la recherche sur le système solaire à la cosmologie. Au bout des dix ans du programme, le LSST aura permis de réaliser un film de l’univers visible depuis l’hémisphère austral et d’observer de façon instantanée les changements dans le ciel. Dans cette contribution nous présenterons une vue d’ensemble du projet, de l’acquisition des don- nées aux produits finaux, avec un accent sur le système distribué de traitement de données de LSST pour lequel le Centre de Calcul de l’IN2P3 se prépare à jouer un rôle central. Eclair / 38 La gestion des dépôts RPM avec Pulp Nicolas Fournials1 1 CC-IN2P3 Auteur(s) contact: nicolas.fournials@cc.in2p3.fr Pulp est le projet upstream de Red Hat Satellite 6 en matière de gestion de dépôts (RPM mais aussi modules Puppet, images Docker, …). Rapide présentation du nouveau compagnon de Puppet et Foreman dans le déploiement et la gestion de parcs Red Hat et dérivés. Eclair / 5 Le CEA dans la fédération Renater joel surget1 1 CEA/Saclay IRFU Auteur(s) contact: joel.surget@cea.fr Jusqu’a maintenant, le CEA utilisait des comptes CRU pour accéder aux services Renater. LE CEA devrait enfin rentrer en partie dans la fédération d’identité renater courant 2016. La présentation portera sur les choix du CEA et le basculement des comptes CRU en comptes stan- dards. Eclair / 69 Page 18
10èmes Journées Informatique de … / Recueil des résumés Le VPN au LPNHE Thomas Audo1 1 LPNHE Afin de répondre à certaines difficultés rencontrées par les utilisateurs nomades, nous avons mis en place un accès par VPN aux différentes ressources informatiques du laboratoire. Je vous propose de vous présenter l’architecture mise en oeuvre basée sur OpenVPN et Docker ainsi que les questions et les réponses apportées concernant la sécurisation de ce type de service. Offline / 48 Les projets Web du CC Jean-René Rouet1 1 CC-IN2P3/CNRS Auteur(s) contact: rouet@in2p3.fr L’équipe “Applications” a réalisé dans les dernières années des applications web en PHP basé sur le framework Symfony. Nous présenterons, l’historique et la montée en compétences sur le produit et comment nous gérons les projets en mode agile avec intégration continue. Eclair / 65 Les rencontres jDev en 2017 Auteur(s): Adrien Rivière1 ; Christophe Meessen2 ; Dirk Hoffmann1 Co-auteur(s) Comité Local Organisation 3 1 Centre de Physique des Particules de Marseille 2 CPPM 3 proDev Auteur(s) contact: hoffmann@cppm.in2p3.fr Le réseaux DevLOG organise la quatrième édition de la rencontre nationale biannuelle des développeurs de logiciels dans le domaine de l’Enseignement Supérieur et de la Recherche du mardi 4 au vendredi 7 juillet 2017 à Marseille. Cet événement a vu augmenter le nombre de ses participants d’édition à édition. Plus de 500 personnes sont attendues à Marseille l’année prochaine. Nous nous proposons de faire passer un bref message de la part du comité d’organisation sur l’était de l’organisation, les liens et attentes vis-à-vis du RI3 et l’état d’avancement du programme. Eclair / 20 Load Balancing avec Keepalived François Legrand1 Page 19
Vous pouvez aussi lire