SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking La plate-forme Contrail Networking de Juniper Networks est une solution SDN (Software Defined Networks) Open Source qui vise à automatiser et orchestrer la création de réseaux virtuels dans les datacenter afin de simplifier et accélérer le lancement de nouveaux services en s’appuyant sur la gestion des NFV (Network Functions Virtualization) dans un environnement ouvert qui permet ainsi au client d’éviter la dépendance à un seul fournisseur. A l’occasion de l’OpenStack Summit, la semaine dernière à Austin, Juniper a annoncé plusieurs évolutions de son offre. Des conteneurs dans les réseaux virtuels Aux principaux hyperviseurs du marché, systèmes d’orchestration et réseaux physiques que supporte Contrail, l’équipementier y ajoute aujourd’hui la prise en charge de Docker et plus généralement les technologies de conteneurs. Les clients peuvent donc désormais ajouter des containers à leurs réseaux virtualisés. De plus, Contrail peut aussi être intégré aux outils d’orchestration et de gestion des conteneurs, comme Kubernetes de Google que Juniper site en particulier. Ce qui permet de « réaliser une segmentation réseau dans des ‘pods’ Kubernetes, avance Pratik Roychowdhury, responsable produits. Ces pods, identifiés par des ‘étiquettes’ Kubernetes, sont en mesure d’exécuter des micro services tandis que Contrail Networking assure la segmentation du réseau requise ». Réputées plus performantes et plus denses que les machines virtuelles, les technologies de conteneurisation devraient donc améliorer les performances réseau des datacenter et autres services Cloud. Dans ce cadre, l’offre conteneur de Contrail devrait aider les fournisseurs de services Cloud qui souhaitent migrer leurs solutions vers les architectures en micro services. Le firewall SRX « conteneurisé » Joignant le geste à la parole, Juniper a en parallèle annoncé cSRX que « Contrail Docker » pourrait accueillir. Il s’agit d’une version « conteneurisée » du firewall SRX maison. Cette nouvelle déclinaison de solution pare-feu intègre le service de sécurisation du contenu AppSecure et la gestion unifiée des menaces (UTM). Son déploiement comme micro service permettra d’économiser les encombrements des traditionnelles appliances et d’accélérer le déploiement des services de sécurité sur le réseau tout en espérant tirer des bénéfices en termes de performances.
L’arrivée des conteneurs n’est pas la seule innovation annoncée pour Contrail lors de l’événement OpenStack. Juniper lance également « vCenter as an OpenStack compute ». Ce service permet d’installer des VM dans un environnement vCenter en autorisant Nova (l’outil d’intégration de Docker dans OpenStack) à rediriger les appels des API vers l’environnement de VMware. Cela afin d’étendre le réseau virtuel OpenStack à l’environnement vCenter. Une offre qui s’inscrit dans la volonté de Juniper de permettre d’interconnecter les environnements historiques des clients qui s’évitent ainsi l’onéreux remplacement du matériel installé. Chaînage à la pelle Pour finir, l’équipementier assure que les opérateurs pourront profiter de nombreuses fonctions de chaînage qui permettent l’exploitation des NFV grâce aux dernières avancées de sa plate-forme SDN. Et de citer le chaînage des services P+V (association de fonctions réseau physiques et virtuelles dans la même chaîne de services), l’IPv6 (primordial en ces temps de disette d’adresses IPv4 pour assurer la transition vers le nouveau protocole IP), la définition de règles régissant le trafic entre deux réseaux virtuels, la surveillance de l’état de la chaîne de services et la commutation des chaînes de services sur deux datacenter pour assurer la continuité de service en cas de défaillance. En apparence, Contrail Neworking semble donc en mesure de répondre à la plupart des environnements Cloud des opérateurs et fournisseurs de services, dont les workloads se débattent aujourd’hui autour de multiples hyperviseurs, orchestrateurs et autres « véhicules informatiques » (serveurs bare metal, machines virtuelles, espaces de nommage et, désormais, conteneurs). Sur le papier du moins. Une offre qui séduit notamment Orange et sa division entreprise Orange Business Services (pour CloudWatt), AT&T, NTTi3 ou encore Symantec. Lire également Thomas Desrues, Juniper : «Les choses sérieuses commencent autour du SDN/NFV» Juniper Networks unifie optique et IP dans ses routeurs PTX et MX Juniper Networks dissocie son OS Junos de ses équipements réseaux
crédit photo © Dabarti CGI – shutterstock L’ordinateur quantique va rendre tout le chiffrement obsolète Comment chiffrer des données pour les rendre inaccessibles à un décodage par un ordinateur quantique ? A mesure que l’informatique quantique prend corps – même s’il reste impossible d’affirmer qu’on sera un jour en mesure de bâtir de larges systèmes de ce type -, la question taraude de plus en plus les experts en chiffrement. Pour une raison simple que résume un rapport que vient de publier l’Académie américaine des technologies (le NIST, National Institute of Standard and Technology) : « si des ordinateurs quantiques à large spectre sont un jour produits, ils seront en mesure de casser une large part des systèmes de chiffrement à clefs publiques actuellement en usage ». Le NIST estime ainsi que les technologies RSA, le chiffrement par courbes elliptiques (ECDSA, ECDH) et le chiffrement DSA ne seront plus sûrs dès qu’un ordinateur quantique verra le jour. Seuls AES et les algorithmes de hachage SHA-2 et SHA-3 devraient échapper au jeu de massacre… mais à condition de se renforcer. D’où la recherche de technologies cryptographiques résistantes au quantique et capables d’interopérer avec les protocoles de communication et les réseaux actuels. « Tout le monde, depuis les grandes sociétés informatiques jusqu’aux gouvernements, est en quête d’algorithmes de chiffrement résistant au quantique », assure Dustin Moody, mathématicien du NIST. L’enjeu : être prêt quand les premiers ordinateurs quantiques seront opérationnels.
Standardiser le chiffrement résistant au quantique Car cette informatique exploitant les états atomiques va projeter l’industrie dans une nouvelle ère. En mars, une équipe du MIT et de l’Université d’Innsbruck en Autriche publiait une étude dans Science dans laquelle il présentait un système renfermant 5 qubits – l’équivalent quantique du bit – et implémentant un algorithme permettant de casser des clefs de chiffrement reposant sur la factorisation de grands nombres, une méthode largement utilisée aujourd’hui. Même si un ordinateur quantique suffisamment puissant pour casser par exemple une clef RSA reste à construire – l’étude du MIT se limite à démontrer la faisabilité du mécanisme -, la NSA prend l’affaire très au sérieux. L’agence de renseignement, dont on connaît l’intérêt pour le chiffrement, a publié en février une foire aux questions dans laquelle elle indique s’éloigner des algorithmes friables à l’informatique quantique. [[Retrouver l’infographie : Comprendre l’ordinateur quantique]] Pour préparer ce qui s’annonce comme une révolution du chiffrement, le NIST suggère aux entreprises de se préparer à être « crypto-agiles », autrement dit à implémenter des technologies permettant de remplacer rapidement des algorithmes devenus fragiles du fait des avancées de l’informatique quantique. Et s’engage dans la définition de critères d’évaluation de ce qu’est un standard de chiffrement à clef publique résistant à l’informatique quantique ainsi que dans la création d’algorithmes plus résistants, via un concours public. Par ce biais, le NIST souhaite sélectionner, à des fins de standardisation, au moins un algorithme pour le chiffrement à clef publique, un autre pour les signatures électroniques et un troisième pour l’échange de clefs. Les candidats devront soumettre leurs propositions en 2017 ; celles-ci seront passées au crible pendant 2 ou 3 ans avant leur standardisation, indique l’organisation. Modifier TLS Mais, pour l’Académie des technologies US, l’impact de cette adaptation du chiffrement à une nouvelle ère s’annonce comme non négligeable. « Il semble improbable qu’aucun des algorithmes actuellement connus puisse remplacer à la volée ce qui est en usage aujourd’hui, écrit l’organisation. Un des défis réside dans le fait que la plupart des algorithmes résistant au quantique ont des clefs plus longues que les algorithmes qu’ils sont appelés à remplacer. » Conséquence : faute de pouvoir s’opérer via un remplacement à la volée, la transition pourrait nécessiter de modifier des protocoles clefs d’Internet, comme TLS (Transport Layer Security) ou IKE (Internet Key Exchange). A lire aussi : IBM met l’ordinateur quantique à la portée de tous, en mode Cloud Un ordinateur quantique casseur de clé de chiffrement L’informatique quantique existe, Google l’a rencontrée crédit photo © Pavel Ignatov / Shutterstock
Microsoft se renforce dans l’IoT avec l’acquisition de Solair Microsoft fait un nouveau pas dans le monde de l’Internet des objets (IoT). L’entreprise vient d’annoncer l’acquisition, pour un montant non dévoilé, de Solair. Cette entreprise italienne créée en 2011 fournit des services « innovants » en matière d’Internet des objets (Iot) pour les secteurs de la fabrication, du commerce de détail, de l’alimentation et du transport, principalement. Autant de solutions visant à associer objets connectés aux machines pour optimiser leurs usages à partir de l’analyse des données qu’elles produisent. Des solutions taillées en fonction des besoins réels des clients, précise Tom Davis, le CEO de Solair. Par exemple, Solair a déployé une solution de monitoring distant de machines à café fabriquées par Rancilio Group. Une amélioration du mode de gestion des produits dans la chaîne d’approvisionnement qui aurait permis au groupe de réduire ses coûts. Au Japon, l’application Smart Factory Advisor de surveillance des lignes de production permet d’augmenter la capacité de production tout en réduisant leur consommation énergétique. AEG, Rexrtoh (groupe Bosch), Aiwa System Solutions, ou Zadi Group figurent parmi les clients de l’entreprise basée à Bologne. Compléter Azure IoT Suite « Solair partage notre ambition d’aider les clients à exploiter leurs données inexploitées et de créer une nouvelle intelligence avec l’IoT, et cette acquisition soutient notre stratégie visant à fournir l’offre la plus complète d’IoT pour les entreprises », résume Sam George, directeur des partenariat pur Azure IoT chez Microsoft. Une ambition d’autant plus facilitée que Solair s’appuie déjà sur le framework .NET de Microsoft pour délivrer ses services à travers Azur et SQL Server. Autant d’intégration que Microsoft n’aura pas à faire. « La plate-forme Solair fonctionne dans un environnement unique tant pour le développement front-end que la gestion back-end des applications IoT, précise Solair sur son site. Elle propose un ensemble complet d’API RESTful qui permettent une interaction complète avec le système. » Les technologies Solair seront intégrées à l’offre Azure IoT Suite de Redmond. Pour l’heure, Microsoft ne précise pas encore comment il entend précisément tirer parti de l’offre de Solair dont les équipes sont appelées à rejoindre celles d’Azur. L’éditeur est probablement plus intéressé par les solutions de l’entreprise italienne que son portefeuille clients. Elles viendront enrichir une offre IoT qui compose un des axes majeur de la stratégie exposée par Satya Nadella. « Je suis convaincu que la technologie et le talent de Solair seront en mesure d’apporter une contribution importante à Azure IoT Suite et élargir les ambitions IoT de Microsoft », semble confirmer Tom Davis. Lire également IoT : Microsoft ouvre son Cloud Azure à Sigfox
Microsoft lance un kit Raspberry Pi 2 pour Windows 10 IoT Core Convergence 2015 : Microsoft dévoile Azure IoT et Skype for Business crédit photo : ricochet64 / Shutterstock.com Fujitsu World Tour 2016 Le monde est lancé dans une course effrénée aux objets connectés. Un monde où les téléphones portables, l’internet des objets et la capacité croissante à gérer une immense quantité de données sont en train de transformer nos vies, nos sociétés, les rendant plus prospères et sécurisées. Chez Fujitsu, l’approche particulière d’innovation « centrée sur l’humain » (« human centric innovation ») a pour but d’aider les organisations dans le monde entier à créer de la valeur d’abord pour les personnes et à travers elles pour les entreprises et pour la société. Apprenons ensemble à maîtriser la digitalisation des métiers dans ce nouveau monde connecté ! Pour la première fois à Paris, l’édition 2016 du Fujitsu World Tour accueillera le « Fujitsu Innovation Gathering », moment d’exception entièrement dédié à l’innovation, qui réunira experts et décideurs autour de nombreux témoignages d’entreprises et des plus belles démonstrations des « Labs » mondiaux de Fujitsu. Ce sera LE rendez-vous incontournable de l’année 2016 dans le monde de l’IT et de l’Innovation, qui se tiendra au Parc Floral de Paris le 9 Juin 2016. Réservez dès à présent cette date dans votre agenda et venez y découvrir une véritable « ville du futur » réunissant plus de 100 démonstrations et réalisations venues des quatre coins du globe, un écosystème d’innovations à travers différents villages – Japon, French tech, Fablabs, entreprises innovantes, management agile, … – mais aussi des présentations de nos experts et de nos partenaires, des témoignages d’entreprises et de nombreux ateliers thématiques et conférences animés par des spécialistes de l’outsourcing, de l’IT et des technologies. Enfin, Fujitsu en partenariat avec l’Ecole Polytechnique seront heureux de remettre également ce 9 juin les prix du concours “Linked Open Data” (jusqu’à 18 000€ de récompense dont un voyage unique au Japon) visant à créer des services et applications utilisant des données publiques. Accéder au formulaire d’inscription
IBM met l’ordinateur quantique à la portée de tous, en mode Cloud IBM donne pour la première fois accès à ses processeurs quantiques via un service accessible en mode Cloud. La plate-forme IBM Quantum Experience est réservée avant tout aux chercheurs, voire aux développeurs, qui souhaitent s’essayer à cette nouvelle génération de solutions informatiques. « Nous estimons que l’informatique quantique est l’avenir de l’informatique et a le potentiel de résoudre certains problèmes qui sont impossibles à résoudre sur les supercalculateurs d’aujourd’hui », explique IBM dans son communiqué. 5 qubits supraconducteurs sont ici proposés par Big Blue et hébergés dans le T.J. Watson Research Center de New York. La firme admet toutefois que l’ordinateur quantique universel, capable de s’atteler à toutes les tâches informatiques, n’est pas encore devenu une réalité. La technologie actuelle reste donc limitée à des applications bien précises. « Les ordinateurs quantiques sont très différents des ordinateurs d’aujourd’hui, non seulement dans leur aspect, mais surtout dans ce qu’ils peuvent faire, explique Arvind Krishna, vice-président senior et directeur d’IBM Research. L’informatique quantique est en train de devenir une réalité et elle étendra les possibilités de calcul bien au-delà de ce qui est imaginable avec les ordinateurs actuels. » 100 qubits d’ici 10 ans selon IBM Les possibilités d’évolution sont en effet très importantes. Des machines de 50 à 100 qubits devraient ainsi voir le jour d’ici une décennie, assure Big Blue. À partir de 50 qubits, aucun supercalculateur de l’actuel Top 500 des clusters les plus puissants de la planète ne pourra plus concurrencer un ordinateur quantique. À lire aussi : Un ordinateur quantique casseur de clé de chiffrement Comprendre l’ordinateur quantique (infographie) L’informatique quantique existe, Google l’a rencontrée
Coup de pouce fiscal pour les serveurs, la fibre et le HPC À Bercy, les ministres des Finances et de l’Économie se sont opposés, un temps, sur ce dossier. Matignon a finalement tranché en faveur de la reconduction d’un an, jusqu’au 14 avril 2017, d’un mécanisme de suramortissement fiscal. Un amendement du projet de loi pour une République Numérique, porté par Axelle Lemaire et adopté ce mardi au Sénat, étend même la mesure aux équipements numériques. Le suramortissement fiscal permet aux entreprises de déduire de leur résultat imposable 40 % du prix de revient du bien éligible. Le gouvernement estime que cela représente une subvention d’environ 13 % de la valeur du bien en question, répartie sur l’ensemble de la durée d’amortissement. Relancer l’investissement productif Jusqu’ici, les investissements productifs éligibles concernaient des biens tels que les matériels et outillages utilisés pour des opérations industrielles ou la recherche scientifique et technique, ainsi que les matériels de manutention… Désormais, les serveurs informatiques pour une utilisation au sein d’une baie, les réseaux de communication par fibre optique (installations, équipements, lignes et câblages) et les machines du calcul intensif (les supercalculateurs) sont concernés. Les logiciels sont éligibles lorsqu’ils sont indissociables d’un matériel lui-même éligible, ou lorsqu’ils contribuent aux opérations industrielles de fabrication et de transformation. Le suramortissement fiscal a été introduit en 2015 par la loi pour la croissance, l’activité et l’égalité des chances économiques promue par Emmanuel Macron. Le ministre de l’Économie a défendu la reconduction du dispositif, malgré son coût estimé à 500 millions d’euros par an pour l’État… Mais l’Insee prévoit une hausse sensible de l’investissement des entreprises au premier semestre 2016. Lire aussi : Le très haut débit toujours porté par la fibre en France en 2015 Avec Sequana, Atos en marche vers le supercalculateur exascale Le marché des serveurs grignoté par les Chinois et le low cost en 2015 crédit photo © SOMMAI / Shutterstock.com Le stockage en Europe des données
personnelles imposé par la loi Lemaire ? Le projet de loi pour une République numérique, que le Sénat est sur le point de voter ce mardi 3 mai, a subi un nouveau lifting lors de son examen par la chambre haute, pas moins de 674 amendements ayant été déposés. La version qui sortira du vote solennel des sénateurs ne sera probablement par la mouture définitive, une commission mixte paritaire devant se réunir pour harmoniser les textes votés par l’Assemblée et le Sénat, mais elle réserve au moins une surprise : l’obligation pour les entreprises de stocker les données personnelles des citoyens français sur le territoire européen. Cet amendement, déposé par les sénateurs du groupe communiste emmené par Eliane Assassi, Jean-Pierre Bosino et Patrick Abate, vient en réalité compléter l’article 6 de la loi Informatique et libertés de 1978. Il stipule que les données à caractère personnel « sont stockées dans un centre de données situé sur le territoire de l’un des États membres de l’Union européenne, et, sans préjudice des engagements internationaux de la France et de l’Union européenne, ne peuvent faire l’objet d’aucun transfert vers un État tiers. » Une injonction claire qui, si elle est maintenue dans la loi, devrait avoir un certain impact sur le marché, même si la plupart des acteurs du Cloud disposent déjà de datacenters en Europe. Les sénateurs à l’origine de l’amendement estiment que « l’annulation du Safe Harbor par la Cour de Justice de l’Union Européenne rend d’autant plus critique cette disposition ». Rappelons que, suite à la décision de la Cour fin 2015, l’Union européenne et les Etats-Unis tentent de négocier un nouvel accord de transfert de données entre les deux blocs, le Privacy Shield. Pour l’instant, le G29, regroupement des autorités européennes de protection des données (dont la CNIL française), se montre très réservé sur ce projet. L’organisation dénonce « un manque de clarté général », une « complexité », et parfois une « incohérence », des documents et annexes qui composent le Privacy Shield. Notons aussi que l’équivalent allemand de la CNIL a déjà recommandé aux entreprises opérant sur son sol de stocker leurs données au sein de l’UE. Logiciel libre : simple encouragement En complément de cet amendement, qui doit encore être confirmé en commission mixte paritaire, signalons aussi le retour d’un article visant à encourager l’emploi du logiciel libre et des formats ouverts dans l’administration. Un « encouragement » et non une « priorité », le terme que renfermaient les amendements les plus offensifs sur le sujet. Cet amendement, déposé par le groupe socialiste, a été défendu par la secrétaire d’Etat au numérique, Axelle Lemaire. Il s’agit en réalité d’un retour à la case départ, puisqu’un article identique, voté par les députés, avait ensuite été supprimé par la commission des lois.
Le texte, qui devrait avoir les faveurs de la commission mixte paritaire, ne devrait toutefois pas changer grand-chose aux pratiques d’achat des administrations. Une circulaire ministérielle datant de 2012 prévoit en effet déjà que ces dernières soutiennent par leurs achats la filière du logiciel libre. Par ailleurs, le Référentiel général d’interopérabilité, dont la v2 vient d’être publiée au Journal Officiel, indique clairement que le secteur public doit donner la préférence aux formats ouverts. Dans une interview à Silicon.fr en janvier dernier, Henri Verdier, le DSI de l’Etat, semblait lui prêt à aller plus loin, citant l’existence en Italie d’une règle qu’il jugeait « intéressante » dans le code des marchés publics. Une règle qui impose au secteur public de documenter le recours à une solution gratuite pour couvrir le besoin exprimé, même si c’est pour écarter cette possibilité. Modalités d’accès aux API : enfin la transparence ? Parmi les autres mesures votées par les sénateurs, signalons : L’extension à l’équipement informatique – dont les serveurs – d’une déduction fiscale dédiée à l’investissement productif (Silicon.fr y reviendra) ; l’obligation qui serait faite aux plates-formes d’informer les utilisateurs préalablement à toute « modification substantielle » des conditions générales d’utilisation (CGU), des modalités de référencement et des modalités d’accès à leurs API ; des amendements régulant la location d’appartements ou maisons (et ciblant des plates- formes comme AirBnB) ; des mesures favorisant l’ouverture et la réutilisation des données des administrations (Open Data). Une politique appelée à s’étendre aux décisions administratives et de justice. A lire aussi : Loi République numérique : les opérateurs échappent à une nouvelle taxe Loi Numérique : le volet Open Data adopté mais dérogations multiples Crédit Photo : PromessArt Studio Capgemini recrute 2 800 nouveaux talents en France Porté par des résultats solides et un carnet de commande en croissance, le groupe de services informatiques, conseil et infogérance Capgemini prévoit de recruter 2 800 nouveaux collaborateurs, en France, cette année 2016. Une prévision supérieure de 8 % aux embauches réalisées en 2015. 65 % des recrutements prévus concernent de jeunes diplômés et des cadres dotés de moins de
deux ans d’expérience. Les 35 % restants ciblent des profils plus expérimentés dans le digital, la cybersécurité, l’infratructure ou le conseil. Ces recrutements (en CDI dans 90 % des cas) se feront pour moitié en régions, notamment à Bordeaux, Lille, Lyon, Nantes, Rennes et Toulouse, auprès des entités françaises de Capgemini et de sa filiale dédiée aux services de proximité Sogeti. Consultants, architectes et ingénieurs Les consultants en systèmes d’information et les spécialistes des technologies Java/Java EE et .NET, des ERP et des services Cloud, sont bienvenus. Parallèlement, le groupe Capgemini cible des talents maîtrisant des solutions dédiées à la relation client et à l’automatisation de campagnes marketing (comme Salesforce, Siebel et Eloqua d’Oracle). Ainsi que des spécialistes de la mobilité, du Big Data et de la cybersécurité (gestion des accès et des identités – IAM, PKI –, gestion des informations et événements de sécurité (SIEM), sécurité des terminaux et des data centers). Des architectes Cloud/virtualisation (avec des solutions comme AWS, Azure, HPE Helion, OpenStack et VMware vRealize) et des spécialistes des postes de travail/messagerie sont également recherchés. Sogeti recrute aussi des consultants test (performances…), des ingénieurs de production et des spécialistes du « digital manufacturing ». Quant à l’entité du groupe spécialisée dans les applications front office, Prosodie-Capgemini, elle recrute de nouveaux chefs de projet et des ingénieurs réseaux, systèmes et télécoms. Enfin, Capgemini Consulting, l’entité conseil en stratégie du groupe, recrute des consultants appelés à accompagner la transformation numérique d’entreprises. Cooptation et « marque employeur » Le groupe déclare accueillir chaque année 1 000 stagaires et alternants en France. « Le taux de conversion en CDI est de 70 % », assure-t-on du côté de Capgemini. Quant aux rémunérations proposées, elles seraient « dans la moyenne haute du marché ». Pour se doter des talents que s’arrachent l’industrie, Capgemini multiplie les actions à l’attention des étudiants : du concours Innovators Race organisé en partenariat avec AccorHotels, au trophée des grandes écoles Défi H initié par Sogeti, sans oublier les « after work » dédiés aux étudiants. Notons que la cooptation peut représenter jusqu’à 25 % des embauches. « Attirer et retenir les meilleurs profils est stratégique sur notre marché. Nous allons à leur rencontre sur le Web et les réseaux sociaux, bien sûr, mais aussi directement sur les campus des écoles et des universités », déclare Christophe Bonnard, président du Country Board France de Capgemini. « Développer l’attractivité de l’entreprise auprès des femmes » est également un défi. Il n’est pas simple à relever, puisque « les étudiantes représentent seulement 27 % des élèves inscrits en cycle ingénieur et 16 % en cycle informatique » en France, ajoute-t-il. Le groupe français Capgemini emploie plus de 182 900 collaborateurs dans le monde (une majorité offshore) aujourd’hui, dont 23 000 collaborateurs environ en France. Lire aussi :
Capgemini : un modèle offshore de plus en plus rentable… jusqu’à quand ? Les recruteurs s’arrachent ingénieurs et cadres informaticiens… mais pas tous Guerre des talents IT : l’innovation, arme des recruteurs crédit photo © Olivier Le Moal / Shutterstock.com Ericsson veut accélérer l’Internet des objets « Nous voulons donner aux entreprises le pouvoir de connecter les gens, les équipements et les objets le plus rapidement et le plus facilement possible. » C’est dans cet objectif que Ericsson a annoncé, par la voix de Orvar Hurtig, directeur Industry & Society, IoT Accelerator. Cette solution globalement dédiée à l’exploitation d’objets connectés, combine plates-formes horizontales, services et une place de marché qui facilitera la monétisation des solutions fournisseurs auprès de leurs partenaires. Basée sur l’offre Cloud System de l’équipementier suédois, qui supporte le déploiement de clouds hybrides tout en répondant aux nécessités de sécurité et souveraineté des données, IoT Accelerator sera proposé sous forme de service. Les clients utilisateurs s’affranchiront donc des contraintes de complexité et de coût pour développer et déployer leurs solutions réservées à Internet des objets. Le service intégrera Les fonctionnalités de la plateforme IoT incluent la gestion des données, la facturation, la gestion des équipements, les services de connectivité et l’analyse des données. Des extensions prévues apporteront un portail en libre-service, un environnement de développement et un kit de développement logiciels. D’autre part, Ericsson accompagnera ses clients à travers des laboratoires régionaux afin de les aider à s’adapter aux préférences locales. Les normes et rien d’autre Côté communication sans fil, Ericsson s’en tiendra aux protocoles dédiés aux objets connectés approuvés (ou en cours de validation) par le 3GPP (l’association de standardisation des technologies mobiles). A savoir le NB-IoT (Internet des objets en narrow band) qui, avec ses 20 à 80 Kbit/s de bande passante, se destine plutôt aux produits grand public dans le cadre de déploiements massifs d’objets; le LTE-M (LTE cat-M1), dont les capacités plus poussées (jusqu’à 1 Mbit/s) le réserve plutôt aux communications M2M; et l’EC-GSM-IoT qui présente l’avantage de pouvoir exploiter les réseaux 2G à basse consommation et longues portées. Exit, donc, les protocoles IoT ultra-basse consommation Lora du consortium éponyme, notamment sélectionné par nombre d’opérateurs (dont Orange et Bouygues Telecom en France) et, plus encore, le propriétaire Sigfox (choisi par SFR). Autant de réseaux séparés des infrastructures mobiles traditionnelles qui risquent donc d’échapper à Ericsson (et plus généralement aux équipementiers qui s’en tiennent aux normes). Mais, avec plus de 11 milliards d’objets connectés qui seront déployés dans le monde d’ici 2018 selon Gartner, le
marché de l’IoT promet d’être assez vaste pour accueillir l’ensemble des acteurs dans l’immédiat. Pour sa part, Ericsson ciblera dans un premier temps les secteurs verticaux de la sécurité publique, de l’énergie, des transports et des villes intelligentes. La plate-forme IoT Accelerator sera mondialement disponible à la fin du troisième trimestre. Lire également Sierra Wireless parie sur le LTE-M pour connecter les objets Résultats fragiles : Ericsson accentue les économies et se réorganise La SNCF prend le train de l’IoT… à grande vitesse Crédit Photo : MNBB Studio-Shutterstock IT bimodale : pourquoi ça ne marchera pas Pour le cabinet d’études Forrester, la stratégie d’IT bimodale, qui consiste à faire cohabiter un système d’information agile avec les applications historiques (le legacy), est vouée à l’échec. Bien sûr, cette opinion ne peut être tout à faire étrangère à la concurrence entre cabinets d’études : populaire chez les DSI, l’IT bimodale a été conceptualisée par le Gartner, le principal concurrent de Forrester. Mais ce dernier égraine aussi des arguments autrement plus recevables, arguments que nous avons d’ailleurs déjà entendus dans la bouche de DSI. Rappelons d’abord que, selon Gartner, l’IT bimodale est « une pratique consistant à gérer deux modes séparés et cohérents de fourniture d’IT, l’un centré sur la stabilité et l’autre sur l’agilité. Le mode 1 est traditionnel et séquentiel, mettant l’accent sur la sécurité et la fiabilité. Le mode 2 est exploratoire et non- linéaire, il privilégie l’agilité et la vitesse ». Bref, pour le Gartner, l’approche permet d’adopter des méthodes comme le Devops sans mettre en péril la stabilité des applications cœur des entreprises traditionnelles, portées par le legacy. De s’approcher des pratiques mises en vedette par les start- up sans tirer un trait sur le passé. L’IT bimodale trop centrée sur la technologie Mais, c’est précisément cette volonté de ménager la chèvre et le chou qui serait « contre-productive » selon Forrester. Le cabinet d’études estime que l’IT bimodale procure aux DSI un sentiment « de fausse sécurité ». Première flèche décochée à l’encontre de la stratégie estampillée Gartner : l’approche crée deux classes de systèmes, ce qui ajouterait de la complexité. « A une période où les entreprises ont besoin de rapidité et d’agilité, créer deux groupes qui devront s’affronter pour les budgets, les ressources, les talents et l’attention des métiers est un non-sens », écrivent John McCarthy et Sharyn Leaver, les deux analystes de Forrester à l’origine du rapport. La seconde critique est, elle aussi, assez logique : dans sa nature, l’IT bimodale est avant tout un modèle centré sur la technologie, sur l’organisation elle-même et non sur le client. Elle « fonctionne à l’envers de la création de rôles de CxO
davantage cross-fonctionnels, permettant de faire fonctionner les métiers dans un mode omnicanal ». Mais, ce sont les deux dernières torpilles lancées par Forrester qui menacent le plus la flottabilité du vaisseau amiral de Gartner. Selon le rapport « La fausse promesse de l’IT bimodale », cette stratégie perpétue le mythe de systèmes legacy qu’on pourrait conserver en l’état. Autrement dit, elle conforte les DSI dans leur propension à ne pas s’attaquer à la rénovation de ces systèmes. Ce qui, pour Forrester, va obérer la capacité des organisations à se reconfigurer en permanence pour s’adapter aux attentes de ses clients, faute d’une architecture suffisamment souple. Conséquence selon le cabinet d’études ? L’IT bimodale n’est qu’un facteur d’isolation de plus pour la DSI. Car, dans ce mode, c’est sur elle que va reposer l’essentiel de la transformation. Bref, c’est une menace pour la stabilité du poste de DSI qui, si on prolonge la réflexion de Forrester, devrait tôt ou tard être considéré comme le principal responsable de la lenteur de l’évolution des pratiques internes par sa direction générale. L’entreprise 100 % agile A l’appui de ses critiques, Forrester livre les noms et approches de certaines organisations, qui n’ont pas été convaincues par l’IT bimodale. GE notamment, qui affirme ne pas vouloir créer deux équipes séparées. Le géant américain ambitionne de fermer une trentaine de datacenters, de décommissionner 5 000 applications (sur un total de 9 000) et de basculer 90 % des logiciels qui survivront à cette simplification sur le Cloud public. Mais aussi Schneider Electric qui lie ses performances aux progrès de son Net Promoter Score (un indicateur de fidélité client) afin de casser les silos de son organisation et d’aligner cette dernière sur les besoins de ses clients.
Si Forrester dézingue l’IT bimodale, c’est aussi qu’il promeut sa propre approche, appelée Business Technology (voir le comparaison des deux approches produites par le cabinet ci-dessus). Une stratégie qui vise à mettre en place des pratiques de développement continu sur l’ensemble du système d’information, à bâtir des équipes embarquant de multiples fonctions et à généraliser l’intégration via les API. Bref, une forme de généralisation des principes de l’entreprise agile et du Devops, qui implique un profond bouleversement culturel des organisations. Particulièrement les grandes, où les silos restent très prégnants. A lire aussi : Les DSI ont un rôle de plus en plus central face au Cloud Les dépenses IT en 2016 entrent dans l’ère du bimodal Les DSI sont-ils plus rétrogrades en France qu’ailleurs ? Crédit photo : Nuttapong Wongcheronkit / Shutterstock
Dell et EMC se déclineront en Dell Technologies En rachetant une société 67 milliards de dollars, on a le droit de changer le nom de la dite société. Michael Dell a néanmoins un leitmotiv dans son esprit, il faut que son nom apparaisse. Et le rapprochement avec EMC n’échappe pas à cette règle. Hier à Las Vegas, à l’occasion du rassemblement annuel du spécialiste du stockage, Joe Tucci et Michael Dell sont venus sur scène pour en dire un peu plus sur les prochains mois. Le premier a été le pilier d’EMC pendant de nombreuses années et a fondé sa stratégie de fédération dans laquelle gravite VMware, RSA, Pivotal et plus récemment VirtuStream. Atteint par la limite d’âge, il voulait quitter EMC en sachant la firme dans de bonnes mains et laisse finalement les rênes à Michael Dell. Un passage de témoin sur scène symbolique qui laisse le champ libre au trublion CEO pour exposer sa stratégie. Ce dernier a donc dévoilé le nouveau nom de la combinaison des deux entreprises : Dell + EMC = Dell Technologies. EMC n’est pas mort Mais cela ne signifie pas que la marque EMC soit morte, Il s’agit de la marque ombrelle qui chapeautera deux entités : Dell EMC rassemblant les activités entreprise et Dell Inc s’attachant aux clients professionnels (dont les PC). « Ensemble, nous apporterons quelque chose de très spécial à vous, nos clients », souligne le dirigeant dans un discours focalisé sur l’évolution de l’Internet basique à l’Internet des objets pour aboutir à l’âge de l’Internet of Everything (de tous). Avec cette structure, Michael Dell rappelle que Dell Technologies sera la seule société à proposer une offre de bout en bout dans le domaine de l’IT. Du PC en passant par les serveurs, le stockage et la virtualisation, le dirigeant tacle au passage la stratégie de HP de se scinder en deux. Il reste maintenant à attendre l’automne prochain pour la finalisation du rachat. Michael Dell a indiqué que le processus suit son cours, après l’obtention de l’aval de plusieurs régulateurs de différents pays. Le groupe Texan cherche toujours à faire baisser la facture finale en se délestant de certains actifs. Il a déjà vendu son activité service (Perot) au japonais NTT. Et a introduit en bourse une partie de l’activité sécurité SecureWorks. A lire aussi : Dell revend ses activités service au Japonais NTT Data Dell présente ses premiers PC industriels, intégrés et fanless
IBM publie le document de référence des systèmes Power/OpenPower IBM vient de livrer le document « Linux on Power Architecture Platform Reference », que vous pourrez télécharger à cette adresse. Un PDF qui entend définir les spécifications de la plate-forme LoPAPR, une version réduite de la Power Architecture Platform Reference (PAPR) dédiée au monde Linux (LoPAPR = Linux on Power Architecture Platform Reference). « Le but de ce document est de définir les caractéristiques de base de l’architecture et du système sur lesquels toutes les plates-formes LoPAPR sont fondées. Ces exigences sont destinées à être suffisamment précises pour assurer la compatibilité du système d’exploitation sur plusieurs niveaux (actuel et version « n-1 »), suffisamment large pour couvrir des domaines allant des postes de travail aux serveurs, dans des configurations simples ou multiprocesseurs, et pensée pour assurer son évolution. » 900 pages d’explications détaillées Ce document massif – 900 pages – se destine à la fois aux constructeurs de matériel Power, mais aussi aux éditeurs de systèmes d’exploitation. Les interfaces entre hardware et OS sont ainsi clairement définies. Le tout est dédié aux machines équipées d’une puce IBM Power8 ou supérieur, fonctionnant sous Linux. Bref, à la fois aux offres PowerLinux et aux solutions de la communauté OpenPower. Une couche d’abstraction matérielle commune (RTAS pour Run-Time Abstraction Services) est définie au sein de ce document, afin de faciliter l’adaptation des OS Linux aux différentes machines Power. Elle suit la phase de démarrage de la machine, assurée par l’Open Firmware. À lire aussi : Le mouvement OpenPower prêt pour l’explosion des données Rackspace, Google, Tyan s’engagent autour d’OpenPower RedPower : des serveurs Power8 100 % chinois Crédit photo : © IBM Porté par le Cloud, Amazon cartonne en Bourse Avec la présentation de ses résultats trimestriels, Amazon a su faire taire toutes les critiques. Il est vrai que la société se porte bien, avec un chiffre d’affaires de 29,1 milliards de dollars, en croissance de 28 % sur un an, et un bénéfice net de 513 millions de dollars. La firme a bien été aidée en cela
par ses activités Cloud, qui représentent 2,6 milliards de dollars de revenus et un résultat de 604 millions de dollars. Voir pour plus de détails notre précédent article « Amazon : des résultats soutenus par le Cloud public AWS ». Suite à ces très bons résultats, Amazon a cartonné sur le Nasdaq. L’action de la firme prenait 9,57 % en séance vendredi, bondissant ainsi de 602 dollars à 659,59 dollars. Ce lundi, la hausse s’est poursuivie, avec +3,68 %. L’action valait ainsi 683,85 dollars à la clôture hier soir. Le cours semble se stabiliser dans les échanges hors séance, avec une petite hausse de 0,04 % à l’heure où nous écrivons ces lignes. Encore plus à venir ? Résultat de ces deux jours, une capitalisation boursière qui passe de 283,9 à 322,5 milliards de dollars, soit +38,6 milliards de dollars. Et Amazon ne devrait pas s’arrêter là : les analystes s’accordent en effet sur un consensus à un an de 793,23 dollars par action. Les dernières recommandations émises par les cabinets d’analyse financiers sont toutes orientées à l’achat, avec une action qui devrait sensiblement dépasser la croissance du Nasdaq. À lire aussi : Rétrospective : 10 ans d’innovation Cloud pour Amazon Google va ouvrir 12 datacenters Cloud pour rivaliser avec Amazon Stockage : les appliances Snowball d’Amazon S3 débarquent en Europe Crédit photo : © Stocksnapper – Shutterstock Télégrammes : SQL Server le 1er juin; L’empreinte digitale pour débloquer un iPhone; Windows perd du terrain; Un OS pour le FairePhone SQL Server sort le 1er juin. La nouvelle version de la base de données de Microsoft, SQL Server 2016, sera commercialisée à partir du début du mois de juin. Cette mouture intègre quelques avancées significatives, comme Stretch Database (capacité à étendre une base de données sur le Cloud Azure, par exemple, pour y stocker des données peu utilisées), des fonctions de création de tableaux de bord pour les mobiles ou encore de nouveaux mécanismes de chiffrement des données. SQL Server 2016, qui sera aussi disponible sur Linux mi-2017, existera en quatre versions : Enterprise, Standard,
Developer et Express. Les deux dernières seront gratuites, comme c’était déjà le cas avec la version précédente, SQL Server 2014. En parallèle de la commercialisation des versions on-premise de sa technologie, le premier éditeur mondial la proposera aussi sous forme de service, sur le Cloud Azure, à partir du 1er juin. L’empreinte digitale à la rescousse pour débloquer un iPhone. Après le débat sur le chiffrement et sur l’accès à un iPhone par le FBI, voilà une nouvelle affaire qui met aux prises les mêmes protagonistes. Un tribunal de Los Angeles a donné mandat au FBI pour récupérer l’empreinte digitale d’une condamnée pour débloquer son iPhone grâce au Touch ID. Cette femme est soupçonnée d’être la compagne d’un membre d’un gang arménien. C’est la rapidité de l’opération et de la décision du juge qui a surpris, 45 minutes après son incarcération et quelques heures pour son exécution. Les juristes s’en mêlent aussi pour savoir si le fait d’obliger à donner son empreinte digitale pour débloquer un smartphone n’est pas contraire au 5e amendement des Etats-Unis. D’autres estiment que cette obligation s’apparente aux autres perquisitions. Moins de 9 PC sur 10 équipés de Windows. Le mois d’avril réussit mal à Microsoft. Alors que IE a définitivement perdu sa suprématie sur le marché des navigateurs, l’OS Windows équipe désormais moins de neuf PC sur dix dans le monde, selon les statistiques également rapportées par Net Applications. 89,23% pour être précis. Dix mois après l’arrivée de Windows 10, Windows 7 vient de tomber sous la barre des 50% (48,79%) et les parts de l’increvable Windows XP entrent désormais dans une zone à une décimale avec 9,66%. C’est encore mieux que Windows 8.1 avec 9,16% (12,11% si l’on y ajoute Windows 8). Pour autant, la part de Windows 10 ne progresse que faiblement. Elle passe à 14,35% fin avril contre 14,15% le mois précédent. Du coup, Microsoft perd du terrain sur le marché des OS desktop. Un recul qui s’opère sans surprise au profit de Mac OS X qui gagne 1,43 point pour atteindre les 9,2%. En revanche, Linux reste confiné à la confidentialité à 1,56%, en recul de 0,22 point. FairPhone2 se dote de son propre OS. Chantre du smartphone équitable, le FairPhone 2 annonce le lancement de son propre système d’exploitation. Comme on pouvait s’en douter, Android a servi de base pour le FairPhone OS. Ce dernier reprend une partie du code, mais écarte les applications Google. De même, il est possible d’accéder facilement au compte « root » permettant ainsi à l’utilisateur de pouvoir installer n’importe quelle application sur le smartphone. Le FairPhone 2 a été lancé en décembre dernier et se définit comme éthique. Chaque élément, de l’écran à la mémoire en passant par les métaux rares, sont tracés pour éviter les zones de conflits et rétribuer correctement les producteurs. Le smartphone est vendu pour une société néerlandaise au prix de 525 euros. Crédit photo : Aleksandar Mijatovic-Shutterstock
Après la construction, Oracle investit dans l’énergie avec Opower La semaine dernière, Oracle s’emparait de Textura, un éditeur de plateforme Cloud pour le domaine de la construction. Il semble que la firme de Redwood Shores ait fait du printemps sa période privilégiée pour étoffer son offre Cloud à destination des marchés verticaux. Dernier exemple en date, le rachat d’Opower, un éditeur de solution dans le secteur de l’énergie. Son offre s’articule autour d’une plateforme Cloud pour optimiser l’expérience client autour de la consommation énergétique. Elle stocke et analyse 600 milliards d’informations des compteurs provenant de 60 millions de consommateurs. Opower revendique plus d’une centaine de clients chez les distributeurs d’énergie, PG&E, Exelon and National Grid. Pour réaliser cette acquisition, Oracle propose 10,30 dollars en cash par action, soit un montant global de 532 millions de dollars. Si on rapproche cette opération à celle de Textura pour un montant de 663 millions de dollars, la société de Larry Ellison a déboursé plus d’un milliard en deux semaines pour étoffer son portefeuille Cloud pour les marchés verticaux. Suivant ainsi la stratégie du milliardaire qui veut devenir le numéro dans le Cloud. Une plateforme Cloud critique pour les distributeurs d’énergie Rodger Smith, Senior Vice President and General Manager de la division Oracle Utilities Global Business, explique que ce rapprochement a un intérêt pour les distributeurs d’énergie qui « veulent des solutions technologiques modernes pour œuvrer au bien du consommateur et au besoin en matière de conformité » Avec Opower, il devrait fournir la plus importante plateforme Cloud critique pour les distributeurs d’énergie. De son côté Dan Yates, CEO et co-fondateur de Opower, se dit ravi de rejoindre Oracle et « de devenir une part d’Oracle Utilities Industry Cloud Platform ». l’objectif est d’apporter « de la valeur de bout en bout de la chaîne, du compteur, au réseau jusqu’au client final ». A lire aussi : Oracle corrige les failles de ses produits… et de Java Oracle limite les évolutions de Linux à la sécurité
Vous pouvez aussi lire