Datacenter : Lenovo s'associe avec Juniper sur l'hyperconvergence - Silicon.fr
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Datacenter : Lenovo s’associe avec Juniper sur l’hyperconvergence L’hyperconvergence est devenue un terrain de bataille des constructeurs IT. Dernier exemple en date, la signature d’un partenariat entre Lenovo et Juniper. Les deux sociétés veulent, selon le communiqué, « coopérer pour construire les prochaines générations de systèmes convergés, hyperconvergés pour les datacenters des entrerprises ». Chacun des deux acteurs apportent son savoir-faire dans la corbeille des fiançailles. En premier lieu, les clients de Juniper pourront acheter directement les équipements réseaux auprès de Lenovo. Un effort va également être mené sur le plan gestion et orchestration du datacenter pour tirer parti de la solution xClarity de Lenovo, ainsi que de Network Director et Contrail SDN (Software Defined Network) de Juniper. On remarquera néanmoins que, dans ce concert de bonnes intentions, il manque un élément essentiel pour prétendre faire de la convergence et encore plus de l’hyperconvergence : le stockage. Rien n’a été dit sur cette problématique, mais on peut supposer des partenariats dans le domaine du SDS (Software Defined Storage) avec des acteurs comme Atlantis, Datacore, etc. Une concurrence en pleine émulation Pour Lenovo, ce partenariat est important dans le cadre des ambitions de la firme chinoise sur le marché des datacenters. Après avoir acquis l’activité serveur x86 d’IBM, il doit accompagner la tendance actuelle qui se porte sur les offres convergées et hyperconvergées. Récemment, Philippe Charpentier, responsable des ingénieurs avant-vente VCE en Europe, expliquait que « les infrastructures convergées représentent un marché de 10 milliards de dollars avec une croissance à deux chiffres, les infrastructures hyperconvergées génèrent pour l’instant que quelques millions de dollars, mais avec une croissance très importante ». Un potentiel qui fait rêver la plupart des acteurs IT qui se mettent en ordre de bataille. VCE a dégainé VX Rail, HPE vient d’annoncer le lancement le mois prochain d’une offre hyperconvergente en partenariat avec Springpath. L’objectif est de reprendre des parts de marché au pure player Nutanix qui fait la course en tête. Un autre nom s’invite dans ce concert, Cisco, qui a dévoilé la semaine dernière son système baptisé HyperFlex en s’associant lui aussi avec Springpath. On comprend mieux que Juniper ait sauté le pas avec Lenovo pour se positionner sur ce marché décidément très animé en ce début mars. A lire aussi : Serveurs : Lenovo s’allie à Inventec pour conquérir la Chine Thomas Desrues, Juniper : «Les choses sérieuses commencent autour du SDN/NFV»
OwnCloud 9 mise sur la fédération des Clouds de stockage La solution web de partage de documents ownCloud passe en version 9. Une offre conçue pour pouvoir être installée sur tout serveur personnel ou d’entreprise. Au menu, de classiques fonctions de stockage et partage de fichiers, mais également des modules plus avancés, comme un agenda ou des galeries d’images. Concernant la gestion des fichiers, des fonctions avancées de recherche et de filtrage sont proposées. Les photos, vidéos et PDF pourront être lus directement depuis ownCloud. Côté collaboration, le partage de fichiers est bien évidemment proposé, ainsi qu’un système de commentaires, pour favoriser le travail en groupe. Des modules complémentaires peuvent être ajoutés. Collabora proposera ainsi la gestion des documents bureautiques depuis l’intérieur même d’un référentiel ownCloud. Aussi pour les pros La version commerciale de cette solution (qui n’est pas accessible sous licence Open Source) apporte des fonctionnalités complémentaires, comme l’intégration ActiveDirecty et SharePoint ou la possibilité de monter un référentiel de données OwnCloud en tant que disque réseau sous Windows. Un outil de synchronisation est également proposé. La fédération de plusieurs serveurs OwnCloud a été améliorée, tout comme la possibilité d’intégrer des données issues de systèmes de stockage tiers (Dropbox, FTP, Google Drive, S3, WebDav, etc.). Un travail mené en collaboration avec l’AARNet et le CERN. À lire aussi : Stockage Cloud : Box se rapproche des professionnels Stockage : SUSE dégaine une offre SDS iSCSI sur base Ceph Stockage : nouveaux outils pour Microsoft OneDrive Entreprise Crédit photo : © Jozsef Bagota – Shutterstock
Cloud : IBM Softlayer ouvre son premier datacenter en Afrique IBM ouvre son premier datacenter Cloud en Afrique, une région où la firme est présente depuis 1939 (1920, au travers de partenaires). Ce continent risque fort de devenir stratégique dans les années à venir, mais demeure malgré tout le grand oublié du monde IT. Ce nouveau datacenter est installé à Johannesburg, en Afrique du Sud. Un choix logique, la couverture de l’Afrique du Nord pouvant (pour le moment) être assurée par les datacenters européens. Le datacenter de Johannesburg a été mis en place en partenariat avec l’opérateur télécoms Vodacom et le spécialiste sud-africain de l’IT Gijima. Il permettra d’accéder à l’ensemble des services Cloud de Big Blue, ainsi qu’à des offres SAP. L’accord entre IBM et SAP a en effet été renforcé, afin de favoriser le basculement de workloads d’entreprise critiques vers des infrastructures Cloud hébergées. 46 datacenters sur 5 continents Avec ce nouveau site, l’infrastructure Cloud d’IBM/SoftLayer monte en puissance, et affiche un nombre croissant de datacenters et de points de présence réseau, répartis sur cinq des six continents. Au total, IBM explique disposer d’un total de 46 datacenters Cloud. La présence de Big Blue est bien évidemment plus marquée en Europe de l’Ouest et en Amérique du Nord (fort logiquement, les datacenters de la firme ne sont pas présents en Antarctique).
À lire aussi : IBM – SoftLayer renforce sa présence au Brésil, avec un second datacenter IBM ouvre les portes de son datacenter SoftLayer en Allemagne IBM / SoftLayer ouvre un datacenter en Italie Crédit Photo : mathiasmeisenthal-shutterstock Télégrammes : L’IA au service d’Internet; Microsoft rejoint Eclipse; Cisco renforce Spark; L’iPhone s’habille en Intel Facebook s’appuie sur l’IA pour déterminer les territoires à connecter. Dans un post sur le réseau social, Mark Zuckerberg a montré comment l’intelligence artificielle permet de mieux cerner les régions ou les zones à connecter à Internet via les drones solaires Aquila. Pour cela, Facebook a analysé plus de 15,6 milliards d’images satellites et a créé des cartes plus précises. Mark Zuckerberg indique que ce travail de cartographie est mis à
disposition de la communauté et à d’autres organisations. Il pense notamment aux entreprises du secteur de l’énergie, du transport, de la santé, ainsi que les réponses à apporter en cas de catastrophes. Microsoft rejoint la fondation Eclipse. Cette dernière supervise le développement de l’IDE Eclipse. La firme de Redmond fait un nouveau pas vers la communauté Open Source. Pour son arrivée, Microsoft n’est pas venu les mains vides et propose de libérer le plugin Team Explorer Everywhere (Visual Studio) for Eclipse. Ce plugin permet aux utilisateurs d’utiliser Eclipse Team Foundation Server de faire du contrôle de version et de suivi des bugs. Le code est maintenant disponible sur GitHub. A noter que le plugin trouve sa place dans Azure Toolkit for Eclipse déjà en Open Source. De même, Microsoft intègre l’extension Codenvy dans Visual Studio Team Services qui peut générer un espace de travail Eclipse sur demande, mettre en place rapidement une machine virtuelle avec tous les bons plugins et construire des outils pour élaborer un projet. Cisco renforce Spark avec Synata. Cisco vient d’annoncer l’acquisition de Synata. Une « petite société », aux dires même de Rowan Trollope, le responsable de la division Collaboration et Internet des objets (IoT), spécialisée dans les problématiques de recherche, et notamment dans la recherche de données chiffrées dans le Cloud. En l’occurrence, les technologies de Synata viendront renforcer l’offre Cisco Spark de communication unifiée de l’équipementier américain. « Nous sommes tous très impatients d’offrir bientôt la recherche renforcée aux utilisateurs de Cisco Spark », s’enthousiasme le responsable L’ensemble des ingénieurs de Synata ont rejoint l’équipe Spack. Le montant de la transaction n’a pas été dévoilé. Des puces Intel dans les prochains iPhone ? Après les Mac, les iPhone ? Il est fort probable que les prochaines générations de smartphones d’Apple embarquent une puce Intel. Pas pour remplacer l’Ax, le processeur principal sous instructions ARM conçu par les équipes de Tim Cook et fabriqué par Samsung et TSMC mais en lieu et place de son actuel modem radio cellulaire. Selon un analyste de CLSA Securities, Intel aurait reçu une commande significative de composants radio de la part de Cupertino. Il s’agirait du XMM 7360, un modem LTE-A de catégorie 10 (450/100 Mbit/s) présenté à Barcelone en 2015. Si Intel équipera une partie des futurs iPhone, le fournisseur actuel Qualcomm devrait néanmoins conserver l’essentiel du marché des modems pour Apple. On parle de 60 à 70% de la production. Il restera à voir si l’arrivée d’Intel dans les iPhone poussera Cupertino à ouvrir un peu plus ses portes au fondeur américain et à fermer un peu plus celles de son fournisseur et néanmoins concurrent Samsung… L’affaire Apple-FBI, une menace pour le
Privacy Shield ? Le débat sur la demande du FBI d’accéder à l’iPhone d’un des responsables de l’attentat de San Bernardino et le refus d’Apple de répondre à cette requête, pourrait avoir un impact bien au-delà des simples frontières américaines. En ligne de mire, il y a par exemple le Privacy Shield, cet accord conclu entre l’Union européenne et les Etats-Unis pour garantir les échanges de données transatlantiques. Il devrait se substituer au Safe Harbor qui a été invalidé par la Cour de Justice de l’Union européenne en octobre dernier au motif la « sphère de sécurité des données » n’était plus assurée pour les informations des Européens aux Etats-Unis, après les révélations de l’affaire Snowden. Signé le 2 février, le Privacy Shield doit maintenant attendre le verdict des CNIL européennes prévu le mois prochain. Pour certains juristes, comme Wim Nauwelaerts, avocat spécialisé dans la protection des données au cabinet Hunton & William, cité par nos confrères du Chicago Tribune, « les régulateurs vont réfléchir sur la demande du FBI lors de l’examen de la viabilité de l’accord et son niveau de garanties ». En effet, l’Union européenne a demandé des engagements contraignants sur la sécurité des données des citoyens européens dans le cadre du Privacy Shield. Une réponse aux critiques de la CJUE qui jugeait « l’accès des autorités américaines aux données des citoyens européens trop faciles ». Pour Paul Bernal, professeur de droit à l’Université d’East Anglia en Angleterre, « si Apple perd la partie face au FBI et que les autorités peuvent effectivement placer une backdoor dans un téléphone, alors cet accès sera encore plus facile ». Les régulateurs européens inquiets ? Et les régulateurs européens s’inquiètent aussi de l’affaire Apple-FBI. Jacob Kohnstamm, président de l’autorité néerlandaise de protection des données et qui siège au groupe de travail de l’article 29, a indiqué, « nous sommes inquiets par le contrecoup de cette affaire sur la confiance des utilisateurs, si les entreprises peuvent proposer des niveaux de sécurité faibles dans leurs produits ». Les régulateurs nationaux pourraient retarder leur réponse sur le Privacy Shield pour connaître l’issue des débats entre Apple et le FBI. Surtout que le cas Apple n’est pas unique. L’ancienne Commissaire Viviane Redding rappelle le contentieux entre Microsoft et le gouvernement américain sur l’accès à des mails (liés à un trafic de drogue) hébergés sur des serveurs en Irlande. Or en septembre dernier, l’UE a signé avec les États- Unis un accord particulier sur les données échangées lors d’enquêtes criminelles. Ce qui fait dire à Viviane Redding que « le Département de la justice américain a demandé à un tribunal américain de contourner le cadre légal existant entre l’UE et les Etats-Unis dans le cas de Microsoft. Ce double discours est effrayant et nous allons avoir le même problème avec le cas d’Apple ». L’exécutif bruxellois se défend. « Le concept du bouclier de confidentialité avec les questions de sécurité nationale et de requêtes judiciaires est de mettre en place des garanties et des limites sur ce qui est techniquement possible par les autorités américaines », souligne Christian Wigand, porte-parole de la Commission pour la Justice. Et d’ajouter que « nous serons vigilants sur les engagements contraignants pris par les Etats-Unis notamment dans le cadre du suivi et de révision intégrés dans le Privacy Shield ». A lire aussi :
Privacy Shield : les États-Unis promettent de moins espionner l’Europe Le Privacy Shield ne convainc pas encore le G29 Crédit Photo : PromessArt Studio Linaro livre un Cloud dédié aux développeurs ARM 64 bits serveur Linaro profite de son rassemblement Linaro Connect de Bangkok (Thaïlande) pour lever le voile sur son Developer Cloud ARMv8. Cette solution Cloud permettra aux développeurs de s’essayer au monde des puces ARM 64 bits, et de se préparer ainsi à la dernière génération de serveurs ARM pour datacenters. Des serveurs qui devraient monter rapidement en popularité sur les workloads comme le Cloud ou l’Internet des Objets. Deux localisations sont aujourd’hui annoncées : une en Europe, à Cambridge (Royaume-Uni) et une seconde à Austin (États-Unis). Le réseau du Developer Cloud devrait s’étoffer par la suite, en Chine, en Amérique du Nord et en Europe. OpenStack + Linux Les logiciels employés pour animer le Developer Cloud seront publiés sous licence Open Source, promet Linaro. Nous y retrouvons la pile Cloud OpenStack ainsi que les OS Debian et CentOS. Côté serveurs, des machines mono et bi-sockets pourvues de puces signées AMD, Cavium, Huawei puis Qualcomm devraient intégrer le Developer Cloud, afin d’offrir le plus vaste choix possible en technologies ARMv8 serveur. Le Developer Cloud est accessible sur le site www.linaro.cloud. Rappelons que Linaro a également lancé le projet 96Boards, qui pourrait prochainement proposer des cartes mères ARM serveur low cost. L’organisation soutient aussi l’effort d’unification des serveurs ARM autour du standard SBSA. Voir à ce propos notre précédent article « Un standard pour les serveurs ARM… et Windows Server en prime ? » À lire aussi : ARM 64 bits quadricœur à 1,8 GHz pour la nouvelle 96Board Cartes mères ARM low cost : une 96Board signée Qualcomm 3 nouvelles 96Boards en approche !
Crédit photo : © AMD Quelles architectures pour les datacenters de demain ? (tribune) Il y a quelques années, j’ai eu l’occasion de visiter le centre de calcul de Météo France à Toulouse, et d’apercevoir un Cray qui servait à faire les prévisions à la fin du 20e siècle. C’était une machine monolithique circulaire, assez “design”. Tout le câblage était géré au centre du cylindre, les composants baignaient dans un liquide de refroidissement. Depuis, Météo France est passé, comme les géants du Web, au “commodity hardware”, une approche moins esthétique, mais plus économique. A l’heure où l’on s’interroge sur l’efficacité des datacenters, de nouvelles options émergent…. Les datacenters des opérateurs Cloud Les opérateurs Cloud et les géants du Web constituent l’avant-garde des datacenters de demain. Google (entre 1 et 2 millions de serveurs), Microsoft (plus d’un million de serveurs), Facebook (créateur d’Open Compute) ont les projets les plus innovants. Ils ont depuis longtemps reporté la résilience du matériel, devenu “commodity hardware”, vers le logiciel de contrôle du datacenter (lire aussi « Le faux départ du Cloud souverain ») Ils construisent leurs serveurs sur mesure. Google communique sur la migration des processeurs de x86 vers ARM. OVH (220 000 serveurs) met en avant le SSD pour les disques. Pendant un temps, Google et Microsoft ont communiqué sur des conteneurs comprenant 2 à 3 000 serveurs, dont la maintenance démarrait lorsque la plupart des serveurs étaient hors service. Cette approche coûteuse semble démodée : on préfère rendre les serveurs accessibles. Peut être verrons-nous un jour les robots Kiva d’Amazon, aujourd’hui gestionnaires d’entrepôts, changer aussi les serveurs ? Les expérimentations des géants du Web portent sur le refroidissement. Facebook a construit un datacenter à Lulea en Suède en raison des températures très basses permettant de réduire le coût énergétique du refroidissement. Google à Hamina, en Finlande, utilise de l’eau de mer pour son refroidissement. Microsoft communique sur Natick, un projet de datacenter sous-marin, proche des côtes, qui revient sur le modèle du conteneur difficile à maintenir…. Dans la logique d’Open Compute, on voit émerger des modules OpenHardware sur étagère. Le RuggedPOD, par exemple, pourrait être le Rasberry Py ou le Arduino du datacenter. Il s’agit d’un cube de 50 cm de coté, destiné à être posé en extérieur, sur le sol ou sur un toit.
Les datacenters des entreprises utilisatrices Plusieurs options s’offrent aujourd’hui aux entreprises utilisatrices. Je choisis d’en distinguer 3 : Le datacenter sous forme d’appliance propriétaire, Cloud in a box, ou infrastructure convergée… avec des offres comme celles de Vblock, IBM CloudBurst, Oracle Exalogic, Microsoft Cloud Platform System, etc. Le datacenter bâti sur mesure avec les offres de VMware/EMC, Microsoft, HP, Dell, etc. Le datacenter bâti sur base d’architecture ouverte (Open Compute). Dans l’écosystème où j’évolue, j’observe peu d’appétence pour les appliances Cloud. Il semble que les DSI préfèrent bâtir leur Cloud privé selon leurs propres plans et architectures, une approche que l’on peut interroger du fait de son coût. J’observe par contre, un début d’intérêt pour Open Compute. L’approche OpenHardware me semble intéressante pour permettre aux entreprises la construction d’un datacenter sur technologies ouvertes, à moindre coût. J’ai l’espoir que les géants du Web publient de plus en plus d’éléments de leur architecture en mode Open Source / OpenHardware, ce qui serait très profitable aux entreprises utilisatrices. Ces dernières pourraient utiliser principalement des appliances ressemblant au RuggedPOD. Rappelons cependant que peu de cas d’usages justifient réellement le recours à un Cloud privé : je pense que dans 90% des cas, les entreprises devraient se tourner vers le Cloud public (lire « Le Cloud privé est-il une escroquerie ?« ). Par Guillaume Plouin, architecte Cloud, et auteur de “Sécurité, gouvernance du SI hybride et panorama du marché” (4e édition) et de “Tout sur le Cloud Personnel” chez Dunod. Guillaume Plouin anime également un site Web personnel. A lire aussi, ses précédentes tribunes : L’émergence du SaaS pour la conception et le design Pannes de Cloud : mes données sont-elles en sécurité ? Cloud et PME : anatomie d’un paradoxe Crédit photo : Google
Stockage : EMC rhabille ses VMax de Flash du sol au plafond « 2016 sera l’année du tout Flash », a lancé David Goulden, le CEO Information Infrastructure d’EMC lors d’un l’événement organisé par le constructeur à Londres en début de semaine. « Cette année marque une inflexion, puisque le coût au Go du stockage Flash arrive à égalité avec celui des disques durs 15K.» Le bon timing selon l’équipementier pour annoncer la généralisation du “All-Flash“ dans toutes ses gammes, à commencer par des baies VMax 100 % Flash intégrables aux offres convergées VCE vBlock et VxRack et bénéficiant d’un nouveau pack de maintenance Xpect More. Sans oublier l’annonce du DSSD D5 (décrit dans un article à suivre). Ces solutions complètent les baies 100 % Flash XtremIO et les configurations de milieu de gamme All-Flash des baies VNX. Le plus gros système 100 % Flash, dit EMC Supportant le stockage all-flash en mode bloc ou fichiers, provenant de systèmes ouverts et désormais aussi des iSeries et des mainframes (une bonne nouvelle pour nombre de clients et prospects), la capacité du VMax All-Flash atteint jusqu’à 4 pétaoctets, et supporte jusqu’à 40 000 machines virtuelles. De quoi voir venir. « Ce qui en fait le plus gros système de stockage All-Flash sur la planète, avec une disponibilité certifiée de 99,9999% !» s’enthousiasme Jeremy Burton, président produits et marketing chez EMC. L’architecture des VMax All Flash repose sur des blocs V-Brick, contenant chacun un moteur VMax (deux contrôleurs) et une capacité initiale de 53 To (dans deux plateaux de SSDs) pouvant évoluer jusqu’à 500 To par incréments de 13 To. Un rack VMax peut contenir deux V-Bricks, et il est possible de combiner quatre de ces unités pour atteindre une capacité globale de 4 Po, dans une configuration animée par huit moteurs VMax. Pour adresser tout ce stockage, le VMax dispose d’un cache pouvant atteindre 16 To. Deux modèles matériels sont proposés : le VMax All-Flash 450 pour 1 à 4 V-Bricks, et le VMax All- Flash 850 pour pousser jusqu’à 8 V-Bricks. Compression en temps réel courant 2016 Pour ces modèles deux offres logicielles sont proposées. Le package logiciel F apporte le thin provisioning, la gestion de la qualité de service, la gestion du stockage avec EMC Unisphere, le support des volumes virtuel vVols, la technologie de snapshots SnapVX, ainsi que la gestion de la copie de données (CDM) avec AppSync.
Plus évolué, le package logiciel FX ajoute la suite de gestion de réplication à distance EMC SRDF, la compression de données basée sur le contrôleur D@re, la suite ViPR complète de Software Defined Storage, la passerelle CloudArray pour relier le stockage VMax aux services de stockage Cloud, EMC eNAS pour le stockage de fichiers ou encore le nouveau EMC Unisphere 360 pour une gestion consolidée du stockage (jusqu’à 200 V-Max dans un datacenter unique). Par ailleurs, EMC annonce la future disponibilité de la compression en temps réel dans le courant de l’année. « Destinés aux environnements critiques, les VMax All-Flash proposent une bande passante de 150 Gbit/s, 4 millions d’IOPS (entrées/sorties par seconde), et des temps de réponse d’une demi-milliseconde sur une transaction complète », assure Jeremy Burton. « Une gamme dont l’écosystème d’applications supportées est très riche : VMware, Oracle, Microsoft, Openstack…» Déjà opérationnels sous les baies VMax, les logiciels des divers éditeurs ne pourront que bénéficier des performances Flash de ces déclinaisons. API facilitant l’intégration Conformément à la stratégie Modern Datacenter de la fédération EMC (EMC, VMware, Pivotal, VCE…), l’équipementier estime que le stockage doit répondre à quatre impératifs : la performance avec le Flash, l’ouverture avec l’accès au Cloud, l’évolutivité scale-out, et le software-defined (censé libérer l’entreprise des impératifs matériels). Le tout pour proposer une offre instaurant la confiance. Et justement, pour répondre à ce dernier aspect, EMC contribue à la conception du Software- Defined DataCenter (SDDC), et facilite l’intégration via des plateformes d’orchestration, en proposant des API RESTful pour les VMax All-Flash. Le minimum que l’on peut attendre du leader du secteur Enfin, le package de maintenance Xpect More, associé aux VMax All-Flash, intègre diverses garanties à même de séduire les entreprises : garantie à vie “Flash endurance protection” (avec remplacement gratuit des modules éventuellement défaillants), garantie de remboursement de trois ans en cas d’insatisfaction, maintien à vie du prix de la maintenance. Une réponse intéressante aux attentes de maîtrise des dépenses émanant des DSI. Intégrable aux offres convergées Disponible immédiatement, les VMax All Flash peuvent être proposés dans les infrastructures convergées de VCE vBlock (qui avaient déjà intégré du full Flash) et VxBlock 740. EMC signale que ces nouvelles unités peuvent aussi être commandées comme extensions des systèmes VBlock, VxBlock existants, ainsi que pour les Fabrics VScale de VCE. Sans oublier les VxRack (voir notre article). Au cours des mois à venir, il sera intéressant de suivre comment EMC va affiner le positionnements de ses différentes offres, entre les solutions XtremIO et VMax All-Flash. A lire aussi :
Stockage flash : NetApp s’empare de SolidFire Violin Memory trouve un second souffle dans le stockage flash Cisco arrête sa gamme de stockage flash Invicta Résultats : pari réussi pour Hewlett Packard Enterprise Hewlett Packard Enterprise (HPE) vient de publier les résultats du premier trimestre de son exercice 2016, qui se terminait le 31 janvier. Le chiffre d’affaires de la firme se fixe à 12,7 milliards de dollars. Une valeur en baisse de 3 % sur un an, mais qui reste dans la moyenne des attentes des analystes. Sans prendre en compte les variations du dollar, le CA aurait progressé de 4 %. À 7,1 milliards de dollars, l’Enterprise Group se maintient (+1 %). HPE réussit à sauver les meubles sur son cœur de métier : la fourniture de solutions d’infrastructure et de serveurs. Les services plongent eux de 6 %, à 4,7 milliards de dollars. Le logiciel fait une chute de 10 %, avec un chiffre d’affaires de 780 millions de dollars, illustrant une fois encore la faiblesse relative de la firme californienne sur ce terrain. Action en hausse Le bénéfice net se fixe à 300 millions de dollars, contre 500 millions de dollars un an plus tôt, soit une baisse assez marquée de 51 %. Pas d’inquiétudes toutefois de ce côté : HPE est une société jeune qui se booste sur les marchés à coup de rachats d’actions. Et cela devrait se poursuivre, puisque 100 % des liquidités (!) disponibles générées en 2016 seront retournées aux actionnaires, annonce HPE. Sans surprise, cette annonce a été bien accueillie par les investisseurs. L’action s’envole ainsi actuellement de 5,9 % dans les échanges hors séance à la bourse de New York. En données corrigées, ne prenant pas en compte certaines opérations exceptionnelles, le gain par action se fixe à 41 cents. Une valeur en repli de 7 % sur un an, mais qui reste dans la moyenne des attentes des analystes (40 cents). À lire aussi : HP propose du WiFi illimité avec ses ordinateurs portables
Ventes de PC en berne ? La faute à Windows 10 estime HP HPE, Cisco et Microsoft : les trois leaders de l’équipement des datacenters Crédit photo : © Hewlett Packard Enterprise Les DSI sont-ils plus rétrogrades en France qu’ailleurs ? Les DSI français jouent moins un rôle moteur dans le digital que leurs homologues étrangers, mais leurs budgets sont plus serrés, selon l’étude « 2016 CIO Agenda: A France Perspective » du cabinet Gartner. L’enquête a été réalisée au printemps 2015 auprès de 2 944 DSI des secteurs privé et public dans 84 pays, dont 63 DSI en France. Ensemble, ces décideurs cumulent 250 milliards de dollars de dépenses IT. 46 % des DSI français (51 % des DSI dans le monde) tablent sur une augmentation de ces dépenses en 2016. Mais la majorité est moins optimiste. 30 % des DSI français (34 % dans le monde) s’attendent à une stabilité des dépenses IT et 24 % supplémentaires (15 % dans le monde) craignent une baisse. Cette incertitude se traduit par une utilisation plus prudente des budgets informatiques français, d’après Gartner. Dans l’Hexagone, les opportunités digitales sont plus portées par leur valeur commerciale potentielle que par leur valeur technologique. Cette tendance peut impacter la relation – parfois tendue – entre les DSI et les directions métiers, voire entre les DSI et leur direction générale. Cette dernière voulant faire du numérique un moteur de croissance durable de l’organisation, sans augmenter les budgets. L’IT à deux vitesses Malgré ces divergences, les DSI français optent progressivement pour une approche bimodale de l’IT (deux modes fonctionnent en parallèle : un premier mode traditionnel orienté sur l’optimisation du système d’information existant, et un second centré sur l’innovation et la transformation agile de l’organisation). 28 % des DSI en France ont choisi cette approche, alors que la moyenne mondiale atteint 38 %. Là encore, l’écart est significatif. Mais, dans les trois prochaines années, près d’un DSI français sur deux (48 %) devrait adopter cette démarche. Ce taux place la France en tête des pays étudiés par Gartner dans ce domaine. Pour piloter le changement plutôt que le subir, les DSI français devraient, selon Gartner, continuer à privilégier les opportunités numériques à valeur ajoutée pour le business : BI/solutions analytiques, marketing digital, ERP, CRM, Cloud, mobilité… En France, ces outils devancent les
solutions d’infrastructure et de datacenter. Là encore, le contraste avec le reste du monde est notable. En moyenne, les solutions d’infrastructure figurent en effet en 2e position du classement global des outils représentant une opportunité numérique aux yeux des DSI. Le cabinet Gartner recommande encore aux DSI français de déléguer davantage de tâches administratives et internes, de prioriser leurs projets. Et ce pour consacrer plus de temps à l’innovation et à l’échange avec les métiers, les clients et l’écosystème numérique. Pour ce faire, la société d’études américaine incite les DSI à entrer dans une logique de plateforme. Il s’agit en fait d’exploiter « l’effet de réseau » (la valeur d’une offre, service ou produit, augmente avec le nombre de ses utilisateurs) pour adapter leurs modèles d’affaires, de gouvernance et de gestion des talents. Lire aussi : Dépenses IT : les DSI font (presque) fifty-fifty avec les métiers Quand la DSI renonce à des projets, faute de temps crédit photo © everything possible / shutterstock.com SQL Server, la base de données étirable dans le Cloud Azure Conformément à sa promesse d’offrir des outils permettant la construction de Cloud hybrides, Microsoft vient de livrer le service permettant d’étendre une table de sa base de données SQL Server sur Azure. Baptisé SQL Server Stretch Database Service, ce service voit le jour en même temps que la première ‘release candidate’ de SQL Server 2016, la nouvelle mouture de la base de données de Redmond qui intègre cette capacité d’extension. La version permet aux administrateurs de configurer certaines tables pour qu’elles soient extensibles sur le Cloud de Microsoft, de façon transparente pour les applications qui accèdent aux données indifféremment, au travers des deux environnements.
La fonctionnalité peut être employée pour basculer automatiquement des données dans le Cloud après une certaine durée. Sans que ce transfert ne nécessite de modifier les requêtes des applications, un élément clef pour les développeurs ou data scientist qui n’auront pas à réécrire le code applicatif pour tirer parti de cette option. Seuls les administrateurs de bases de données sont appelés à intervenir, assure Microsoft. Pour l’heure, en mode preview, la fonction est limitée à 60 To par base de données. SQL Server extensible… et aussi chiffrée La fonctionnalité doit permettre aux entreprises de tirer profit de la flexibilité du Cloud, pour réduire le coût du stockage des données, notamment pour ce qu’on appelle les données ‘froides’ (des informations anciennes, peu utilisées par les applications). A l’avenir, les administrateurs devraient avoir accès à d’autres paramètres que le seul âge des données pour automatiser les transferts de données vers Azure. « C’est à ce stade unique sur le marché, assurait il y a quelques mois dans nos colonnes Damien Cudel, chef de marché plate-forme applicative chez Microsoft France. Et Stretch Table supportera le chiffrement Transparent Query Encryption ». Ce dernier permet de crypter les requêtes quand elles quittent l’entreprise et d’interroger une base de données elle-même chiffrée, via des clefs qui demeurent entre les mains de la DSI. Un dispositif de sécurité qui permet, selon Microsoft, de manipuler des données sensibles sans que celles-ci soient accessibles à un moment ou à un autre à un administrateur système ou de base de données. Azure dans le datacenter SQL Server est la quatrième ligne de revenus du premier éditeur mondial depuis quelques années. La base de données représente un chiffre d’affaires annuel de plus de 6 milliards de dollars pour l’éditeur. Dans sa stratégie de développement d’environnements hybrides, Microsoft a également dévoilé fin janvier la première version préliminaire d’Azure Stack, solution permettant de bâtir des environnements Azure à l’intérieur des datacenters des entreprises. A lire aussi : Big Data : Microsoft enrichit SQL Server avec Metanautix Microsoft SQL Server 2016 : une base de données extensible sur le Cloud
Analytique Big Data : R sera intégré en standard au sein de SQL Server 2016 crédit photo © rangizzz – shutterstock Logiciel : Cegid porté par le Saas En 2015, l’éditeur lyonnais de logiciels de gestion pour les entreprises Cegid a réalisé un chiffre d’affaires de 282,1 millions d’euros, en progression de 5,8 % sur un an. A périmètre constant, la croissance est plus limitée (+ 3,9 %). La totalité de cette progression provient des activités Saas, qui, à 62,8 millions d’euros, bondissent de 31,8 % en un an. Soit 15 millions d’euros supplémentaires dans le Cloud pour la société présidée par Jean-Michel Aulas (en photo ci-dessus en compagnie du directeur général, Patrick Bertrand). Quant au résultat opérationnel courant, il s’élève à 39,1 millions d’euros (+ 11,6 %), pour une marge opérationnelle à 13,9 % du CA consolidé, en tenant compte des charges d’amortissement des actifs identifiés à l’occasion des opérations de croissance externe. Cegid a effectivement multiplié, au cours de l’année, les prises de participation et les acquisitions. Notamment en montant à 100 % du capital de Technomedia, un groupe canadien à l’origine d’une suite de solutions de gestion des talents. L’idée étant de dépasser l’approche de la gestion administrative du personnel (paye, déclarations sociales…) pour toucher au suivi des parcours professionnels. Cegid multiplie les rachats Cegid a également mis la main sur le Français Altaven et sa plate-forme de pilotage des fonctions fiscales, tout en renforçant sa présence aux États-Unis par le biais du rachat de JDS Solutions, un spécialiste du retail. Sur la liste des acquisitions figure aussi Magelia et sa plate-forme e-commerce BtoC, rappellent nos confrères d’ITespresso. Cegid a par ailleurs pris du 12 % du capital de Novigotech (start-up lilloise qui exploite des portails collaboratifs pour la gestion RH), avec l’objectif d’une prise de contrôle progressive. L’orientation du groupe vers les activités d’édition se confirme : la chiffre d’affaires y est lié à hauteur de 197,7 millions d’euros, quand celui associé à la partie « Distribution et divers », présentée comme non stratégique, baisse de 8,2 %, à 21,7 millions d’euros. Jean-Michel Aulas parie sur le Cloud À l’international, le CA progresse de 25 % sur un an, atteignant 24,5 millions d’euros. La hausse est moins importante (+ 13 %, à 22,1 millions d’euros) si on exclut l’intégration de JDS Solutions,
effective au 1er juin 2015. En l’état actuel, environ un tiers des utilisateurs de solutions Cegid fonctionnent en mode SaaS. Pour le président-fondateur Jean-Michel Aulas, 80 % des clients auront basculé vers le Cloud dans un horizon de 10 ans. A lire aussi : Cegid : une stratégie Cloud gagnante et ambitieuse au 1er semestre Le SaaS et ses éditeurs ne connaîssent pas la crise Logiciel : la transition vers le SaaS stimule la croissance Rachat de CliQr : Cisco s’attaque à la gestion des applications dans le Cloud Cisco vient d’annoncer son intention de racheter CliQr pour un montant de 260 millions de dollars en cash. CliQr propose une plate-forme d’orchestration Cloud qui permet de déployer et gérer les applications dans des environnements physiques, des machines virtuelles ou des conteneurs. Une solution qui permet de simplifier les déploiements sur des Clouds privés, publics ou hybrides, assure Cisco. CliQr CloudCenter couvre l’intégralité du cycle de vie de l’application, à partir d’un profil unique, adapté à tous les types de déploiements, physiques comme virtuels. Les politiques de sécurité sont prises en compte et suivent l’application dans ses déplacements. La société propose également d’évaluer le coût et les performances d’un déploiement en mode Cloud, afin de déterminer quelle offre sera la mieux adaptée. L’ensemble de ces opérations est géré depuis une console centralisée. CliQr ou l’ALM sans frontières Cette solution est adaptée aux besoins des entreprises devant jongler avec un grand nombre de logiciels répartis sur différentes offres Cloud. Bref de l’ALM (Application lifecycle management) qui abat les frontières entre les infrastructures physiques ou virtuelles, privées, publiques ou mixtes. CliQr CloudCenter est d’ores et déjà proposé sur différentes offres de Cisco, dont les solutions ACI (Application Centric Infrastructure) et UCS (Unified Computing System). Suite à ce rachat, sa présence dans les solutions pour datacenters de Cisco devrait se renforcer.
À lire aussi : Cisco booste ses bénéfices… et chouchoute ses actionnaires Apple et Cisco s’allient autour des iPhone et iPad en entreprise Cisco met 1,4 Md de $ sur Jasper, pour devenir un champion de l’IoT Crédit photo : shutterstock Télégrammes : Nutanix diffère son IPO, Deutsche Telekom retient T-Mobile, Facebook en prison IPO : Nutanix recule. Selon CNBC, qui cite des sources anonymes présentées comme proches du dossier, Nutanix aurait décidé de reculer son introduction en bourse, prévue à l’origine pour ce début d’année. L’opération serait reportée au second ou au troisième trimestre de l’année, voire plus tard. Le spécialiste de l’hyperconvergence attendra des conditions de marché plus favorables. Comme le rappelle CNBC, 7 des 10 dernières valeurs technologiques à avoir bravé les frimas boursiers sont aujourd’hui cotées en dessous de leur cours d’introduction. Plus significatif encore pour la société spécialiste de technologies pour datacenters, ses homologues Nimble Storage et Pure Storage ont perdu respectivement les trois-quarts et 25 % de leur valeur depuis octobre dernier. Voilà plus de trois mois qu’aucune société Internet ou éditeur de logiciel ne s’est risqué à se lancer dans une IPO. En décembre dernier, Nutanix a déposé son document d’introduction auprès du gendarme de la bourse américaine, la SEC (Securities and Exchange Commission). Le fournisseur expliquait vouloir placer pour environ 200 millions de dollars de titres sur le Nasdaq (sous le symbole NTNX). Lors de sa dernière année fiscale, Nutanix a réalisé 241 millions de dollars de chiffre d’affaires, pour une perte de 126 millions. La vente de T-Mobile suspendue. Selon Reuters, Deutsche Telekom aurait suspendu le processus de vente de sa filiale américaine, T-Mobile US, afin de participer à de futures enchères sur l’attribution de fréquences radio. A la fin du mois de mars, la Federal Communications Commission doit en effet lancer une procédure d’attribution de radiofréquences, procédure qui pourrait durer des mois. « Durant cette période, il n’y aura aucune fusion ou acquisition dans le secteur des télécoms aux Etats-Unis », explique une des sources anonymes interrogée par nos confrères. Les participants à l’enchère ne sont en effet pas autorisés à s’engager dans des partenariats ou des fusions durant les semaines qui précèdent et suivent la procédure officielle. T-Mobile, détenu à 65,4 % par l’opérateur allemand, a prévu de mettre jusqu’à 10 Md$ sur la table pour s’offrir les fréquences basses qui seront proposées. Rappelons qu’Iliad, la maison mère de Free, avait un temps été intéressé par l’opérateur mobile américain, avant de renoncer faute d’accord sur le prix de vente avec le conseil d’administration de Deutsche Telekom.
Un VP de Facebook se fait de nouveaux amis… en prison. La police brésilienne a appréhendé le vice-président de Facebook pour l’Amérique latine, Diego Dzodan, en raison du refus répété du réseau social « de se conformer aux ordonnances judiciaires » portant sur des enquêtes sur le crime organisé et le trafic de drogue. La police brésilienne, qui a arrêté Diego Dzodan à l’aéroport de Sao Paulo, indique que l’affaire concerne l’accès à des messages WhatsApp, l’application de messagerie instantanée propriété de Facebook, dans le cadre d’une enquête sur un trafic de drogue dans l’état du Sergipe (situé à l’est du pays). En décembre dernier déjà, un juge brésilien avait suspendu l’usage de WhatsApp pendant 12 heures, l’entreprise américaine ayant refusé de se soumettre à deux ordonnances judiciaires. IBM : des API Watson pour éviter la panne des sens Comme nous l’avons évoqué à plusieurs reprises (ici ou là, par exemple), IBM investit fortement sur sa technologie d’intelligence artificielle Watson. Cette technologie d’aide à la décision permet d’interroger en langage naturel des bases d’informations structurées ou des documents non structurés. Baptisée informatique cognitive, Watson repose sur du code et des algorithmes, rendus accessibles via des API. En effet, la programmation moderne reposera (c’est déjà en partie le cas) sur un assemblage de codes prêts à l’emploi (les API), réutilisables et maintenus par leurs auteurs respectifs. IBM propose donc plusieurs fonctions de Watson sous forme d’API, accessibles à travers son PaaS Bluemix. Ces fonctions sont gratuites pendant la phase de bêta. Ces API reçoivent l’information à analyser et renvoient le résultat au format Json ou XML selon les besoins, avec présentation hiérarchique des résultats. Quand l’émotion nait de l’intelligence artificielle « Toutes ces API cognitives offrent aux développeurs la possibilité d’intégrer à leurs applications plusieurs dimensions sensorielles humaines pour plus de perspicacité », assure Rob High, directeur technique et vice-président de Watson chez IBM. Comme nous l’expliquions en juillet dernier, l’API Tone Analyser analyse le sens de n’importe quel texte afin de détecter les émotions (négativité, joie, colère), la prédisposition sociale (ouvert, agréable, consciencieux) et le style d’écriture (analytique, confiant, timide). Les améliorations annoncées apportent de nouvelles émotions détectées comme la joie, le dégoût, la peur ou la tristesse, mais aussi des dispositions sociales comme le caractère extraverti. Désormais, Tone Analyser analyse des phrases entières, en anglais uniquement (pour le moment). En mars dernier IBM a racheté AlchemyAPI, spécialiste du Deep Learning (voir notre article).
Désormais, le groupe d’API issu de l’acquisition est enrichi de l’API Watson Emotion Analysis. Cette dernière utilise des algorithmes de Natural Language Processing (processus de langage naturel) pour analyser des fichiers textes jusqu’à 50 Ko afin d’y détecter les principales émotions : joie, peur, tristesse, dégoût ou colère. Bien utile pour analyser des messages, des blogs, des textes de réseaux sociaux, ou même des messages avant de leur envoi. Séduisant pour le marketing par exemple. Parce que la communication peut aussi être non verbale, la reconnaissance visuelle apporte son lot d’informations. L’API Visual Recognition (reconnaissance visuelle) vise à reconnaître des formes ou des concepts dans des images ou des vidéos. Et renvoie un résultat sur la base de ce qu’elle a détecté. Désormais, l’utilisateur peut l’entraîner à reconnaître des formes afin de les détecter dans des images ou vidéos, en plus des formes par défaut. Ainsi, chaque développeur peut personnaliser la reconnaissance visuelle selon ses besoins, ses concepts ou idées à reconnaître. Cela peut s’avérer utile également dans le cadre de classements ou catégorisations automatisées d’images ou de vidéos. Watson rend les robots vocaux moins ‘froids’ Outre ces trois annonces, IBM annonce aussi l’intégration des émotions dans son API Text-to- Speech (synthèse vocale ou Watson TTS). De quoi rendre les interactions vocales plus “humaines” en véhiculant des émotions après analyse du texte à énoncer. Une voie pour infléchir l’intonation de la voix selon le contexte lié à l’analyse des mots et des phrases. La prise en compte des émotions dans des échanges informatisés peut indéniablement apporter un plus. Cependant, la limite de l’anglais reste un handicap. En effet, même s’ils écrivent en anglais, les interlocuteurs ne s’exprimant pas dans leur langue naturelle risquent de fausser les résultats. D’autant plus que dans de nombreuses situations, ils se contentent de copier/coller du Google Translator… A lire aussi : Watson IoT : IBM choisit Munich comme siège mondial Watson : le bon docteur qui va soigner IBM France ? Crédit photo : JuliusKielaitis / Shutterstock.com SUSE Linux : SLES 12 SP1 for SAP met Hana
dans le Cloud SUSE vient de livrer une nouvelle version de sa solution SUSE Linux Enterprise Server for SAP Applications (SLES for SAP), qui s’appuie sur SLES 12 SP1. Au menu, une fiabilité accrue, avec la capacité à mieux supporter de lourdes charges, et des optimisations pour la base de données In-Memory SAP Hana. Autre avancée, la possibilité de faire fonctionner SAP Hana en mode haute disponibilité sur le Cloud public d’Amazon, AWS. « Avec le Service Pack 1 de Suse Linux Enterprise Server 12 for SAP Applications, SUSE réaffirme sa position de leader du marché capable d’offrir des solutions à haute disponibilité qui réduisent les temps d’interruption, tout en simplifiant l’installation, le déploiement et l’administration des temps de traitement des solutions SAP critiques », explique Helge Deller, responsable du SAP LinuxLab. SLES for SAP, avant tout du Linux SUSE Bien évidemment, SLES 12 SP1 for SAP reprend toutes les avancées de la version classique de l’OS serveur de l’éditeur (voir à ce propos notre article de janvier « Linux : SUSE Linux Enterprise 12 boosté par un premier Service Pack (bonus vidéo) »). Des outils spécifiques sont proposés afin de faciliter le paramétrage et l’administration des applications SAP. La mise en place de clusters de haute disponibilité dédiés au monde SAP est également proposée par cet OS. À lire aussi : SUSECon 2015 : un tournant pour SUSE ? Quiz Silicon.fr – Savez-vous tout de l’histoire de SUSE ? SUSECon 2015: les nouveautés de SLES 12 SP1 dévoilées Crédit photo : © openSUSE Cisco Ultra, une plate-forme SDN/NFV taillée pour la 5G « Un excellent retour du marché. » C’est ainsi que Yves Padrines, vice président Global Service Provider pour la zone Europe, Afrique Moyen-Orient et Russie chez Cisco, qualifie l’édition 2016 du Mobile World Congress (MWC) de Barcelone. « Les opérateurs se relancent avec des vagues d’investissements et font évoluer leur façon de travailler », s’enthousiasme-t-il. Y compris en Europe où, malgré la concurrence qui fait perdre des points aux gros opérateurs mobiles, comme Vodafone en
Vous pouvez aussi lire