Datacenter : Lenovo s'associe avec Juniper sur l'hyperconvergence - Silicon.fr

 
CONTINUER À LIRE
Datacenter : Lenovo s'associe avec Juniper sur l'hyperconvergence - Silicon.fr
Datacenter : Lenovo s’associe avec Juniper
sur l’hyperconvergence
L’hyperconvergence est devenue un terrain de bataille des constructeurs IT. Dernier exemple en
date, la signature d’un partenariat entre Lenovo et Juniper. Les deux sociétés veulent, selon le
communiqué, « coopérer pour construire les prochaines générations de systèmes convergés, hyperconvergés
pour les datacenters des entrerprises ».

Chacun des deux acteurs apportent son savoir-faire dans la corbeille des fiançailles. En premier
lieu, les clients de Juniper pourront acheter directement les équipements réseaux auprès de
Lenovo. Un effort va également être mené sur le plan gestion et orchestration du datacenter pour
tirer parti de la solution xClarity de Lenovo, ainsi que de Network Director et Contrail SDN (Software
Defined Network) de Juniper.

On remarquera néanmoins que, dans ce concert de bonnes intentions, il manque un élément
essentiel pour prétendre faire de la convergence et encore plus de l’hyperconvergence : le
stockage. Rien n’a été dit sur cette problématique, mais on peut supposer des partenariats dans le
domaine du SDS (Software Defined Storage) avec des acteurs comme Atlantis, Datacore, etc.

Une concurrence en pleine émulation
Pour Lenovo, ce partenariat est important dans le cadre des ambitions de la firme chinoise sur le
marché des datacenters. Après avoir acquis l’activité serveur x86 d’IBM, il doit accompagner la
tendance actuelle qui se porte sur les offres convergées et hyperconvergées. Récemment, Philippe
Charpentier, responsable des ingénieurs avant-vente VCE en Europe, expliquait que « les
infrastructures convergées représentent un marché de 10 milliards de dollars avec une croissance à deux
chiffres, les infrastructures hyperconvergées génèrent pour l’instant que quelques millions de dollars, mais
avec une croissance très importante ». Un potentiel qui fait rêver la plupart des acteurs IT qui se
mettent en ordre de bataille. VCE a dégainé VX Rail, HPE vient d’annoncer le lancement le mois
prochain d’une offre hyperconvergente en partenariat avec Springpath. L’objectif est de reprendre
des parts de marché au pure player Nutanix qui fait la course en tête.

Un autre nom s’invite dans ce concert, Cisco, qui a dévoilé la semaine dernière son système baptisé
HyperFlex en s’associant lui aussi avec Springpath. On comprend mieux que Juniper ait sauté le pas
avec Lenovo pour se positionner sur ce marché décidément très animé en ce début mars.

A lire aussi :

Serveurs : Lenovo s’allie à Inventec pour conquérir la Chine

Thomas Desrues, Juniper : «Les choses sérieuses commencent autour du SDN/NFV»
Datacenter : Lenovo s'associe avec Juniper sur l'hyperconvergence - Silicon.fr
OwnCloud 9 mise sur la fédération des
Clouds de stockage
La solution web de partage de documents ownCloud passe en version 9. Une offre conçue pour
pouvoir être installée sur tout serveur personnel ou d’entreprise. Au menu, de classiques fonctions
de stockage et partage de fichiers, mais également des modules plus avancés, comme un agenda
ou des galeries d’images.

Concernant la gestion des fichiers, des fonctions avancées de recherche et de filtrage sont
proposées. Les photos, vidéos et PDF pourront être lus directement depuis ownCloud. Côté
collaboration, le partage de fichiers est bien évidemment proposé, ainsi qu’un système de
commentaires, pour favoriser le travail en groupe.

Des modules complémentaires peuvent être ajoutés. Collabora proposera ainsi la gestion des
documents bureautiques depuis l’intérieur même d’un référentiel ownCloud.

Aussi pour les pros
La version commerciale de cette solution (qui n’est pas accessible sous licence Open Source)
apporte des fonctionnalités complémentaires, comme l’intégration ActiveDirecty et SharePoint
ou la possibilité de monter un référentiel de données OwnCloud en tant que disque réseau sous
Windows. Un outil de synchronisation est également proposé.

La fédération de plusieurs serveurs OwnCloud a été améliorée, tout comme la possibilité
d’intégrer des données issues de systèmes de stockage tiers (Dropbox, FTP, Google Drive, S3,
WebDav, etc.). Un travail mené en collaboration avec l’AARNet et le CERN.

À lire aussi :
Stockage Cloud : Box se rapproche des professionnels
Stockage : SUSE dégaine une offre SDS iSCSI sur base Ceph
Stockage : nouveaux outils pour Microsoft OneDrive Entreprise

Crédit photo : © Jozsef Bagota – Shutterstock
Cloud : IBM Softlayer ouvre son premier
datacenter en Afrique
IBM ouvre son premier datacenter Cloud en Afrique, une région où la firme est présente depuis
1939 (1920, au travers de partenaires). Ce continent risque fort de devenir stratégique dans les
années à venir, mais demeure malgré tout le grand oublié du monde IT.

Ce nouveau datacenter est installé à Johannesburg, en Afrique du Sud. Un choix logique, la
couverture de l’Afrique du Nord pouvant (pour le moment) être assurée par les datacenters
européens. Le datacenter de Johannesburg a été mis en place en partenariat avec l’opérateur
télécoms Vodacom et le spécialiste sud-africain de l’IT Gijima.

Il permettra d’accéder à l’ensemble des services Cloud de Big Blue, ainsi qu’à des offres SAP.
L’accord entre IBM et SAP a en effet été renforcé, afin de favoriser le basculement de workloads
d’entreprise critiques vers des infrastructures Cloud hébergées.

46 datacenters sur 5 continents
Avec ce nouveau site, l’infrastructure Cloud d’IBM/SoftLayer monte en puissance, et affiche un
nombre croissant de datacenters et de points de présence réseau, répartis sur cinq des six
continents. Au total, IBM explique disposer d’un total de 46 datacenters Cloud.

La présence de Big Blue est bien évidemment plus marquée en Europe de l’Ouest et en Amérique
du Nord (fort logiquement, les datacenters de la firme ne sont pas présents en Antarctique).
À lire aussi :
IBM – SoftLayer renforce sa présence au Brésil, avec un second datacenter
IBM ouvre les portes de son datacenter SoftLayer en Allemagne
IBM / SoftLayer ouvre un datacenter en Italie

Crédit Photo : mathiasmeisenthal-shutterstock

Télégrammes : L’IA au service d’Internet;
Microsoft rejoint Eclipse; Cisco renforce
Spark; L’iPhone s’habille en Intel
          Facebook s’appuie sur l’IA pour déterminer les territoires à connecter. Dans un post
          sur le réseau social, Mark Zuckerberg a montré comment l’intelligence artificielle permet
          de mieux cerner les régions ou les zones à connecter à Internet via les drones solaires
          Aquila. Pour cela, Facebook a analysé plus de 15,6 milliards d’images satellites et a créé
          des cartes plus précises. Mark Zuckerberg indique que ce travail de cartographie est mis à
disposition de la communauté et à d’autres organisations. Il pense notamment aux
   entreprises du secteur de l’énergie, du transport, de la santé, ainsi que les réponses à
   apporter en cas de catastrophes.
   Microsoft rejoint la fondation Eclipse. Cette dernière supervise le développement de
   l’IDE Eclipse. La firme de Redmond fait un nouveau pas vers la communauté Open Source.
   Pour son arrivée, Microsoft n’est pas venu les mains vides et propose de libérer le plugin
   Team Explorer Everywhere (Visual Studio) for Eclipse. Ce plugin permet aux utilisateurs
   d’utiliser Eclipse Team Foundation Server de faire du contrôle de version et de suivi des
   bugs. Le code est maintenant disponible sur GitHub. A noter que le plugin trouve sa place
   dans Azure Toolkit for Eclipse déjà en Open Source. De même, Microsoft intègre
   l’extension Codenvy dans Visual Studio Team Services qui peut générer un espace de
   travail Eclipse sur demande, mettre en place rapidement une machine virtuelle avec tous
   les bons plugins et construire des outils pour élaborer un projet.
   Cisco renforce Spark avec Synata. Cisco vient d’annoncer l’acquisition de Synata. Une
   « petite société », aux dires même de Rowan Trollope, le responsable de la division
   Collaboration et Internet des objets (IoT), spécialisée dans les problématiques de
   recherche, et notamment dans la recherche de données chiffrées dans le Cloud. En
   l’occurrence, les technologies de Synata viendront renforcer l’offre Cisco Spark de
   communication unifiée de l’équipementier américain. « Nous sommes tous très impatients
   d’offrir bientôt la recherche renforcée aux utilisateurs de Cisco Spark », s’enthousiasme le
   responsable L’ensemble des ingénieurs de Synata ont rejoint l’équipe Spack. Le montant
   de la transaction n’a pas été dévoilé.
   Des puces Intel dans les prochains iPhone ? Après les Mac, les iPhone ? Il est fort
   probable que les prochaines générations de smartphones d’Apple embarquent une puce
   Intel. Pas pour remplacer l’Ax, le processeur principal sous instructions ARM conçu par les
   équipes de Tim Cook et fabriqué par Samsung et TSMC mais en lieu et place de son actuel
   modem radio cellulaire. Selon un analyste de CLSA Securities, Intel aurait reçu une
   commande significative de composants radio de la part de Cupertino. Il s’agirait du XMM
   7360, un modem LTE-A de catégorie 10 (450/100 Mbit/s) présenté à Barcelone en 2015. Si
   Intel équipera une partie des futurs iPhone, le fournisseur actuel Qualcomm devrait
   néanmoins conserver l’essentiel du marché des modems pour Apple. On parle de 60 à
   70% de la production. Il restera à voir si l’arrivée d’Intel dans les iPhone poussera
   Cupertino à ouvrir un peu plus ses portes au fondeur américain et à fermer un peu plus
   celles de son fournisseur et néanmoins concurrent Samsung…

L’affaire Apple-FBI, une menace pour le
Privacy Shield ?
Le débat sur la demande du FBI d’accéder à l’iPhone d’un des responsables de l’attentat de San
Bernardino et le refus d’Apple de répondre à cette requête, pourrait avoir un impact bien au-delà
des simples frontières américaines. En ligne de mire, il y a par exemple le Privacy Shield, cet accord
conclu entre l’Union européenne et les Etats-Unis pour garantir les échanges de données
transatlantiques. Il devrait se substituer au Safe Harbor qui a été invalidé par la Cour de Justice de
l’Union européenne en octobre dernier au motif la « sphère de sécurité des données » n’était plus
assurée pour les informations des Européens aux Etats-Unis, après les révélations de l’affaire
Snowden.

Signé le 2 février, le Privacy Shield doit maintenant attendre le verdict des CNIL européennes prévu
le mois prochain. Pour certains juristes, comme Wim Nauwelaerts, avocat spécialisé dans la
protection des données au cabinet Hunton & William, cité par nos confrères du Chicago Tribune, « les
régulateurs vont réfléchir sur la demande du FBI lors de l’examen de la viabilité de l’accord et son niveau de
garanties ». En effet, l’Union européenne a demandé des engagements contraignants sur la sécurité
des données des citoyens européens dans le cadre du Privacy Shield. Une réponse aux critiques de
la CJUE qui jugeait « l’accès des autorités américaines aux données des citoyens européens trop faciles ».
Pour Paul Bernal, professeur de droit à l’Université d’East Anglia en Angleterre, « si Apple perd la
partie face au FBI et que les autorités peuvent effectivement placer une backdoor dans un téléphone, alors cet
accès sera encore plus facile ».

Les régulateurs européens inquiets ?
Et les régulateurs européens s’inquiètent aussi de l’affaire Apple-FBI. Jacob Kohnstamm, président
de l’autorité néerlandaise de protection des données et qui siège au groupe de travail de l’article
29, a indiqué, « nous sommes inquiets par le contrecoup de cette affaire sur la confiance des utilisateurs, si
les entreprises peuvent proposer des niveaux de sécurité faibles dans leurs produits ». Les régulateurs
nationaux pourraient retarder leur réponse sur le Privacy Shield pour connaître l’issue des débats
entre Apple et le FBI.

Surtout que le cas Apple n’est pas unique. L’ancienne Commissaire Viviane Redding rappelle le
contentieux entre Microsoft et le gouvernement américain sur l’accès à des mails (liés à un trafic de
drogue) hébergés sur des serveurs en Irlande. Or en septembre dernier, l’UE a signé avec les États-
Unis un accord particulier sur les données échangées lors d’enquêtes criminelles. Ce qui fait dire à
Viviane Redding que « le Département de la justice américain a demandé à un tribunal américain de
contourner le cadre légal existant entre l’UE et les Etats-Unis dans le cas de Microsoft. Ce double discours est
effrayant et nous allons avoir le même problème avec le cas d’Apple ». L’exécutif bruxellois se défend. « Le
concept du bouclier de confidentialité avec les questions de sécurité nationale et de requêtes judiciaires est de
mettre en place des garanties et des limites sur ce qui est techniquement possible par les autorités
américaines », souligne Christian Wigand, porte-parole de la Commission pour la Justice. Et d’ajouter
que « nous serons vigilants sur les engagements contraignants pris par les Etats-Unis notamment dans le
cadre du suivi et de révision intégrés dans le Privacy Shield ».

A lire aussi :
Privacy Shield : les États-Unis promettent de moins espionner l’Europe
Le Privacy Shield ne convainc pas encore le G29

Crédit Photo : PromessArt Studio

Linaro                livre            un          Cloud                 dédié             aux
développeurs ARM 64 bits serveur
Linaro profite de son rassemblement Linaro Connect de Bangkok (Thaïlande) pour lever le voile sur
son Developer Cloud ARMv8.

Cette solution Cloud permettra aux développeurs de s’essayer au monde des puces ARM 64 bits, et
de se préparer ainsi à la dernière génération de serveurs ARM pour datacenters. Des serveurs
qui devraient monter rapidement en popularité sur les workloads comme le Cloud ou l’Internet
des Objets.

Deux localisations sont aujourd’hui annoncées : une en Europe, à Cambridge (Royaume-Uni) et une
seconde à Austin (États-Unis). Le réseau du Developer Cloud devrait s’étoffer par la suite, en Chine,
en Amérique du Nord et en Europe.

OpenStack + Linux
Les logiciels employés pour animer le Developer Cloud seront publiés sous licence Open Source,
promet Linaro. Nous y retrouvons la pile Cloud OpenStack ainsi que les OS Debian et CentOS.

Côté serveurs, des machines mono et bi-sockets pourvues de puces signées AMD, Cavium,
Huawei puis Qualcomm devraient intégrer le Developer Cloud, afin d’offrir le plus vaste choix
possible en technologies ARMv8 serveur.

Le Developer Cloud est accessible sur le site www.linaro.cloud. Rappelons que Linaro a également
lancé le projet 96Boards, qui pourrait prochainement proposer des cartes mères ARM serveur low
cost. L’organisation soutient aussi l’effort d’unification des serveurs ARM autour du standard SBSA.
Voir à ce propos notre précédent article « Un standard pour les serveurs ARM… et Windows Server
en prime ? »

À lire aussi :
ARM 64 bits quadricœur à 1,8 GHz pour la nouvelle 96Board
Cartes mères ARM low cost : une 96Board signée Qualcomm
3 nouvelles 96Boards en approche !
Crédit photo : © AMD

Quelles architectures pour les datacenters
de demain ? (tribune)
Il y a quelques années, j’ai eu l’occasion de visiter le centre de calcul de Météo France à Toulouse, et
d’apercevoir un Cray qui servait à faire les prévisions à la fin du 20e siècle. C’était une machine
monolithique circulaire, assez “design”. Tout le câblage était géré au centre du cylindre, les
composants baignaient dans un liquide de refroidissement. Depuis, Météo France est passé,
comme les géants du Web, au “commodity hardware”, une approche moins esthétique, mais plus
économique. A l’heure où l’on s’interroge sur l’efficacité des datacenters, de nouvelles options
émergent….

Les datacenters des opérateurs Cloud
Les opérateurs Cloud et les géants du Web constituent l’avant-garde des datacenters de demain.
Google (entre 1 et 2 millions de serveurs), Microsoft (plus d’un million de serveurs), Facebook
(créateur d’Open Compute) ont les projets les plus innovants. Ils ont depuis longtemps reporté la
résilience du matériel, devenu “commodity hardware”, vers le logiciel de contrôle du datacenter (lire
aussi « Le faux départ du Cloud souverain »)

Ils construisent leurs serveurs sur mesure. Google communique sur la migration des processeurs
de x86 vers ARM. OVH (220 000 serveurs) met en avant le SSD pour les disques.

Pendant un temps, Google et Microsoft ont communiqué sur des conteneurs comprenant 2 à 3 000
serveurs, dont la maintenance démarrait lorsque la plupart des serveurs étaient hors service. Cette
approche coûteuse semble démodée : on préfère rendre les serveurs accessibles. Peut être
verrons-nous un jour les robots Kiva d’Amazon, aujourd’hui gestionnaires d’entrepôts, changer
aussi les serveurs ?

Les expérimentations des géants du Web portent sur le refroidissement. Facebook a construit un
datacenter à Lulea en Suède en raison des températures très basses permettant de réduire le coût
énergétique du refroidissement. Google à Hamina, en Finlande, utilise de l’eau de mer pour son
refroidissement. Microsoft communique sur Natick, un projet de datacenter sous-marin, proche
des côtes, qui revient sur le modèle du conteneur difficile à maintenir….

Dans la logique d’Open Compute, on voit émerger des modules OpenHardware sur étagère. Le
RuggedPOD, par exemple, pourrait être le Rasberry Py ou le Arduino du datacenter. Il s’agit d’un
cube de 50 cm de coté, destiné à être posé en extérieur, sur le sol ou sur un toit.
Les datacenters des entreprises utilisatrices
Plusieurs options s’offrent aujourd’hui aux entreprises utilisatrices. Je choisis d’en distinguer 3 :

          Le datacenter sous forme d’appliance propriétaire, Cloud in a box, ou infrastructure
          convergée… avec des offres comme celles de Vblock, IBM CloudBurst, Oracle Exalogic,
          Microsoft Cloud Platform System, etc.
          Le datacenter bâti sur mesure avec les offres de VMware/EMC, Microsoft, HP, Dell, etc.
          Le datacenter bâti sur base d’architecture ouverte (Open Compute).

Dans l’écosystème où j’évolue, j’observe peu d’appétence pour les appliances Cloud. Il semble que
les DSI préfèrent bâtir leur Cloud privé selon leurs propres plans et architectures, une approche
que l’on peut interroger du fait de son coût.

J’observe par contre, un début d’intérêt pour Open Compute. L’approche OpenHardware me
semble intéressante pour permettre aux entreprises la construction d’un datacenter sur
technologies ouvertes, à moindre coût.

J’ai l’espoir que les géants du Web publient de plus en plus d’éléments de leur architecture en mode
Open Source / OpenHardware, ce qui serait très profitable aux entreprises utilisatrices. Ces
dernières pourraient utiliser principalement des appliances ressemblant au RuggedPOD.

Rappelons cependant que peu de cas d’usages justifient réellement le
recours à un Cloud privé : je pense que dans 90% des cas, les entreprises
devraient se tourner vers le Cloud public (lire « Le Cloud privé est-il une
escroquerie ?« ).

Par Guillaume Plouin, architecte Cloud, et auteur de “Sécurité, gouvernance du SI hybride et panorama du
marché” (4e édition) et de “Tout sur le Cloud Personnel” chez Dunod. Guillaume Plouin anime également un
site Web personnel.

A lire aussi, ses précédentes tribunes :

L’émergence du SaaS pour la conception et le design

Pannes de Cloud : mes données sont-elles en sécurité ?

Cloud et PME : anatomie d’un paradoxe

Crédit photo : Google
Stockage : EMC rhabille ses VMax de Flash
du sol au plafond
« 2016 sera l’année du tout Flash », a lancé David Goulden, le CEO Information Infrastructure d’EMC
lors d’un l’événement organisé par le constructeur à Londres en début de semaine. « Cette année
marque une inflexion, puisque le coût au Go du stockage Flash arrive à égalité avec celui des disques durs
15K.»

Le bon timing selon l’équipementier pour annoncer la généralisation du “All-Flash“ dans toutes ses
gammes, à commencer par des baies VMax 100 % Flash intégrables aux offres convergées VCE
vBlock et VxRack et bénéficiant d’un nouveau pack de maintenance Xpect More. Sans oublier
l’annonce du DSSD D5 (décrit dans un article à suivre).
Ces solutions complètent les baies 100 % Flash XtremIO et les configurations de milieu de gamme
All-Flash des baies VNX.

Le plus gros système 100 % Flash, dit EMC
Supportant le stockage all-flash en mode bloc ou fichiers, provenant de systèmes ouverts et
désormais aussi des iSeries et des mainframes (une bonne nouvelle pour nombre de clients et
prospects), la capacité du VMax All-Flash atteint jusqu’à 4 pétaoctets, et supporte jusqu’à 40 000
machines virtuelles. De quoi voir venir. « Ce qui en fait le plus gros système de stockage All-Flash sur la
planète, avec une disponibilité certifiée de 99,9999% !» s’enthousiasme Jeremy Burton, président
produits et marketing chez EMC.

L’architecture des VMax All Flash repose sur des blocs V-Brick, contenant chacun un moteur VMax
(deux contrôleurs) et une capacité initiale de 53 To (dans deux plateaux de SSDs) pouvant évoluer
jusqu’à 500 To par incréments de 13 To. Un rack VMax peut contenir deux V-Bricks, et il est possible
de combiner quatre de ces unités pour atteindre une capacité globale de 4 Po, dans une
configuration animée par huit moteurs VMax. Pour adresser tout ce stockage, le VMax dispose d’un
cache pouvant atteindre 16 To.

Deux modèles matériels sont proposés : le VMax All-Flash 450 pour 1 à 4 V-Bricks, et le VMax All-
Flash 850 pour pousser jusqu’à 8 V-Bricks.

Compression en temps réel courant 2016
Pour ces modèles deux offres logicielles sont proposées. Le package logiciel F apporte le thin
provisioning, la gestion de la qualité de service, la gestion du stockage avec EMC Unisphere, le
support des volumes virtuel vVols, la technologie de snapshots SnapVX, ainsi que la gestion de la
copie de données (CDM) avec AppSync.
Plus évolué, le package logiciel FX ajoute la suite de gestion de réplication à distance EMC SRDF, la
compression de données basée sur le contrôleur D@re, la suite ViPR complète de Software Defined
Storage, la passerelle CloudArray pour relier le stockage VMax aux services de stockage Cloud, EMC
eNAS pour le stockage de fichiers ou encore le nouveau EMC Unisphere 360 pour une gestion
consolidée du stockage (jusqu’à 200 V-Max dans un datacenter unique). Par ailleurs, EMC annonce
la future disponibilité de la compression en temps réel dans le courant de l’année.

« Destinés aux environnements critiques, les VMax All-Flash proposent une bande passante de 150 Gbit/s, 4
millions d’IOPS (entrées/sorties par seconde), et des temps de réponse d’une demi-milliseconde sur une
transaction complète », assure Jeremy Burton. « Une gamme dont l’écosystème d’applications supportées
est très riche : VMware, Oracle, Microsoft, Openstack…» Déjà opérationnels sous les baies VMax, les
logiciels des divers éditeurs ne pourront que bénéficier des performances Flash de ces
déclinaisons.

API facilitant l’intégration
Conformément à la stratégie Modern Datacenter de la fédération EMC (EMC, VMware, Pivotal,
VCE…), l’équipementier estime que le stockage doit répondre à quatre impératifs : la performance
avec le Flash, l’ouverture avec l’accès au Cloud, l’évolutivité scale-out, et le software-defined (censé
libérer l’entreprise des impératifs matériels). Le tout pour proposer une offre instaurant la
confiance.

Et justement, pour répondre à ce dernier aspect, EMC contribue à la conception du Software-
Defined DataCenter (SDDC), et facilite l’intégration via des plateformes d’orchestration, en
proposant des API RESTful pour les VMax All-Flash. Le minimum que l’on peut attendre du leader
du secteur

Enfin, le package de maintenance Xpect More, associé aux VMax All-Flash, intègre diverses
garanties à même de séduire les entreprises : garantie à vie “Flash endurance protection” (avec
remplacement gratuit des modules éventuellement défaillants), garantie de remboursement de
trois ans en cas d’insatisfaction, maintien à vie du prix de la maintenance. Une réponse
intéressante aux attentes de maîtrise des dépenses émanant des DSI.

Intégrable aux offres convergées
Disponible immédiatement, les VMax All Flash peuvent être proposés dans les infrastructures
convergées de VCE vBlock (qui avaient déjà intégré du full Flash) et VxBlock 740. EMC signale que
ces nouvelles unités peuvent aussi être commandées comme extensions des systèmes VBlock,
VxBlock existants, ainsi que pour les Fabrics VScale de VCE. Sans oublier les VxRack (voir notre
article).

Au cours des mois à venir, il sera intéressant de suivre comment EMC va affiner le positionnements
de ses différentes offres, entre les solutions XtremIO et VMax All-Flash.

A lire aussi :
Stockage flash : NetApp s’empare de SolidFire

Violin Memory trouve un second souffle dans le stockage flash

Cisco arrête sa gamme de stockage flash Invicta

Résultats : pari réussi pour Hewlett
Packard Enterprise
Hewlett Packard Enterprise (HPE) vient de publier les résultats du premier trimestre de son
exercice 2016, qui se terminait le 31 janvier.

Le chiffre d’affaires de la firme se fixe à 12,7 milliards de dollars. Une valeur en baisse de 3 % sur
un an, mais qui reste dans la moyenne des attentes des analystes. Sans prendre en compte les
variations du dollar, le CA aurait progressé de 4 %.

À 7,1 milliards de dollars, l’Enterprise Group se maintient (+1 %). HPE réussit à sauver les meubles
sur son cœur de métier : la fourniture de solutions d’infrastructure et de serveurs. Les services
plongent eux de 6 %, à 4,7 milliards de dollars. Le logiciel fait une chute de 10 %, avec un chiffre
d’affaires de 780 millions de dollars, illustrant une fois encore la faiblesse relative de la firme
californienne sur ce terrain.

Action en hausse
Le bénéfice net se fixe à 300 millions de dollars, contre 500 millions de dollars un an plus tôt, soit
une baisse assez marquée de 51 %. Pas d’inquiétudes toutefois de ce côté : HPE est une société
jeune qui se booste sur les marchés à coup de rachats d’actions.

Et cela devrait se poursuivre, puisque 100 % des liquidités (!) disponibles générées en 2016
seront retournées aux actionnaires, annonce HPE. Sans surprise, cette annonce a été bien accueillie
par les investisseurs. L’action s’envole ainsi actuellement de 5,9 % dans les échanges hors séance à
la bourse de New York.

En données corrigées, ne prenant pas en compte certaines opérations exceptionnelles, le gain par
action se fixe à 41 cents. Une valeur en repli de 7 % sur un an, mais qui reste dans la moyenne des
attentes des analystes (40 cents).

À lire aussi :

HP propose du WiFi illimité avec ses ordinateurs portables
Ventes de PC en berne ? La faute à Windows 10 estime HP
HPE, Cisco et Microsoft : les trois leaders de l’équipement des datacenters

Crédit photo : © Hewlett Packard Enterprise

Les DSI sont-ils plus rétrogrades en France
qu’ailleurs ?
Les DSI français jouent moins un rôle moteur dans le digital que leurs homologues étrangers, mais
leurs budgets sont plus serrés, selon l’étude « 2016 CIO Agenda: A France Perspective » du cabinet
Gartner. L’enquête a été réalisée au printemps 2015 auprès de 2 944 DSI des secteurs privé et
public dans 84 pays, dont 63 DSI en France. Ensemble, ces décideurs cumulent 250 milliards de
dollars de dépenses IT.

46 % des DSI français (51 % des DSI dans le monde) tablent sur une augmentation de ces dépenses
en 2016. Mais la majorité est moins optimiste. 30 % des DSI français (34 % dans le monde)
s’attendent à une stabilité des dépenses IT et 24 % supplémentaires (15 % dans le monde)
craignent une baisse. Cette incertitude se traduit par une utilisation plus prudente des budgets
informatiques français, d’après Gartner.

Dans l’Hexagone, les opportunités digitales sont plus portées par leur valeur commerciale
potentielle que par leur valeur technologique. Cette tendance peut impacter la relation – parfois
tendue – entre les DSI et les directions métiers, voire entre les DSI et leur direction générale. Cette
dernière voulant faire du numérique un moteur de croissance durable de l’organisation, sans
augmenter les budgets.

L’IT à deux vitesses
Malgré ces divergences, les DSI français optent progressivement pour une approche bimodale de
l’IT (deux modes fonctionnent en parallèle : un premier mode traditionnel orienté sur l’optimisation
du système d’information existant, et un second centré sur l’innovation et la transformation agile
de l’organisation). 28 % des DSI en France ont choisi cette approche, alors que la moyenne
mondiale atteint 38 %. Là encore, l’écart est significatif. Mais, dans les trois prochaines années, près
d’un DSI français sur deux (48 %) devrait adopter cette démarche. Ce taux place la France en tête
des pays étudiés par Gartner dans ce domaine.

Pour piloter le changement plutôt que le subir, les DSI français devraient, selon Gartner, continuer
à privilégier les opportunités numériques à valeur ajoutée pour le business : BI/solutions
analytiques, marketing digital, ERP, CRM, Cloud, mobilité… En France, ces outils devancent les
solutions d’infrastructure et de datacenter. Là encore, le contraste avec le reste du monde est
notable. En moyenne, les solutions d’infrastructure figurent en effet en 2e position du classement
global des outils représentant une opportunité numérique aux yeux des DSI.

Le cabinet Gartner recommande encore aux DSI français de déléguer davantage de tâches
administratives et internes, de prioriser leurs projets. Et ce pour consacrer plus de temps à
l’innovation et à l’échange avec les métiers, les clients et l’écosystème numérique. Pour ce faire, la
société d’études américaine incite les DSI à entrer dans une logique de plateforme. Il s’agit en fait
d’exploiter « l’effet de réseau » (la valeur d’une offre, service ou produit, augmente avec le nombre de
ses utilisateurs) pour adapter leurs modèles d’affaires, de gouvernance et de gestion des talents.

Lire aussi :

Dépenses IT : les DSI font (presque) fifty-fifty avec les métiers

Quand la DSI renonce à des projets, faute de temps

crédit photo © everything possible / shutterstock.com

SQL Server, la base de données étirable
dans le Cloud Azure
Conformément à sa promesse d’offrir des outils permettant la construction de Cloud hybrides,
Microsoft vient de livrer le service permettant d’étendre une table de sa base de données SQL
Server sur Azure. Baptisé SQL Server Stretch Database Service, ce service voit le jour en même
temps que la première ‘release candidate’ de SQL Server 2016, la nouvelle mouture de la base de
données de Redmond qui intègre cette capacité d’extension. La version permet aux
administrateurs de configurer certaines tables pour qu’elles soient extensibles sur le Cloud de
Microsoft, de façon transparente pour les applications qui accèdent aux données indifféremment,
au travers des deux environnements.
La fonctionnalité peut être employée
pour basculer automatiquement des
données dans le Cloud après une
certaine durée. Sans que ce transfert ne
nécessite de modifier les requêtes des
applications, un élément clef pour les
développeurs ou data scientist qui
n’auront pas à réécrire le code
applicatif pour tirer parti de cette option.
Seuls les administrateurs de bases de
données sont appelés à intervenir, assure
Microsoft. Pour l’heure, en mode preview,
la fonction est limitée à 60 To par base de données.

SQL Server extensible… et aussi chiffrée
La fonctionnalité doit permettre aux entreprises de tirer profit de la flexibilité du Cloud, pour
réduire le coût du stockage des données, notamment pour ce qu’on appelle les données ‘froides’
(des informations anciennes, peu utilisées par les applications). A l’avenir, les administrateurs
devraient avoir accès à d’autres paramètres que le seul âge des données pour automatiser les
transferts de données vers Azure.

« C’est à ce stade unique sur le marché, assurait il y a quelques mois dans nos colonnes Damien Cudel,
chef de marché plate-forme applicative chez Microsoft France. Et Stretch Table supportera le
chiffrement Transparent Query Encryption ». Ce dernier permet de crypter les requêtes quand elles
quittent l’entreprise et d’interroger une base de données elle-même chiffrée, via des clefs qui
demeurent entre les mains de la DSI. Un dispositif de sécurité qui permet, selon Microsoft, de
manipuler des données sensibles sans que celles-ci soient accessibles à un moment ou à un autre à
un administrateur système ou de base de données.

Azure dans le datacenter
SQL Server est la quatrième ligne de revenus du premier éditeur mondial depuis quelques années.
La base de données représente un chiffre d’affaires annuel de plus de 6 milliards de dollars pour
l’éditeur.

Dans sa stratégie de développement d’environnements hybrides, Microsoft a également dévoilé fin
janvier la première version préliminaire d’Azure Stack, solution permettant de bâtir des
environnements Azure à l’intérieur des datacenters des entreprises.

A lire aussi :

Big Data : Microsoft enrichit SQL Server avec Metanautix

Microsoft SQL Server 2016 : une base de données extensible sur le Cloud
Analytique Big Data : R sera intégré en standard au sein de SQL Server 2016

crédit photo © rangizzz – shutterstock

Logiciel : Cegid porté par le Saas
En 2015, l’éditeur lyonnais de logiciels de gestion pour les entreprises Cegid a réalisé un chiffre
d’affaires de 282,1 millions d’euros, en progression de 5,8 % sur un an. A périmètre constant, la
croissance est plus limitée (+ 3,9 %). La totalité de cette progression provient des activités Saas, qui,
à 62,8 millions d’euros, bondissent de 31,8 % en un an. Soit 15 millions d’euros supplémentaires
dans le Cloud pour la société présidée par Jean-Michel Aulas (en photo ci-dessus en compagnie du
directeur général, Patrick Bertrand).

Quant au résultat opérationnel courant, il s’élève à 39,1 millions d’euros (+ 11,6 %), pour une marge
opérationnelle à 13,9 % du CA consolidé, en tenant compte des charges d’amortissement des actifs
identifiés à l’occasion des opérations de croissance externe.

Cegid a effectivement multiplié, au cours de l’année, les prises de participation et les acquisitions.
Notamment en montant à 100 % du capital de Technomedia, un groupe canadien à l’origine d’une
suite de solutions de gestion des talents. L’idée étant de dépasser l’approche de la gestion
administrative du personnel (paye, déclarations sociales…) pour toucher au suivi des parcours
professionnels.

Cegid multiplie les rachats
Cegid a également mis la main sur le Français Altaven et sa plate-forme de pilotage des fonctions
fiscales, tout en renforçant sa présence aux États-Unis par le biais du rachat de JDS Solutions, un
spécialiste du retail.

Sur la liste des acquisitions figure aussi Magelia et sa plate-forme e-commerce BtoC, rappellent nos
confrères d’ITespresso. Cegid a par ailleurs pris du 12 % du capital de Novigotech (start-up lilloise qui
exploite des portails collaboratifs pour la gestion RH), avec l’objectif d’une prise de contrôle
progressive.

L’orientation du groupe vers les activités d’édition se confirme : la chiffre d’affaires y est lié à
hauteur de 197,7 millions d’euros, quand celui associé à la partie « Distribution et divers »,
présentée comme non stratégique, baisse de 8,2 %, à 21,7 millions d’euros.

Jean-Michel Aulas parie sur le Cloud
À l’international, le CA progresse de 25 % sur un an, atteignant 24,5 millions d’euros. La hausse est
moins importante (+ 13 %, à 22,1 millions d’euros) si on exclut l’intégration de JDS Solutions,
effective au 1er juin 2015.

En l’état actuel, environ un tiers des utilisateurs de solutions Cegid fonctionnent en mode SaaS.
Pour le président-fondateur Jean-Michel Aulas, 80 % des clients auront basculé vers le Cloud dans
un horizon de 10 ans.

A lire aussi :

Cegid : une stratégie Cloud gagnante et ambitieuse au 1er semestre

Le SaaS et ses éditeurs ne connaîssent pas la crise

Logiciel : la transition vers le SaaS stimule la croissance

Rachat de CliQr : Cisco s’attaque à la
gestion des applications dans le Cloud
Cisco vient d’annoncer son intention de racheter CliQr pour un montant de 260 millions de dollars
en cash. CliQr propose une plate-forme d’orchestration Cloud qui permet de déployer et gérer les
applications dans des environnements physiques, des machines virtuelles ou des conteneurs. Une
solution qui permet de simplifier les déploiements sur des Clouds privés, publics ou hybrides,
assure Cisco.

CliQr CloudCenter couvre l’intégralité du cycle de vie de l’application, à partir d’un profil unique,
adapté à tous les types de déploiements, physiques comme virtuels. Les politiques de sécurité sont
prises en compte et suivent l’application dans ses déplacements. La société propose également
d’évaluer le coût et les performances d’un déploiement en mode Cloud, afin de déterminer quelle
offre sera la mieux adaptée. L’ensemble de ces opérations est géré depuis une console centralisée.

CliQr ou l’ALM sans frontières
Cette solution est adaptée aux besoins des entreprises devant jongler avec un grand nombre de
logiciels répartis sur différentes offres Cloud. Bref de l’ALM (Application lifecycle management)
qui abat les frontières entre les infrastructures physiques ou virtuelles, privées, publiques ou
mixtes.

CliQr CloudCenter est d’ores et déjà proposé sur différentes offres de Cisco, dont les solutions ACI
(Application Centric Infrastructure) et UCS (Unified Computing System). Suite à ce rachat, sa
présence dans les solutions pour datacenters de Cisco devrait se renforcer.
À lire aussi :

Cisco booste ses bénéfices… et chouchoute ses actionnaires
Apple et Cisco s’allient autour des iPhone et iPad en entreprise
Cisco met 1,4 Md de $ sur Jasper, pour devenir un champion de l’IoT

Crédit photo : shutterstock

Télégrammes : Nutanix diffère son IPO,
Deutsche Telekom retient T-Mobile,
Facebook en prison
IPO : Nutanix recule. Selon CNBC, qui cite des sources anonymes présentées comme proches du
dossier, Nutanix aurait décidé de reculer son introduction en bourse, prévue à l’origine pour ce
début d’année. L’opération serait reportée au second ou au troisième trimestre de l’année, voire
plus tard. Le spécialiste de l’hyperconvergence attendra des conditions de marché plus favorables.
Comme le rappelle CNBC, 7 des 10 dernières valeurs technologiques à avoir bravé les frimas
boursiers sont aujourd’hui cotées en dessous de leur cours d’introduction. Plus significatif encore
pour la société spécialiste de technologies pour datacenters, ses homologues Nimble Storage et
Pure Storage ont perdu respectivement les trois-quarts et 25 % de leur valeur depuis octobre
dernier. Voilà plus de trois mois qu’aucune société Internet ou éditeur de logiciel ne s’est risqué à
se lancer dans une IPO. En décembre dernier, Nutanix a déposé son document d’introduction
auprès du gendarme de la bourse américaine, la SEC (Securities and Exchange Commission). Le
fournisseur expliquait vouloir placer pour environ 200 millions de dollars de titres sur le Nasdaq
(sous le symbole NTNX). Lors de sa dernière année fiscale, Nutanix a réalisé 241 millions de dollars
de chiffre d’affaires, pour une perte de 126 millions.

La vente de T-Mobile suspendue. Selon Reuters, Deutsche Telekom aurait suspendu le processus
de vente de sa filiale américaine, T-Mobile US, afin de participer à de futures enchères sur
l’attribution de fréquences radio. A la fin du mois de mars, la Federal Communications Commission
doit en effet lancer une procédure d’attribution de radiofréquences, procédure qui pourrait durer
des mois. « Durant cette période, il n’y aura aucune fusion ou acquisition dans le secteur des télécoms aux
Etats-Unis », explique une des sources anonymes interrogée par nos confrères. Les participants à
l’enchère ne sont en effet pas autorisés à s’engager dans des partenariats ou des fusions durant les
semaines qui précèdent et suivent la procédure officielle. T-Mobile, détenu à 65,4 % par l’opérateur
allemand, a prévu de mettre jusqu’à 10 Md$ sur la table pour s’offrir les fréquences basses qui
seront proposées. Rappelons qu’Iliad, la maison mère de Free, avait un temps été intéressé par
l’opérateur mobile américain, avant de renoncer faute d’accord sur le prix de vente avec le conseil
d’administration de Deutsche Telekom.
Un VP de Facebook se fait de nouveaux amis… en prison. La police brésilienne a appréhendé le
vice-président de Facebook pour l’Amérique latine, Diego Dzodan, en raison du refus répété du
réseau social « de se conformer aux ordonnances judiciaires » portant sur des enquêtes sur le crime
organisé et le trafic de drogue. La police brésilienne, qui a arrêté Diego Dzodan à l’aéroport de Sao
Paulo, indique que l’affaire concerne l’accès à des messages WhatsApp, l’application de messagerie
instantanée propriété de Facebook, dans le cadre d’une enquête sur un trafic de drogue dans l’état
du Sergipe (situé à l’est du pays). En décembre dernier déjà, un juge brésilien avait suspendu
l’usage de WhatsApp pendant 12 heures, l’entreprise américaine ayant refusé de se soumettre à
deux ordonnances judiciaires.

IBM : des API Watson pour éviter la panne
des sens
Comme nous l’avons évoqué à plusieurs reprises (ici ou là, par exemple), IBM investit fortement sur
sa technologie d’intelligence artificielle Watson. Cette technologie d’aide à la décision permet
d’interroger en langage naturel des bases d’informations structurées ou des documents non
structurés. Baptisée informatique cognitive, Watson repose sur du code et des algorithmes, rendus
accessibles via des API. En effet, la programmation moderne reposera (c’est déjà en partie le cas)
sur un assemblage de codes prêts à l’emploi (les API), réutilisables et maintenus par leurs auteurs
respectifs.

IBM propose donc plusieurs fonctions de Watson sous forme d’API, accessibles à travers son PaaS
Bluemix. Ces fonctions sont gratuites pendant la phase de bêta. Ces API reçoivent l’information à
analyser et renvoient le résultat au format Json ou XML selon les besoins, avec présentation
hiérarchique des résultats.

Quand l’émotion nait de l’intelligence artificielle
« Toutes ces API cognitives offrent aux développeurs la possibilité d’intégrer à leurs applications plusieurs
dimensions sensorielles humaines pour plus de perspicacité », assure Rob High, directeur technique et
vice-président de Watson chez IBM.

Comme nous l’expliquions en juillet dernier, l’API Tone Analyser analyse le sens de n’importe quel
texte afin de détecter les émotions (négativité, joie, colère), la prédisposition sociale (ouvert,
agréable, consciencieux) et le style d’écriture (analytique, confiant, timide). Les améliorations
annoncées apportent de nouvelles émotions détectées comme la joie, le dégoût, la peur ou la
tristesse, mais aussi des dispositions sociales comme le caractère extraverti. Désormais, Tone
Analyser analyse des phrases entières, en anglais uniquement (pour le moment).

En mars dernier IBM a racheté AlchemyAPI, spécialiste du Deep Learning (voir notre article).
Désormais, le groupe d’API issu de l’acquisition est enrichi de l’API Watson Emotion Analysis.
Cette dernière utilise des algorithmes de Natural Language Processing (processus de langage
naturel) pour analyser des fichiers textes jusqu’à 50 Ko afin d’y détecter les principales émotions :
joie, peur, tristesse, dégoût ou colère. Bien utile pour analyser des messages, des blogs, des textes
de réseaux sociaux, ou même des messages avant de leur envoi. Séduisant pour le marketing par
exemple.

Parce que la communication peut aussi être non verbale, la reconnaissance visuelle apporte son lot
d’informations. L’API Visual Recognition (reconnaissance visuelle) vise à reconnaître des formes
ou des concepts dans des images ou des vidéos. Et renvoie un résultat sur la base de ce qu’elle a
détecté. Désormais, l’utilisateur peut l’entraîner à reconnaître des formes afin de les détecter dans
des images ou vidéos, en plus des formes par défaut. Ainsi, chaque développeur peut
personnaliser la reconnaissance visuelle selon ses besoins, ses concepts ou idées à reconnaître.
Cela peut s’avérer utile également dans le cadre de classements ou catégorisations automatisées
d’images ou de vidéos.

Watson rend les robots vocaux moins ‘froids’
Outre ces trois annonces, IBM annonce aussi l’intégration des émotions dans son API Text-to-
Speech (synthèse vocale ou Watson TTS). De quoi rendre les interactions vocales plus “humaines”
en véhiculant des émotions après analyse du texte à énoncer. Une voie pour infléchir l’intonation
de la voix selon le contexte lié à l’analyse des mots et des phrases.

La prise en compte des émotions dans des échanges informatisés peut indéniablement apporter
un plus. Cependant, la limite de l’anglais reste un handicap. En effet, même s’ils écrivent en
anglais, les interlocuteurs ne s’exprimant pas dans leur langue naturelle risquent de fausser les
résultats. D’autant plus que dans de nombreuses situations, ils se contentent de copier/coller du
Google Translator…

A lire aussi :

Watson IoT : IBM choisit Munich comme siège mondial

Watson : le bon docteur qui va soigner IBM France ?

Crédit photo : JuliusKielaitis / Shutterstock.com

SUSE Linux : SLES 12 SP1 for SAP met Hana
dans le Cloud
SUSE vient de livrer une nouvelle version de sa solution SUSE Linux Enterprise Server for SAP
Applications (SLES for SAP), qui s’appuie sur SLES 12 SP1.

Au menu, une fiabilité accrue, avec la capacité à mieux supporter de lourdes charges, et des
optimisations pour la base de données In-Memory SAP Hana. Autre avancée, la possibilité de faire
fonctionner SAP Hana en mode haute disponibilité sur le Cloud public d’Amazon, AWS.

« Avec le Service Pack 1 de Suse Linux Enterprise Server 12 for SAP Applications, SUSE réaffirme sa position de
leader du marché capable d’offrir des solutions à haute disponibilité qui réduisent les temps d’interruption,
tout en simplifiant l’installation, le déploiement et l’administration des temps de traitement des solutions SAP
critiques », explique Helge Deller, responsable du SAP LinuxLab.

SLES for SAP, avant tout du Linux SUSE
Bien évidemment, SLES 12 SP1 for SAP reprend toutes les avancées de la version classique de l’OS
serveur de l’éditeur (voir à ce propos notre article de janvier « Linux : SUSE Linux Enterprise 12
boosté par un premier Service Pack (bonus vidéo) »).

Des outils spécifiques sont proposés afin de faciliter le paramétrage et l’administration des
applications SAP. La mise en place de clusters de haute disponibilité dédiés au monde SAP est
également proposée par cet OS.

À lire aussi :

SUSECon 2015 : un tournant pour SUSE ?
Quiz Silicon.fr – Savez-vous tout de l’histoire de SUSE ?
SUSECon 2015: les nouveautés de SLES 12 SP1 dévoilées

Crédit photo : © openSUSE

Cisco Ultra, une plate-forme SDN/NFV
taillée pour la 5G
« Un excellent retour du marché. » C’est ainsi que Yves Padrines, vice président Global Service Provider
pour la zone Europe, Afrique Moyen-Orient et Russie chez Cisco, qualifie l’édition 2016 du Mobile
World Congress (MWC) de Barcelone. « Les opérateurs se relancent avec des vagues d’investissements et
font évoluer leur façon de travailler », s’enthousiasme-t-il. Y compris en Europe où, malgré la
concurrence qui fait perdre des points aux gros opérateurs mobiles, comme Vodafone en
Vous pouvez aussi lire