Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr

 
CONTINUER À LIRE
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Supercalculateur : la Chine dépasse les 100
pétaflops avec ses propres processeurs
C’est un peu un coup de tonnerre dans le monde des supercalculateurs. Le nouveau classement
des 500 systèmes les plus puissants de la planète, le Top 500, est désormais dominé non plus par
un supercalculateur chinois, mais par deux. Précédent détenteur du record, le Tianhe-2 se voit
supplanté par un autre système chinois, appelé Sunway TaihuLight. Surtout, avec une performance
maximale de 93 pétaflops, celui-ci affiche une puissance presque trois fois supérieure au précédent
recordman. En pic, la performance du Sunway TaihuLight dépasse même les 125 pétaflops.

Surtout, alors que le Tianhe-2 embarquait des Xeon signés de l’Américain Intel, le Sunway
TaihuLight est basé sur un processeur chinois, le ShenWei, et des technologies d’interconnexion
locales. Selon les chiffres du Top 500, la machine intègre pas moins de 10,6 millions de cœurs de
processeurs, à 1,45 GHz. Plus de trois fois plus que le Tianhe-2. Mais, le Sunway TaihuLight
consomme pourtant moins que le Tianhe-2, ‘seulement’ 15,3 MW contre 17,8 pour son aîné. Avec
un rapport puissance par watt consommé de 6 gigaflops/W, la nouvelle star du classement Top 500
fait même trois mieux que le plus puissant supercalculateur américain à ce jour, le Titan (17,6
pétaflops pour 8,2 MW), actuel n° 3 du Top 500.

Le ShenWei fait jeu égal avec le Xeon Phi
Le processeur utilisé par le Sunway TaihuLight découle de développements démarrés en 2011, avec
la sortie d’une première puce ShenWei, embarquant 16 cœurs. Ce composant avait à l’époque été
exploité dans un supercalculateur, le Sunway BlueLight, installé dans un centre de calcul chinois. La
nouvelle version du ShenWei compte désormais 260 cœurs pour une puissance de 3 téraflops. Le
supercalculateur Sunway TaihuLight agrège 40 960 processeurs de ce type, un par nœud.
L’architecture du ShenWei, un processeur Risc 64 bits, reste mystérieuse, même si certains experts
estiment qu’elle dérive des Alpha de la firme américaine Digital, rachetée par Compaq en… 1998.

Avec 3 téraflops par processeur, le ShenWei de dernière génération fait jeu égal avec le Xeon Phi
« Knights Landing » d’Intel, dont les Etats-Unis ont interdit l’exportation en Chine en avril 2015. Si
cet embargo n’a probablement rien changé au calendrier du Sunway TaihuLight, il pourrait avoir
retardé une mise à jour du Tianhe-2, upgrade qui l’aurait amené au-delà des 100 pétaflops avant le
nouveau recordman du Top 500.

Les Etats-Unis pris de vitesse
Le Sunway TaihuLight a été développé par le centre national chinois de recherche sur l’ingénierie
des systèmes à hautes performances (NRCPC) et il est installé au centre de calcul hautes
performances de Wuxi, à deux heures de route de Shanghai. Le système sera utilisé pour diverses
recherches, notamment sur le climat, la modélisation de la terre, les sciences de la vie et l’analyse
de données. Selon Jack Dongarra, il fait déjà tourner trois applications de simulation ayant reçu un
prix international (le prix Gordon Bell), deux d’entre elles fonctionnant à une performance stabilisée
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
comprise entre 30 et 40 pétaflops. Le professeur Guangwen Yang, directeur du centre de Wuxi, voit
dans le nouveau supercalculateur « une démonstration des progrès significatifs accomplis par la Chine
dans le design et la construction de systèmes informatiques à large échelle. »

Pour les Etats-Unis, l’avertissement est des plus sérieux. Alors que la première puissance
économique mondiale est engagée dans une course de vitesse avec son rival asiatique pour la
construction de la première machine exaflopique (soit 1 000 pétaflops), elle apparaît aujourd’hui
distancée. La Chine venant de franchir, sans coup férir, un des jalons menant à l’exaflops. Au-delà
même des deux premières places occupées par la Chine dans le classement, la chute du nombre
de supercalculateurs américains dans le Top 500 témoigne de la perte du leadership des Etats-Unis
sur le sujet. Alors qu’elle ne classait aucun système en 2001, la Chine en compte désormais 167
parmi les 500 ordinateurs les plus véloces au monde. Contre 165 pour les Etats-Unis.

A lire aussi :

Supercalculateur exaflopique : la Chine 3 ans avant les Etats-Unis ?

Supercalculateurs : les Etats-Unis s’inquiètent de la concurrence de la Chine

Avec Sequana, Atos en marche vers le supercalculateur exascale
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Dell en passe de vendre son activité
logicielle à des fonds (MAJ)
Dell a besoin d’argent frais pour diminuer l’endettement lié au rachat d’EMC. Plusieurs options ont
été choisies dans ce cadre dont la revente des activités logicielles et des services. Cette dernière a
eu lieu avec l’acquisition de Perot par NTT Data pour 3 milliards de dollars. Une déception pour le
Texan qui avait déboursé à l’époque pour s’emparer de Perot, 3,9 milliards de dollars et pensait le
revendre autour de 5 milliards de dollars. On peut évoquer aussi la mise en bourse de
SecureWorks, division sécurité pour 112 millions de dollars.

C’est donc au tour de la division Software de trouver preneur. Et Dell aurait déjà des prétendants,
selon Reuters, en la personne d’un consortium regroupant Francisco Partners et Elliot
Management. Le premier est un fonds d’investissements connu dans le secteur des technologies. Il
dispose d’un portefeuille de plus de 10 milliards de dollars au sein de 150 technologies. Quant à
Elliot Management, le fonds activiste était un des actionnaires d’EMC et sollicitait l’été dernier la
scission avec VMware. Selon des sources proches du dossier, les différentes parties seraient même
« en discussions avancées » pour ce rachat. Un accord pourrait aboutir dès cette semaine ou capoter,
précise l’agence de presse.

Quest et SonicWall dans la panière, mais pas Boomi
L’acquisition porterait sur la quasi-totalité de l’activité logicielle de Dell comprenant notamment
Quest, la solution de gestion des actifs IT et SonicWall, sur la sécurisation des données. Par contre
Boomi, spécialiste de la gestion des infrastructures Cloud, devrait être écarté du rachat. Une fois le
périmètre de l’acquisition délimitée, il reste à fixer le prix du rachat et Reuters table sur un montant
de plus de 2 milliards de dollars.

Un pas supplémentaire dans la course au désendettement pour Dell qui table sur une cession
d’actifs de l’ordre de 10 milliards de dollars. De quoi donner des gages aux actionnaires d’EMC qui
doivent voter le 19 juillet dernier pour entériner définitivement le rapprochement avec Dell.

MAJ : Les deux fonds Elliot Management et Francisco Partners ont annoncé un accord sur
l’acquisition de Dell Software. Aucun montant n’a été dévoilé.

A lire aussi :

Le succès de la fusion Dell/EMC soutenue par la numérologie chinoise

Avant le rachat d’EMC, Dell joue la transparence financière
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Les conteneurs de Docker s’imposent, y
compris dans la prod
En quelques mois, les conteneurs sont parvenus à faire leur trou dans un univers réputé
conservateur, celui de la production informatique. Selon une étude menée par Devop.com, pour le
compte de la société ClusterHQ, 76 % des entreprises utilisent désormais cette technologie en
production, contre seulement 38 % en 2015. Basée sur les réponses de 310 personnes, dont les
trois-quarts travaillant dans des équipes de développement ou dans des équipes Devops, l’étude
montre que quasiment toutes les organisations employant les conteneurs (soit 79 % du total) les
ont adopté, en tout cas sur un périmètre donné, en production.

                                                                            Dominé par les petites
entreprises travaillant dans le développement applicatif ou le Cloud, le panel compte tout de même
un certain nombre de sociétés de plus de 500 personnes. Et celles-ci sont également 73 % à
employer la technologie des conteneurs en production. Sans surprise, Docker domine largement
les débats. La technologie de la start-up est utilisée par 94 % des entreprises ayant adopté
l’approche par conteneurs et plus de trois organisations sur quatre l’ont retenue comme le
principal vecteur de leurs investissements dans ce nouveau type d’architecture. Suivent LXC (la
technologie embarquée dans le noyau Linux) et rkt (le Rocket de CoreOS), crédités respectivement
de 15 et 10 % (la somme des pourcentages, supérieure à 100 %, indiquant que de nombreuses
entreprises testent plusieurs technologies). Mais ces deux solutions sont largement décrochées.
Pire : l’écart se creuse par rapport à l’étude de 2015, où les alternatives à Docker étaient testées
dans un plus grand nombre de sociétés. Bref, de plus en plus, Docker apparaît comme le standard
de facto des architectures en conteneurs.
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Le Swarm de Docker dépassé par Kubernetes

                                                                                           Le
constat est tout différent pour la start-up fondée par des anciens de l’Epitech en matière d’outil
d’orchestration. Alors que le Swarm de Docker dominait en 2015, il est aujourd’hui largement
devancé par Kubernetes, l’outil de Google. Notons que plus de 30 % des sondés indiquent
également utiliser des outils internes. Amazon EC5 et Mesos suivent et sont testés par environ une
société sur cinq. En revanche, les Chef, Puppet et Ansible ont disparu des réponses alors qu’ils y
figuraient en bonne place en 2015. Pour les auteurs de l’étude, les équipes de production testent
encore de nombreuses solutions d’orchestration afin de définir celle la plus adaptée à leurs
besoins.
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Les entreprises ayant déployé des conteneurs indiquent avoir connu des difficultés de déploiement
en terme de stockage persistant (dans un cas sur quatre), de réseau et de sécurité. En revanche,
seuls 5 % des sondés ou moins affirment avoir rencontré des problèmes de fiabilité ou de montée
en charge. Des résultats qui peuvent expliquer le passage rapide des technologies de conteneurs
en production.

AWS séduit 6 entreprises sur 10
Comme en 2015, AWS domine dans la liste des infrastructures exploitées pour déployer la
technologie. Et se permet même de creuser l’écart par rapport à 2015. Ensemble, ses rivaux directs
dans le Cloud public (Google Computer Engine, Digital Ocean, Azure, Rackspace) totalisent moins
d’utilisateurs que le leader du Iaas seul. AWS séduit 60 % des entreprises ayant adopté les
conteneurs. Notons que 40 % d’entre elles font tourner la technologie au sein de leurs propres
datacenters (contre 57 % en 2015).

[Lire notre dossier : Docker, déjà bon pour le service]

En dehors de la production, les conteneurs sont surtout utilisés par le développement (à 91 % des
entreprises ayant adopté la technologie), les tests (75 %), mais aussi l’assurance qualité (56 %) ou
les prototypes (50 %). Les utilisateurs indiquent s’être tournés vers cette technologie pour deux
raisons principales : l’amélioration de l’efficacité des équipes de développement et le support des
architectures de micro-services.

A lire aussi :

Les conteneurs plébiscités, Docker leader incontesté

Les développeurs adoptent conteneurs et microservices
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Comment les conteneurs donnent naissance au Cloud v2

crédit photo © Egorov Artem – shutterstock

Supercalculateur exaflopique : la Chine 3
ans avant les Etats-Unis ?
La Chine devrait virer en tête dans la course au premier système exaflopique (soit d’une puissance
de 1 000 pétaflops), la prochaine étape majeure dans la course à la puissance que se livrent les
supercalculateurs. Selon l’agence de presse officielle chinoise Xinhua, l’université des technologies
de défense du géant asiatique prévoit de passer ce cap en 2020, soit trois ans avant les Etats-Unis.
Le premier système exaflopique serait le Tianhe-3, un système qui suit la logique de l’évolution des
supercalculateurs de l’université chinoise.

Une logique inaugurée en 2010 avec le lancement du premier ordinateur pétaflopique de l’Empire
du milieu, le Tianhe-1. Si la Chine domine aujourd’hui le classement des 500 supercalculateurs les
plus rapides de la planète avec son Tianhe-2 (en photo ci-dessus), elle n’avait, à l’époque, franchi la
barre du pétaflops que deux ans après les Etats-Unis (avec le Roadrunner du laboratoire national
de Los Alamos).

Le passage aux systèmes exaflopique pourrait donc marquer la prise de pouvoir durable de la
Chine dans cette course à la performance. Même si des doutes subsistent sur les conditions dans
lesquelles le Tianhe-3 atteindra cette barre symbolique. Première interrogation : combien d’énergie
consommera ce système ? Les États-Unis prévoient de leur côté de franchir ce cap avec un système
consommant de 20 à 30 MW, soit presque la production d’une petite centrale énergétique. Par
ailleurs, il est probable que l’échéance de 2020 que s’est fixée la Chine corresponde au
dépassement du seuil de l’exaflops sur le critère du pic de performances (RPeak dans le classement
Top 500).

Or, comme le rappelle Steve Conway, un analyste d’IDC interrogé par Infoworld, les Etats-Unis visent,
en 2023, une performance exaflopique stable sur une application 64 bits. Ce qui change tout.
L’analyste estime que la Chine devrait atteindre ce stade entre 2022 et 2024. Bref, les deux
superpuissances seraient, en réalité, au coude à coude. Reste la puissance du symbole, que ne se
prive pas d’agiter le géant asiatique.

3 Md$ pour toucher l’exaflops
Aux Etats-Unis, le développement d’un supercalculateur exaflopique s’inscrit dans une stratégie
nationale définie par le président américain Obama en juillet 2015 (National Strategic Computing
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Initiative) et pilotée par le Département de l’énergie américain. Le gouvernement prévoit de
« financer les fournisseurs de supercalculateurs afin d’effectuer la R&D en matière d’architecture matérielle
nécessaire à la construction et au support de systèmes exaflopiques. »

En 2016, le gouvernement américain consacrera ainsi 250 M$ au programme, et l’enveloppe devrait
même être un peu mieux garnie en 2017. Au total, le Département de l’énergie estime que le
programme de développement de l’ordinateur exaflopique coûtera 3 Md$ environ. Discuté avec les
industriels courant mars, ce plan a été dévoilé mi-avril sur un site officiel des Etats-Unis.

Le Japon et l’Europe tentent eux aussi de mettre au point des supercalculateurs touchant l’exaflops.
En France, Atos, le repreneur de Bull, vient d’annoncer une machine intégrée atteignant le pétaflops
: Sequana. Et Thierry Breton, le patron du groupe, n’a pas fait mystère de sa volonté de viser le
système exaflopique : « Nous commençons avec un pétaflops aujourd’hui, l’année prochaine nous allons
multiplier par 30 cette capacité et d’ici 2 ans, nous allons encore la multiplier par 30 pour atteindre le 900
pétaflops. D’ici 2020, le supercalculateur exaflopique sera une réalité », a pronostiqué mi-avril l’ex-
ministre.

A lire aussi :

Supercalculateurs : les Etats-Unis s’inquiètent de la concurrence de la Chine

IBM et le GENCI partent à l’assaut des supercalculateurs exaflopiques

Salesforce s’est fait souffler Linkedin par
Microsoft
On ne peut pas réussir à tous les coups. C’est, en substance, le propos tenu par Marc Benioff. Le
CEO de Salesforce reconnaît avoir envisagé d’acquérir Linkedin… finalement tombé dans le giron
de Microsoft, qui a mis 26,2 milliards de dollars sur la table.

« C’est la saison des fusions-acquisitions », affirme le dirigeant, interrogé par Re/code. Il avait tenu le
même discours début juin à l’heure d’annoncer le rachat de Demandware, fournisseur américain
de solutions e-commerce dans le cloud (montant de la transaction : 2,8 milliards de dollars en
numéraire).

Dans le dossier Linkedin, Salesforce avait sollicité Goldman Sachs. La banque d’affaires n’avait, en
conséquence, pas pu accompagner Microsoft, alors qu’elle travaille régulièrement avec la firme de
Redmond sur de grosses opérations à l’image de la prise de contrôle opérée sur Skype en 2011,
pour 8,5 milliards d’euros.
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Salesforce confirme
Le fait que Morgan Stanley soit la seule banque d’affaires partenaire de Microsoft avait mis la puce
à l’oreille de Bloomberg, qui avait suggéré que « l’autre candidat » à l’acquisition de LinkedIn était
Salesforce.

Marc Benioff confirme, sans fournir davantage de détails. Il semble que l’éditeur californien se soit
rapproché tardivement du réseau social professionnel, qui avait déjà nettement avancé dans ses
négociations avec Microsoft. Lequel avait notamment fait la promesse de préserver Linkedin en
tant qu’entité autonome, souligne ITespresso.

Pour Salesforce, la base de données BtoB de Linkedin – 433 millions d’utilisateurs revendiqués dans
le monde – aurait constitué une mine d’or à exploiter sous l’angle du Big Data, entre ciblage
publicitaire et marketing prédictif.

Autre valeur ajoutée : les solutions de recrutement (« Talent Solutions », qui incluent aussi la
formation avec lynda.com), principal poste de revenus de Linkedin sur son dernier trimestre
d’activité, à hauteur de 64 % du chiffre d’affaires (557 millions de dollars, le reste étant réparti de
manière égale entre les solutions marketing et les abonnements payants).

* Une opération que Tech Republic présente comme le troisième plus gros deal dans l’IT depuis l’an
2000, derrière le rapprochement Dell-EMC (67 milliards) et l’absorption de Broadcom par Avago
Technologies (37 milliards) dans les semi-conducteurs. Microsoft y a engagé près d’un quart de ses
liquidités.

A lire aussi :

Rejoignez la page Silicon.fr sur Linkedin

Sécurité : 167 millions de comptes Linkedin volés à vendre

Résultats : Oracle soutenu par ses activités
Cloud
Oracle vient de livrer les résultats de son quatrième trimestre de l’exercice décalé 2015-2016. les
revenus de la firme restent globalement stables par rapport à la même période de l’année
précédente, à 10,6 milliards de dollars, -1 %.

Le bénéfice net progresse de 2 %, à 2,8 milliards de dollars. Le revenu par action en données
corrigées se fixe à 81 cents, en ligne avec les attentes des analystes, qui tablaient sur 82 cents. Ces
résultats solides valent à l’action de prendre près de 2 % dans les échanges hors séance, à 39,4
dollars.
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
Résultats en baisse sur l’année
Sur l’année, la situation est un peu moins glorieuse, avec un chiffre d’affaires en baisse de 3 %, à 37
milliards de dollars et un bénéfice net qui cède 10 %, à 8,9 milliards de dollars. Il n’y a toutefois
pas péril en la demeure Oracle, puisque la firme doit une grande partie de cette baisse aux
variations du dollar.

Reste quelques éléments intéressants concernant les activités de la société. Petite baisse sur le
logiciel, avec un chiffre d’affaires en recul de 5 % (inchangé à taux de change constant), à 26,1
milliards de dollars. Grosse claque sur le hardware, qui chute de 10 %, à 4,67 milliards de dollars.
Oracle peut toutefois compter sur le Cloud, qui progresse sur l’année de 36 %, à 2,85 milliards
de dollars.

À lire aussi :
Oracle corrige les failles de ses produits… et de Java
Oracle limite les évolutions de Linux à la sécurité
Oracle cartonne sur le Cloud et trébuche sur les serveurs

Avec Tetration, Cisco surveille en temps
réel le datacenter
Cisco a présenté un système baptisé Tetration Analytics destiné à surveiller les datacenters, les
serveurs, les équipements réseaux via des capteurs et à donner des indications pour mieux gérer
l’infrastructure.

Tetration est pour l’instant basé sur une appliance qui fait office de cluster analytique. Les données
opérationnelles des datacenters sont rendues via des API sur une interface web avec des push de
notifications. A terme, la solution devrait être livrée en tant que service explique Yogesh Kaushik,
responsable produit chez Cisco, à nos confrères de ZDnet.

Tout surveiller dans le datacenter
Pour le dirigeant, il est important « de tout surveiller au sein du datacenter », estimant qu’il est très
difficile de connaître les réelles performances de certains éléments comme le Cloud hybride, le Big
Data, le déploiement rapide d’applications, les Cloud public ou les microservices. Tetration devrait
donc être un élément de différenciation pour sa pile à destination des datacenters.

Rappelons que Cisco a démarré par l’activité serveur via UCS (Unified Computing Systems) et plus
tard la firme a ajouté ACI, la solution de Software Defined Data Center. Tetration propose une
couche analytique, conçue comme « une machine à remonter le temps » et connaître les causes des
mauvaises performances des centres de calcul. Il est capable de rejouer les évènements en temps
réel, modéliser les modifications à apporter et les conséquences engendrées.

Tetration Analytics, une appliance musclée
Sur le plan technique, Cisco a construit Tetration dans un rack comprenant des serveurs UCS C220
(36) et 3 commutateurs Nexus 9300 ou 9200 (embarquant des capteurs logiciels sur les ASIC). Les
entreprises peuvent placer des capteurs aussi dans leurs datacenters via des VM ou en mode bare
metal. La configuration est pour l’instant capable de gérer plus d’un million d’évènements par
seconde. L’appliance est déjà pré-packagée et peut-être opérationnelle en 3 heures affirme
l’équipementier. Les premières solutions doivent être livrées le mois prochain.

Côté tarif, le prix d’entrée de Tetration devrait tourner autour des 3 millions de dollars, selon un le
cabinet 451 Research interrogé par ChannelsPartnerOnline. Cisco prévoit de lancer une version plus
adaptée aux entreprises de taille moyenne. Aujourd’hui, Cisco réserve Tetration pour les grands
comptes et cible les secteurs de la banque et assurance, la santé, les telcos, les administrations, etc.

A lire aussi :

Infrastructures Cloud : HPE et Cisco au coude à coude

Cisco s’empare d’un expert des composants réseau haute vitesse

crédit photo © kubais – shutterstock
Télégrammes : Google accusé de plagiat sur
son Project Loon; risques d’accès pirates
aux comptes GitHub; Microsoft renforce
son intelligence conversationnelle; Nokia
veut éjecter Alcatel-Lucent de la Bourse.
    Le Project Loon de Google attaqué en justice. Google a-t-il pompé l’idée de se servir de
    montgolfières pour relayer les signaux mobiles dans les zones dépourvues
    d’infrastructures Internet ? C’est ce que déclare Space Data Corporation of Chandler
    (SDCC) qui a déposé une plainte auprès d’un tribunal californien contre Alphabet, la
    maison mère du moteur de recherche. SDCC déclare détenir les brevets d’un système de
    ballons qui transporte des antennes mobiles pour créer un réseau sans fil à des fins
    d’usages militaires. Le Project Loon de Google s’adresse, lui, aux populations civiles et/ou
    professionnelles. SDCC met également en avant les rencontres qu’elle a eu en 2007 et
    2008 avec des dirigeants de Google, dont ses fondateurs Larry Page et Sergey Brin, en vue
    d’un éventuel partenariat qui n’a finalement pas abouti. Ce qui n’a pas empêché
    l’entreprise de Mountain View de lancer ses propres travaux en 2011. En s’appuyant sur
    les informations confidentielles et les secrets commerciaux partagés lors des précédents
    échanges, accuse SDCC. Qui réclame des dédommagements pour viols de brevets et
    appropriation non autorisée de secrets commerciaux et fuites contractuelles.
    GitHub conseille de réinitialiser les mots de passe. Le service de repository a demandé
    à ses abonnés de réinitialiser leur mot de passe en raison d’un vol de données sur un site
    tiers. GitHub précise que ses données ne sont pas concernées. Mais les pirates ont essayé
    de pénétrer les comptes d’utilisateurs de GitHub avec des identifiants volés sur le site
    tiers. Le recyclage des mots de passe est souvent utilisé par les personnes et constitue un
    problème important lié au vol massif de données. Cela a été le cas par exemple pour celui
    de Linkedin, certes datant de 2012, mais concernant plus de 120 millions de comptes.
    Microsoft rachète Wand Labs. Microsoft a annoncé l’acquisition de Wand Labs, un
    éditeur d’applications de messagerie créé en 2013, pour un montant resté confidentiel.
    « Cette acquisition accélère notre vision et notre stratégie autour d’une offre de Conversation as a
    platform », commente Redmond sur son blog. Wand Labs s’est spécialisé dans l’ontologie
    sémantique, des services de cartographie, l’intégration des développeurs tiers et les
    interfaces conversationnelles. Cette dernière activité intéresse Microsoft au plus haut
    point dans sa volonté de se positionner sur les solutions d’intelligence conversationnelle
    concrétisées par les chatbot où langage naturel et intelligence artificielle se rejoignent.
    « Cela étend la puissance de Bing, Azure, Office 365 et les plates-formes Windows », assure
    Microsoft. Les ingénieurs de Wand Labs rejoindront ceux de Bing.
    Nokia veut sortir Alcatel-Lucent de la Bourse. En marge de son assemblée générale,
    où l’ensemble du conseil d’administration a été réélu jusqu’en juin 2017, Nokia a annoncé
vouloir s’emparer des derniers titres d’Alcatel-Lucent encore cotés en Bourse. Le
          propriétaire majoritaire de l’ex-équipementier français, a passé des accords pour acquérir
          95,33% du capital d’Alcatel-Lucent (et 95,26% des droits de vote) à travers le rachat
          négocié de quelque 36 millions d’actions et obligations à échéance du 30 janvier 2019
          pour un montant global d’environ 139 millions d’euros. Ensuite, Nokia devrait déposer
          auprès de l’AMF un projet d’offre publique de retrait en numéraire sur les dernières
          actions du français. Qui, à l’issue de cette opération, devrait avoir définitivement disparu
          du marché.

Microsoft étoffe son offre Blockchain as a
service sur Azure
La présence de Microsoft dans les monnaies virtuelles n’était pas flagrante, mais les choses
changent avec la Blockchain. Cette dernière se définit comme étant un moyen d’échange capable
de sécuriser tout type de transaction, sans la présence d’un organe central de contrôle. Chaque «
bloc » se présente comme un livre de comptes privé, consultable par les différents acteurs d’une
transaction, et hautement sécurisé. Utilisé pour la première fois dans le cadre du Bitcoin, la
Blockchain s’étend à d’autres territoires.

Et la firme de Redmond entend bien être présent sur ce marché en devenir. Elle a donc en
novembre dernier travaillé avec Ethereum pour proposer en test un service de Blockchain à la
demande. Cette expérience a permis d’avoir les retours des entreprises intéressées et de connaître
les éléments manquants pour qu’elles développent des applications Blockchain.

Du middleware blockchain et des cryptlets
Le fruit de ces réflexions s’est traduit par le lancement du projet Bletchley. Marley Gray, directeur
du Business Developpement et de la stratégie Cloud et entreprise, explique que « le projet Bletchley
est une vision de Microsoft pour proposer de la Blockchain as a service (BaaS) ouverte et modulaire pour
l’ensemble des plateformes, des partenaires et des clients ». Concrètement, ce programme apporte deux
éléments importants, une couche de middleware et des « cryptlets ».

Le middleware Blockchain va fournir des services Cloud comme la gestion d’identité et du
management opérationnel, ainsi que des solutions analytiques et de machine learning (cf schéma
ci-dessous). Et Microsoft pousse aussi le concept de « cryptlets », qui peut se définir comme « un
nouveau bloc de construction de la technologie Blockchain pour assurer la sécurité des opérations et de la
communication entre Azure, l’écosystème middleware et les plateformes technologiques utilisées par les clients
».
Car Microsoft entend être compatible avec plusieurs protocoles de la Blockchain, allant du plus
simple, Unspent Transaction Output-based (UTXO), comme Hyperledger, jusqu’au plus sophistiqué
basé sur Smart Contract utilisé par Ethereum. Pour revenir aux cryptlets, il s’agit de petits modules
fonctionnels, qui lors d’une transaction ou d’un contrat, pourront fournir certaines fonctions
comme l’horodatage, la gestion de clé public, etc.

A lire aussi :

Microsoft développe un système ID basé sur la blockchain
Project Thunder : Blockchain met en Open Source son réseau P2P

Crédit Photo : Montri Nipitvittaya-Shutterstock

xDedic : une place de marché de 70 000
serveurs piratés
Les codes d’accès d’environ 2 500 serveurs français sont en vente, pour quelques dollars, sur un
forum underground, xDedic, accessible depuis un simple navigateur. D’après une étude des
laboratoires de l’éditeur Kaspersky, ce sont au total pas moins de 70 000 serveurs Windows
compromis, dans 173 pays, qui sont ainsi mis à la portée des cybercriminels. Ces derniers peuvent
exploiter ces accès pour lancer des attaques par DDoS, mener des campagnes de spams ou de
phishing ou encore accéder aux données présentes sur ces machines. Selon l’éditeur russe, les
tarifs démarrent à 6 dollars pour certains serveurs.

L’APT du pauvre ?
« La vaste quantité de serveurs à vendre sur la place de marché xDedic offre une alternative attractive aux
acteurs des APT (Advanced Persistent Threat ou menace persistante avancée) dotés de peu de ressources, mais
souhaitant agir sous le radar et ayant des difficultés à prendre pied chez leurs victimes », écrivent les
chercheurs. Bref, une forme de démocratisation des attaques les plus redoutées par les
entreprises, celles visant à rester sous le radar afin de récupérer un maximum d’informations
confidentielles.

Selon Kaspersky, les administrateurs de ce forum parlent le russe. Les chercheurs de l’éditeur font
remonter la naissance de xDedic à 2014. Et dénombrent, en mai 2016, pas moins de 416 individus
ou groupes utilisant la plate-forme pour vendre des accès. Le tableau dressé par les chercheurs
laisse entrevoir un forum montant en puissance depuis un an et géré avec soin. Le service fournit à
ses utilisateurs enregistrés un tableau de bord des serveurs ‘disponibles’. Avec, pour chacun d’entre
eux, des informations sur la nature du système, la disponibilité d’un accès administrateur, la
présence d’antivirus ou de navigateurs, la vitesse de connexion ou encore le tarif et la localisation.
Sans oublier la présence ou non de logiciels de gestion des terminaux point de vente, une
information cruciale pour les spécialistes du vol de données de cartes bancaires.

Un portail ‘clients’, un portail ‘vendeurs’
Autre illustration de la spécialisation et de la professionnalisation des différentes composantes du
cybercrime : xDedic propose un portail ‘partenaires’, comprendre une interface dédiée aux
vendeurs de serveurs compromis. Protégée par login et mot de passe, celle-ci renferme un outil de
validation, SysScan, qui établit le profil des machines appelées à être proposées à la vente. L’outil se
connecte à des serveurs de commande et de contrôle, afin de transmettre des informations
précises sur la cible (identifiant du serveur, version de Windows, langue, taille de la mémoire, CPU,
ouverture des ports 25 et 80, présence d’environnements virtuels, antivirus…) que xDedic va
afficher dans son portail ‘clients’. SysScan effectue également quelques modifications dans
Windows, facilitant l’exploitation du serveur compromis.

xDedic « facilite la vie de ses clients »
D’après les conclusions de Kaspersky, les serveurs sont piratés par force brute, en utilisant des
outils ciblant le protocole RDP (Remote Desktop Protocol, protocole d’accès à distance venant du
monde Windows), comme DUBrute ou XPC. Puis, xDedic intervient comme une suite de services
permettant d’industrialiser l’exploitation de ces ressources et d’en organiser la commercialisation.
Ainsi, en attendant qu’un serveur soit ‘acheté’ sur la place de marché, les hackers le détournent
pour réaliser du minage de bitcoin. Autres signes de la sophistication des processus mis en place
par xDedic : la présence d’un client RDP développé en propre et « conçu pour faciliter la vie de nos
clients » selon les mots de l’organisation criminelle ou encore un outil maison permettant de
transformer un serveur en proxy (HTTPS ou Socks).

Notons par ailleurs que les chercheurs de Kaspersky sont parvenus à détourner le trafic de 5 des 8
serveurs de contrôle utilisés par xDedic pour piloter les serveurs via le malware SCClient. « Au cours
des 12 premières heures, nous avons reçu des connections de 3 600 adresses IP différentes », écrivent les
chercheurs. Ce qui donne une idée du niveau d’activité réelle de cette organisation cybercriminelle.
Kaspersky affirme que des serveurs d’organisations gouvernementales ou d’universités faisaient
partie des machines se connectant aux serveurs de contrôle.

A lire aussi :

CryptXXX : le ransomware qui vole aussi les mots de passe

Sécuriser les Scada : « ce sera cher et difficile », dit Kaspersky

Hacking : pourquoi les États s’en prennent aux éditeurs de sécurité

Crédit photo : igor.stevanovic / shutterstock
Datacenter : Cavium rachète QLogic pour
1,3 milliard de dollars
Encore une étape dans la consolidation du marché de l’infrastructure à destination des datacenters
avec le rachat de QLogic par Cavium. Le fournisseur de processeurs ARM pour serveur propose
15,5 dollars par action dont 11 en cash et le reste en action Cavium. Le montant de l’opération est
évalué à 1,36 milliard de dollars et elle devrait aboutir au troisième trimestre 2016.

Cavium met la main sur un portefeuille et une expertise dans le domaine du réseau et du stockage.
En effet QLogic est connu pour fournir des éléments réseaux et stockage, comme des cartes
Ethernet, mais aussi Fiber Channel et FCoE, ainsi que des contrôleurs. Une brique de compétences
qui se combinera facilement aux processeurs de Cavium et fournir ainsi des piles complètes en
OEM aux équipementiers.

Cavium + QLogic = plus de clients
Ce rapprochement devrait élargir le portefeuille de clients, avec comme grands noms, HPE, Dell,
Lenovo, Pure Storage, IBM, Oracle, EMC et NetApp. Les deux sociétés considèrent que seulement
10% de leurs revenus se chevauchent.
Une bonne opération pour Cavium estimant que QLogic va ajouter 60 à 70 cents par action à ses
bénéfices 2017 et attend un revenu proche du milliard de dollars. Les synergies sont attendues sur
la consolidation des ventes, l’IT, la R&D, etc.

Cette opération devrait donner un coup de fouet à la stratégie de Cavium en ce qui concerne les
serveurs ARM. Un marché encore balbutiant et qui peine à décoller en raison d’un écosystème
encore immature. Pour autant, les constructeurs rivalisent d’ingéniosité pour proposer les
processeurs serveurs les plus rapides et les plus puissants. Récemment Cavium a présenté un
processeur serveur très puissant, le ThunderX2.

A lire aussi :

Le X-Gene 3 au niveau des puces Intel Xeon ?

Puces serveurs x86, Power et ARM: qui sont les plus puissantes ?

crédit photo © Kritchanut – shutterstock

Avant le rachat d’EMC, Dell joue la
transparence financière
Voir une société privée, comme l’est devenu Dell après son retrait de la bourse, publier ses
résultats trimestriels comme une entreprise cotée est tout sauf banal. C’est pourtant ce que vient
de faire le constructeur texan. Et cette décision n’est pas étrangère à l’acquisition prochaine du
groupe EMC, une opération pour laquelle Dell va s’endetter massivement. L’opération transparence
permet donc aux marchés de jauger la qualité du bilan du Texan.

Rappelons que la fusion Dell EMC, qui va donner naissance à Dell Technologies, doit se déboucler
dans les prochaines semaines, et va se traduire par un endettement de 45 milliards de dollars pour
le groupe (pour une emplette pesant au total de 67 milliards). Mi-mai, Dell a lancé un emprunt
obligataire qui a été souscrit à hauteur de 20 milliards de dollars (alors que le groupe n’en espérait
que 16). Le Texan vient également d’émettre des obligations, remboursables en 2021 et 2024, via
lesquelles il espère lever 3,25 milliards de plus.

Un milliard remboursé en trois mois
Si ces opérations semblent aujourd’hui se dérouler sans anicroche, Dell espère donc rassurer
totalement les marchés avec son opération transparence sur ses comptes (précédemment, seuls
les détenteurs de dettes émises par l’entreprise avaient accès à ces données). Car Denali Holdings,
la holding qui contrôle le constructeur, y fait preuve d’une solide capacité à rembourser ses dettes.
Lors du rachat de l’entreprise par Michael Dell et Silver Lake – correspondant à sa sortie de la
bourse -, le groupe avait en effet contracté environ 21 milliards de dollars de dette, s’ajoutant aux 4
milliards déjà présents au bilan. A l’issue du dernier trimestre, clos le 29 avril 2016, la dette à long
terme de Denali Holdings a été ramenée à 10,6 milliards. La firme affiche une trésorerie de quelque
6,1 milliards de dollars, sans compter la vente de Dell Services (l’ex-Perot acheté en 2009) qui va lui
rapporter 3 milliards supplémentaires.

Au cours du seul dernier trimestre fiscal, Denali a remboursé pas loin d’un milliard de dette et payé
plus de 200 millions d’intérêts. Et ce, même si le chiffre d’affaires de Denali au cours de son dernier
trimestre affiche un recul de 2 % sur un an. Nos confrères du MagIT se sont livrés à une
comparaison des ventes du groupe entre ce trimestre clos fin avril 2016 et le dernier exercice
publié par Dell avant sa sortie de la bourse, en 2013. Les ventes de serveurs progressent de 15 % (à
plus de 3 milliards de dollars). Le stockage bondit de 26 %. Le logiciel de 13 % (à un niveau modeste
toutefois, 334 millions de dollars). Surtout, Dell est parvenue à limiter la casse sur un marché du PC
en plein marasme : en trois ans, sa décroissance se limite à 3,9 % (pour un chiffre d’affaire de 8,5
Md$ sur le dernier trimestre). Dans le même temps, l’activité PC et imprimantes de HP – autrement
dit HP Inc depuis la scission du Californien en deux entités – a reculé de près de 15 %.

Activité déficitaire
Malgré ces signaux positifs, d’autres éléments sont moins réjouissants. D’abord, l’activité du groupe
reste structurellement déficitaire. Au cours du dernier trimestre, la perte opérationnelle se monte à
161 millions de dollars. C’est environ deux fois moins qu’il y a un an, mais cela reflète une structure
de coûts toujours trop lourde. Notons que le groupe avait, voici un mois, anticipé un chiffre
d’affaires de 13,2 milliards de dollars, avant de modérer ses estimations début juin. Denali ne
parvient à publier un bénéfice que grâce aux revenus tirés des activités vendues (481 millions sur
ce trimestre). Par ailleurs, les coûts liés aux opérations de fusions-acquisitions sont en nette
progression sur un an, passant de 36 à 90 millions. Preuve que l’absorption d’un morceau de la
taille d’EMC est tout sauf une sinécure.

A lire aussi :

A EMC World, Michael Dell s’impose en chef de Dell Technologies

Samsung Electronics met la main sur le
Cloud de Joyent
Samsung Electronics vient d’annoncer le rachat de Joyent pour un montant non communiqué.
Joyent est un spécialiste américain du Cloud, qui a la particularité de s’appuyer sur son propre
système d’exploitation serveur, SmartOS, basé sur le code d’OpenSolaris.

La société propose aujourd’hui trois principales offres : Node.js, pour la création d’applications ;
Triton, une solution de conteneurs ‘as a service’ ; Manta, une offre de stockage objet. Ses cibles : le
web, la mobilité et l’Internet des Objets. Trois marchés à hauts volumes de données, bien
adaptés au monde du Cloud.

« Jusqu’à aujourd’hui, il nous manquait une chose : la taille nécessaire pour être efficace sur le très
concurrentiel marché du Cloud Computing », explique Scott Hammond, CEO de Joyent. Avec le rachat
par Samsung, la société espère pouvoir profiter de la puissance du groupe coréen et mettre ainsi
en place un vaste réseau de datacenters.

Samsung s’est trouvé l’opérateur de son Cloud
Samsung ne cache pas avoir fait le tour du marché pour rechercher le candidat capable de
concrétiser ses ambitions dans le secteur des infrastructures de Cloud, publiques ou privées.

Avec Joyent, Samsung Electronics s’est trouvé le moteur et le gestionnaire de ses datacenters.
Les experts de Joyent travailleront tout d’abord à l’extension de l’infrastructure et des services
Cloud de Samsung, tous deux boostés par une demande croissante en provenance des
smartphones et objets connectés.

Joyent continuera à œuvrer en tant que société indépendante, indique Samsung.

À lire aussi :
Solaris : OpenIndiana 2015.10 en quête de contributeurs
SmartOS : le clone libre de Solaris dédié au cloud
Les frondeurs de Node.js ‘forkent’ le projet

Crédit photo : © Rangizzz – Shutterstock

Fujitsu fait de la France une de ses priorités
Malgré les mouvements sociaux qui émaillent ce printemps, la France serait-elle (re)devenue sexy
aux yeux des investisseurs étrangers ? En tout cas, après les signaux envoyés par plusieurs groupes
américains (dont General Electric ou Cisco), c’est le Japonais Fujitsu qui envisage d’investir dans
l’Hexagone. « Nous n’avons pas la taille dont nous avons besoin en France », explique François Fleutiaux,
le directeur des activités en Europe du groupe japonais employant 160 000 personnes dans le
monde. Ce constat repose sur deux éléments. Le premier tient à une forme de décalage entre la
position de Fujitsu en France et celle qu’il occupe sur les deux premiers marchés IT européens, la
Grande-Bretagne et l’Allemagne. Des pays où le Japonais bénéficie respectivement de l’acquisition
de la SSII ICL et de la reprise de la division PC et serveurs de Siemens. L’autre élément poussant le
numéro quatre mondial des services à vouloir renforcer ses positions dans l’Hexagone tient à « une
prise de conscience de la force de l’écosystème d’innovation en France », selon les mots de Benjamin
Revcolevschi, le patron de la filiale française (en photo ci-dessus). « Avec ses start-up, ses écosystèmes
innovants, l’Hexagone est en train de prendre des positions dominantes dans le digital », abonde François
Fleutiaux.

Ce n’est donc pas un hasard si Fujitsu a choisi d’installer en France son rendez-vous européen sur
l’innovation, qui se tenait la semaine dernière au Parc Floral de Paris. Un événement d’importance,
« le plus grand de l’année de l’innovation franco-japonaise », selon la firme, qui revendique 2 300 inscrits
à cet événement où pas moins de 130 démonstrations technologiques attendaient les visiteurs.
« Dans 80 % des cas, c’est la première fois que ces démonstrations sont présentées en France », souligne
Adel Rouz, le vice-président des labos de Fujitsu pour l’Europe. Signalons notamment plusieurs
solutions technologiques autour de l’IoT (santé, transports…), du Machine Learning (notamment
pour l’industrie dans le contrôle qualité et dans l’assurance automobile) ou encore des nouveaux
espaces de travail (comme cet espace de travail collaboratif permettant d’étendre un écran de
tablette ou de smartphone).

Deux start-up françaises au cœur de MetaArc
Le lien entre l’innovation du Japonais et l’Hexagone ne date d’ailleurs pas d’hier. C’est en effet vers
la France que Fujitsu s’est tourné à deux reprises pour renforcer son portefeuille technologique. En
2013, le groupe mettait ainsi la main sur RunMyProcess, un éditeur spécialisé dans la conception et
l’intégration de workflow. Rebelote en fin d’année dernière, avec la reprise de la start-up
Usharesoft, spécialisée dans les déploiements et la migration d’applications dans le Cloud. Deux
offres qu’on retrouve intégrée au cœur de MetaArc, la plate-forme d’orchestration de Cloud que
Fujitsu dévoilait la semaine dernière.

MetaArc doit « permettre d’accélérer la migration des clients vers le Cloud hybride », assure Benjamin
Revcolevschi. Joseph Reger, le CTO de Fujitsu en Europe, parle, de son côté, « de deuxième génération
de plate-forme Cloud », basée sur le Iaas de Fujitsu, appelé K5 (reposant sur OpenStack), et intégrant
de nouveaux services (Big Data, IoT, AI). Notons que MetaArc, qui propose également un
gestionnaire d’API, via un partenariat avec Apigee, vise à orchestrer tous types de Cloud, y compris
AWS ou Azure.

Fujitsu : du PC à l’outsourcing
Paradoxalement pour une entreprise qui dit vouloir faire de l’Hexagone une de ses priorités, Fujitsu
ne propose pas MetaArc / K5 depuis un datacenter situé dans le pays ; la solution étant hébergée
en Espagne, en Grande-Bretagne, en Allemagne ou en Finlande. « Nous avons choisi de servir nos
clients à partir des infrastructures aujourd’hui disponibles, même si nous disposons des mètres carrés
nécessaires dans nos datacenters », plaide Benjamin Revcolevschi.

En dehors de ce positionnement sur le Cloud, la stratégie d’expansion du Japonais dans l’Hexagone
passe largement par les services, qui pèsent déjà 50 % de l’activité dans le pays (contre environ 30
% il y a 5 ou 6 ans). Une stratégie qui va à rebours de celle d’acteurs comme IBM ou HPE, qui se
désengagent de cette activité où les marges s’effritent. « Fujitsu est le dernier acteur à avoir un
portefeuille de bout en bout, du PC à l’outsourcing en passant par l’applicatif et le conseil », plaide François
Fleutiaux. Mais ce dernier écarte toutefois l’idée d’un rachat d’une SSII dont le centre de gravité
serait très hexagonal. « Nos acquisitions peuvent soit viser des sociétés spécialisées avec pour objectif de
renforcer notre portefeuille de solutions digitales, soit cibler des sociétés plus importantes, mais celles-ci
doivent alors être présentes sur plusieurs plaques géographiques et travailler avec des entreprises globales. »

A lire aussi :

Fujitsu met son IT au service des makers du TechShop-Leroy Merlin

Pour Fujitsu, l’innovation doit rester à hauteur d’homme

Le robot Captain DC fait son entrée dans
les datacenters
Fruit d’un partenariat entre Econocom, spécialiste européen de la maintenance informatique, et
EOS Innovation, filiale de Parrot spécialisée dans la robotique mobile de surveillance, Captain DC,
robot « autonome et intelligent », détecte les incidents dans les alignements et baies de serveurs.

« Captain DC est le fruit de l’intelligence robotique déployée par EOS Innovation depuis 6 années. Econocom a
su l’adapter aux besoins spécifiques de ses clients dans un datacenter : surveillance, remontée d’alertes en
temps réel et grâce aux données acquises par le robot, la capacité à apporter du conseil », a déclaré
Grégory Lebourdais, responsable design et marketing d’EOS Innovation.

Soutenir l’action humaine
Robot d’une soixantaine de kilos, Captain DC peut remplir trois missions : surveiller et remonter les
alertes du datacenter 24 heures sur 24 et 7 jours sur 7 ; être piloté à distance pour fournir
diagnostic en temps réel et prise de décision immédiate ; téléporter le support N2-N3 au côté de
l’intervenant.

En démonstration les 15 et 16 juin 2016 au salon Storage Expo de Bruxelles, Captain DC se déplace
à 2 km/h et peut se recharger automatiquement. Il est équipé, entre autres, de : caméras
thermique et nocturne, capteurs de température et d’humidité, capteurs ultrasons, système de
visioconférence.

Lire aussi :

Google dévoile un peu la sécurité de ses datacenters
Vous pouvez aussi lire