Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs - Silicon.fr
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Supercalculateur : la Chine dépasse les 100 pétaflops avec ses propres processeurs C’est un peu un coup de tonnerre dans le monde des supercalculateurs. Le nouveau classement des 500 systèmes les plus puissants de la planète, le Top 500, est désormais dominé non plus par un supercalculateur chinois, mais par deux. Précédent détenteur du record, le Tianhe-2 se voit supplanté par un autre système chinois, appelé Sunway TaihuLight. Surtout, avec une performance maximale de 93 pétaflops, celui-ci affiche une puissance presque trois fois supérieure au précédent recordman. En pic, la performance du Sunway TaihuLight dépasse même les 125 pétaflops. Surtout, alors que le Tianhe-2 embarquait des Xeon signés de l’Américain Intel, le Sunway TaihuLight est basé sur un processeur chinois, le ShenWei, et des technologies d’interconnexion locales. Selon les chiffres du Top 500, la machine intègre pas moins de 10,6 millions de cœurs de processeurs, à 1,45 GHz. Plus de trois fois plus que le Tianhe-2. Mais, le Sunway TaihuLight consomme pourtant moins que le Tianhe-2, ‘seulement’ 15,3 MW contre 17,8 pour son aîné. Avec un rapport puissance par watt consommé de 6 gigaflops/W, la nouvelle star du classement Top 500 fait même trois mieux que le plus puissant supercalculateur américain à ce jour, le Titan (17,6 pétaflops pour 8,2 MW), actuel n° 3 du Top 500. Le ShenWei fait jeu égal avec le Xeon Phi Le processeur utilisé par le Sunway TaihuLight découle de développements démarrés en 2011, avec la sortie d’une première puce ShenWei, embarquant 16 cœurs. Ce composant avait à l’époque été exploité dans un supercalculateur, le Sunway BlueLight, installé dans un centre de calcul chinois. La nouvelle version du ShenWei compte désormais 260 cœurs pour une puissance de 3 téraflops. Le supercalculateur Sunway TaihuLight agrège 40 960 processeurs de ce type, un par nœud. L’architecture du ShenWei, un processeur Risc 64 bits, reste mystérieuse, même si certains experts estiment qu’elle dérive des Alpha de la firme américaine Digital, rachetée par Compaq en… 1998. Avec 3 téraflops par processeur, le ShenWei de dernière génération fait jeu égal avec le Xeon Phi « Knights Landing » d’Intel, dont les Etats-Unis ont interdit l’exportation en Chine en avril 2015. Si cet embargo n’a probablement rien changé au calendrier du Sunway TaihuLight, il pourrait avoir retardé une mise à jour du Tianhe-2, upgrade qui l’aurait amené au-delà des 100 pétaflops avant le nouveau recordman du Top 500. Les Etats-Unis pris de vitesse Le Sunway TaihuLight a été développé par le centre national chinois de recherche sur l’ingénierie des systèmes à hautes performances (NRCPC) et il est installé au centre de calcul hautes performances de Wuxi, à deux heures de route de Shanghai. Le système sera utilisé pour diverses recherches, notamment sur le climat, la modélisation de la terre, les sciences de la vie et l’analyse de données. Selon Jack Dongarra, il fait déjà tourner trois applications de simulation ayant reçu un prix international (le prix Gordon Bell), deux d’entre elles fonctionnant à une performance stabilisée
comprise entre 30 et 40 pétaflops. Le professeur Guangwen Yang, directeur du centre de Wuxi, voit dans le nouveau supercalculateur « une démonstration des progrès significatifs accomplis par la Chine dans le design et la construction de systèmes informatiques à large échelle. » Pour les Etats-Unis, l’avertissement est des plus sérieux. Alors que la première puissance économique mondiale est engagée dans une course de vitesse avec son rival asiatique pour la construction de la première machine exaflopique (soit 1 000 pétaflops), elle apparaît aujourd’hui distancée. La Chine venant de franchir, sans coup férir, un des jalons menant à l’exaflops. Au-delà même des deux premières places occupées par la Chine dans le classement, la chute du nombre de supercalculateurs américains dans le Top 500 témoigne de la perte du leadership des Etats-Unis sur le sujet. Alors qu’elle ne classait aucun système en 2001, la Chine en compte désormais 167 parmi les 500 ordinateurs les plus véloces au monde. Contre 165 pour les Etats-Unis. A lire aussi : Supercalculateur exaflopique : la Chine 3 ans avant les Etats-Unis ? Supercalculateurs : les Etats-Unis s’inquiètent de la concurrence de la Chine Avec Sequana, Atos en marche vers le supercalculateur exascale
Dell en passe de vendre son activité logicielle à des fonds (MAJ) Dell a besoin d’argent frais pour diminuer l’endettement lié au rachat d’EMC. Plusieurs options ont été choisies dans ce cadre dont la revente des activités logicielles et des services. Cette dernière a eu lieu avec l’acquisition de Perot par NTT Data pour 3 milliards de dollars. Une déception pour le Texan qui avait déboursé à l’époque pour s’emparer de Perot, 3,9 milliards de dollars et pensait le revendre autour de 5 milliards de dollars. On peut évoquer aussi la mise en bourse de SecureWorks, division sécurité pour 112 millions de dollars. C’est donc au tour de la division Software de trouver preneur. Et Dell aurait déjà des prétendants, selon Reuters, en la personne d’un consortium regroupant Francisco Partners et Elliot Management. Le premier est un fonds d’investissements connu dans le secteur des technologies. Il dispose d’un portefeuille de plus de 10 milliards de dollars au sein de 150 technologies. Quant à Elliot Management, le fonds activiste était un des actionnaires d’EMC et sollicitait l’été dernier la scission avec VMware. Selon des sources proches du dossier, les différentes parties seraient même « en discussions avancées » pour ce rachat. Un accord pourrait aboutir dès cette semaine ou capoter, précise l’agence de presse. Quest et SonicWall dans la panière, mais pas Boomi L’acquisition porterait sur la quasi-totalité de l’activité logicielle de Dell comprenant notamment Quest, la solution de gestion des actifs IT et SonicWall, sur la sécurisation des données. Par contre Boomi, spécialiste de la gestion des infrastructures Cloud, devrait être écarté du rachat. Une fois le périmètre de l’acquisition délimitée, il reste à fixer le prix du rachat et Reuters table sur un montant de plus de 2 milliards de dollars. Un pas supplémentaire dans la course au désendettement pour Dell qui table sur une cession d’actifs de l’ordre de 10 milliards de dollars. De quoi donner des gages aux actionnaires d’EMC qui doivent voter le 19 juillet dernier pour entériner définitivement le rapprochement avec Dell. MAJ : Les deux fonds Elliot Management et Francisco Partners ont annoncé un accord sur l’acquisition de Dell Software. Aucun montant n’a été dévoilé. A lire aussi : Le succès de la fusion Dell/EMC soutenue par la numérologie chinoise Avant le rachat d’EMC, Dell joue la transparence financière
Les conteneurs de Docker s’imposent, y compris dans la prod En quelques mois, les conteneurs sont parvenus à faire leur trou dans un univers réputé conservateur, celui de la production informatique. Selon une étude menée par Devop.com, pour le compte de la société ClusterHQ, 76 % des entreprises utilisent désormais cette technologie en production, contre seulement 38 % en 2015. Basée sur les réponses de 310 personnes, dont les trois-quarts travaillant dans des équipes de développement ou dans des équipes Devops, l’étude montre que quasiment toutes les organisations employant les conteneurs (soit 79 % du total) les ont adopté, en tout cas sur un périmètre donné, en production. Dominé par les petites entreprises travaillant dans le développement applicatif ou le Cloud, le panel compte tout de même un certain nombre de sociétés de plus de 500 personnes. Et celles-ci sont également 73 % à employer la technologie des conteneurs en production. Sans surprise, Docker domine largement les débats. La technologie de la start-up est utilisée par 94 % des entreprises ayant adopté l’approche par conteneurs et plus de trois organisations sur quatre l’ont retenue comme le principal vecteur de leurs investissements dans ce nouveau type d’architecture. Suivent LXC (la technologie embarquée dans le noyau Linux) et rkt (le Rocket de CoreOS), crédités respectivement de 15 et 10 % (la somme des pourcentages, supérieure à 100 %, indiquant que de nombreuses entreprises testent plusieurs technologies). Mais ces deux solutions sont largement décrochées. Pire : l’écart se creuse par rapport à l’étude de 2015, où les alternatives à Docker étaient testées dans un plus grand nombre de sociétés. Bref, de plus en plus, Docker apparaît comme le standard de facto des architectures en conteneurs.
Le Swarm de Docker dépassé par Kubernetes Le constat est tout différent pour la start-up fondée par des anciens de l’Epitech en matière d’outil d’orchestration. Alors que le Swarm de Docker dominait en 2015, il est aujourd’hui largement devancé par Kubernetes, l’outil de Google. Notons que plus de 30 % des sondés indiquent également utiliser des outils internes. Amazon EC5 et Mesos suivent et sont testés par environ une société sur cinq. En revanche, les Chef, Puppet et Ansible ont disparu des réponses alors qu’ils y figuraient en bonne place en 2015. Pour les auteurs de l’étude, les équipes de production testent encore de nombreuses solutions d’orchestration afin de définir celle la plus adaptée à leurs besoins.
Les entreprises ayant déployé des conteneurs indiquent avoir connu des difficultés de déploiement en terme de stockage persistant (dans un cas sur quatre), de réseau et de sécurité. En revanche, seuls 5 % des sondés ou moins affirment avoir rencontré des problèmes de fiabilité ou de montée en charge. Des résultats qui peuvent expliquer le passage rapide des technologies de conteneurs en production. AWS séduit 6 entreprises sur 10 Comme en 2015, AWS domine dans la liste des infrastructures exploitées pour déployer la technologie. Et se permet même de creuser l’écart par rapport à 2015. Ensemble, ses rivaux directs dans le Cloud public (Google Computer Engine, Digital Ocean, Azure, Rackspace) totalisent moins d’utilisateurs que le leader du Iaas seul. AWS séduit 60 % des entreprises ayant adopté les conteneurs. Notons que 40 % d’entre elles font tourner la technologie au sein de leurs propres datacenters (contre 57 % en 2015). [Lire notre dossier : Docker, déjà bon pour le service] En dehors de la production, les conteneurs sont surtout utilisés par le développement (à 91 % des entreprises ayant adopté la technologie), les tests (75 %), mais aussi l’assurance qualité (56 %) ou les prototypes (50 %). Les utilisateurs indiquent s’être tournés vers cette technologie pour deux raisons principales : l’amélioration de l’efficacité des équipes de développement et le support des architectures de micro-services. A lire aussi : Les conteneurs plébiscités, Docker leader incontesté Les développeurs adoptent conteneurs et microservices
Comment les conteneurs donnent naissance au Cloud v2 crédit photo © Egorov Artem – shutterstock Supercalculateur exaflopique : la Chine 3 ans avant les Etats-Unis ? La Chine devrait virer en tête dans la course au premier système exaflopique (soit d’une puissance de 1 000 pétaflops), la prochaine étape majeure dans la course à la puissance que se livrent les supercalculateurs. Selon l’agence de presse officielle chinoise Xinhua, l’université des technologies de défense du géant asiatique prévoit de passer ce cap en 2020, soit trois ans avant les Etats-Unis. Le premier système exaflopique serait le Tianhe-3, un système qui suit la logique de l’évolution des supercalculateurs de l’université chinoise. Une logique inaugurée en 2010 avec le lancement du premier ordinateur pétaflopique de l’Empire du milieu, le Tianhe-1. Si la Chine domine aujourd’hui le classement des 500 supercalculateurs les plus rapides de la planète avec son Tianhe-2 (en photo ci-dessus), elle n’avait, à l’époque, franchi la barre du pétaflops que deux ans après les Etats-Unis (avec le Roadrunner du laboratoire national de Los Alamos). Le passage aux systèmes exaflopique pourrait donc marquer la prise de pouvoir durable de la Chine dans cette course à la performance. Même si des doutes subsistent sur les conditions dans lesquelles le Tianhe-3 atteindra cette barre symbolique. Première interrogation : combien d’énergie consommera ce système ? Les États-Unis prévoient de leur côté de franchir ce cap avec un système consommant de 20 à 30 MW, soit presque la production d’une petite centrale énergétique. Par ailleurs, il est probable que l’échéance de 2020 que s’est fixée la Chine corresponde au dépassement du seuil de l’exaflops sur le critère du pic de performances (RPeak dans le classement Top 500). Or, comme le rappelle Steve Conway, un analyste d’IDC interrogé par Infoworld, les Etats-Unis visent, en 2023, une performance exaflopique stable sur une application 64 bits. Ce qui change tout. L’analyste estime que la Chine devrait atteindre ce stade entre 2022 et 2024. Bref, les deux superpuissances seraient, en réalité, au coude à coude. Reste la puissance du symbole, que ne se prive pas d’agiter le géant asiatique. 3 Md$ pour toucher l’exaflops Aux Etats-Unis, le développement d’un supercalculateur exaflopique s’inscrit dans une stratégie nationale définie par le président américain Obama en juillet 2015 (National Strategic Computing
Initiative) et pilotée par le Département de l’énergie américain. Le gouvernement prévoit de « financer les fournisseurs de supercalculateurs afin d’effectuer la R&D en matière d’architecture matérielle nécessaire à la construction et au support de systèmes exaflopiques. » En 2016, le gouvernement américain consacrera ainsi 250 M$ au programme, et l’enveloppe devrait même être un peu mieux garnie en 2017. Au total, le Département de l’énergie estime que le programme de développement de l’ordinateur exaflopique coûtera 3 Md$ environ. Discuté avec les industriels courant mars, ce plan a été dévoilé mi-avril sur un site officiel des Etats-Unis. Le Japon et l’Europe tentent eux aussi de mettre au point des supercalculateurs touchant l’exaflops. En France, Atos, le repreneur de Bull, vient d’annoncer une machine intégrée atteignant le pétaflops : Sequana. Et Thierry Breton, le patron du groupe, n’a pas fait mystère de sa volonté de viser le système exaflopique : « Nous commençons avec un pétaflops aujourd’hui, l’année prochaine nous allons multiplier par 30 cette capacité et d’ici 2 ans, nous allons encore la multiplier par 30 pour atteindre le 900 pétaflops. D’ici 2020, le supercalculateur exaflopique sera une réalité », a pronostiqué mi-avril l’ex- ministre. A lire aussi : Supercalculateurs : les Etats-Unis s’inquiètent de la concurrence de la Chine IBM et le GENCI partent à l’assaut des supercalculateurs exaflopiques Salesforce s’est fait souffler Linkedin par Microsoft On ne peut pas réussir à tous les coups. C’est, en substance, le propos tenu par Marc Benioff. Le CEO de Salesforce reconnaît avoir envisagé d’acquérir Linkedin… finalement tombé dans le giron de Microsoft, qui a mis 26,2 milliards de dollars sur la table. « C’est la saison des fusions-acquisitions », affirme le dirigeant, interrogé par Re/code. Il avait tenu le même discours début juin à l’heure d’annoncer le rachat de Demandware, fournisseur américain de solutions e-commerce dans le cloud (montant de la transaction : 2,8 milliards de dollars en numéraire). Dans le dossier Linkedin, Salesforce avait sollicité Goldman Sachs. La banque d’affaires n’avait, en conséquence, pas pu accompagner Microsoft, alors qu’elle travaille régulièrement avec la firme de Redmond sur de grosses opérations à l’image de la prise de contrôle opérée sur Skype en 2011, pour 8,5 milliards d’euros.
Salesforce confirme Le fait que Morgan Stanley soit la seule banque d’affaires partenaire de Microsoft avait mis la puce à l’oreille de Bloomberg, qui avait suggéré que « l’autre candidat » à l’acquisition de LinkedIn était Salesforce. Marc Benioff confirme, sans fournir davantage de détails. Il semble que l’éditeur californien se soit rapproché tardivement du réseau social professionnel, qui avait déjà nettement avancé dans ses négociations avec Microsoft. Lequel avait notamment fait la promesse de préserver Linkedin en tant qu’entité autonome, souligne ITespresso. Pour Salesforce, la base de données BtoB de Linkedin – 433 millions d’utilisateurs revendiqués dans le monde – aurait constitué une mine d’or à exploiter sous l’angle du Big Data, entre ciblage publicitaire et marketing prédictif. Autre valeur ajoutée : les solutions de recrutement (« Talent Solutions », qui incluent aussi la formation avec lynda.com), principal poste de revenus de Linkedin sur son dernier trimestre d’activité, à hauteur de 64 % du chiffre d’affaires (557 millions de dollars, le reste étant réparti de manière égale entre les solutions marketing et les abonnements payants). * Une opération que Tech Republic présente comme le troisième plus gros deal dans l’IT depuis l’an 2000, derrière le rapprochement Dell-EMC (67 milliards) et l’absorption de Broadcom par Avago Technologies (37 milliards) dans les semi-conducteurs. Microsoft y a engagé près d’un quart de ses liquidités. A lire aussi : Rejoignez la page Silicon.fr sur Linkedin Sécurité : 167 millions de comptes Linkedin volés à vendre Résultats : Oracle soutenu par ses activités Cloud Oracle vient de livrer les résultats de son quatrième trimestre de l’exercice décalé 2015-2016. les revenus de la firme restent globalement stables par rapport à la même période de l’année précédente, à 10,6 milliards de dollars, -1 %. Le bénéfice net progresse de 2 %, à 2,8 milliards de dollars. Le revenu par action en données corrigées se fixe à 81 cents, en ligne avec les attentes des analystes, qui tablaient sur 82 cents. Ces résultats solides valent à l’action de prendre près de 2 % dans les échanges hors séance, à 39,4 dollars.
Résultats en baisse sur l’année Sur l’année, la situation est un peu moins glorieuse, avec un chiffre d’affaires en baisse de 3 %, à 37 milliards de dollars et un bénéfice net qui cède 10 %, à 8,9 milliards de dollars. Il n’y a toutefois pas péril en la demeure Oracle, puisque la firme doit une grande partie de cette baisse aux variations du dollar. Reste quelques éléments intéressants concernant les activités de la société. Petite baisse sur le logiciel, avec un chiffre d’affaires en recul de 5 % (inchangé à taux de change constant), à 26,1 milliards de dollars. Grosse claque sur le hardware, qui chute de 10 %, à 4,67 milliards de dollars. Oracle peut toutefois compter sur le Cloud, qui progresse sur l’année de 36 %, à 2,85 milliards de dollars. À lire aussi : Oracle corrige les failles de ses produits… et de Java Oracle limite les évolutions de Linux à la sécurité Oracle cartonne sur le Cloud et trébuche sur les serveurs Avec Tetration, Cisco surveille en temps réel le datacenter Cisco a présenté un système baptisé Tetration Analytics destiné à surveiller les datacenters, les serveurs, les équipements réseaux via des capteurs et à donner des indications pour mieux gérer l’infrastructure. Tetration est pour l’instant basé sur une appliance qui fait office de cluster analytique. Les données opérationnelles des datacenters sont rendues via des API sur une interface web avec des push de notifications. A terme, la solution devrait être livrée en tant que service explique Yogesh Kaushik, responsable produit chez Cisco, à nos confrères de ZDnet. Tout surveiller dans le datacenter Pour le dirigeant, il est important « de tout surveiller au sein du datacenter », estimant qu’il est très difficile de connaître les réelles performances de certains éléments comme le Cloud hybride, le Big Data, le déploiement rapide d’applications, les Cloud public ou les microservices. Tetration devrait donc être un élément de différenciation pour sa pile à destination des datacenters. Rappelons que Cisco a démarré par l’activité serveur via UCS (Unified Computing Systems) et plus tard la firme a ajouté ACI, la solution de Software Defined Data Center. Tetration propose une couche analytique, conçue comme « une machine à remonter le temps » et connaître les causes des
mauvaises performances des centres de calcul. Il est capable de rejouer les évènements en temps réel, modéliser les modifications à apporter et les conséquences engendrées. Tetration Analytics, une appliance musclée Sur le plan technique, Cisco a construit Tetration dans un rack comprenant des serveurs UCS C220 (36) et 3 commutateurs Nexus 9300 ou 9200 (embarquant des capteurs logiciels sur les ASIC). Les entreprises peuvent placer des capteurs aussi dans leurs datacenters via des VM ou en mode bare metal. La configuration est pour l’instant capable de gérer plus d’un million d’évènements par seconde. L’appliance est déjà pré-packagée et peut-être opérationnelle en 3 heures affirme l’équipementier. Les premières solutions doivent être livrées le mois prochain. Côté tarif, le prix d’entrée de Tetration devrait tourner autour des 3 millions de dollars, selon un le cabinet 451 Research interrogé par ChannelsPartnerOnline. Cisco prévoit de lancer une version plus adaptée aux entreprises de taille moyenne. Aujourd’hui, Cisco réserve Tetration pour les grands comptes et cible les secteurs de la banque et assurance, la santé, les telcos, les administrations, etc. A lire aussi : Infrastructures Cloud : HPE et Cisco au coude à coude Cisco s’empare d’un expert des composants réseau haute vitesse crédit photo © kubais – shutterstock
Télégrammes : Google accusé de plagiat sur son Project Loon; risques d’accès pirates aux comptes GitHub; Microsoft renforce son intelligence conversationnelle; Nokia veut éjecter Alcatel-Lucent de la Bourse. Le Project Loon de Google attaqué en justice. Google a-t-il pompé l’idée de se servir de montgolfières pour relayer les signaux mobiles dans les zones dépourvues d’infrastructures Internet ? C’est ce que déclare Space Data Corporation of Chandler (SDCC) qui a déposé une plainte auprès d’un tribunal californien contre Alphabet, la maison mère du moteur de recherche. SDCC déclare détenir les brevets d’un système de ballons qui transporte des antennes mobiles pour créer un réseau sans fil à des fins d’usages militaires. Le Project Loon de Google s’adresse, lui, aux populations civiles et/ou professionnelles. SDCC met également en avant les rencontres qu’elle a eu en 2007 et 2008 avec des dirigeants de Google, dont ses fondateurs Larry Page et Sergey Brin, en vue d’un éventuel partenariat qui n’a finalement pas abouti. Ce qui n’a pas empêché l’entreprise de Mountain View de lancer ses propres travaux en 2011. En s’appuyant sur les informations confidentielles et les secrets commerciaux partagés lors des précédents échanges, accuse SDCC. Qui réclame des dédommagements pour viols de brevets et appropriation non autorisée de secrets commerciaux et fuites contractuelles. GitHub conseille de réinitialiser les mots de passe. Le service de repository a demandé à ses abonnés de réinitialiser leur mot de passe en raison d’un vol de données sur un site tiers. GitHub précise que ses données ne sont pas concernées. Mais les pirates ont essayé de pénétrer les comptes d’utilisateurs de GitHub avec des identifiants volés sur le site tiers. Le recyclage des mots de passe est souvent utilisé par les personnes et constitue un problème important lié au vol massif de données. Cela a été le cas par exemple pour celui de Linkedin, certes datant de 2012, mais concernant plus de 120 millions de comptes. Microsoft rachète Wand Labs. Microsoft a annoncé l’acquisition de Wand Labs, un éditeur d’applications de messagerie créé en 2013, pour un montant resté confidentiel. « Cette acquisition accélère notre vision et notre stratégie autour d’une offre de Conversation as a platform », commente Redmond sur son blog. Wand Labs s’est spécialisé dans l’ontologie sémantique, des services de cartographie, l’intégration des développeurs tiers et les interfaces conversationnelles. Cette dernière activité intéresse Microsoft au plus haut point dans sa volonté de se positionner sur les solutions d’intelligence conversationnelle concrétisées par les chatbot où langage naturel et intelligence artificielle se rejoignent. « Cela étend la puissance de Bing, Azure, Office 365 et les plates-formes Windows », assure Microsoft. Les ingénieurs de Wand Labs rejoindront ceux de Bing. Nokia veut sortir Alcatel-Lucent de la Bourse. En marge de son assemblée générale, où l’ensemble du conseil d’administration a été réélu jusqu’en juin 2017, Nokia a annoncé
vouloir s’emparer des derniers titres d’Alcatel-Lucent encore cotés en Bourse. Le propriétaire majoritaire de l’ex-équipementier français, a passé des accords pour acquérir 95,33% du capital d’Alcatel-Lucent (et 95,26% des droits de vote) à travers le rachat négocié de quelque 36 millions d’actions et obligations à échéance du 30 janvier 2019 pour un montant global d’environ 139 millions d’euros. Ensuite, Nokia devrait déposer auprès de l’AMF un projet d’offre publique de retrait en numéraire sur les dernières actions du français. Qui, à l’issue de cette opération, devrait avoir définitivement disparu du marché. Microsoft étoffe son offre Blockchain as a service sur Azure La présence de Microsoft dans les monnaies virtuelles n’était pas flagrante, mais les choses changent avec la Blockchain. Cette dernière se définit comme étant un moyen d’échange capable de sécuriser tout type de transaction, sans la présence d’un organe central de contrôle. Chaque « bloc » se présente comme un livre de comptes privé, consultable par les différents acteurs d’une transaction, et hautement sécurisé. Utilisé pour la première fois dans le cadre du Bitcoin, la Blockchain s’étend à d’autres territoires. Et la firme de Redmond entend bien être présent sur ce marché en devenir. Elle a donc en novembre dernier travaillé avec Ethereum pour proposer en test un service de Blockchain à la demande. Cette expérience a permis d’avoir les retours des entreprises intéressées et de connaître les éléments manquants pour qu’elles développent des applications Blockchain. Du middleware blockchain et des cryptlets Le fruit de ces réflexions s’est traduit par le lancement du projet Bletchley. Marley Gray, directeur du Business Developpement et de la stratégie Cloud et entreprise, explique que « le projet Bletchley est une vision de Microsoft pour proposer de la Blockchain as a service (BaaS) ouverte et modulaire pour l’ensemble des plateformes, des partenaires et des clients ». Concrètement, ce programme apporte deux éléments importants, une couche de middleware et des « cryptlets ». Le middleware Blockchain va fournir des services Cloud comme la gestion d’identité et du management opérationnel, ainsi que des solutions analytiques et de machine learning (cf schéma ci-dessous). Et Microsoft pousse aussi le concept de « cryptlets », qui peut se définir comme « un nouveau bloc de construction de la technologie Blockchain pour assurer la sécurité des opérations et de la communication entre Azure, l’écosystème middleware et les plateformes technologiques utilisées par les clients ».
Car Microsoft entend être compatible avec plusieurs protocoles de la Blockchain, allant du plus simple, Unspent Transaction Output-based (UTXO), comme Hyperledger, jusqu’au plus sophistiqué basé sur Smart Contract utilisé par Ethereum. Pour revenir aux cryptlets, il s’agit de petits modules fonctionnels, qui lors d’une transaction ou d’un contrat, pourront fournir certaines fonctions comme l’horodatage, la gestion de clé public, etc. A lire aussi : Microsoft développe un système ID basé sur la blockchain Project Thunder : Blockchain met en Open Source son réseau P2P Crédit Photo : Montri Nipitvittaya-Shutterstock xDedic : une place de marché de 70 000 serveurs piratés Les codes d’accès d’environ 2 500 serveurs français sont en vente, pour quelques dollars, sur un forum underground, xDedic, accessible depuis un simple navigateur. D’après une étude des laboratoires de l’éditeur Kaspersky, ce sont au total pas moins de 70 000 serveurs Windows compromis, dans 173 pays, qui sont ainsi mis à la portée des cybercriminels. Ces derniers peuvent
exploiter ces accès pour lancer des attaques par DDoS, mener des campagnes de spams ou de phishing ou encore accéder aux données présentes sur ces machines. Selon l’éditeur russe, les tarifs démarrent à 6 dollars pour certains serveurs. L’APT du pauvre ? « La vaste quantité de serveurs à vendre sur la place de marché xDedic offre une alternative attractive aux acteurs des APT (Advanced Persistent Threat ou menace persistante avancée) dotés de peu de ressources, mais souhaitant agir sous le radar et ayant des difficultés à prendre pied chez leurs victimes », écrivent les chercheurs. Bref, une forme de démocratisation des attaques les plus redoutées par les entreprises, celles visant à rester sous le radar afin de récupérer un maximum d’informations confidentielles. Selon Kaspersky, les administrateurs de ce forum parlent le russe. Les chercheurs de l’éditeur font remonter la naissance de xDedic à 2014. Et dénombrent, en mai 2016, pas moins de 416 individus ou groupes utilisant la plate-forme pour vendre des accès. Le tableau dressé par les chercheurs laisse entrevoir un forum montant en puissance depuis un an et géré avec soin. Le service fournit à ses utilisateurs enregistrés un tableau de bord des serveurs ‘disponibles’. Avec, pour chacun d’entre eux, des informations sur la nature du système, la disponibilité d’un accès administrateur, la présence d’antivirus ou de navigateurs, la vitesse de connexion ou encore le tarif et la localisation.
Sans oublier la présence ou non de logiciels de gestion des terminaux point de vente, une information cruciale pour les spécialistes du vol de données de cartes bancaires. Un portail ‘clients’, un portail ‘vendeurs’ Autre illustration de la spécialisation et de la professionnalisation des différentes composantes du cybercrime : xDedic propose un portail ‘partenaires’, comprendre une interface dédiée aux vendeurs de serveurs compromis. Protégée par login et mot de passe, celle-ci renferme un outil de validation, SysScan, qui établit le profil des machines appelées à être proposées à la vente. L’outil se connecte à des serveurs de commande et de contrôle, afin de transmettre des informations précises sur la cible (identifiant du serveur, version de Windows, langue, taille de la mémoire, CPU, ouverture des ports 25 et 80, présence d’environnements virtuels, antivirus…) que xDedic va afficher dans son portail ‘clients’. SysScan effectue également quelques modifications dans Windows, facilitant l’exploitation du serveur compromis. xDedic « facilite la vie de ses clients » D’après les conclusions de Kaspersky, les serveurs sont piratés par force brute, en utilisant des outils ciblant le protocole RDP (Remote Desktop Protocol, protocole d’accès à distance venant du monde Windows), comme DUBrute ou XPC. Puis, xDedic intervient comme une suite de services permettant d’industrialiser l’exploitation de ces ressources et d’en organiser la commercialisation. Ainsi, en attendant qu’un serveur soit ‘acheté’ sur la place de marché, les hackers le détournent pour réaliser du minage de bitcoin. Autres signes de la sophistication des processus mis en place par xDedic : la présence d’un client RDP développé en propre et « conçu pour faciliter la vie de nos clients » selon les mots de l’organisation criminelle ou encore un outil maison permettant de transformer un serveur en proxy (HTTPS ou Socks). Notons par ailleurs que les chercheurs de Kaspersky sont parvenus à détourner le trafic de 5 des 8 serveurs de contrôle utilisés par xDedic pour piloter les serveurs via le malware SCClient. « Au cours des 12 premières heures, nous avons reçu des connections de 3 600 adresses IP différentes », écrivent les chercheurs. Ce qui donne une idée du niveau d’activité réelle de cette organisation cybercriminelle. Kaspersky affirme que des serveurs d’organisations gouvernementales ou d’universités faisaient partie des machines se connectant aux serveurs de contrôle. A lire aussi : CryptXXX : le ransomware qui vole aussi les mots de passe Sécuriser les Scada : « ce sera cher et difficile », dit Kaspersky Hacking : pourquoi les États s’en prennent aux éditeurs de sécurité Crédit photo : igor.stevanovic / shutterstock
Datacenter : Cavium rachète QLogic pour 1,3 milliard de dollars Encore une étape dans la consolidation du marché de l’infrastructure à destination des datacenters avec le rachat de QLogic par Cavium. Le fournisseur de processeurs ARM pour serveur propose 15,5 dollars par action dont 11 en cash et le reste en action Cavium. Le montant de l’opération est évalué à 1,36 milliard de dollars et elle devrait aboutir au troisième trimestre 2016. Cavium met la main sur un portefeuille et une expertise dans le domaine du réseau et du stockage. En effet QLogic est connu pour fournir des éléments réseaux et stockage, comme des cartes Ethernet, mais aussi Fiber Channel et FCoE, ainsi que des contrôleurs. Une brique de compétences qui se combinera facilement aux processeurs de Cavium et fournir ainsi des piles complètes en OEM aux équipementiers. Cavium + QLogic = plus de clients Ce rapprochement devrait élargir le portefeuille de clients, avec comme grands noms, HPE, Dell, Lenovo, Pure Storage, IBM, Oracle, EMC et NetApp. Les deux sociétés considèrent que seulement 10% de leurs revenus se chevauchent.
Une bonne opération pour Cavium estimant que QLogic va ajouter 60 à 70 cents par action à ses bénéfices 2017 et attend un revenu proche du milliard de dollars. Les synergies sont attendues sur la consolidation des ventes, l’IT, la R&D, etc. Cette opération devrait donner un coup de fouet à la stratégie de Cavium en ce qui concerne les serveurs ARM. Un marché encore balbutiant et qui peine à décoller en raison d’un écosystème encore immature. Pour autant, les constructeurs rivalisent d’ingéniosité pour proposer les processeurs serveurs les plus rapides et les plus puissants. Récemment Cavium a présenté un processeur serveur très puissant, le ThunderX2. A lire aussi : Le X-Gene 3 au niveau des puces Intel Xeon ? Puces serveurs x86, Power et ARM: qui sont les plus puissantes ? crédit photo © Kritchanut – shutterstock Avant le rachat d’EMC, Dell joue la transparence financière Voir une société privée, comme l’est devenu Dell après son retrait de la bourse, publier ses résultats trimestriels comme une entreprise cotée est tout sauf banal. C’est pourtant ce que vient de faire le constructeur texan. Et cette décision n’est pas étrangère à l’acquisition prochaine du groupe EMC, une opération pour laquelle Dell va s’endetter massivement. L’opération transparence permet donc aux marchés de jauger la qualité du bilan du Texan. Rappelons que la fusion Dell EMC, qui va donner naissance à Dell Technologies, doit se déboucler dans les prochaines semaines, et va se traduire par un endettement de 45 milliards de dollars pour le groupe (pour une emplette pesant au total de 67 milliards). Mi-mai, Dell a lancé un emprunt obligataire qui a été souscrit à hauteur de 20 milliards de dollars (alors que le groupe n’en espérait que 16). Le Texan vient également d’émettre des obligations, remboursables en 2021 et 2024, via lesquelles il espère lever 3,25 milliards de plus. Un milliard remboursé en trois mois Si ces opérations semblent aujourd’hui se dérouler sans anicroche, Dell espère donc rassurer totalement les marchés avec son opération transparence sur ses comptes (précédemment, seuls les détenteurs de dettes émises par l’entreprise avaient accès à ces données). Car Denali Holdings, la holding qui contrôle le constructeur, y fait preuve d’une solide capacité à rembourser ses dettes. Lors du rachat de l’entreprise par Michael Dell et Silver Lake – correspondant à sa sortie de la
bourse -, le groupe avait en effet contracté environ 21 milliards de dollars de dette, s’ajoutant aux 4 milliards déjà présents au bilan. A l’issue du dernier trimestre, clos le 29 avril 2016, la dette à long terme de Denali Holdings a été ramenée à 10,6 milliards. La firme affiche une trésorerie de quelque 6,1 milliards de dollars, sans compter la vente de Dell Services (l’ex-Perot acheté en 2009) qui va lui rapporter 3 milliards supplémentaires. Au cours du seul dernier trimestre fiscal, Denali a remboursé pas loin d’un milliard de dette et payé plus de 200 millions d’intérêts. Et ce, même si le chiffre d’affaires de Denali au cours de son dernier trimestre affiche un recul de 2 % sur un an. Nos confrères du MagIT se sont livrés à une comparaison des ventes du groupe entre ce trimestre clos fin avril 2016 et le dernier exercice publié par Dell avant sa sortie de la bourse, en 2013. Les ventes de serveurs progressent de 15 % (à plus de 3 milliards de dollars). Le stockage bondit de 26 %. Le logiciel de 13 % (à un niveau modeste toutefois, 334 millions de dollars). Surtout, Dell est parvenue à limiter la casse sur un marché du PC en plein marasme : en trois ans, sa décroissance se limite à 3,9 % (pour un chiffre d’affaire de 8,5 Md$ sur le dernier trimestre). Dans le même temps, l’activité PC et imprimantes de HP – autrement dit HP Inc depuis la scission du Californien en deux entités – a reculé de près de 15 %. Activité déficitaire Malgré ces signaux positifs, d’autres éléments sont moins réjouissants. D’abord, l’activité du groupe reste structurellement déficitaire. Au cours du dernier trimestre, la perte opérationnelle se monte à 161 millions de dollars. C’est environ deux fois moins qu’il y a un an, mais cela reflète une structure de coûts toujours trop lourde. Notons que le groupe avait, voici un mois, anticipé un chiffre d’affaires de 13,2 milliards de dollars, avant de modérer ses estimations début juin. Denali ne parvient à publier un bénéfice que grâce aux revenus tirés des activités vendues (481 millions sur ce trimestre). Par ailleurs, les coûts liés aux opérations de fusions-acquisitions sont en nette progression sur un an, passant de 36 à 90 millions. Preuve que l’absorption d’un morceau de la taille d’EMC est tout sauf une sinécure. A lire aussi : A EMC World, Michael Dell s’impose en chef de Dell Technologies Samsung Electronics met la main sur le Cloud de Joyent Samsung Electronics vient d’annoncer le rachat de Joyent pour un montant non communiqué. Joyent est un spécialiste américain du Cloud, qui a la particularité de s’appuyer sur son propre
système d’exploitation serveur, SmartOS, basé sur le code d’OpenSolaris. La société propose aujourd’hui trois principales offres : Node.js, pour la création d’applications ; Triton, une solution de conteneurs ‘as a service’ ; Manta, une offre de stockage objet. Ses cibles : le web, la mobilité et l’Internet des Objets. Trois marchés à hauts volumes de données, bien adaptés au monde du Cloud. « Jusqu’à aujourd’hui, il nous manquait une chose : la taille nécessaire pour être efficace sur le très concurrentiel marché du Cloud Computing », explique Scott Hammond, CEO de Joyent. Avec le rachat par Samsung, la société espère pouvoir profiter de la puissance du groupe coréen et mettre ainsi en place un vaste réseau de datacenters. Samsung s’est trouvé l’opérateur de son Cloud Samsung ne cache pas avoir fait le tour du marché pour rechercher le candidat capable de concrétiser ses ambitions dans le secteur des infrastructures de Cloud, publiques ou privées. Avec Joyent, Samsung Electronics s’est trouvé le moteur et le gestionnaire de ses datacenters. Les experts de Joyent travailleront tout d’abord à l’extension de l’infrastructure et des services Cloud de Samsung, tous deux boostés par une demande croissante en provenance des smartphones et objets connectés. Joyent continuera à œuvrer en tant que société indépendante, indique Samsung. À lire aussi : Solaris : OpenIndiana 2015.10 en quête de contributeurs SmartOS : le clone libre de Solaris dédié au cloud Les frondeurs de Node.js ‘forkent’ le projet Crédit photo : © Rangizzz – Shutterstock Fujitsu fait de la France une de ses priorités Malgré les mouvements sociaux qui émaillent ce printemps, la France serait-elle (re)devenue sexy aux yeux des investisseurs étrangers ? En tout cas, après les signaux envoyés par plusieurs groupes américains (dont General Electric ou Cisco), c’est le Japonais Fujitsu qui envisage d’investir dans l’Hexagone. « Nous n’avons pas la taille dont nous avons besoin en France », explique François Fleutiaux, le directeur des activités en Europe du groupe japonais employant 160 000 personnes dans le monde. Ce constat repose sur deux éléments. Le premier tient à une forme de décalage entre la position de Fujitsu en France et celle qu’il occupe sur les deux premiers marchés IT européens, la Grande-Bretagne et l’Allemagne. Des pays où le Japonais bénéficie respectivement de l’acquisition de la SSII ICL et de la reprise de la division PC et serveurs de Siemens. L’autre élément poussant le numéro quatre mondial des services à vouloir renforcer ses positions dans l’Hexagone tient à « une
prise de conscience de la force de l’écosystème d’innovation en France », selon les mots de Benjamin Revcolevschi, le patron de la filiale française (en photo ci-dessus). « Avec ses start-up, ses écosystèmes innovants, l’Hexagone est en train de prendre des positions dominantes dans le digital », abonde François Fleutiaux. Ce n’est donc pas un hasard si Fujitsu a choisi d’installer en France son rendez-vous européen sur l’innovation, qui se tenait la semaine dernière au Parc Floral de Paris. Un événement d’importance, « le plus grand de l’année de l’innovation franco-japonaise », selon la firme, qui revendique 2 300 inscrits à cet événement où pas moins de 130 démonstrations technologiques attendaient les visiteurs. « Dans 80 % des cas, c’est la première fois que ces démonstrations sont présentées en France », souligne Adel Rouz, le vice-président des labos de Fujitsu pour l’Europe. Signalons notamment plusieurs solutions technologiques autour de l’IoT (santé, transports…), du Machine Learning (notamment pour l’industrie dans le contrôle qualité et dans l’assurance automobile) ou encore des nouveaux espaces de travail (comme cet espace de travail collaboratif permettant d’étendre un écran de tablette ou de smartphone). Deux start-up françaises au cœur de MetaArc Le lien entre l’innovation du Japonais et l’Hexagone ne date d’ailleurs pas d’hier. C’est en effet vers la France que Fujitsu s’est tourné à deux reprises pour renforcer son portefeuille technologique. En 2013, le groupe mettait ainsi la main sur RunMyProcess, un éditeur spécialisé dans la conception et l’intégration de workflow. Rebelote en fin d’année dernière, avec la reprise de la start-up Usharesoft, spécialisée dans les déploiements et la migration d’applications dans le Cloud. Deux offres qu’on retrouve intégrée au cœur de MetaArc, la plate-forme d’orchestration de Cloud que Fujitsu dévoilait la semaine dernière. MetaArc doit « permettre d’accélérer la migration des clients vers le Cloud hybride », assure Benjamin Revcolevschi. Joseph Reger, le CTO de Fujitsu en Europe, parle, de son côté, « de deuxième génération de plate-forme Cloud », basée sur le Iaas de Fujitsu, appelé K5 (reposant sur OpenStack), et intégrant de nouveaux services (Big Data, IoT, AI). Notons que MetaArc, qui propose également un gestionnaire d’API, via un partenariat avec Apigee, vise à orchestrer tous types de Cloud, y compris AWS ou Azure. Fujitsu : du PC à l’outsourcing Paradoxalement pour une entreprise qui dit vouloir faire de l’Hexagone une de ses priorités, Fujitsu ne propose pas MetaArc / K5 depuis un datacenter situé dans le pays ; la solution étant hébergée en Espagne, en Grande-Bretagne, en Allemagne ou en Finlande. « Nous avons choisi de servir nos clients à partir des infrastructures aujourd’hui disponibles, même si nous disposons des mètres carrés nécessaires dans nos datacenters », plaide Benjamin Revcolevschi. En dehors de ce positionnement sur le Cloud, la stratégie d’expansion du Japonais dans l’Hexagone passe largement par les services, qui pèsent déjà 50 % de l’activité dans le pays (contre environ 30 % il y a 5 ou 6 ans). Une stratégie qui va à rebours de celle d’acteurs comme IBM ou HPE, qui se désengagent de cette activité où les marges s’effritent. « Fujitsu est le dernier acteur à avoir un
portefeuille de bout en bout, du PC à l’outsourcing en passant par l’applicatif et le conseil », plaide François Fleutiaux. Mais ce dernier écarte toutefois l’idée d’un rachat d’une SSII dont le centre de gravité serait très hexagonal. « Nos acquisitions peuvent soit viser des sociétés spécialisées avec pour objectif de renforcer notre portefeuille de solutions digitales, soit cibler des sociétés plus importantes, mais celles-ci doivent alors être présentes sur plusieurs plaques géographiques et travailler avec des entreprises globales. » A lire aussi : Fujitsu met son IT au service des makers du TechShop-Leroy Merlin Pour Fujitsu, l’innovation doit rester à hauteur d’homme Le robot Captain DC fait son entrée dans les datacenters Fruit d’un partenariat entre Econocom, spécialiste européen de la maintenance informatique, et EOS Innovation, filiale de Parrot spécialisée dans la robotique mobile de surveillance, Captain DC, robot « autonome et intelligent », détecte les incidents dans les alignements et baies de serveurs. « Captain DC est le fruit de l’intelligence robotique déployée par EOS Innovation depuis 6 années. Econocom a su l’adapter aux besoins spécifiques de ses clients dans un datacenter : surveillance, remontée d’alertes en temps réel et grâce aux données acquises par le robot, la capacité à apporter du conseil », a déclaré Grégory Lebourdais, responsable design et marketing d’EOS Innovation. Soutenir l’action humaine Robot d’une soixantaine de kilos, Captain DC peut remplir trois missions : surveiller et remonter les alertes du datacenter 24 heures sur 24 et 7 jours sur 7 ; être piloté à distance pour fournir diagnostic en temps réel et prise de décision immédiate ; téléporter le support N2-N3 au côté de l’intervenant. En démonstration les 15 et 16 juin 2016 au salon Storage Expo de Bruxelles, Captain DC se déplace à 2 km/h et peut se recharger automatiquement. Il est équipé, entre autres, de : caméras thermique et nocturne, capteurs de température et d’humidité, capteurs ultrasons, système de visioconférence. Lire aussi : Google dévoile un peu la sécurité de ses datacenters
Vous pouvez aussi lire