SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking

La page est créée Jean-Claude Mathieu
 
CONTINUER À LIRE
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
SDN : Juniper ajoute les conteneurs de
Docker à Contrail Networking
La plate-forme Contrail Networking de Juniper Networks est une solution SDN (Software Defined
Networks) Open Source qui vise à automatiser et orchestrer la création de réseaux virtuels dans les
datacenter afin de simplifier et accélérer le lancement de nouveaux services en s’appuyant sur la
gestion des NFV (Network Functions Virtualization) dans un environnement ouvert qui permet ainsi
au client d’éviter la dépendance à un seul fournisseur. A l’occasion de l’OpenStack Summit, la
semaine dernière à Austin, Juniper a annoncé plusieurs évolutions de son offre.

Des conteneurs dans les réseaux virtuels
Aux principaux hyperviseurs du marché, systèmes d’orchestration et réseaux physiques que
supporte Contrail, l’équipementier y ajoute aujourd’hui la prise en charge de Docker et plus
généralement les technologies de conteneurs. Les clients peuvent donc désormais ajouter des
containers à leurs réseaux virtualisés. De plus, Contrail peut aussi être intégré aux outils
d’orchestration et de gestion des conteneurs, comme Kubernetes de Google que Juniper site en
particulier. Ce qui permet de « réaliser une segmentation réseau dans des ‘pods’ Kubernetes, avance
Pratik Roychowdhury, responsable produits. Ces pods, identifiés par des ‘étiquettes’ Kubernetes, sont en
mesure d’exécuter des micro services tandis que Contrail Networking assure la segmentation du réseau
requise ».

Réputées plus performantes et plus denses que les machines virtuelles, les technologies de
conteneurisation devraient donc améliorer les performances réseau des datacenter et autres
services Cloud. Dans ce cadre, l’offre conteneur de Contrail devrait aider les fournisseurs de
services Cloud qui souhaitent migrer leurs solutions vers les architectures en micro services.

Le firewall SRX « conteneurisé »
Joignant le geste à la parole, Juniper a en parallèle annoncé cSRX que « Contrail Docker » pourrait
accueillir. Il s’agit d’une version « conteneurisée » du firewall SRX maison. Cette nouvelle
déclinaison de solution pare-feu intègre le service de sécurisation du contenu AppSecure et la
gestion unifiée des menaces (UTM). Son déploiement comme micro service permettra
d’économiser les encombrements des traditionnelles appliances et d’accélérer le déploiement des
services de sécurité sur le réseau tout en espérant tirer des bénéfices en termes de performances.
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
L’arrivée des conteneurs n’est pas la seule innovation annoncée pour Contrail lors de l’événement
OpenStack. Juniper lance également « vCenter as an OpenStack compute ». Ce service permet
d’installer des VM dans un environnement vCenter en autorisant Nova (l’outil d’intégration de
Docker dans OpenStack) à rediriger les appels des API vers l’environnement de VMware. Cela afin
d’étendre le réseau virtuel OpenStack à l’environnement vCenter. Une offre qui s’inscrit dans la
volonté de Juniper de permettre d’interconnecter les environnements historiques des clients qui
s’évitent ainsi l’onéreux remplacement du matériel installé.

Chaînage à la pelle
Pour finir, l’équipementier assure que les opérateurs pourront profiter de nombreuses fonctions
de chaînage qui permettent l’exploitation des NFV grâce aux dernières avancées de sa plate-forme
SDN. Et de citer le chaînage des services P+V (association de fonctions réseau physiques et
virtuelles dans la même chaîne de services), l’IPv6 (primordial en ces temps de disette d’adresses
IPv4 pour assurer la transition vers le nouveau protocole IP), la définition de règles régissant le
trafic entre deux réseaux virtuels, la surveillance de l’état de la chaîne de services et la
commutation des chaînes de services sur deux datacenter pour assurer la continuité de service en
cas de défaillance.

En apparence, Contrail Neworking semble donc en mesure de répondre à la plupart des
environnements Cloud des opérateurs et fournisseurs de services, dont les workloads se débattent
aujourd’hui autour de multiples hyperviseurs, orchestrateurs et autres « véhicules informatiques »
(serveurs bare metal, machines virtuelles, espaces de nommage et, désormais, conteneurs). Sur le
papier du moins. Une offre qui séduit notamment Orange et sa division entreprise Orange
Business Services (pour CloudWatt), AT&T, NTTi3 ou encore Symantec.

Lire également
Thomas Desrues, Juniper : «Les choses sérieuses commencent autour du SDN/NFV»
Juniper Networks unifie optique et IP dans ses routeurs PTX et MX
Juniper Networks dissocie son OS Junos de ses équipements réseaux
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
crédit photo © Dabarti CGI – shutterstock

L’ordinateur quantique va rendre tout le
chiffrement obsolète
Comment chiffrer des données pour les rendre inaccessibles à un décodage par un ordinateur
quantique ? A mesure que l’informatique quantique prend corps – même s’il reste impossible
d’affirmer qu’on sera un jour en mesure de bâtir de larges systèmes de ce type -, la question
taraude de plus en plus les experts en chiffrement. Pour une raison simple que résume un rapport
que vient de publier l’Académie américaine des technologies (le NIST, National Institute of Standard
and Technology) : « si des ordinateurs quantiques à large spectre sont un jour produits, ils seront en mesure
de casser une large part des systèmes de chiffrement à clefs publiques actuellement en usage ». Le NIST
estime ainsi que les technologies RSA, le chiffrement par courbes elliptiques (ECDSA, ECDH) et le
chiffrement DSA ne seront plus sûrs dès qu’un ordinateur quantique verra le jour. Seuls AES et les
algorithmes de hachage SHA-2 et SHA-3 devraient échapper au jeu de massacre… mais à condition
de se renforcer.

D’où la recherche de technologies cryptographiques résistantes au quantique et capables
d’interopérer avec les protocoles de communication et les réseaux actuels. « Tout le monde, depuis
les grandes sociétés informatiques jusqu’aux gouvernements, est en quête d’algorithmes de chiffrement
résistant au quantique », assure Dustin Moody, mathématicien du NIST. L’enjeu : être prêt quand les
premiers ordinateurs quantiques seront opérationnels.
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
Standardiser le chiffrement résistant au quantique
Car cette informatique exploitant les états atomiques va projeter l’industrie dans une nouvelle ère.
En mars, une équipe du MIT et de l’Université d’Innsbruck en Autriche publiait une étude dans
Science dans laquelle il présentait un système renfermant 5 qubits – l’équivalent quantique du bit –
et implémentant un algorithme permettant de casser des clefs de chiffrement reposant sur la
factorisation de grands nombres, une méthode largement utilisée aujourd’hui. Même si un
ordinateur quantique suffisamment puissant pour casser par exemple une clef RSA reste à
construire – l’étude du MIT se limite à démontrer la faisabilité du mécanisme -, la NSA prend
l’affaire très au sérieux. L’agence de renseignement, dont on connaît l’intérêt pour le chiffrement, a
publié en février une foire aux questions dans laquelle elle indique s’éloigner des algorithmes
friables à l’informatique quantique.

[[Retrouver l’infographie : Comprendre l’ordinateur quantique]]

Pour préparer ce qui s’annonce comme une révolution du chiffrement, le NIST suggère aux
entreprises de se préparer à être « crypto-agiles », autrement dit à implémenter des technologies
permettant de remplacer rapidement des algorithmes devenus fragiles du fait des avancées de
l’informatique quantique. Et s’engage dans la définition de critères d’évaluation de ce qu’est un
standard de chiffrement à clef publique résistant à l’informatique quantique ainsi que dans la
création d’algorithmes plus résistants, via un concours public. Par ce biais, le NIST souhaite
sélectionner, à des fins de standardisation, au moins un algorithme pour le chiffrement à clef
publique, un autre pour les signatures électroniques et un troisième pour l’échange de clefs. Les
candidats devront soumettre leurs propositions en 2017 ; celles-ci seront passées au crible pendant
2 ou 3 ans avant leur standardisation, indique l’organisation.

Modifier TLS
Mais, pour l’Académie des technologies US, l’impact de cette adaptation du chiffrement à une
nouvelle ère s’annonce comme non négligeable. « Il semble improbable qu’aucun des algorithmes
actuellement connus puisse remplacer à la volée ce qui est en usage aujourd’hui, écrit l’organisation. Un des
défis réside dans le fait que la plupart des algorithmes résistant au quantique ont des clefs plus longues que
les algorithmes qu’ils sont appelés à remplacer. » Conséquence : faute de pouvoir s’opérer via un
remplacement à la volée, la transition pourrait nécessiter de modifier des protocoles clefs
d’Internet, comme TLS (Transport Layer Security) ou IKE (Internet Key Exchange).

A lire aussi :

IBM met l’ordinateur quantique à la portée de tous, en mode Cloud

Un ordinateur quantique casseur de clé de chiffrement

L’informatique quantique existe, Google l’a rencontrée

crédit photo © Pavel Ignatov / Shutterstock
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
Microsoft se renforce dans l’IoT avec
l’acquisition de Solair
Microsoft fait un nouveau pas dans le monde de l’Internet des objets (IoT). L’entreprise vient
d’annoncer l’acquisition, pour un montant non dévoilé, de Solair. Cette entreprise italienne créée en
2011 fournit des services « innovants » en matière d’Internet des objets (Iot) pour les secteurs de la
fabrication, du commerce de détail, de l’alimentation et du transport, principalement. Autant de
solutions visant à associer objets connectés aux machines pour optimiser leurs usages à partir de
l’analyse des données qu’elles produisent. Des solutions taillées en fonction des besoins réels des
clients, précise Tom Davis, le CEO de Solair.

Par exemple, Solair a déployé une solution de monitoring distant de machines à café fabriquées
par Rancilio Group. Une amélioration du mode de gestion des produits dans la chaîne
d’approvisionnement qui aurait permis au groupe de réduire ses coûts. Au Japon, l’application
Smart Factory Advisor de surveillance des lignes de production permet d’augmenter la capacité de
production tout en réduisant leur consommation énergétique. AEG, Rexrtoh (groupe Bosch), Aiwa
System Solutions, ou Zadi Group figurent parmi les clients de l’entreprise basée à Bologne.

Compléter Azure IoT Suite
« Solair partage notre ambition d’aider les clients à exploiter leurs données inexploitées et de créer une
nouvelle intelligence avec l’IoT, et cette acquisition soutient notre stratégie visant à fournir l’offre la plus
complète d’IoT pour les entreprises », résume Sam George, directeur des partenariat pur Azure IoT chez
Microsoft. Une ambition d’autant plus facilitée que Solair s’appuie déjà sur le framework .NET de
Microsoft pour délivrer ses services à travers Azur et SQL Server. Autant d’intégration que Microsoft
n’aura pas à faire. « La plate-forme Solair fonctionne dans un environnement unique tant pour le
développement front-end que la gestion back-end des applications IoT, précise Solair sur son site. Elle
propose un ensemble complet d’API RESTful qui permettent une interaction complète avec le système. »

Les technologies Solair seront intégrées à l’offre Azure IoT Suite de Redmond. Pour l’heure,
Microsoft ne précise pas encore comment il entend précisément tirer parti de l’offre de Solair dont
les équipes sont appelées à rejoindre celles d’Azur. L’éditeur est probablement plus intéressé par
les solutions de l’entreprise italienne que son portefeuille clients. Elles viendront enrichir une offre
IoT qui compose un des axes majeur de la stratégie exposée par Satya Nadella. « Je suis convaincu
que la technologie et le talent de Solair seront en mesure d’apporter une contribution importante à Azure IoT
Suite et élargir les ambitions IoT de Microsoft », semble confirmer Tom Davis.

Lire également
IoT : Microsoft ouvre son Cloud Azure à Sigfox
SDN : Juniper ajoute les conteneurs de Docker à Contrail Networking
Microsoft lance un kit Raspberry Pi 2 pour Windows 10 IoT Core
Convergence 2015 : Microsoft dévoile Azure IoT et Skype for Business

crédit photo : ricochet64 / Shutterstock.com

Fujitsu World Tour 2016
Le monde est lancé dans une course effrénée aux objets connectés. Un monde où les
téléphones portables, l’internet des objets et la capacité croissante à gérer une immense quantité
de données sont en train de transformer nos vies, nos sociétés, les rendant plus prospères et
sécurisées.

Chez Fujitsu, l’approche particulière d’innovation « centrée sur l’humain » (« human centric
innovation ») a pour but d’aider les organisations dans le monde entier à créer de la valeur d’abord
pour les personnes et à travers elles pour les entreprises et pour la société. Apprenons ensemble à
maîtriser la digitalisation des métiers dans ce nouveau monde connecté !

Pour la première fois à Paris, l’édition 2016 du Fujitsu World Tour accueillera le « Fujitsu
Innovation Gathering », moment d’exception entièrement dédié à l’innovation, qui réunira
experts et décideurs autour de nombreux témoignages d’entreprises et des plus belles
démonstrations des « Labs » mondiaux de Fujitsu. Ce sera LE rendez-vous incontournable de
l’année 2016 dans le monde de l’IT et de l’Innovation, qui se tiendra au Parc Floral de Paris le 9 Juin
2016.

Réservez dès à présent cette date dans votre agenda et venez y découvrir une véritable « ville du
futur » réunissant plus de 100 démonstrations et réalisations venues des quatre coins du globe,
un écosystème d’innovations à travers différents villages – Japon, French tech, Fablabs, entreprises
innovantes, management agile, … – mais aussi des présentations de nos experts et de nos
partenaires, des témoignages d’entreprises et de nombreux ateliers thématiques et
conférences animés par des spécialistes de l’outsourcing, de l’IT et des technologies.

Enfin, Fujitsu en partenariat avec l’Ecole Polytechnique seront heureux de remettre également ce
9 juin les prix du concours “Linked Open Data” (jusqu’à 18 000€ de récompense dont un voyage
unique au Japon) visant à créer des services et applications utilisant des données publiques.

                                 Accéder au formulaire d’inscription
IBM met l’ordinateur quantique à la portée
de tous, en mode Cloud
IBM donne pour la première fois accès à ses processeurs quantiques via un service accessible en
mode Cloud. La plate-forme IBM Quantum Experience est réservée avant tout aux chercheurs,
voire aux développeurs, qui souhaitent s’essayer à cette nouvelle génération de solutions
informatiques.

« Nous estimons que l’informatique quantique est l’avenir de l’informatique et a le potentiel de résoudre
certains problèmes qui sont impossibles à résoudre sur les supercalculateurs d’aujourd’hui », explique IBM
dans son communiqué.

5 qubits supraconducteurs sont ici proposés par Big Blue et hébergés dans le T.J. Watson
Research Center de New York. La firme admet toutefois que l’ordinateur quantique universel,
capable de s’atteler à toutes les tâches informatiques, n’est pas encore devenu une réalité. La
technologie actuelle reste donc limitée à des applications bien précises.

« Les ordinateurs quantiques sont très différents des ordinateurs d’aujourd’hui, non seulement dans leur
aspect, mais surtout dans ce qu’ils peuvent faire, explique Arvind Krishna, vice-président senior et
directeur d’IBM Research. L’informatique quantique est en train de devenir une réalité et elle étendra les
possibilités de calcul bien au-delà de ce qui est imaginable avec les ordinateurs actuels. »

100 qubits d’ici 10 ans selon IBM
Les possibilités d’évolution sont en effet très importantes. Des machines de 50 à 100 qubits
devraient ainsi voir le jour d’ici une décennie, assure Big Blue.

À partir de 50 qubits, aucun supercalculateur de l’actuel Top 500 des clusters les plus puissants de
la planète ne pourra plus concurrencer un ordinateur quantique.

À lire aussi :

Un ordinateur quantique casseur de clé de chiffrement

Comprendre l’ordinateur quantique (infographie)

L’informatique quantique existe, Google l’a rencontrée
Coup de pouce fiscal pour les serveurs, la
fibre et le HPC
À Bercy, les ministres des Finances et de l’Économie se sont opposés, un temps, sur ce dossier.
Matignon a finalement tranché en faveur de la reconduction d’un an, jusqu’au 14 avril 2017, d’un
mécanisme de suramortissement fiscal. Un amendement du projet de loi pour une République
Numérique, porté par Axelle Lemaire et adopté ce mardi au Sénat, étend même la mesure aux
équipements numériques. Le suramortissement fiscal permet aux entreprises de déduire de leur
résultat imposable 40 % du prix de revient du bien éligible. Le gouvernement estime que cela
représente une subvention d’environ 13 % de la valeur du bien en question, répartie sur l’ensemble
de la durée d’amortissement.

Relancer l’investissement productif
Jusqu’ici, les investissements productifs éligibles concernaient des biens tels que les matériels et
outillages utilisés pour des opérations industrielles ou la recherche scientifique et technique, ainsi
que les matériels de manutention… Désormais, les serveurs informatiques pour une utilisation au
sein d’une baie, les réseaux de communication par fibre optique (installations, équipements, lignes
et câblages) et les machines du calcul intensif (les supercalculateurs) sont concernés. Les logiciels
sont éligibles lorsqu’ils sont indissociables d’un matériel lui-même éligible, ou lorsqu’ils contribuent
aux opérations industrielles de fabrication et de transformation.

Le suramortissement fiscal a été introduit en 2015 par la loi pour la croissance, l’activité et l’égalité
des chances économiques promue par Emmanuel Macron. Le ministre de l’Économie a défendu la
reconduction du dispositif, malgré son coût estimé à 500 millions d’euros par an pour l’État… Mais
l’Insee prévoit une hausse sensible de l’investissement des entreprises au premier semestre 2016.

Lire aussi :

Le très haut débit toujours porté par la fibre en France en 2015
Avec Sequana, Atos en marche vers le supercalculateur exascale
Le marché des serveurs grignoté par les Chinois et le low cost en 2015

crédit photo © SOMMAI / Shutterstock.com

Le stockage en Europe des données
personnelles imposé par la loi Lemaire ?
Le projet de loi pour une République numérique, que le Sénat est sur le point de voter ce mardi 3
mai, a subi un nouveau lifting lors de son examen par la chambre haute, pas moins de 674
amendements ayant été déposés. La version qui sortira du vote solennel des sénateurs ne sera
probablement par la mouture définitive, une commission mixte paritaire devant se réunir pour
harmoniser les textes votés par l’Assemblée et le Sénat, mais elle réserve au moins une surprise :
l’obligation pour les entreprises de stocker les données personnelles des citoyens français sur le
territoire européen. Cet amendement, déposé par les sénateurs du groupe communiste emmené
par Eliane Assassi, Jean-Pierre Bosino et Patrick Abate, vient en réalité compléter l’article 6 de la loi
Informatique et libertés de 1978. Il stipule que les données à caractère personnel « sont stockées
dans un centre de données situé sur le territoire de l’un des États membres de l’Union européenne, et, sans
préjudice des engagements internationaux de la France et de l’Union européenne, ne peuvent faire l’objet
d’aucun transfert vers un État tiers. »

Une injonction claire qui, si elle est
maintenue dans la loi, devrait avoir un
certain impact sur le marché, même si la
plupart des acteurs du Cloud disposent
déjà de datacenters en Europe. Les
sénateurs à l’origine de l’amendement
estiment que « l’annulation du Safe Harbor
par la Cour de Justice de l’Union Européenne
rend d’autant plus critique cette disposition ».
Rappelons que, suite à la décision de la
Cour fin 2015, l’Union européenne et les
Etats-Unis tentent de négocier un nouvel
accord de transfert de données entre les deux blocs, le Privacy Shield. Pour l’instant, le G29,
regroupement des autorités européennes de protection des données (dont la CNIL française), se
montre très réservé sur ce projet. L’organisation dénonce « un manque de clarté général », une «
complexité », et parfois une « incohérence », des documents et annexes qui composent le Privacy
Shield. Notons aussi que l’équivalent allemand de la CNIL a déjà recommandé aux entreprises
opérant sur son sol de stocker leurs données au sein de l’UE.

Logiciel libre : simple encouragement
En complément de cet amendement, qui doit encore être confirmé en commission mixte paritaire,
signalons aussi le retour d’un article visant à encourager l’emploi du logiciel libre et des formats
ouverts dans l’administration. Un « encouragement » et non une « priorité », le terme que
renfermaient les amendements les plus offensifs sur le sujet. Cet amendement, déposé par le
groupe socialiste, a été défendu par la secrétaire d’Etat au numérique, Axelle Lemaire. Il s’agit en
réalité d’un retour à la case départ, puisqu’un article identique, voté par les députés, avait ensuite
été supprimé par la commission des lois.
Le texte, qui devrait avoir les faveurs de la commission mixte paritaire, ne devrait toutefois pas
changer grand-chose aux pratiques d’achat des administrations. Une circulaire ministérielle datant
de 2012 prévoit en effet déjà que ces dernières soutiennent par leurs achats la filière du logiciel
libre. Par ailleurs, le Référentiel général d’interopérabilité, dont la v2 vient d’être publiée au Journal
Officiel, indique clairement que le secteur public doit donner la préférence aux formats ouverts.
Dans une interview à Silicon.fr en janvier dernier, Henri Verdier, le DSI de l’Etat, semblait lui prêt à
aller plus loin, citant l’existence en Italie d’une règle qu’il jugeait « intéressante » dans le code des
marchés publics. Une règle qui impose au secteur public de documenter le recours à une solution
gratuite pour couvrir le besoin exprimé, même si c’est pour écarter cette possibilité.

Modalités d’accès aux API : enfin la transparence ?
Parmi les autres mesures votées par les sénateurs, signalons :

          L’extension à l’équipement informatique – dont les serveurs – d’une déduction fiscale
          dédiée à l’investissement productif (Silicon.fr y reviendra) ;
          l’obligation qui serait faite aux plates-formes d’informer les utilisateurs préalablement à
          toute « modification substantielle » des conditions générales d’utilisation (CGU), des
          modalités de référencement et des modalités d’accès à leurs API ;
          des amendements régulant la location d’appartements ou maisons (et ciblant des plates-
          formes comme AirBnB) ;
          des mesures favorisant l’ouverture et la réutilisation des données des administrations
          (Open Data). Une politique appelée à s’étendre aux décisions administratives et de justice.

A lire aussi :

Loi République numérique : les opérateurs échappent à une nouvelle taxe

Loi Numérique : le volet Open Data adopté mais dérogations multiples

Crédit Photo : PromessArt Studio

Capgemini recrute 2 800 nouveaux talents
en France
Porté par des résultats solides et un carnet de commande en croissance, le groupe de services
informatiques, conseil et infogérance Capgemini prévoit de recruter 2 800 nouveaux
collaborateurs, en France, cette année 2016. Une prévision supérieure de 8 % aux embauches
réalisées en 2015.

65 % des recrutements prévus concernent de jeunes diplômés et des cadres dotés de moins de
deux ans d’expérience. Les 35 % restants ciblent des profils plus expérimentés dans le digital, la
cybersécurité, l’infratructure ou le conseil. Ces recrutements (en CDI dans 90 % des cas) se feront
pour moitié en régions, notamment à Bordeaux, Lille, Lyon, Nantes, Rennes et Toulouse, auprès
des entités françaises de Capgemini et de sa filiale dédiée aux services de proximité Sogeti.

Consultants, architectes et ingénieurs
Les consultants en systèmes d’information et les spécialistes des technologies Java/Java EE et .NET,
des ERP et des services Cloud, sont bienvenus. Parallèlement, le groupe Capgemini cible des talents
maîtrisant des solutions dédiées à la relation client et à l’automatisation de campagnes marketing
(comme Salesforce, Siebel et Eloqua d’Oracle). Ainsi que des spécialistes de la mobilité, du Big Data
et de la cybersécurité (gestion des accès et des identités – IAM, PKI –, gestion des informations et
événements de sécurité (SIEM), sécurité des terminaux et des data centers).

Des architectes Cloud/virtualisation (avec des solutions comme AWS, Azure, HPE Helion, OpenStack
et VMware vRealize) et des spécialistes des postes de travail/messagerie sont également
recherchés.

Sogeti recrute aussi des consultants test (performances…), des ingénieurs de production et des
spécialistes du « digital manufacturing ». Quant à l’entité du groupe spécialisée dans les applications
front office, Prosodie-Capgemini, elle recrute de nouveaux chefs de projet et des ingénieurs
réseaux, systèmes et télécoms. Enfin, Capgemini Consulting, l’entité conseil en stratégie du groupe,
recrute des consultants appelés à accompagner la transformation numérique d’entreprises.

Cooptation et « marque employeur »
Le groupe déclare accueillir chaque année 1 000 stagaires et alternants en France. « Le taux de
conversion en CDI est de 70 % », assure-t-on du côté de Capgemini. Quant aux rémunérations
proposées, elles seraient « dans la moyenne haute du marché ».

Pour se doter des talents que s’arrachent l’industrie, Capgemini multiplie les actions à l’attention
des étudiants : du concours Innovators Race organisé en partenariat avec AccorHotels, au trophée
des grandes écoles Défi H initié par Sogeti, sans oublier les « after work » dédiés aux étudiants.
Notons que la cooptation peut représenter jusqu’à 25 % des embauches. « Attirer et retenir les
meilleurs profils est stratégique sur notre marché. Nous allons à leur rencontre sur le Web et les réseaux
sociaux, bien sûr, mais aussi directement sur les campus des écoles et des universités », déclare Christophe
Bonnard, président du Country Board France de Capgemini. « Développer l’attractivité de l’entreprise
auprès des femmes » est également un défi. Il n’est pas simple à relever, puisque « les étudiantes
représentent seulement 27 % des élèves inscrits en cycle ingénieur et 16 % en cycle informatique » en France,
ajoute-t-il.

Le groupe français Capgemini emploie plus de 182 900 collaborateurs dans le monde (une majorité
offshore) aujourd’hui, dont 23 000 collaborateurs environ en France.

Lire aussi :
Capgemini : un modèle offshore de plus en plus rentable… jusqu’à quand ?

Les recruteurs s’arrachent ingénieurs et cadres informaticiens… mais pas tous

Guerre des talents IT : l’innovation, arme des recruteurs

crédit photo © Olivier Le Moal / Shutterstock.com

Ericsson veut accélérer l’Internet des objets
« Nous voulons donner aux entreprises le pouvoir de connecter les gens, les équipements et les objets le plus
rapidement et le plus facilement possible. » C’est dans cet objectif que Ericsson a annoncé, par la voix
de Orvar Hurtig, directeur Industry & Society, IoT Accelerator. Cette solution globalement dédiée à
l’exploitation d’objets connectés, combine plates-formes horizontales, services et une place de
marché qui facilitera la monétisation des solutions fournisseurs auprès de leurs partenaires.

Basée sur l’offre Cloud System de l’équipementier suédois, qui supporte le déploiement de clouds
hybrides tout en répondant aux nécessités de sécurité et souveraineté des données, IoT
Accelerator sera proposé sous forme de service. Les clients utilisateurs s’affranchiront donc des
contraintes de complexité et de coût pour développer et déployer leurs solutions réservées à
Internet des objets. Le service intégrera Les fonctionnalités de la plateforme IoT incluent la gestion
des données, la facturation, la gestion des équipements, les services de connectivité et l’analyse des
données. Des extensions prévues apporteront un portail en libre-service, un environnement de
développement et un kit de développement logiciels. D’autre part, Ericsson accompagnera ses
clients à travers des laboratoires régionaux afin de les aider à s’adapter aux préférences locales.

Les normes et rien d’autre
Côté communication sans fil, Ericsson s’en tiendra aux protocoles dédiés aux objets connectés
approuvés (ou en cours de validation) par le 3GPP (l’association de standardisation des
technologies mobiles). A savoir le NB-IoT (Internet des objets en narrow band) qui, avec ses 20 à 80
Kbit/s de bande passante, se destine plutôt aux produits grand public dans le cadre de
déploiements massifs d’objets; le LTE-M (LTE cat-M1), dont les capacités plus poussées (jusqu’à 1
Mbit/s) le réserve plutôt aux communications M2M; et l’EC-GSM-IoT qui présente l’avantage de
pouvoir exploiter les réseaux 2G à basse consommation et longues portées. Exit, donc, les
protocoles IoT ultra-basse consommation Lora du consortium éponyme, notamment sélectionné
par nombre d’opérateurs (dont Orange et Bouygues Telecom en France) et, plus encore, le
propriétaire Sigfox (choisi par SFR).

Autant de réseaux séparés des infrastructures mobiles traditionnelles qui risquent donc d’échapper
à Ericsson (et plus généralement aux équipementiers qui s’en tiennent aux normes). Mais, avec plus
de 11 milliards d’objets connectés qui seront déployés dans le monde d’ici 2018 selon Gartner, le
marché de l’IoT promet d’être assez vaste pour accueillir l’ensemble des acteurs dans l’immédiat.
Pour sa part, Ericsson ciblera dans un premier temps les secteurs verticaux de la sécurité publique,
de l’énergie, des transports et des villes intelligentes. La plate-forme IoT Accelerator sera
mondialement disponible à la fin du troisième trimestre.

Lire également
Sierra Wireless parie sur le LTE-M pour connecter les objets
Résultats fragiles : Ericsson accentue les économies et se réorganise
La SNCF prend le train de l’IoT… à grande vitesse

Crédit Photo : MNBB Studio-Shutterstock

IT bimodale : pourquoi ça ne marchera pas
Pour le cabinet d’études Forrester, la stratégie d’IT bimodale, qui consiste à faire cohabiter un
système d’information agile avec les applications historiques (le legacy), est vouée à l’échec. Bien
sûr, cette opinion ne peut être tout à faire étrangère à la concurrence entre cabinets d’études :
populaire chez les DSI, l’IT bimodale a été conceptualisée par le Gartner, le principal concurrent de
Forrester. Mais ce dernier égraine aussi des arguments autrement plus recevables, arguments que
nous avons d’ailleurs déjà entendus dans la bouche de DSI.

Rappelons d’abord que, selon Gartner, l’IT bimodale est « une pratique consistant à gérer deux modes
séparés et cohérents de fourniture d’IT, l’un centré sur la stabilité et l’autre sur l’agilité. Le mode 1 est
traditionnel et séquentiel, mettant l’accent sur la sécurité et la fiabilité. Le mode 2 est exploratoire et non-
linéaire, il privilégie l’agilité et la vitesse ». Bref, pour le Gartner, l’approche permet d’adopter des
méthodes comme le Devops sans mettre en péril la stabilité des applications cœur des entreprises
traditionnelles, portées par le legacy. De s’approcher des pratiques mises en vedette par les start-
up sans tirer un trait sur le passé.

L’IT bimodale trop centrée sur la technologie
Mais, c’est précisément cette volonté de ménager la chèvre et le chou qui serait « contre-productive »
selon Forrester. Le cabinet d’études estime que l’IT bimodale procure aux DSI un sentiment « de
fausse sécurité ». Première flèche décochée à l’encontre de la stratégie estampillée Gartner :
l’approche crée deux classes de systèmes, ce qui ajouterait de la complexité. « A une période où les
entreprises ont besoin de rapidité et d’agilité, créer deux groupes qui devront s’affronter pour les budgets, les
ressources, les talents et l’attention des métiers est un non-sens », écrivent John McCarthy et Sharyn
Leaver, les deux analystes de Forrester à l’origine du rapport. La seconde critique est, elle aussi,
assez logique : dans sa nature, l’IT bimodale est avant tout un modèle centré sur la technologie, sur
l’organisation elle-même et non sur le client. Elle « fonctionne à l’envers de la création de rôles de CxO
davantage cross-fonctionnels, permettant de faire fonctionner les métiers dans un mode omnicanal ».

Mais, ce sont les deux dernières torpilles lancées par Forrester qui menacent le plus la flottabilité
du vaisseau amiral de Gartner. Selon le rapport « La fausse promesse de l’IT bimodale », cette stratégie
perpétue le mythe de systèmes legacy qu’on pourrait conserver en l’état. Autrement dit, elle
conforte les DSI dans leur propension à ne pas s’attaquer à la rénovation de ces systèmes. Ce qui,
pour Forrester, va obérer la capacité des organisations à se reconfigurer en permanence pour
s’adapter aux attentes de ses clients, faute d’une architecture suffisamment souple. Conséquence
selon le cabinet d’études ? L’IT bimodale n’est qu’un facteur d’isolation de plus pour la DSI. Car,
dans ce mode, c’est sur elle que va reposer l’essentiel de la transformation. Bref, c’est une menace
pour la stabilité du poste de DSI qui, si on prolonge la réflexion de Forrester, devrait tôt ou tard être
considéré comme le principal responsable de la lenteur de l’évolution des pratiques internes par sa
direction générale.

L’entreprise 100 % agile
A l’appui de ses critiques, Forrester livre les noms et approches de certaines organisations, qui
n’ont pas été convaincues par l’IT bimodale. GE notamment, qui affirme ne pas vouloir créer deux
équipes séparées. Le géant américain ambitionne de fermer une trentaine de datacenters, de
décommissionner 5 000 applications (sur un total de 9 000) et de basculer 90 % des logiciels qui
survivront à cette simplification sur le Cloud public. Mais aussi Schneider Electric qui lie ses
performances aux progrès de son Net Promoter Score (un indicateur de fidélité client) afin de
casser les silos de son organisation et d’aligner cette dernière sur les besoins de ses clients.
Si Forrester dézingue l’IT bimodale, c’est aussi qu’il promeut sa propre approche, appelée Business
Technology (voir le comparaison des deux approches produites par le cabinet ci-dessus). Une
stratégie qui vise à mettre en place des pratiques de développement continu sur l’ensemble du
système d’information, à bâtir des équipes embarquant de multiples fonctions et à généraliser
l’intégration via les API. Bref, une forme de généralisation des principes de l’entreprise agile et du
Devops, qui implique un profond bouleversement culturel des organisations. Particulièrement les
grandes, où les silos restent très prégnants.

A lire aussi :

Les DSI ont un rôle de plus en plus central face au Cloud

Les dépenses IT en 2016 entrent dans l’ère du bimodal

Les DSI sont-ils plus rétrogrades en France qu’ailleurs ?

Crédit photo : Nuttapong Wongcheronkit / Shutterstock
Dell et EMC se déclineront en Dell
Technologies
En rachetant une société 67 milliards de dollars, on a le droit de changer le nom de la dite société.
Michael Dell a néanmoins un leitmotiv dans son esprit, il faut que son nom apparaisse. Et le
rapprochement avec EMC n’échappe pas à cette règle. Hier à Las Vegas, à l’occasion du
rassemblement annuel du spécialiste du stockage, Joe Tucci et Michael Dell sont venus sur scène
pour en dire un peu plus sur les prochains mois.

Le premier a été le pilier d’EMC pendant de nombreuses années et a fondé sa stratégie de
fédération dans laquelle gravite VMware, RSA, Pivotal et plus récemment VirtuStream. Atteint par la
limite d’âge, il voulait quitter EMC en sachant la firme dans de bonnes mains et laisse finalement les
rênes à Michael Dell. Un passage de témoin sur scène symbolique qui laisse le champ libre au
trublion CEO pour exposer sa stratégie. Ce dernier a donc dévoilé le nouveau nom de la
combinaison des deux entreprises : Dell + EMC = Dell Technologies.

EMC n’est pas mort
Mais cela ne signifie pas que la marque EMC soit morte, Il s’agit de la marque ombrelle qui
chapeautera deux entités : Dell EMC rassemblant les activités entreprise et Dell Inc s’attachant aux
clients professionnels (dont les PC). « Ensemble, nous apporterons quelque chose de très spécial à vous,
nos clients », souligne le dirigeant dans un discours focalisé sur l’évolution de l’Internet basique à
l’Internet des objets pour aboutir à l’âge de l’Internet of Everything (de tous).

Avec cette structure, Michael Dell rappelle que Dell Technologies sera la seule société à proposer
une offre de bout en bout dans le domaine de l’IT. Du PC en passant par les serveurs, le stockage et
la virtualisation, le dirigeant tacle au passage la stratégie de HP de se scinder en deux. Il reste
maintenant à attendre l’automne prochain pour la finalisation du rachat. Michael Dell a indiqué que
le processus suit son cours, après l’obtention de l’aval de plusieurs régulateurs de différents pays.
Le groupe Texan cherche toujours à faire baisser la facture finale en se délestant de certains actifs.
Il a déjà vendu son activité service (Perot) au japonais NTT. Et a introduit en bourse une partie de
l’activité sécurité SecureWorks.

A lire aussi :

Dell revend ses activités service au Japonais NTT Data
Dell présente ses premiers PC industriels, intégrés et fanless
IBM publie le document de référence des
systèmes Power/OpenPower
IBM vient de livrer le document « Linux on Power Architecture Platform Reference », que vous
pourrez télécharger à cette adresse. Un PDF qui entend définir les spécifications de la plate-forme
LoPAPR, une version réduite de la Power Architecture Platform Reference (PAPR) dédiée au monde
Linux (LoPAPR = Linux on Power Architecture Platform Reference).

« Le but de ce document est de définir les caractéristiques de base de l’architecture et du système sur
lesquels toutes les plates-formes LoPAPR sont fondées. Ces exigences sont destinées à être suffisamment
précises pour assurer la compatibilité du système d’exploitation sur plusieurs niveaux (actuel et version
« n-1 »), suffisamment large pour couvrir des domaines allant des postes de travail aux serveurs, dans des
configurations simples ou multiprocesseurs, et pensée pour assurer son évolution. »

900 pages d’explications détaillées
Ce document massif – 900 pages – se destine à la fois aux constructeurs de matériel Power, mais
aussi aux éditeurs de systèmes d’exploitation. Les interfaces entre hardware et OS sont ainsi
clairement définies. Le tout est dédié aux machines équipées d’une puce IBM Power8 ou supérieur,
fonctionnant sous Linux. Bref, à la fois aux offres PowerLinux et aux solutions de la communauté
OpenPower.

Une couche d’abstraction matérielle commune (RTAS pour Run-Time Abstraction Services) est
définie au sein de ce document, afin de faciliter l’adaptation des OS Linux aux différentes machines
Power. Elle suit la phase de démarrage de la machine, assurée par l’Open Firmware.

À lire aussi :
Le mouvement OpenPower prêt pour l’explosion des données
Rackspace, Google, Tyan s’engagent autour d’OpenPower
RedPower : des serveurs Power8 100 % chinois

Crédit photo : © IBM

Porté par le Cloud, Amazon cartonne en
Bourse
Avec la présentation de ses résultats trimestriels, Amazon a su faire taire toutes les critiques. Il est
vrai que la société se porte bien, avec un chiffre d’affaires de 29,1 milliards de dollars, en croissance
de 28 % sur un an, et un bénéfice net de 513 millions de dollars. La firme a bien été aidée en cela
par ses activités Cloud, qui représentent 2,6 milliards de dollars de revenus et un résultat de 604
millions de dollars. Voir pour plus de détails notre précédent article « Amazon : des résultats
soutenus par le Cloud public AWS ».

Suite à ces très bons résultats, Amazon a cartonné sur le Nasdaq. L’action de la firme prenait
9,57 % en séance vendredi, bondissant ainsi de 602 dollars à 659,59 dollars. Ce lundi, la hausse
s’est poursuivie, avec +3,68 %. L’action valait ainsi 683,85 dollars à la clôture hier soir. Le cours
semble se stabiliser dans les échanges hors séance, avec une petite hausse de 0,04 % à l’heure où
nous écrivons ces lignes.

Encore plus à venir ?
Résultat de ces deux jours, une capitalisation boursière qui passe de 283,9 à 322,5 milliards de
dollars, soit +38,6 milliards de dollars. Et Amazon ne devrait pas s’arrêter là : les analystes
s’accordent en effet sur un consensus à un an de 793,23 dollars par action.

Les dernières recommandations émises par les cabinets d’analyse financiers sont toutes orientées
à l’achat, avec une action qui devrait sensiblement dépasser la croissance du Nasdaq.

À lire aussi :
Rétrospective : 10 ans d’innovation Cloud pour Amazon
Google va ouvrir 12 datacenters Cloud pour rivaliser avec Amazon
Stockage : les appliances Snowball d’Amazon S3 débarquent en Europe

Crédit photo : © Stocksnapper – Shutterstock

Télégrammes : SQL Server le 1er juin;
L’empreinte digitale pour débloquer un
iPhone; Windows perd du terrain; Un OS
pour le FairePhone
          SQL Server sort le 1er juin. La nouvelle version de la base de données de Microsoft, SQL
          Server 2016, sera commercialisée à partir du début du mois de juin. Cette mouture
          intègre quelques avancées significatives, comme Stretch Database (capacité à étendre
          une base de données sur le Cloud Azure, par exemple, pour y stocker des données peu
          utilisées), des fonctions de création de tableaux de bord pour les mobiles ou encore de
          nouveaux mécanismes de chiffrement des données. SQL Server 2016, qui sera aussi
          disponible sur Linux mi-2017, existera en quatre versions : Enterprise, Standard,
Developer et Express. Les deux dernières seront gratuites, comme c’était déjà le cas avec
        la version précédente, SQL Server 2014. En parallèle de la commercialisation des versions
        on-premise de sa technologie, le premier éditeur mondial la proposera aussi sous forme
        de service, sur le Cloud Azure, à partir du 1er juin.
        L’empreinte digitale à la rescousse pour débloquer un iPhone. Après le débat sur le
        chiffrement et sur l’accès à un iPhone par le FBI, voilà une nouvelle affaire qui met aux
        prises les mêmes protagonistes. Un tribunal de Los Angeles a donné mandat au FBI pour
        récupérer l’empreinte digitale d’une condamnée pour débloquer son iPhone grâce au
        Touch ID. Cette femme est soupçonnée d’être la compagne d’un membre d’un gang
        arménien. C’est la rapidité de l’opération et de la décision du juge qui a surpris, 45
        minutes après son incarcération et quelques heures pour son exécution. Les juristes s’en
        mêlent aussi pour savoir si le fait d’obliger à donner son empreinte digitale pour

        débloquer un smartphone n’est pas contraire au 5e amendement des Etats-Unis. D’autres
        estiment que cette obligation s’apparente aux autres perquisitions.
        Moins de 9 PC sur 10 équipés de Windows. Le mois d’avril réussit mal à Microsoft. Alors
        que IE a définitivement perdu sa suprématie sur le marché des navigateurs, l’OS Windows
        équipe désormais moins de neuf PC sur dix dans le monde, selon les statistiques
        également rapportées par Net Applications. 89,23% pour être précis. Dix mois après
        l’arrivée de Windows 10, Windows 7 vient de tomber sous la barre des 50% (48,79%) et les
        parts de l’increvable Windows XP entrent désormais dans une zone à une décimale avec
        9,66%. C’est encore mieux que Windows 8.1 avec 9,16% (12,11% si l’on y ajoute Windows
        8). Pour autant, la part de Windows 10 ne progresse que faiblement. Elle passe à 14,35%
        fin avril contre 14,15% le mois précédent. Du coup, Microsoft perd du terrain sur le
        marché des OS desktop. Un recul qui s’opère sans surprise au profit de Mac OS X qui
        gagne 1,43 point pour atteindre les 9,2%. En revanche, Linux reste confiné à la
        confidentialité à 1,56%, en recul de 0,22 point.
        FairPhone2 se dote de son propre OS. Chantre du smartphone équitable, le FairPhone 2
        annonce le lancement de son propre système d’exploitation. Comme on pouvait s’en
        douter, Android a servi de base pour le FairPhone OS. Ce dernier reprend une partie du
        code, mais écarte les applications Google. De même, il est possible d’accéder facilement
        au compte « root » permettant ainsi à l’utilisateur de pouvoir installer n’importe quelle
        application sur le smartphone. Le FairPhone 2 a été lancé en décembre dernier et se
        définit comme éthique. Chaque élément, de l’écran à la mémoire en passant par les
        métaux rares, sont tracés pour éviter les zones de conflits et rétribuer correctement les
        producteurs. Le smartphone est vendu pour une société néerlandaise au prix de 525
        euros.

Crédit photo : Aleksandar Mijatovic-Shutterstock
Après la construction, Oracle investit dans
l’énergie avec Opower
La semaine dernière, Oracle s’emparait de Textura, un éditeur de plateforme Cloud pour le
domaine de la construction. Il semble que la firme de Redwood Shores ait fait du printemps sa
période privilégiée pour étoffer son offre Cloud à destination des marchés verticaux. Dernier
exemple en date, le rachat d’Opower, un éditeur de solution dans le secteur de l’énergie. Son offre
s’articule autour d’une plateforme Cloud pour optimiser l’expérience client autour de la
consommation énergétique. Elle stocke et analyse 600 milliards d’informations des compteurs
provenant de 60 millions de consommateurs. Opower revendique plus d’une centaine de clients
chez les distributeurs d’énergie, PG&E, Exelon and National Grid.

Pour réaliser cette acquisition, Oracle propose 10,30 dollars en cash par action, soit un montant
global de 532 millions de dollars. Si on rapproche cette opération à celle de Textura pour un
montant de 663 millions de dollars, la société de Larry Ellison a déboursé plus d’un milliard en deux
semaines pour étoffer son portefeuille Cloud pour les marchés verticaux. Suivant ainsi la stratégie
du milliardaire qui veut devenir le numéro dans le Cloud.

Une plateforme Cloud critique pour les distributeurs
d’énergie
Rodger Smith, Senior Vice President and General Manager de la division Oracle Utilities Global
Business, explique que ce rapprochement a un intérêt pour les distributeurs d’énergie qui « veulent
des solutions technologiques modernes pour œuvrer au bien du consommateur et au besoin en matière de
conformité » Avec Opower, il devrait fournir la plus importante plateforme Cloud critique pour les
distributeurs d’énergie. De son côté Dan Yates, CEO et co-fondateur de Opower, se dit ravi de
rejoindre Oracle et « de devenir une part d’Oracle Utilities Industry Cloud Platform ». l’objectif est
d’apporter « de la valeur de bout en bout de la chaîne, du compteur, au réseau jusqu’au client final ».

A lire aussi :

Oracle corrige les failles de ses produits… et de Java

Oracle limite les évolutions de Linux à la sécurité
Vous pouvez aussi lire