Jacques Perrochat (Schneider Electric) : " Efficacité énergétique et datacenter : tout le monde doit jouer le jeu " - Silicon.fr

 
CONTINUER À LIRE
Jacques Perrochat (Schneider Electric) : «
Efficacité énergétique et datacenter : tout
le monde doit jouer le jeu »
Vidéo © ITespresso.fr

Plus de vidéos…

Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Avec Nuage Networks et SDN2, Alcatel
pousse l’automatisation du cloud
Le concept de SDN – Software-defined network – commence à se concrétiser. Mieux que cela, les
concepteurs les plus avancés parlent déjà de la génération 2.

Pour rappel, le SDN renvoie à la notion de réseau intelligent ; il repose sur la convergence entre les
besoins dynamiques de ressources réseaux et les besoins de QoS par un découpage des fonctions
de contrôle (plusieurs niveaux de routage…) et le trafic de données (commutation…). Le réseau
« publie » des APIs et gère les diverses fonctionnalités de ‘firewall’, NAC, loadbalancing…

Certains constructeurs en profitent pour déclarer ouvertement leur préférence en faveur de
standards ‘ouverts’, tels OpenFlow (open source). L’un des premiers objectifs est d’augmenter les
capacités réseau : routage piloté par un contrôleur externe aux switches/routeurs. Les paquets
sont transmis avec leurs instructions de commutation.

Une offre signée Nuage Networks
Lors d’une webconférence avec la presse ce 3 avril, Nuage Networks, basée à Santa Clara, dans la
Silicon Valley, a détaillé sa nouvelle offre. Sa plateforme logicielle VSP (Virtualized Services Platform)
est précisément définie comme ‘ouverte’ (IP) : elle est censée fonctionner sur les infrastructures de
tous équipementiers réseau (y compris Cisco, doit-on comprendre, puisque ce dernier a dit
qu’outre son protocole OnePK – One Platform Kit et son Open Network Environment – il supporterait
aussi OpenFlow…).
L’offre de Nuage Networks est purement ‘software’. Destinée aux réseaux et aux datacenters, elle
vise à faciliter la programmation et l’automatisation des infrastructures ‘cloud’, qu’il s’agisse de
cloud privé, public ou hybride.

La solution doit permettre d’accélérer la virtualisation des serveurs et des baies de stockage, en
facilitant et en rendant plus sûrs les déplacements de configurations des VM (virtual machines) au
sein d’une baie ou d’un réseau de datacenter.

Le principe, c’est d’étendre la virtualisation aux réseaux, en la synchronisant avec celles des
serveurs et des unités de stockage. La reconfiguration de plusieurs dizaines de VM sur un réseau
de datacenter serait ainsi raccourcie à quelques minutes contre une à deux heures avec les
solutions actuelles.

Les dirigeants de Nuage Networks expliquent que l’approche logicielle est la mieux appropriée pour
virtualiser les fonctions du réseau.

Avec VSP, lorsqu’une VM est déplacée d’un serveur à un autre, un agent VRS (Virtual Routing and
Switching) installé sur les serveurs détecte les changements, recueille les informations utiles qui
sont embarquées avec les VM, encapsulées avec les paquets de données.

Cet agent VRS transmet les informations attachées aux VM à un contrôleur de services virtuels,
lequel en réfère un ‘directory’ qui gère le bon fonctionnement de la commutation et du routage, y
compris en termes de règles de sécurité prédéfinies, garantissant l’étanchéité entre les volumes de
données. Les reconfigurations sont ainsi instantanément exécutées.

Tom Deutsch (IBM) « Big Data : je fais
sûrement le job le plus intéressant chez
IBM »
Tom Deutsch, qui occupe les fonctions de Big Data Program Director au sein d’IBM, explique la
stratégie et la vision d’IBM dans la sphère Big Data. Interview réalisée par Yves Grandmontagne.
Tristan Debove, Intersystems : « Avec notre
base Caché, nous faisons du NoSQL depuis
une trentaine d’années »
Directeur Commercial d’Intersystems France, Tristan Debove était sur le salon BigData Paris 2013
pour présenter cet éditeur de solutions logicielles optimisées pour le Big Data. Il répond plus
particulièrement aux questions de Yves Grandmontagne sur Caché, une base de données
nativement NoSQL lancée déjà il y a une trentaine d’années.

Jean-Paul Alibert – HP : « Notre offre big
data répond à cinq problématiques
Entreprise »
Salon Big Data 2013 : Jean-Paul Alibert, Vice-Président de HP France en charge de l’innovation,
explique comment HP a pris position sur le Big Bata. Son offre s’appuie beaucoup sur Vertica.
Interview de Yves Grandmontagne.

Axel Branger, Exalead : « Nous sommes des
spécialistes de l’information intelligente »
Directeur Commercial d’Exalead pour l’Europe de l’Ouest, Axel Branger était sur le salon BigData
Paris 2013 pour présenter cette société française, filiale du groupe Dassault Systèmes. Dans cet
entretien vidéo réalisé par Yves Grandmontagne, il évoque le rôle de ces outils de recherche
d’informations, dans le cadre d’une stratégie Big Data.
Elodie Solirenne, TATA C.S. « Le R.O.I. est au
coeur des projets Big Data de nos clients »
Responsable Avant-vente CRM et B.I chez Tata Consultancy Services, Elodie Solirenne était sur le
salon BigData Paris 2013 pour présenter les offres Big Data de ce géant indien des services
informatiques. Elle répond aux questions de Yves Grandmontagne et évoque les attentes de retour
sur investissement de ses clients, en matière de Big Data.

Georges BORY, Quartet FS « Hadoop n’est
pas la bonne technologie pour réagir en
intra-day »
Co-Fondateur de Quartet FS, Georges BORY était sur le salon BigData Paris pour présenter l’activité
de cet éditeur logiciel français, à l’origine d’une base de donnée analytique, Active Pivot, permettant
des prises de décision rapide pour des métiers tels que la Finance, la logistique ou le marketing.

Maxime Marboeuf, Tableau Software :
« Nos solutions de visualisation donnent du
sens aux données »
Data Analyst chez Tableau Software, Maxime Marboeuf était sur le salon Big Data Paris 2013 pour
présenter cet éditeur, spécialiste de la visualisation de données et de la prise de décision. Il répond
aux questions de Yves Grandmontagne.
Jean-Marie Messager, Sopra Group :
« l’imagination est la seule limite aux
projets Big Data »
Responsable de la communauté Business Intelligence de Sopra Group, Jean-Marie Messager
répond aux questions de Yves Grandmontagne et partage sa vision du phénomène Big Data.

Anthony CROSS, Progress Software :
« Notre client doit gérer 40 000 événements
par seconde »
Directeur Avant Vente de Progress Software, Anthony Cross était sur le salon BigData Paris pour
présenter cette solution logicielle optimisée pour les solutions « temps réel » dans la banque, les
télécoms, le marketing ou le commerce. Il répond aux questions de Yves Grandmontagne.

Jérémy Harroch (Quantmetry) : « Les
algorithmes au service du big data »
Le fondateur du cabinet d’expertise statistique (data scientist) met ses compétences au service des
entreprises et de leurs projets big data. Interview réalisée par Yves Grandmontagne.

Pascal Guichard (SCC) : « On fait déjà du big
data en termes d’infrastructure »
Le responsable de la business unit NetApp/Nseries chez SCC aborde la manière dont l’intégrateur
prend en main la dimension big data. Interview réalisée par Yves Grandmontagne.

Cyril Van Agt (NetApp) : « Les entreprises
nous sollicitent pour une expertise
stockage et big data »
Le Senior SE Manager de NetApp fait le point sur les technologie de stockage associées à la
dimension big data. Avec un bon mixte « serveurs – stockage – réseau – logiciels ».

Jean-Marc Bonnet (Teradata) : « Notre
centre d’expertise permet d’affiner
l’approche big data »
Jean-Marc Bonnet représente le centre d’excellence Teradata dédié à l’innovation. Le spécialiste du
data warehousing fait évoluer son offre avec la montée en puissance de Hadoop et du big data
dans une vision d’infrastructure unifiée. Interview réalisée par Yves Grandmontagne.

Stephane Fritsch, DELL « il y a une
convergence entre HPC et Big Data »
Spécialiste infrastructures hyperscale chez Dell France, Stephane Fritsch répond aux questions de
Yves Grandmontagne et expose la stratégie du groupe texan en matière de Big Data, en partant de
l’infrastructure (serveur, stockage, réseau), des couches logicielles (hadoop) sans oublier un
écosystème de partenaires.

Mountcha NDIAYE, EMC : « Pivotal
regroupera des spécialistes de la donnée »
Regional Channel Sales Director chez EMC France, Mountcha NDIAYE répond aux questions de Yves
Grandmontagne et présente la stratégie Big Data du groupe américain.

Fabrice Hugues (Software AG) : « Nous
avons acquis une expertise Big Data avec le
rachat de Terracotta »
Le directeur avant-vente de la branche française de Software AG (d’origine allemande) explique
comment l’éditeur compte exploiter la vision Big Data renforcée par le rachat de Terracotta
remontant à mai 2011. Interview réalisée par Yves Grandmontagne.

Hans-Joseph Jeanrond (Sinequa) : « 80% des
données d’une entreprise sont non
structurées »
Vidéo © Silicon.fr

Plus de vidéos…
Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Le Grizzly OpenStack montre ses griffes
L’OpenStack Foundation respecte son agenda. À la veille de l’OpenStack Summit qui se tiendra à
la mi-avril à Portland (Oregon), la fondation vient de rendre publique la nouvelle version majeure
d’OpenStack, nom de code Grizzly, six mois après l’annonce de la version Folsom.

La fondation s’était engagée à proposer une nouvelle version tous les six mois, la première
échéance du contrat est respectée avec Grizzly.

La scalabilité revue à la hausse
Rappelons que l’objectif de la fondation OpenStack, fixé à l’origine par la NASA et Rackspace, est
d’aboutir à une stack logicielle capable de supporter une infrastructure de cloud composée d’un
million de nœuds physiques et de dépasser les 60 millions de machines virtuelles.

Grizzly ne permettra pas de franchir cette barre… mais s’en approchera. En revanche, la nouvelle
mouture profite de changements dans l’architecture d’hébergement – avec la couche d’architecture de données
NoDB qui déporte des fonctionnalités du contrôleur Nova vers les hosts – et de la fonctionnalité Nova
Compute Cells – qui permet d’agréger des contrôleurs OpenStack en une seule instance – pour améliorer
sensiblement ses capacités de scalabilité, ce qui devrait faciliter la rapide progression de ses performances.

Le support d’OpenStack
Le support des hyperviseurs sur base x86 Intel Xeon a été amélioré dans leur compatibilité avec
OpenStack. Cela concerne en particulier ESXi de VMware, Cisco Systems, KVM de Red Hat et Hyper-
V de Microsoft, ce dernier s’exécutant plus rapidement. Jusqu’à présent le focus en matière
d’hyperviseurs a porté sur KVM et Xen.

Côté stockage, Grizzly apporte dix nouveaux drivers de stockage blocs, dont les file systems de
Ceph/RBD, Coraid, EMC, HP, Huawei, IBM, NetApp, Red Hat/Gluster, Scality, SolidFire et Zadara.

Côté réseaux, les plug-ins pour switchs virtuels de Big Switch, Hyper-V, PlumGrid, Brocade et
Midonet rejoignent les plug-ins existants pour VMware Open vSwitch et Cisco Nexus 1000V, ainsi
que les contrôleurs Linux Bridge et OpenFlow de VMware, Ryu et NEC.
Toujours plus de contributeurs
La communauté OpenStack a été des plus prolifiques. Le cœur du contrôleur OpenStack, dont la
première version a été dévoilée en septembre dernier, et les dix sous projets qui lui sont attachés
(lire « OpenStack in action : recruter en attendant Grizzly » pour la description des principaux
projets), ont été complétés de 820.000 lignes de code en langage Python, soit un embonpoint de 35
% par rapport à Folsom.

La communauté OpenStack s’est engagée à alimenter le projet, qui affiche une progression
supérieure à celle de Linux en son temps. 517 contributeurs, soit un bond de 56 % par rapport à
Folsom, ont apporté 230 nouvelles fonctionnalités. Ils ont également permis la réalisation de 7600
patchs au cours des six mois de tests, réalisés chaque jour sur 700 ‘baby clouds’ OpenStack offerts
et principalement hébergés sur les clouds publics de Rackspace et HP.

Après Grizzly, Havana
Les principaux contributeurs au code de Grizzly ont été Red Hat, Rackspace, IBM, Hewlett-Packard,
Nebula, Intel, eNovance, Canonical, VMware, Cloudscaling, DreamHost et SINA.

La prochaine version d’OpenStack s’appellera Havana. Elle devrait être disponible en octobre
prochain. Elle accueillera deux nouveaux sous projets : Ceilometer, un outil de monitoring qui
permettra l’injection de données dans un système de facturation, et Heat, un moteur
d’orchestration basé sur des templates.

Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes

76 % des entreprises migrent vers le cloud
76 % des 1275 décideurs informatiques, financiers et juridiques européens* interrogés en
décembre 2012 ont indiqué avoir migré leurs données vers le cloud ou envisager de le faire au
cours des 12 prochains mois, selon une étude réalisée par Opinion Matters pour Iron Mountain.

Ils sont même 21 % à vouloir opter pour un modèle exclusivement cloud pour stocker l’ensemble
de leurs données.
Le cloud et la gestion du risque
Globalement, 86 % des répondants seraient moins soucieux de leur responsabilité vis-à-vis de la
sécurité des données, une fois celles-ci stockées dans le nuage.

Ils estiment, dans une même proportion, que les vérifications menées en amont de la sélection de
leurs fournisseurs de stockage cloud témoignent d’une approche responsable de l’informatique
en nuage.

Rappelons-le, la directive de l’UE en matière de protection des données stipule que « le responsable
du traitement [des données] doit mettre en œuvre les mesures appropriées pour protéger les données à
caractère personnel contre la destruction accidentelle ou illicite, la perte accidentelle, l’altération, la diffusion
ou l’accès non autorisé ».

Parmi les membres du panel, 68 % considèrent qu’une atteinte à leurs données porterait
davantage préjudice à leurs fournisseurs de services qu’à leur propre entreprise.

Prêchant pour sa paroisse, Iron Mountain, multinationale américaine spécialisée dans le
management de l’information (gestion de documents, sauvegarde et récupération de données,
destruction…), estime que les entreprises doivent prendre conscience de leurs responsabilités et
mieux gérer le risque : où sont stockées les données et qui peut y accéder ? Quelle est
l’infrastructure – datacenter – du fournisseur ?

Pour protéger leurs informations sensibles – dossiers RH, de propriété intellectuelle ou encore
financiers –, les entreprises auraient intérêt à adopter « une approche hiérarchisée du stockage,
combinant cloud, bande et disque ».

Selon les termes de Marc Delhaie, PDG d’Iron Mountain France : « le stockage cloud est avantageux en
termes de flexibilité, d’accessibilité et de rentabilité, mais il ne dispense en aucun cas d’instaurer une stratégie
globale d’archivage de documents et de sauvegarde externe ».

*Allemagne, Espagne, France, Hongrie, Pays-Bas et Royaume-Uni (entreprises de 50 à 5000 salariés).

Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud
L’Europe dope sa stratégie en faveur du cloud

Hans-Joseph JEANROND, Sinequa : « 80%
des données d’une entreprise sont non
structurées »
Directeur marketing de Sinequa, Hans-Joseph JEANROND était sur le salon Big Data Paris 2013 pour
rappeler en quoi les technologies de recherche de données non structurées pouvaient jouer un
rôle central dans une stratégie Big Data ..

Stéphane Briffod, QlikTech : « les
utilisateurs ne veulent plus attendre pour
consulter leurs données »
Directeur Avant Vente de QlikTech, Stéphane Briffod était sur le salon Big Data Paris 2013 pour
présenter cette solution de « Business Discovery », permettant aux utilisateurs métier d’assembler
des données issues de différents environnements (big query / in memory) avec des temps de
réponse accélérés

Une interview réalisée par Yves Grandmontagne, journaliste pour Silicon.fr

Tariq KRIM « Jolidrive repose entièrement
sur des technologies web »
Fondateur de JoliCloud et JoliDrive, Tariq KRIM était présent sur le salon Big Data Paris 2013 pour
présenter sa société. Dans cet entretien vidéo, il revient sur ses choix technologiques et partage sa
vision du rôle de l’état en matière de nouvelles technologies.
Congrès Big Data 2013 : la data reine fait
son marché
Voilà bien longtemps que nous avions fréquenté un salon affichant une telle satisfaction, tant du
côté des visiteurs que des exposants. La cause en revient au thème de ce Congrès, le Big Data, qui
entre désormais dans les réflexions, voire les stratégies des organisations.

Ce que nous y avons vu… Des technologies de premier plan. Des visiteurs intéressés. Des
exposants qui remplissent leurs carnets de contacts, prélude aux carnets de commandes. Des
conférences qui ne désemplissent pas. Décidément, le Big Data attire toutes les attentions.

Donnée, analytique et compétences
Deux approches et une réelle problématique sont au cœur de ce marché qui se construit.
L’augmentation exponentielle du volume des données impose de revoir les stratégies de stockage
des DSI. Dans le même temps s’impose la valorisation de ces données via des solutions analytiques.

Mais la préoccupation principale, selon nous, porte sur les compétences. Non plus sur
l’infrastructure pour accueillir le Big Data – les solutions en la matière semblent avoir atteint un
premier niveau de maturité -, mais sur la capacité de modéliser le traitement de la donnée afin de
la rendre accessible et lisible.

Parfois rien de bien neuf…
Pour beaucoup d’acteurs qui se positionnent sur le Big Data, celui-ci n’est qu’une nouvelle
expression d’une problématique de stockage des données qu’ils traitent depuis de nombreuses
années. Et en tout état de cause depuis bien avant que l’expression ‘big data’ ne soit inventée. Le
Big Data n’invente ni le serveur, ni le stockage, ni le datawarehouse. En revanche, Hadoop et
l’analytique s’imposent en outils majeurs.

C’est ici que se construisent les stratégies. Pour incontournable qu’il soit, Hadoop est plutôt
considéré comme une nouvelle approche économique de la gestion de très gros volumes de
données. Mais cette technologie demeure complexe. C’est pourquoi apparaissent des ‘stacks’ Big
Data Hadoop, des solutions intégrées visant à simplifier leur déploiement. Par ailleurs, nombre
d’acteurs considèrent le Big Data en dehors de Hadoop, préférant capitaliser sur leurs solutions.

Cette réalité est flagrante dans la partie analytique. Les éditeurs de solutions de traitement de la
donnée, d’analyse et de représentation graphique (datavision), ne vont pas reconstruire une offre,
ou alors à coups d’acquisitions. Ils préfèrent adapter leurs solutions existantes aux technologies
naissantes.
Vers un Big Data économique
C’est ainsi qu’un nouveau discours fait son apparition : le Big Data économique. Attention
cependant, deux idées peuvent se cacher derrière cette expression. La première, un Big Data
devenu abordable, est encore loin d’être une réalité. Probablement qu’il ne le deviendra que quand
les éditeurs et les intégrateurs sauront parfaitement maitriser les technologies analytiques.

C’est la seconde idée, celle d’un Big Data qui apporte de la valeur en rendant l’information et la
connaissance plus accessibles, donc plus apte à apporter de la valeur dans les organisations, qui
domine. Tout ici est question de ROI et le retour sur investissement semble au rendez-vous. Alors
que la BI demeure élitiste, à la fois dans ses coûts et dans les problématiques qu’elle adresse en ne
ciblant que le ‘top management’, le Big Data pourrait bien faire la révolution et amener l’analyse et
la connaissance pour tous.

La France en retard
Pas d’annonce majeure sur le Congrès. En fait, même si le marché affiche son intérêt pour le Big
Data, de l’avis des acteurs internationaux présents la France est une nouvelle fois en retrait, voire
en position d’attente. Nous avons cependant constaté les efforts de certains fournisseurs pour
intégrer une démarche Big Data Hadoop à leur catalogue, en particulier des ‘petits’ hébergeurs,
plutôt orientés PME, qui recherchent ici un nouvel axe de développement.

Reste de ce Congrès Big Data 2013 une impression particulièrement positive. Qui vient confirmer
l’intérêt des organisations pour le stockage de très gros volumes de données. Et surtout pour les
capacités analytiques qui en découlent. Et enfin le plaisir d’assister à des négociations intéressées
sur divers stands, prémices à de prochains contrats. Et cela, voilà quelques années que cette
dimension commerciale associée à un salon avait disparue…

À suivre très prochainement sur Silicon.fr, les vidéos de nos interviews réalisées lors du congrès.

Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes

Disponibilité de Google Gmail ; 99,983% en
2012
Pour la troisième année consécutive, le service de courrier électronique en ligne de Google, Gmail,
affiche un taux de disponibilité largement supérieur à 99,9%.

Il se fixe ainsi sur l’année 2012 à 99,983%, soit largement au-delà des 99,9% garantis par la firme
pour les déclinaisons professionnelles de ses Google Apps. Un chiffre qui reste globalement stable.
Il était ainsi de 99,984% en 2010.

« En 2012, Gmail a atteint un niveau de disponibilité de 99,983 % avec l’ajout simultané de dizaines de
nouvelles fonctionnalités », confirment les responsables de Google dans leur communiqué.

« Cela s’est traduit par une interruption de service de seulement sept minutes en moyenne par mois l’année
dernière, la plupart des utilisateurs n’ayant souffert d’aucune interruption. »

Le souci de toujours mieux faire ?
« Nous sommes fiers de cette performance, mais savons qu’elle peut encore être améliorée. Nous mettons tout
en œuvre pour réduire les perturbations au maximum, les limiter et les résoudre rapidement. »

Dans l’absolu, personne ne s’en plaindra. Les grincheux feront toutefois remarquer que la
disponibilité passe aussi par la continuité des services.

Or, et ce n’est qu’un exemple, l’arrêt brutal du mode hors-ligne dans Gmail rend le webmail moins
accessible… et donc moins disponible.

Et que dire de la suppression programmée de Reader ? Il est assez surprenant que ce service ne
soit pas au moins conservé sur les comptes Google Apps payants.

La disponibilité passe donc aussi par la pérennité des offres. Espérons que ce point sera mieux pris
en compte en 2013.

Voir aussi
Quiz Silicon.fr – 10 questions sur Google

Hubert Dezellus (TDF) : « Nous allons
déployer 10 datacenters en France »
Vidéo © ITespresso.fr

Plus de vidéos…

Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Dell optimise la densité de ses baies de
stockage Compellent
Reflet d’une stratégie d’architecture Fluid Data qui vise à apporter la bonne donnée au bon endroit,
au bon moment et au meilleur coût, Dell augmente la densité de ses baies de stockage SAN
Compellent.

Au format 2U, les boîtiers SC200 et SC220, qui visent le haut du marché par opposition aux
solutions héritées du rachat d’EqualLogic, supportent désormais les volumes de 4 To 7200 tpm sur
interface SAS, via les disques durs 3,5 pouces Seagate Enterprise. La capacité maximale de stockage
passe à 48 To, contre 36 To jusqu’alors, à condition d’utiliser une version suffisamment récente (a
minima, la 6.2.2) de Storage Center.

Convergence réseau-stockage
Les dernières moutures de cette solution d’administration ont d’autres avantages : une prise en
charge de la technologie Fibre Channel 16 Gb de bout en bout (en complément à l’iSCSI 10 Gbit/s),
une optimisation de la réplication synchrone pour la restauration ou encore la surveillance des
volumes partagés entre plusieurs baies. Inscrites dans la convergence réseau-stockage, elles visent
à donner de l’agilité aux données, tout particulièrement en environnement big data.

Dell en fait un pilier dans son approche du datacenter de demain. Le groupe IT américain y intègre
également une technologie de gestion dynamique qui place les données les plus utilisées sur des
SSD (200 / 400 Go) et les contenus moins sollicités sur des volumes SAS plus économiques.

Vice-président marketing de Seagate, Scott Horn met en avant la flexibilité d’une telle configuration
dans des environnements multisites, pour la réalisation d’instantanés, mais aussi les plans de
continuité d’activité, les disques étant amovibles à chaud et les différents composants
(alimentation, ventilation…) redondants. Cette convergence entre serveurs, stockage, réseaux,
applications et postes de travail au sein d’architectures de référence a généré, en 2012, près de la
moitié de la marge brute de Dell.

—— A voir aussi ——
Quiz Silicon.fr : connaissez-vous l’histoire de Dell ?

Vidéo : comment Fujitsu a intégré la
solution SAP Hana
Vidéo © SAP – Fujitsu

Plus de vidéos…

Voir aussi
Quiz Silicon.fr – Connaissez-vous les inventeurs hi-tech européens ?

Dépenses IT : Gartner révise à la hausse ses
prévisions 2013
Les dépenses IT mondiales devraient atteindre 3766 milliards de dollars en 2013, soit une
progression de 4,1 % par rapport aux 3618 milliards enregistrés en 2012, et s’élever à 3917
milliards en 2014 (+4 %), d’après Gartner.

En janvier dernier, la société d’études tablait sur 3737 milliards de dollars de dépenses IT en 2013 et
3881 milliards en 2014. L’analyste a donc revu ses prévisions à la hausse.

Le succès des smartphones
Gartner, qui observe un moindre impact des effets de change sur les dépenses IT au premier
trimestre, explique la progression mondiale du marché par le succès commercial des smartphones
haut de gamme auprès des entreprises.

Ainsi, malgré la stagnation des achats de PC et le recul des imprimantes, les perspectives de
croissance du segment terminaux (ordinateurs, tablettes, téléphones mobiles, printers) ont été
révisées à la hausse.

Après avoir enregistré une croissance de 9 % en 2012, le segment des terminaux devrait enregistrer
une hausse de 7,9 % en 2013 à 718 milliards de dollars au niveau mondial, et non plus seulement
de 6,3 % à 666 milliards de dollars.

« Un ensemble de forces convergentes – social, mobile, cloud, information – redessinent les contours des
modes de dépenses sur tous les secteurs IT étudiés par Gartner. Consommateurs et entreprises continueront à
acheter une combinaison de produits et services IT […] Cependant, leur répartition va évoluer […] avec la
transition du PC vers le mobile, des serveurs vers le stockage, des logiciels sous licence vers le cloud, des
communications fixes vers le mobile », a déclaré par voie de communiqué John Lovelock, vice-
président chez Gartner.

Les services et logiciels dans un nuage
Bien que les perspectives globales de dépenses IT aient été révisées à la hausse, Gartner a abaissé
ses prévisions pour les services télécoms à 1688 milliards de dollars en 2013 (+2 %) au lieu des
1701 milliards estimés précédemment. Quoi qu’il en soit, ce segment constitue toujours le plus
important poste de dépenses du marché IT mondial et devrait rester performant en 2014 (+2,4 % à
1728 milliards de dollars).

Les services IT restent aussi dynamiques. Les entreprises à travers le monde devraient leur
consacrer 918 milliards de dollars cette année (+4,5 %), au lieu des 927 milliards annoncés
précédemment, et 963 milliards en 2014 (+4,9 %).

Quant aux dépenses mondiales de logiciels d’entreprise, elles devraient effectivement atteindre
297 milliards de dollars en 2013 (+6,4 % sur un an) et 316 milliards en 2014 (+6,7 %). La croissance
sera portée par les systèmes de gestion de bases de données, les solutions d’intégration de
données et les outils de gestion de la chaîne logistique.

Enfin, les dépenses en systèmes pour datacenters devraient croître non pas de 4,5 % en 2013,
comme le pensait Gartner en janvier, mais de 3,7 % à 146 milliards de dollars. Cette diminution
est due en grande partie à la baisse des prévisions d’achats dans la zone Europe, Moyen-Orient et
Afrique (EMEA) économiquement troublée.

crédit photo © Christopher Meder – Fotolia.com

Voir aussi

Silicon.fr en direct sur les smartphones et tablettes
Vous pouvez aussi lire