Jacques Perrochat (Schneider Electric) : " Efficacité énergétique et datacenter : tout le monde doit jouer le jeu " - Silicon.fr
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Jacques Perrochat (Schneider Electric) : « Efficacité énergétique et datacenter : tout le monde doit jouer le jeu » Vidéo © ITespresso.fr Plus de vidéos… Voir aussi Quiz Silicon.fr – Le vocabulaire du cloud Avec Nuage Networks et SDN2, Alcatel pousse l’automatisation du cloud Le concept de SDN – Software-defined network – commence à se concrétiser. Mieux que cela, les concepteurs les plus avancés parlent déjà de la génération 2. Pour rappel, le SDN renvoie à la notion de réseau intelligent ; il repose sur la convergence entre les besoins dynamiques de ressources réseaux et les besoins de QoS par un découpage des fonctions de contrôle (plusieurs niveaux de routage…) et le trafic de données (commutation…). Le réseau « publie » des APIs et gère les diverses fonctionnalités de ‘firewall’, NAC, loadbalancing… Certains constructeurs en profitent pour déclarer ouvertement leur préférence en faveur de standards ‘ouverts’, tels OpenFlow (open source). L’un des premiers objectifs est d’augmenter les capacités réseau : routage piloté par un contrôleur externe aux switches/routeurs. Les paquets sont transmis avec leurs instructions de commutation. Une offre signée Nuage Networks Lors d’une webconférence avec la presse ce 3 avril, Nuage Networks, basée à Santa Clara, dans la Silicon Valley, a détaillé sa nouvelle offre. Sa plateforme logicielle VSP (Virtualized Services Platform) est précisément définie comme ‘ouverte’ (IP) : elle est censée fonctionner sur les infrastructures de tous équipementiers réseau (y compris Cisco, doit-on comprendre, puisque ce dernier a dit qu’outre son protocole OnePK – One Platform Kit et son Open Network Environment – il supporterait aussi OpenFlow…).
L’offre de Nuage Networks est purement ‘software’. Destinée aux réseaux et aux datacenters, elle vise à faciliter la programmation et l’automatisation des infrastructures ‘cloud’, qu’il s’agisse de cloud privé, public ou hybride. La solution doit permettre d’accélérer la virtualisation des serveurs et des baies de stockage, en facilitant et en rendant plus sûrs les déplacements de configurations des VM (virtual machines) au sein d’une baie ou d’un réseau de datacenter. Le principe, c’est d’étendre la virtualisation aux réseaux, en la synchronisant avec celles des serveurs et des unités de stockage. La reconfiguration de plusieurs dizaines de VM sur un réseau de datacenter serait ainsi raccourcie à quelques minutes contre une à deux heures avec les solutions actuelles. Les dirigeants de Nuage Networks expliquent que l’approche logicielle est la mieux appropriée pour virtualiser les fonctions du réseau. Avec VSP, lorsqu’une VM est déplacée d’un serveur à un autre, un agent VRS (Virtual Routing and Switching) installé sur les serveurs détecte les changements, recueille les informations utiles qui sont embarquées avec les VM, encapsulées avec les paquets de données. Cet agent VRS transmet les informations attachées aux VM à un contrôleur de services virtuels, lequel en réfère un ‘directory’ qui gère le bon fonctionnement de la commutation et du routage, y compris en termes de règles de sécurité prédéfinies, garantissant l’étanchéité entre les volumes de données. Les reconfigurations sont ainsi instantanément exécutées. Tom Deutsch (IBM) « Big Data : je fais sûrement le job le plus intéressant chez IBM » Tom Deutsch, qui occupe les fonctions de Big Data Program Director au sein d’IBM, explique la stratégie et la vision d’IBM dans la sphère Big Data. Interview réalisée par Yves Grandmontagne.
Tristan Debove, Intersystems : « Avec notre base Caché, nous faisons du NoSQL depuis une trentaine d’années » Directeur Commercial d’Intersystems France, Tristan Debove était sur le salon BigData Paris 2013 pour présenter cet éditeur de solutions logicielles optimisées pour le Big Data. Il répond plus particulièrement aux questions de Yves Grandmontagne sur Caché, une base de données nativement NoSQL lancée déjà il y a une trentaine d’années. Jean-Paul Alibert – HP : « Notre offre big data répond à cinq problématiques Entreprise » Salon Big Data 2013 : Jean-Paul Alibert, Vice-Président de HP France en charge de l’innovation, explique comment HP a pris position sur le Big Bata. Son offre s’appuie beaucoup sur Vertica. Interview de Yves Grandmontagne. Axel Branger, Exalead : « Nous sommes des spécialistes de l’information intelligente » Directeur Commercial d’Exalead pour l’Europe de l’Ouest, Axel Branger était sur le salon BigData Paris 2013 pour présenter cette société française, filiale du groupe Dassault Systèmes. Dans cet entretien vidéo réalisé par Yves Grandmontagne, il évoque le rôle de ces outils de recherche d’informations, dans le cadre d’une stratégie Big Data.
Elodie Solirenne, TATA C.S. « Le R.O.I. est au coeur des projets Big Data de nos clients » Responsable Avant-vente CRM et B.I chez Tata Consultancy Services, Elodie Solirenne était sur le salon BigData Paris 2013 pour présenter les offres Big Data de ce géant indien des services informatiques. Elle répond aux questions de Yves Grandmontagne et évoque les attentes de retour sur investissement de ses clients, en matière de Big Data. Georges BORY, Quartet FS « Hadoop n’est pas la bonne technologie pour réagir en intra-day » Co-Fondateur de Quartet FS, Georges BORY était sur le salon BigData Paris pour présenter l’activité de cet éditeur logiciel français, à l’origine d’une base de donnée analytique, Active Pivot, permettant des prises de décision rapide pour des métiers tels que la Finance, la logistique ou le marketing. Maxime Marboeuf, Tableau Software : « Nos solutions de visualisation donnent du sens aux données » Data Analyst chez Tableau Software, Maxime Marboeuf était sur le salon Big Data Paris 2013 pour présenter cet éditeur, spécialiste de la visualisation de données et de la prise de décision. Il répond aux questions de Yves Grandmontagne.
Jean-Marie Messager, Sopra Group : « l’imagination est la seule limite aux projets Big Data » Responsable de la communauté Business Intelligence de Sopra Group, Jean-Marie Messager répond aux questions de Yves Grandmontagne et partage sa vision du phénomène Big Data. Anthony CROSS, Progress Software : « Notre client doit gérer 40 000 événements par seconde » Directeur Avant Vente de Progress Software, Anthony Cross était sur le salon BigData Paris pour présenter cette solution logicielle optimisée pour les solutions « temps réel » dans la banque, les télécoms, le marketing ou le commerce. Il répond aux questions de Yves Grandmontagne. Jérémy Harroch (Quantmetry) : « Les algorithmes au service du big data » Le fondateur du cabinet d’expertise statistique (data scientist) met ses compétences au service des entreprises et de leurs projets big data. Interview réalisée par Yves Grandmontagne. Pascal Guichard (SCC) : « On fait déjà du big
data en termes d’infrastructure » Le responsable de la business unit NetApp/Nseries chez SCC aborde la manière dont l’intégrateur prend en main la dimension big data. Interview réalisée par Yves Grandmontagne. Cyril Van Agt (NetApp) : « Les entreprises nous sollicitent pour une expertise stockage et big data » Le Senior SE Manager de NetApp fait le point sur les technologie de stockage associées à la dimension big data. Avec un bon mixte « serveurs – stockage – réseau – logiciels ». Jean-Marc Bonnet (Teradata) : « Notre centre d’expertise permet d’affiner l’approche big data » Jean-Marc Bonnet représente le centre d’excellence Teradata dédié à l’innovation. Le spécialiste du data warehousing fait évoluer son offre avec la montée en puissance de Hadoop et du big data dans une vision d’infrastructure unifiée. Interview réalisée par Yves Grandmontagne. Stephane Fritsch, DELL « il y a une convergence entre HPC et Big Data » Spécialiste infrastructures hyperscale chez Dell France, Stephane Fritsch répond aux questions de Yves Grandmontagne et expose la stratégie du groupe texan en matière de Big Data, en partant de
l’infrastructure (serveur, stockage, réseau), des couches logicielles (hadoop) sans oublier un écosystème de partenaires. Mountcha NDIAYE, EMC : « Pivotal regroupera des spécialistes de la donnée » Regional Channel Sales Director chez EMC France, Mountcha NDIAYE répond aux questions de Yves Grandmontagne et présente la stratégie Big Data du groupe américain. Fabrice Hugues (Software AG) : « Nous avons acquis une expertise Big Data avec le rachat de Terracotta » Le directeur avant-vente de la branche française de Software AG (d’origine allemande) explique comment l’éditeur compte exploiter la vision Big Data renforcée par le rachat de Terracotta remontant à mai 2011. Interview réalisée par Yves Grandmontagne. Hans-Joseph Jeanrond (Sinequa) : « 80% des données d’une entreprise sont non structurées » Vidéo © Silicon.fr Plus de vidéos…
Voir aussi Quiz Silicon.fr – Le vocabulaire du cloud Le Grizzly OpenStack montre ses griffes L’OpenStack Foundation respecte son agenda. À la veille de l’OpenStack Summit qui se tiendra à la mi-avril à Portland (Oregon), la fondation vient de rendre publique la nouvelle version majeure d’OpenStack, nom de code Grizzly, six mois après l’annonce de la version Folsom. La fondation s’était engagée à proposer une nouvelle version tous les six mois, la première échéance du contrat est respectée avec Grizzly. La scalabilité revue à la hausse Rappelons que l’objectif de la fondation OpenStack, fixé à l’origine par la NASA et Rackspace, est d’aboutir à une stack logicielle capable de supporter une infrastructure de cloud composée d’un million de nœuds physiques et de dépasser les 60 millions de machines virtuelles. Grizzly ne permettra pas de franchir cette barre… mais s’en approchera. En revanche, la nouvelle mouture profite de changements dans l’architecture d’hébergement – avec la couche d’architecture de données NoDB qui déporte des fonctionnalités du contrôleur Nova vers les hosts – et de la fonctionnalité Nova Compute Cells – qui permet d’agréger des contrôleurs OpenStack en une seule instance – pour améliorer sensiblement ses capacités de scalabilité, ce qui devrait faciliter la rapide progression de ses performances. Le support d’OpenStack Le support des hyperviseurs sur base x86 Intel Xeon a été amélioré dans leur compatibilité avec OpenStack. Cela concerne en particulier ESXi de VMware, Cisco Systems, KVM de Red Hat et Hyper- V de Microsoft, ce dernier s’exécutant plus rapidement. Jusqu’à présent le focus en matière d’hyperviseurs a porté sur KVM et Xen. Côté stockage, Grizzly apporte dix nouveaux drivers de stockage blocs, dont les file systems de Ceph/RBD, Coraid, EMC, HP, Huawei, IBM, NetApp, Red Hat/Gluster, Scality, SolidFire et Zadara. Côté réseaux, les plug-ins pour switchs virtuels de Big Switch, Hyper-V, PlumGrid, Brocade et Midonet rejoignent les plug-ins existants pour VMware Open vSwitch et Cisco Nexus 1000V, ainsi que les contrôleurs Linux Bridge et OpenFlow de VMware, Ryu et NEC.
Toujours plus de contributeurs La communauté OpenStack a été des plus prolifiques. Le cœur du contrôleur OpenStack, dont la première version a été dévoilée en septembre dernier, et les dix sous projets qui lui sont attachés (lire « OpenStack in action : recruter en attendant Grizzly » pour la description des principaux projets), ont été complétés de 820.000 lignes de code en langage Python, soit un embonpoint de 35 % par rapport à Folsom. La communauté OpenStack s’est engagée à alimenter le projet, qui affiche une progression supérieure à celle de Linux en son temps. 517 contributeurs, soit un bond de 56 % par rapport à Folsom, ont apporté 230 nouvelles fonctionnalités. Ils ont également permis la réalisation de 7600 patchs au cours des six mois de tests, réalisés chaque jour sur 700 ‘baby clouds’ OpenStack offerts et principalement hébergés sur les clouds publics de Rackspace et HP. Après Grizzly, Havana Les principaux contributeurs au code de Grizzly ont été Red Hat, Rackspace, IBM, Hewlett-Packard, Nebula, Intel, eNovance, Canonical, VMware, Cloudscaling, DreamHost et SINA. La prochaine version d’OpenStack s’appellera Havana. Elle devrait être disponible en octobre prochain. Elle accueillera deux nouveaux sous projets : Ceilometer, un outil de monitoring qui permettra l’injection de données dans un système de facturation, et Heat, un moteur d’orchestration basé sur des templates. Voir aussi Silicon.fr étend son site dédié à l’emploi IT Silicon.fr en direct sur les smartphones et tablettes 76 % des entreprises migrent vers le cloud 76 % des 1275 décideurs informatiques, financiers et juridiques européens* interrogés en décembre 2012 ont indiqué avoir migré leurs données vers le cloud ou envisager de le faire au cours des 12 prochains mois, selon une étude réalisée par Opinion Matters pour Iron Mountain. Ils sont même 21 % à vouloir opter pour un modèle exclusivement cloud pour stocker l’ensemble de leurs données.
Le cloud et la gestion du risque Globalement, 86 % des répondants seraient moins soucieux de leur responsabilité vis-à-vis de la sécurité des données, une fois celles-ci stockées dans le nuage. Ils estiment, dans une même proportion, que les vérifications menées en amont de la sélection de leurs fournisseurs de stockage cloud témoignent d’une approche responsable de l’informatique en nuage. Rappelons-le, la directive de l’UE en matière de protection des données stipule que « le responsable du traitement [des données] doit mettre en œuvre les mesures appropriées pour protéger les données à caractère personnel contre la destruction accidentelle ou illicite, la perte accidentelle, l’altération, la diffusion ou l’accès non autorisé ». Parmi les membres du panel, 68 % considèrent qu’une atteinte à leurs données porterait davantage préjudice à leurs fournisseurs de services qu’à leur propre entreprise. Prêchant pour sa paroisse, Iron Mountain, multinationale américaine spécialisée dans le management de l’information (gestion de documents, sauvegarde et récupération de données, destruction…), estime que les entreprises doivent prendre conscience de leurs responsabilités et mieux gérer le risque : où sont stockées les données et qui peut y accéder ? Quelle est l’infrastructure – datacenter – du fournisseur ? Pour protéger leurs informations sensibles – dossiers RH, de propriété intellectuelle ou encore financiers –, les entreprises auraient intérêt à adopter « une approche hiérarchisée du stockage, combinant cloud, bande et disque ». Selon les termes de Marc Delhaie, PDG d’Iron Mountain France : « le stockage cloud est avantageux en termes de flexibilité, d’accessibilité et de rentabilité, mais il ne dispense en aucun cas d’instaurer une stratégie globale d’archivage de documents et de sauvegarde externe ». *Allemagne, Espagne, France, Hongrie, Pays-Bas et Royaume-Uni (entreprises de 50 à 5000 salariés). Voir aussi Quiz Silicon.fr – Le vocabulaire du cloud L’Europe dope sa stratégie en faveur du cloud Hans-Joseph JEANROND, Sinequa : « 80%
des données d’une entreprise sont non structurées » Directeur marketing de Sinequa, Hans-Joseph JEANROND était sur le salon Big Data Paris 2013 pour rappeler en quoi les technologies de recherche de données non structurées pouvaient jouer un rôle central dans une stratégie Big Data .. Stéphane Briffod, QlikTech : « les utilisateurs ne veulent plus attendre pour consulter leurs données » Directeur Avant Vente de QlikTech, Stéphane Briffod était sur le salon Big Data Paris 2013 pour présenter cette solution de « Business Discovery », permettant aux utilisateurs métier d’assembler des données issues de différents environnements (big query / in memory) avec des temps de réponse accélérés Une interview réalisée par Yves Grandmontagne, journaliste pour Silicon.fr Tariq KRIM « Jolidrive repose entièrement sur des technologies web » Fondateur de JoliCloud et JoliDrive, Tariq KRIM était présent sur le salon Big Data Paris 2013 pour présenter sa société. Dans cet entretien vidéo, il revient sur ses choix technologiques et partage sa vision du rôle de l’état en matière de nouvelles technologies.
Congrès Big Data 2013 : la data reine fait son marché Voilà bien longtemps que nous avions fréquenté un salon affichant une telle satisfaction, tant du côté des visiteurs que des exposants. La cause en revient au thème de ce Congrès, le Big Data, qui entre désormais dans les réflexions, voire les stratégies des organisations. Ce que nous y avons vu… Des technologies de premier plan. Des visiteurs intéressés. Des exposants qui remplissent leurs carnets de contacts, prélude aux carnets de commandes. Des conférences qui ne désemplissent pas. Décidément, le Big Data attire toutes les attentions. Donnée, analytique et compétences Deux approches et une réelle problématique sont au cœur de ce marché qui se construit. L’augmentation exponentielle du volume des données impose de revoir les stratégies de stockage des DSI. Dans le même temps s’impose la valorisation de ces données via des solutions analytiques. Mais la préoccupation principale, selon nous, porte sur les compétences. Non plus sur l’infrastructure pour accueillir le Big Data – les solutions en la matière semblent avoir atteint un premier niveau de maturité -, mais sur la capacité de modéliser le traitement de la donnée afin de la rendre accessible et lisible. Parfois rien de bien neuf… Pour beaucoup d’acteurs qui se positionnent sur le Big Data, celui-ci n’est qu’une nouvelle expression d’une problématique de stockage des données qu’ils traitent depuis de nombreuses années. Et en tout état de cause depuis bien avant que l’expression ‘big data’ ne soit inventée. Le Big Data n’invente ni le serveur, ni le stockage, ni le datawarehouse. En revanche, Hadoop et l’analytique s’imposent en outils majeurs. C’est ici que se construisent les stratégies. Pour incontournable qu’il soit, Hadoop est plutôt considéré comme une nouvelle approche économique de la gestion de très gros volumes de données. Mais cette technologie demeure complexe. C’est pourquoi apparaissent des ‘stacks’ Big Data Hadoop, des solutions intégrées visant à simplifier leur déploiement. Par ailleurs, nombre d’acteurs considèrent le Big Data en dehors de Hadoop, préférant capitaliser sur leurs solutions. Cette réalité est flagrante dans la partie analytique. Les éditeurs de solutions de traitement de la donnée, d’analyse et de représentation graphique (datavision), ne vont pas reconstruire une offre, ou alors à coups d’acquisitions. Ils préfèrent adapter leurs solutions existantes aux technologies naissantes.
Vers un Big Data économique C’est ainsi qu’un nouveau discours fait son apparition : le Big Data économique. Attention cependant, deux idées peuvent se cacher derrière cette expression. La première, un Big Data devenu abordable, est encore loin d’être une réalité. Probablement qu’il ne le deviendra que quand les éditeurs et les intégrateurs sauront parfaitement maitriser les technologies analytiques. C’est la seconde idée, celle d’un Big Data qui apporte de la valeur en rendant l’information et la connaissance plus accessibles, donc plus apte à apporter de la valeur dans les organisations, qui domine. Tout ici est question de ROI et le retour sur investissement semble au rendez-vous. Alors que la BI demeure élitiste, à la fois dans ses coûts et dans les problématiques qu’elle adresse en ne ciblant que le ‘top management’, le Big Data pourrait bien faire la révolution et amener l’analyse et la connaissance pour tous. La France en retard Pas d’annonce majeure sur le Congrès. En fait, même si le marché affiche son intérêt pour le Big Data, de l’avis des acteurs internationaux présents la France est une nouvelle fois en retrait, voire en position d’attente. Nous avons cependant constaté les efforts de certains fournisseurs pour intégrer une démarche Big Data Hadoop à leur catalogue, en particulier des ‘petits’ hébergeurs, plutôt orientés PME, qui recherchent ici un nouvel axe de développement. Reste de ce Congrès Big Data 2013 une impression particulièrement positive. Qui vient confirmer l’intérêt des organisations pour le stockage de très gros volumes de données. Et surtout pour les capacités analytiques qui en découlent. Et enfin le plaisir d’assister à des négociations intéressées sur divers stands, prémices à de prochains contrats. Et cela, voilà quelques années que cette dimension commerciale associée à un salon avait disparue… À suivre très prochainement sur Silicon.fr, les vidéos de nos interviews réalisées lors du congrès. Voir aussi Silicon.fr étend son site dédié à l’emploi IT Silicon.fr en direct sur les smartphones et tablettes Disponibilité de Google Gmail ; 99,983% en
2012 Pour la troisième année consécutive, le service de courrier électronique en ligne de Google, Gmail, affiche un taux de disponibilité largement supérieur à 99,9%. Il se fixe ainsi sur l’année 2012 à 99,983%, soit largement au-delà des 99,9% garantis par la firme pour les déclinaisons professionnelles de ses Google Apps. Un chiffre qui reste globalement stable. Il était ainsi de 99,984% en 2010. « En 2012, Gmail a atteint un niveau de disponibilité de 99,983 % avec l’ajout simultané de dizaines de nouvelles fonctionnalités », confirment les responsables de Google dans leur communiqué. « Cela s’est traduit par une interruption de service de seulement sept minutes en moyenne par mois l’année dernière, la plupart des utilisateurs n’ayant souffert d’aucune interruption. » Le souci de toujours mieux faire ? « Nous sommes fiers de cette performance, mais savons qu’elle peut encore être améliorée. Nous mettons tout en œuvre pour réduire les perturbations au maximum, les limiter et les résoudre rapidement. » Dans l’absolu, personne ne s’en plaindra. Les grincheux feront toutefois remarquer que la disponibilité passe aussi par la continuité des services. Or, et ce n’est qu’un exemple, l’arrêt brutal du mode hors-ligne dans Gmail rend le webmail moins accessible… et donc moins disponible. Et que dire de la suppression programmée de Reader ? Il est assez surprenant que ce service ne soit pas au moins conservé sur les comptes Google Apps payants. La disponibilité passe donc aussi par la pérennité des offres. Espérons que ce point sera mieux pris en compte en 2013. Voir aussi Quiz Silicon.fr – 10 questions sur Google Hubert Dezellus (TDF) : « Nous allons
déployer 10 datacenters en France » Vidéo © ITespresso.fr Plus de vidéos… Voir aussi Quiz Silicon.fr – Le vocabulaire du cloud Dell optimise la densité de ses baies de stockage Compellent Reflet d’une stratégie d’architecture Fluid Data qui vise à apporter la bonne donnée au bon endroit, au bon moment et au meilleur coût, Dell augmente la densité de ses baies de stockage SAN Compellent. Au format 2U, les boîtiers SC200 et SC220, qui visent le haut du marché par opposition aux solutions héritées du rachat d’EqualLogic, supportent désormais les volumes de 4 To 7200 tpm sur interface SAS, via les disques durs 3,5 pouces Seagate Enterprise. La capacité maximale de stockage passe à 48 To, contre 36 To jusqu’alors, à condition d’utiliser une version suffisamment récente (a minima, la 6.2.2) de Storage Center. Convergence réseau-stockage Les dernières moutures de cette solution d’administration ont d’autres avantages : une prise en charge de la technologie Fibre Channel 16 Gb de bout en bout (en complément à l’iSCSI 10 Gbit/s), une optimisation de la réplication synchrone pour la restauration ou encore la surveillance des volumes partagés entre plusieurs baies. Inscrites dans la convergence réseau-stockage, elles visent à donner de l’agilité aux données, tout particulièrement en environnement big data. Dell en fait un pilier dans son approche du datacenter de demain. Le groupe IT américain y intègre également une technologie de gestion dynamique qui place les données les plus utilisées sur des SSD (200 / 400 Go) et les contenus moins sollicités sur des volumes SAS plus économiques. Vice-président marketing de Seagate, Scott Horn met en avant la flexibilité d’une telle configuration dans des environnements multisites, pour la réalisation d’instantanés, mais aussi les plans de continuité d’activité, les disques étant amovibles à chaud et les différents composants (alimentation, ventilation…) redondants. Cette convergence entre serveurs, stockage, réseaux,
applications et postes de travail au sein d’architectures de référence a généré, en 2012, près de la moitié de la marge brute de Dell. —— A voir aussi —— Quiz Silicon.fr : connaissez-vous l’histoire de Dell ? Vidéo : comment Fujitsu a intégré la solution SAP Hana Vidéo © SAP – Fujitsu Plus de vidéos… Voir aussi Quiz Silicon.fr – Connaissez-vous les inventeurs hi-tech européens ? Dépenses IT : Gartner révise à la hausse ses prévisions 2013 Les dépenses IT mondiales devraient atteindre 3766 milliards de dollars en 2013, soit une progression de 4,1 % par rapport aux 3618 milliards enregistrés en 2012, et s’élever à 3917 milliards en 2014 (+4 %), d’après Gartner. En janvier dernier, la société d’études tablait sur 3737 milliards de dollars de dépenses IT en 2013 et 3881 milliards en 2014. L’analyste a donc revu ses prévisions à la hausse. Le succès des smartphones Gartner, qui observe un moindre impact des effets de change sur les dépenses IT au premier trimestre, explique la progression mondiale du marché par le succès commercial des smartphones haut de gamme auprès des entreprises. Ainsi, malgré la stagnation des achats de PC et le recul des imprimantes, les perspectives de
croissance du segment terminaux (ordinateurs, tablettes, téléphones mobiles, printers) ont été révisées à la hausse. Après avoir enregistré une croissance de 9 % en 2012, le segment des terminaux devrait enregistrer une hausse de 7,9 % en 2013 à 718 milliards de dollars au niveau mondial, et non plus seulement de 6,3 % à 666 milliards de dollars. « Un ensemble de forces convergentes – social, mobile, cloud, information – redessinent les contours des modes de dépenses sur tous les secteurs IT étudiés par Gartner. Consommateurs et entreprises continueront à acheter une combinaison de produits et services IT […] Cependant, leur répartition va évoluer […] avec la transition du PC vers le mobile, des serveurs vers le stockage, des logiciels sous licence vers le cloud, des communications fixes vers le mobile », a déclaré par voie de communiqué John Lovelock, vice- président chez Gartner. Les services et logiciels dans un nuage Bien que les perspectives globales de dépenses IT aient été révisées à la hausse, Gartner a abaissé ses prévisions pour les services télécoms à 1688 milliards de dollars en 2013 (+2 %) au lieu des 1701 milliards estimés précédemment. Quoi qu’il en soit, ce segment constitue toujours le plus important poste de dépenses du marché IT mondial et devrait rester performant en 2014 (+2,4 % à 1728 milliards de dollars). Les services IT restent aussi dynamiques. Les entreprises à travers le monde devraient leur consacrer 918 milliards de dollars cette année (+4,5 %), au lieu des 927 milliards annoncés précédemment, et 963 milliards en 2014 (+4,9 %). Quant aux dépenses mondiales de logiciels d’entreprise, elles devraient effectivement atteindre 297 milliards de dollars en 2013 (+6,4 % sur un an) et 316 milliards en 2014 (+6,7 %). La croissance sera portée par les systèmes de gestion de bases de données, les solutions d’intégration de données et les outils de gestion de la chaîne logistique. Enfin, les dépenses en systèmes pour datacenters devraient croître non pas de 4,5 % en 2013, comme le pensait Gartner en janvier, mais de 3,7 % à 146 milliards de dollars. Cette diminution est due en grande partie à la baisse des prévisions d’achats dans la zone Europe, Moyen-Orient et Afrique (EMEA) économiquement troublée. crédit photo © Christopher Meder – Fotolia.com Voir aussi Silicon.fr en direct sur les smartphones et tablettes
Vous pouvez aussi lire