Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Les derniers enseignements de l’Ofcom sur le marché britannique des télécommunications L’édition 2017 du rapport annuel de l’Ofcom sur le marché britannique des télécommunications a été publiée le 3 août dernier et dresse le bilan de l’année 2016-2017 en quelques 243 pages. L’analyse du secteur de la télévision et l’audiovisuel permet de mettre en lumière la corrélation entre l’amélioration continue et rapide de la connectivité et de l’équipement des ménages britanniques et l’installation de nouveaux usages. • La connectivité au Royaume-Uni 82% des foyers britanniques ont désormais une connexion internet fixe à domicile (25,3M de connexions), contre 79% l’année précédente. Surtout, la qualité de cette connexion progresse puisque 44% des connexions à large bande (soit 10,8M de prises) ont profité au mois de juin 2016, date de la mesure, d’un débit descendant réel d’au moins 30 mégabits par seconde. Seulement 38% des connexions atteignaient ce débit réel en 2015, soit 6 points de moins. Le débit moyen réel des connexions s’établit à 36,2 Mbit/s au Royaume- Uni en 2016 (contre 20,2 Mbit/s en France en 2015 selon l’Arcep). L’internet mobile progresse également de manière conséquente. Si la proportion de foyers abonnés à une offre de téléphonie mobile reste stable à 96%, les deux tiers des abonnements, soit 52,4M sur un total de 92M, sont des abonnements 4G. Une progression très importante puisqu’en 2015, 46% seulement des abonnements étaient compatibles 4G. Si 94% des adultes britanniques (plus de 16 ans) possèdent un téléphone mobile, ils sont 76% à utiliser un smartphone et surtout, 66% selon les données de l’Ofcom Technology Tracker à utiliser leur téléphone pour accéder à internet. Les smartphones sont identifiés comme l’appareil le plus important pour la connectivité, et ils sont utilisés à la fois à l’extérieur et à l’intérieur du domicile puisque l’Ofcom précise qu’environ les deux tiers des connexions de données se font en Wi-Fi plutôt que par un réseau mobile. Sur ce point, l’Ofcom a développé une méthodologie dédiée pour mesurer les usages sur téléphone mobile. Une application passive est ainsi installée sur les smartphones Android d’un panel d’utilisateurs. Une des conclusions les plus intéressantes concerne les usages de YouTube. On apprend ainsi que 76% des sessions sur l’application YouTube des panelistes ont eu lieu au quatrième trimestre 2016 via une connexion Wi-Fi contre 8% seulement via une connexion 4G et 7% en 3G. La conséquence directe de cette meilleure connectivité réside dans une utilisation croissante des services de données. L’utilisation moyenne des données par ligne fixe a augmenté de 36% par rapport à l’année précédente pour atteindre les 132 Go par mois en juin 2016. Et malgré les usages massifs du Wi-Fi, l’utilisation moyenne des données progresse également de manière très importante sur les réseaux mobiles avec 1,3 Go mensuel soit un bond de 44% en un an. Globalement, 4% du total des données britanniques ont transité sur les réseaux mobiles des opérateurs (juin 2016).
• L’équipement des ménages britanniques Comme mentionné précédemment, le smartphone est devenu le terminal le plus utilisé par les adultes britanniques pour accéder à internet. Plus globalement, la photographie de l’équipement des britanniques au premier trimestre 2017 se caractérise par deux faits marquants. D’abord, un taux d’équipement élevé en ordinateurs au sens large mais qui ne progresse plus d’une année sur l’autre : 29% des foyers possèdent un PC, 64% un ordinateur portable et 58% une tablette (en France le taux d’équipement pour les tablettes, tel que mesuré par GfK n’est que de 43% à fin 2016). C’est surtout la très forte progression de l’équipement des ménages en terminaux permettant d’accéder à internet sur le téléviseur qui retient l’attention. Les Smart TV progressent ainsi de 9 points en un an. 36% des foyers britanniques sont désormais équipés contre 25% en France (GfK). Dans le même temps, le nombre de foyers possédant une clé TV (Google Chromecast, Roku Stick, Amazon Fire TV stick) ou une streaming box (NOW TV set-top box, Roku, Amazon Fire TV, Apple TV) a doublé passant de 5 à 10%. • Les nouveaux usages audiovisuels La connectivité et l’équipement se traduisent par l’installation de nouveaux usages audiovisuels. Le rapport annuel de l’Ofcom est particulièrement bien documenté sur ce point avec un foisonnement d’informations mais qui proviennent de sources et de méthodologies différentes, et qui sont éparpillées dans plusieurs chapitres. Il convient donc de ne retenir que l’essentiel. D’abord, l’importance des usages multi-écrans mais avec un paradoxe puisque si la consommation de contenus audiovisuels se fait de plus en plus sur des écrans alternatifs au téléviseur, celui-ci, désormais connecté à internet, devient en même temps l’écran le plus utilisé pour les nouveaux services disponibles en ligne. Ainsi, alors que 54% des adultes disent apprécier la liberté de pouvoir regarder des contenus sur leur tablette ou smartphone et même 83% des 16-24 ans, l’Ofcom constate que le téléviseur domine les autres écrans pour les usages du iPlayer, le service en ligne de la BBC, son concurrent de itv, le itv hub mais également Netflix ou Amazon Prime Video les deux principaux services de SVoD. Le téléviseur est seulement dépassé par le PC, le Smartphone et la tablette pour les usages de Facebook et de YouTube même si dans ce dernier cas, la TV représente tout de même 33% des usages. L’autre enseignement majeur réside dans la segmentation de plus en plus marquée des usages en fonction de l’âge de la population. Les différences sont telles désormais entre les plus jeunes et les plus âgés qu’il est de plus en plus difficile d’appréhender de manière
globale l’évolution du paysage audiovisuel. De fait, au niveau de l’ensemble de la population les usages de la télévision linéaire restent ultra dominants par rapport aux formes alternatives de consommation de contenus audiovisuels. 91% des britanniques regardent au moins une fois la TV linéaire chaque semaine. Et la durée d’écoute par individu varie peu et reste stable à 3h32 par jour en 2016 (-4 minutes par rapport à l’année précédente). Mais chez les plus de 64 ans, la DEI est en moyenne de 5h44, en hausse de 50 minutes en dix ans (2006) alors qu’elle n’est plus chez les 16-24 ans que de 1h54 en recul de 41 minutes sur la même période. Et globalement, les britanniques ne sont plus que 30% à déclarer regarder quotidiennement le même programme que les autres membres de leur famille, ensemble devant le téléviseur du foyer. L’individualisation de la consommation s’installe se traduisant par une véritable explosion des usages sur les nouveaux services en ligne de vidéo à la demande, plateformes d’hébergement comme services de vidéo à la demande par abonnement. Alors qu’en 2013, la télévision en direct représentait 86% du temps total consacré à la consommation de programmes audiovisuels, en 2016, elle ne représente plus que 80%. Une différence de six points qui s’explique par la montée en puissance de la SVoD (qui passe de 1% à 4%) et des services à la demande des chaînes (de 2% à 4% également). Plus concrètement, les deux services leaders de SVoD représentent désormais 10 millions d’abonnements au Royaume- Uni, 6 millions pour Netflix et 3,8 millions pour Amazon Prime avec un chiffre d’affaires (« OTT Subscription revenues ») estimés par Ampere Analysis pour l’Ofcom à 664M£ en 2016 (714M€) confirmant ainsi que le Royaume-Uni est de très très loin le premier marché de la SVoD en Europe. Si la concurrence de la SVoD n’est donc plus une menace mais une réalité pour les chaînes de télévision britanniques, celles-ci ont néanmoins réussi à défendre leur place dans le nouveau paysage audiovisuel. Et c’est certainement une des informations les plus rassurantes du rapport de l’Ofcom. De fait, quand on demande aux britanniques quels sont, hormis la TV en direct, les autres sources de contenus qu’ils utilisent, on constate que les services en ligne des chaînes et en particulier des chaines du service public, dominent les services des pure-players. Ainsi, le BBC iPlayer reste le service le plus populaire avec 63% d’utilisateurs adultes, devant ITV Hub (40%), YouTube (38%) et Netflix (31%). Et si l’on agrège les services, ceux des chaînes du service public (BBC iPlayer, All4, ITV Hub, My5) sont utilisés par 67% des britanniques contre 45% pour les services de vidéo à la demande par abonnement (Netflix et Amazon Prime) et 41% pour les médias sociaux (YouTube et Facebook).
Quand la France mise sur l’intelligence artificielle En termes d’intelligence artificielle, la France dispose d’un vaste écosystème de start-up et de centres de recherche, d’autant plus vivant qu’il est l’objet d’un plan stratégique spécifique du gouvernement et qu’il a permis de faire éclore plusieurs « success stories ». #FranceIA, plan stratégique pour développer l’intelligence artificielle En janvier 2017, Axelle Lemaire, alors Secrétaire d’Etat au numérique et à l’innovation, présentait France IA, un plan stratégique national pour accompagner le développement de l’intelligence artificielle en France. A peine deux mois après ce lancement, les 17 groupes de travail de ce plan proposaient une première série d’une cinquantaine de recommandations articulées autour de 3 axes : Le soutien à la recherche en amont autour de l’intelligence artificielle via des structures dédiées, l’association des industriels et la formation L’aide au développement des start-up via la détection et le soutien des talents entrepreneuriaux ainsi que la facilitation des investissements dans les sociétés d’IA (défiscalisation, fonds d’investissement…) L’accompagnement dans l’adoption des technologies par le grand public via l’information, la transparence, en apportant également les garanties sur l’utilisation des données. Ainsi, directement à la suite de ce rapport, France IA a souhaité accompagner 2 initiatives. D’une part, la création d’un observatoire de l’Intelligence Artificielle en France , qui recense l’ensemble des acteurs, notamment de la recherche. D’autre part FranceIsAI.com, une plate-forme d’échanges pour accélérer le mouvement autour de l’IA créée par le fonds d’investissement Isai. Un secteur extrêmement dynamique Au 19 juillet 2017, l’Observatoire de L’Intelligence Artificielle recensait 542 structures dédiées dont 307 entreprises et 235 équipes de recherche. De son côté FranceIsAI, concentré sur les start-up, annonce plus de 250 entreprises autour de l’Intelligence artificielle créées depuis 2000. Le site intègre de plus les levées de fonds et rachat de sociétés françaises par des groupes. Une grande variété de secteurs Les start-up françaises sont non seulement actives sur l’ensemble des domaines de l’intelligence artificielle (machine learning, voice recognition…), mais aussi sur un grand nombre de secteurs d’activité : de la publicité au transport, en passant par la distribution et la santé
Des levées de fonds importantes Le site franceisai indique ainsi des investissements de plus de 566,9 millions de dollars pour 83 des sociétés recensées dans des domaines très divers, ainsi les 4 plus importantes levées de fonds sont : Algolia (74,22 M$ dont 53 M$ en juin 2017) propose un moteur de recherche pour les entreprises entièrement paramétrable . Navya (38,02 M$) : un véhicule autonome 100% électrique Sophia Genetics (28,75 M$) qui permet une aide au diagnostic médical Alkemics (27,6 M$) plateforme spécialisée dans le retail dédié aux relations entre fabricants et distributeurs Plusieurs rachats ces dernières années Ces levées de fond ont permis de créer de véritables success stories : comme c’est le cas pour Algolia, Alkemics ou encore LinkFluence. Cette dernière est parmi les leader mondiaux de la social intelligence et qui compte plus de 300 clients, dont des grands comptes comme Danone, Sanofi, Orange ou encore McDonald’s. Cependant, plusieurs sociétés françaises ont fait l’objet de rachat par des grands groupes ces dernières années : Zenly, réseau social géolocalisé, a été racheté par SnapChat en mai 2017 pour un montant estimé entre 250 et 350 M de Dollars. Zenly sert notamment de base technologique à la nouvelle fonctionnalité Map de SnapChat, lancée en juin 2017. En 2015, Priceline, maison mère de Booking.com, a mis la main sur Price Match, spécialisée dans le yield management hôtelier (pour un montant estimé entre 15 et 50 M €). Cette même année, le géant américain de la relation client Zendesk avait acheté la start-up montpelliéraine Bime Analytics pour 45M de dollars. La société, toujours basée dans le sud de la France est devenue Zendesk France en mai 2017. Google, quant à lui a choisi en juillet 2016 de racheter MoodStocks afin d’accélérer ses développements dans la reconnaissance d’objets. Un premier Blu-ray 4K Ultra HD pour Disney fin août Plus d’un an après le lancement officiel du format Blu-ray 4K Ultra HD, le studio de Burbank s’apprête à inaugurer sa gamme de disques ultra-haute définition dès le mois prochain avec un premier titre, Les Gardiens de la Galaxie Vol.2. Une arrivée qui pourrait renforcer la dynamique de vente du nouveau support eu égard
à la portée de ses productions et aux succès répétés du studio sur le marché amont. Longtemps réduite au statut de simple rumeur, l’arrivée des productions de Disney sur le marché de l’ultra-haute définition semble se préciser. James Gunn, le réalisateur du deuxième opus des Gardiens de la Galaxie qui a longtemps milité auprès du géant du divertissement pour que son œuvre soit exploitée sur le dernier né des supports vidéo physiques, semble avoir obtenu gain de cause et en a fait l’annonce sur sa page Facebook le 5 juillet : Les Gardiens de la Galaxie Vol.2 devrait être le premier film du studio à être commercialisé sous format Blu-ray 4K UHD. Une information qui n’a pas été officiellement confirmée par Disney. La sortie du film serait attendue pour le 22 août prochain aux États-Unis. Aucune date n’a en revanche été évoquée s’agissant de sa commercialisation en Europe. Selon les premiers éléments connus à date, la version américaine du film devrait être accompagnée d’une bande-son Dolby Atmos et serait compatible HDR10 et Dolby Vision. Alors que les premiers disques Blu-ray 4K Ultra HD ont fait leur apparition sur le marché mondial le 1er mars 2016, Disney faisait figure de grand absent parmi les majors hollywoodiennes. Le studio de Burbank aurait ainsi fait le choix de patienter jusqu’à la prise en charge de ces standards HDR par un maximum de lecteurs et téléviseurs avant de se lancer dans l’aventure du format Blu-ray de dernière génération. Moins médiatiques que la 4K Ultra HD, les technologies HDR10 et Dolby Vision paraissent pourtant tout aussi révolutionnaires pour le spectateur avec une luminosité plus intense et une plus large palette de nuances dans les couleurs qui permettent d’afficher des images d’une plus grande vivacité et d’un réalisme incomparable. L’arrivée des premiers films Disney en Blu-ray 4K Ultra HD devrait permettre de renforcer la dynamique de vente du format. Selon le cabinet britannique Futuresource Consulting[1], l’adoption soutenue des téléviseurs 4K et l’accroissement du catalogue de titres Blu-ray 4K Ultra HD (110 œuvres disponibles en 2016 d’après le DEG, 250 de plus attendues en 2017) devraient permettre à l’industrie d’écouler près de 8,4 millions de disques Blu-ray 4K Ultra HD en 2017. Sur le seul marché français, 64 000 Blu-ray 4K Ultra HD ont été écoulés en 2016. Un chiffre qui pourrait être multiplié par trois ou quatre en 2017 selon les estimations de GfK. L’attrait du grand public pour les œuvres de Disney, studio le plus rentable de ces trois dernières années[2] avec des succès planétaires dans chacun de ses domaines de production (Disney Animation, Live-Action, Lucasfilm, Marvel, Pixar), devrait contribuer activement au décollage du marché. Les Gardiens de la Galaxie Vol.2 est le deuxième plus gros succès du studio au box-office mondial à mi-année (derrière La Belle et la Bête, 1,261 Md$). Il a généré 858 millions de dollars de recettes, soit 85 M$ de plus que le premier volet de la franchise sorti trois ans plus tôt. Autre titre évoqué, Pirates des Caraïbes : La Vengeance de Salazar, cinquième volet de la saga, pourrait être le deuxième long-métrage de Disney a bénéficié d’une exploitation sous format Blu-ray 4K Ultra HD (sortie prévue en septembre). [1] Futuresource Consulting : Mapping the 4K Ultra HD Landscape [2] The Hollywood Reporter : Studio-by-Studio Profitability Ranking: Disney Surges, Sony
Sputters Le nouveau Dailymotion offre une caution précieuse aux technologies P2P La nouvelle version de Dailymotion proposée depuis la semaine dernière aux internautes sur le marché français dans un premier temps est une refonte globale et d’envergure du service. Si les éléments les plus visibles restent un nouveau cœur de cible, une expérience utilisateur plus riche ainsi qu’un recentrage sur les contenus professionnels de nombreux partenaires, le nouveau Dailymotion repose également sur une architecture technologique ambitieuse ouverte à des solutions de distribution en Peer-to-Peer (P2P). • Le P2P comme technologie de diffusion complémentaire L’explosion de la vidéo sur IP, les usages multi-écrans ainsi que l’amélioration continue des formats vidéo obligent les diffuseurs de vidéo sur internet à réfléchir à des solutions de diffusion innovantes. Les coûts de bande passante sont au centre des problématiques actuelles et représentent un enjeu stratégique majeur. La priorité est donnée à la réduction de l’OPEX via des économies de bande passante et la mise en place de nouvelles infrastructures de diffusion capables de supporter les nouveaux standards ainsi qu’un volume de trafic croissant sans dégrader l’expérience utilisateur. Les modèles actuels de distribution sur internet commencent de fait à montrer leurs limites avec des pics de trafic et des goulots d’étranglement du réseau de plus en plus complexe à gérer. Les protocoles Unicast traditionnels, basés sur une relation one to one entre les serveurs et chaque utilisateur nécessitent de constituer des infrastructures toujours plus lourdes avec un maillage de serveurs de réseaux de distribution de contenus (CDN) géographiquement proches de l’internaute et la multiplication des points de peering. Une situation encore plus compliquée pour les flux live puisque par définition les vidéos ne peuvent pas être dupliquées à l’avance sur les serveurs CDN. La recherche de modèles de distribution OTT complémentaires de l’unicast est donc une priorité pour continuer d’assurer la qualité de l’expérience et optimiser les coûts de diffusion. Dans tous les cas, le principal enjeu est de décentraliser les infrastructures de diffusion. Parmi les pistes explorées figurent le transport multicast qui a fait le succès de l’IPTV, mais également le Peer-to-Peer pour la diffusion de chaines ou de vidéos live OTT à grande échelle. La technologie du P2P est explorée comme une piste de travail depuis longtemps par les professionnels en raison de son avantage intrinsèque permettant le partage décentralisé des contenus en utilisant la bande passante disponible chez tous les internautes qui servent de relais. L’EBU en a fait un de ses chantiers d’exploration dès 2006 (1) et il existe maintenant plus de dix ans de recherche académique sur le sujet. Mais le P2P présente également des inconvénients majeurs qui ont freiné son déploiement à
grande échelle par les services légaux et les principaux acteurs du streaming (asymétrie des connexions internet, absence de mesure et de contrôle de la distribution et donc de la qualité de service, nécessité d’installation d’un logiciel chez chaque utilisateur final…). Ces freins sont majoritairement levés aujourd’hui en raison de progrès décisifs rendus possibles par les solutions développées et commercialisées par des start-ups comme Peer5 (Palo Alto, Californie) ou le français Streamroot (Paris et New York). Dans les deux cas les technologies sont relativement similaires avec deux types d’avancées majeures par rapport au P2P traditionnel. D’abord, l’hybridation du P2P avec les architectures CDN classiques. Les solutions ne remplacent pas les autres modes de diffusion mais s’y ajoutent tout en ne nécessitant qu’un effort d’intégration minimum. Les technologies sont donc complémentaires. Le P2P permet de soulager les réseaux face aux pics de trafic, chaque spectateur mettant sa bande passante à disposition pour partager le même flux vidéo ; mais si le P2P est trop faible (peers insuffisants), les informations manquantes sont alors récupérées via les serveurs CDN. La complémentarité se traduit également par la possibilité de capitaliser sur les avantages des infrastructures CDN dans le domaine de la sécurité. Les processus de géolocalisation des contenus, de gestion des droits numériques (DRM), de cryptage restent inchangés. Ces processus sont agnostiques en termes de technologie de diffusion et restent donc valides dans le cas de diffusion via une passerelle P2P. Ensuite, seconde avancée majeure, les solutions de diffusion P2P des deux sociétés sont optimisées avec des innovations et des technologies issues de l’internet ouvert à commencer par le protocole WebRTC (Real Time Communication). Celui-ci, distribué en open source par Google est intégré aux navigateurs HTML5 et au navigateur Safari d’Apple depuis le début le mois de juin et permet une communication directe, instantanée et sécurisée entre les utilisateurs. Il n’y a donc plus besoin de logiciels à installer pour créer un réseau de distribution en P2P. Tout se fait directement au sein des navigateurs (2). De même, Media Source Extensions (MSE), autre standard du W3C, permet la gestion du streaming adaptatif (y compris en MPEG-DASH) et des formats haute définition, HD et UHD 4K. • Le P2P commercial obtient un soutien de poids Dailymotion avant même sa refonte présentée la semaine dernière se plaçait parmi les plus importantes plates-formes de streaming dans le monde avec 300 millions d’utilisateurs revendiqués et 3,5 milliards de vidéos vues chaque mois. Si son intérêt pour les architectures de streaming assisté en P2P est donc logique, il est également précoce et très avancé. Il est vrai que le streaming en live pour laquelle ces technologies de diffusion sont particulièrement adaptées est également une des pistes de développement importante pour la plate-forme de Vivendi. Les partenariats avec le californien Peer5 et le français Streamroot ont donc été annoncés respectivement en septembre et octobre 2016. Depuis, les tests se sont multipliées sur certains formats (sport en direct, e-sport) et dans certains pays (l’Asie notamment). Les deux solutions sont aujourd’hui en production. Il semblerait également à en croire Peer5 lui-même que la solution américaine soit également utilisée pour Canalplay, le service de vidéo à la demande de Vivendi. Ce choix de tester puis d’utiliser deux partenaires dont les solutions technologiques sont directement concurrentes montre la solidité de l’engagement de Dailymotion derrière le
streaming assisté en P2P. Surtout, il apporte une caution et une forme de validation pour ces nouvelles formes de distribution OTT alternatives. Une question qui n’est pas neutre puisque derrière l’aspect technologique le peer-to-peer souffre d’un véritable problème de légitimité qui trouve ses origines dans son histoire intimement lié au succès de la technologie décentralisée pair à pair BitTorrent et donc au piratage des contenus. Le support de Dailymotion, lui-même engagé dans une stratégie de recentrage sur les contenus premiums et professionnels et donc dans une stratégie de partenariats avec les grands éditeurs pourrait s’avérer décisif pour les spécialistes de la technologie comme Peer5 et Streamroot. De fait, le principal écueil qu’ils rencontrent aujourd’hui reste les réticences des industries du contenu qui craignent toujours que la technologie P2P, même commerciale, soit synonyme de piratage. Au point pour certains acteurs de mentionner explicitement dans leurs contrats avec les distributeurs que l’utilisation de cette technologie est interdite. Si Dailymotion n’est pas le premier acteur professionnel à utiliser ce mode de diffusion, son envergure est sans conteste un atout majeur pour l’avenir du peer-to-peer. (1) Les travaux ont débouché en 2010 sur la publication d’un rapport de référence, TECH REPORT 009, Peer-to-Peer (P2P) Technologies and Services (2) WebRTC reste néanmoins limité pour l’instant à l’univers du PC, le standard étant encore peu supporté sur les terminaux mobiles. Mais Peer5 a déployé un SDK Android et prévoit un SDK iOS d’ici la fin de l’année. La technologie 4DX, l’avenir pour les salles de cinéma ? Après l’IMAX, le HFR, l’ICE et la 3D, la technologie 4DX est le nouveau format à sensations fortes proposé dans les salles de cinéma. Censée apporter une expérience complètement immersive pour le spectateur, la technologie se développe de plus en plus en Europe et a pour but de transformer de manière générale l’expérience du cinéma. Une source de divertissement supplémentaire pour le spectateur La technologie 4DX propose au spectateur de vivre une expérience sensorielle lorsqu’il se rend au cinéma. Les sièges vibrent et bougent sur trois axes pour pouvoir suivre les péripéties du héros. Pesant 360 kilos ces sièges sont capables d’imprimer une forte sensation de mouvement afin d’immerger le spectateur dans l’ aventure présentée à l’écran[1]. Ils sont également équipés de brumisateurs permettant de
générer de la brume ou des jets d’eau mais également de diffuseurs de parfum à l’arrière du siège. La salle elle-même est équipée d’un système de soufflerie ainsi que des spots permettant de créer de puissants effets lumineux. Tous ces effets visent à proposer au spectateur une expérience plus immersive et plus dynamique. Par exemple, durant le film Alien : Covenant, le vaisseau spatial connaît des turbulences et à ce moment du film, la salle de cinéma déclenche des lumières rouges pour simuler une alerte rouge et les sièges bougent pour simuler les turbulences. Il est également possible de simuler différentes conditions météorologiques des premières gouttes d’une pluie au gros coup de vent. Il y a actuellement 370 salles de ce type dans le monde, principalement en Corée du Sud et en Chine, mais qu’une seule en France : le Pathé de La Villette dans le XIX ème arrondissement de Paris qui compte 104 sièges. A la fin de l’année 2017, suite à un accord passé entre Gaumont Pathé et la société coréenne CJ 4DPLEX qui fournit la technologie, il devrait y avoir sept salles compatibles en France. Cet accord prévoit l’ouverture de 30 nouvelles salles 4DX en Europe (Pays-Bas, Suisse, Belgique et France). Gaumont Pathé compte ainsi profiter de son statut de premier circuit de cinémas en France pour populariser la technologie auprès du public. Les tarifs pour un ticket 4DX au Pathé de La Villette à Paris sont de 20€ pour un ticket normal, 16.5€ pour le tarif étudiant et de 17€ pour les séniors (65 ans et plus). La société n’a pas souhaité communiquer les investissements consentis pour cette salle, mais elle nécessite au minimum une régie spécifique dédiée en sous-sol ainsi que des serveurs informatiques propres. D’après l’APCQ[2], l’investissement nécessaire pour une sal le pourrait s’élever à plus de 1.3 millions d’euros[3]. La première utilisation de la technologie a eu lieu en 2009 à Séoul et depuis, plus de 420 titres ont été diffusés en 4DX à travers le monde. Le premier film diffusé en France fut Kong : Skull Island le 15 mars 2017, au cinéma de La Villette. De nouvelles sensations pourraient être ajoutées dans les salles à l’avenir comme de la neige ou de la chaleur. Une opportunité pour les exploitants : ramener le public jeune dans les salles La manière de consommer des films a bien évolué ces dernières années avec l’arrivée de nouveaux acteurs, comme Netflix, ainsi que la multiplication des écrans. Les exploitants de salles de cinéma cherchent donc de nouveaux moyens d’attirer le public, notamment en essayant de transformer chaque visite au cinéma en une expérience inoubliable. C’est là qu’entrent en jeu les diverses technologies mises en place pour changer le cinéma tel que nous le connaissons. Ces solutions ont un double avantage : elles proposent au spectateur quelque chose qu’il ne pourra pas obtenir depuis chez lui et permettent de justifier le coût du ticket. En moyenne par exemple, les cinémas diffusant Wonder Woman en 4DX génèrent trois fois plus de revenus que les salles de cinéma classiques jouant le même film. L’innovation semble rencontrer un certain succès aux Etats-Unis, qui compte 9 salles
compatibles, malgré le surplus tarifaire allant de 6$ à 8$. The Fate of the Furious, dernier film de la saga Fast and Furious, a enregistré 1.5 millions d’entrées en 4DX. Le record d’entrées pour la 4DX outre-Atlantique est tenu par Star Wars : The Force Awakens avec 1.8 millions d’entrées. Mais l’enjeu de la 4DX est également de permettre un renouvellement de l’audience. Pour Arnaud Surel, Directeur exploitation cinématographique pour les cinémas Gaumont Pathé : « en réalité, le cinéma en France se porte plutôt bien en termes de fréquentation. Le problème c’est plutôt que le public vieillit. Il faut donc avoir des attentions particulières pour les jeunes. C’est ce que la 4DX nous apporte ». Le cinéma Pathé La Villette a proposé en 4DX dès son ouverture les films Logan et Kong : Skull Island, puis par la suite La Belle et la Bête ainsi que Ghost in the Shell, Fast & Furious 8, Les Gardiens de la Galaxie Vol. 2 et Pirates des Caraïbes : La Vengeance de Salazar. Tous sont des films visant un public relativement jeune, promettant des sensations fortes en utilisant la 4DX. La salle de La Villette fait office de laboratoire de nouveautés pour Gaumont Pathé. Pour le moment, l’expérience semble réussir puisque le cinéma de La Villette, victime de son succès, demande désormais aux personnes intéressées de réserver plusieurs jours à l’avance. Cependant, si l’expérience vise les jeunes, seront-ils prêts eux à payer 20€ pour aller au cinéma, au-delà de la première fois « pour essayer » ? Des films pas forcément compatibles Quelques critiques de la technologie commencent cependant à émerger des Etats-Unis, où elle est utilisée depuis juin 2014. Outre les désavantages inhérents à la 4DX, comme des mouvements du siège qui peuvent être trop violent et faire mal au dos, certains se plaignent du manque de cohérence dans l’utilisation de la technologie. Certaines diffusions n’offriraient pas d’expérience unifiée pour le spectateur mais plutôt une collection d’effets superposés les uns aux autres, ce qui rendrait l’expérience confuse par rapport au film. Ceci peut être expliqué par le fait qu’il y a deux personnes différentes qui gèrent l’expérience, une pour les mouvements des sièges et l’autre pour l’environnement, et que l’objectif pour elles semble être de maximiser l’usage des effets pour marquer le spectateur, plutôt que d’étudier leur utilité réelle par rapport à un scénario. L’écueil à éviter semble être celui que connaît la 3D : l’utilisation à outrance de la technologie, sans considération pour l’œuvre cinématographique. Tout n’est pas sujet à sensations fortes dans un film et tous les films ne seront pas adaptés à ce genre d’expérience. Les sièges restent par exemple immobiles lors de scènes de dialogues ou ne font que tourner lors de scènes panoramiques. L’intérêt semble donc limité pour des films ne contenant pas de scènes d’actions. De plus, il reste la problématique du choix du personnage à suivre lors de scènes d’actions ou de combats. Tout ceci nécessite de la réflexion en amont, peut-être même dès la conception du film comme cela a été fait pour certaines scènes du dernier film de Tom Cruise, La Momie. [1] Les séances de films en 4DX sont d’ailleurs déconseillées aux femmes enceintes, aux personnes âgées à mobilité réduite et aux personnes épileptiques ou ayant des problèmes cardiovasculaires. Les enfants entre 4 et 7 ans ou faisant moins de 1,20 mètres doivent par
ailleurs être accompagnés. [2] Association des Propriétaires de Cinémas du Québec [3] L’association avançait en juillet 2016 qu’une salle 4DX coûte 2 millions de dollars canadiens, l’équivalent de 1 350 497€ http://ici.radio-canada.ca/nouvelle/792412/cinema-4dx-salles-ecran-effets E3 : Vers un décollage de la VR dans le jeu vidéo ? La semaine dernière se déroulait l’Electronic Entertainment Expo, ou E3, à Los Angeles. Il s’agit du plus important salon international consacré aux jeux vidéo et comme chaque année les grandes entreprises du secteur (Sony, Nintendo, Microsoft, Ubisoft, etc.) étaient présentes et toutes ont fait des annonces, notamment dans le domaine de la réalité virtuelle (VR). Enfin des jeux pour les casques de réalité virtuelle Alors que la nouvelle console de Microsoft, la Xbox One X, a été la véritable star de cette édition 2017 de l’E3, la réalité virtuelle a également brillé de façon plus discrète. En effet, cette année pas de présentation de nouveaux casques de VR pour attirer tous les regards mais une présence plus diffuse sur les stands de presque la totalité des éditeurs. Cette édition de l’E3 aura donc été marquée par une multiplication des annonces de jeux VR à la place des annonces de hardware qui ont marqué les éditions précédentes. Ainsi, une des tendances de cet E3 aura été l’annonce de très nombreuses adaptations de jeux cultes pour la VR. Sony a ainsi présenté la version destinée à son casque Playstation VR du célèbre jeu de course Gran Turismo. L’éditeur américain Bethesda a lui annoncé le portage VR de ses principales franchises Doom, Elder Scrolls et Fallout pour les casques HTC Vive et Playstation VR. Même Nintendo, qui pourtant n’a pas officiellement de projets de casques VR, a annoncé une version VR de son jeu Mario Kart destiné à des bornes d’arcades équipées de casque HTC Vive. Au final, chaque éditeur ou presque a annoncé le portage en VR d’une de ses marques les plus fortes[1]. Cependant, cette vague de portage était un peu attendue puisque certains éditeurs comme Capcom en avait déjà réalisé l’année dernière et que les portages sont beaucoup moins risqués commercialement que le développement intégral d’un nouveau jeu qui peut se révéler très coûteux tout en ne bénéficiant pas d’une base de joueurs fidèles dès sa sortie. Cependant, l’E3 a permis de constater que les grands éditeurs commencent également à développer des jeux spécifiquement conçus pour une utilisation avec un casque de réalité virtuelle. Ainsi, Ubisoft a annoncé par exemple Star Trek : Bridge Crew qui proposera une
aventure VR sur les PSVR, Oculus Rift et HTC Vive. C’est cependant Sony qui s’est imposé comme l’acteur le plus innovant dans le domaine de la VR. Le géant japonais a ainsi présenté lors de sa conférence un grand nombre de jeux développés par ses studios partenaires exclusivement pour son casque de PlayStation VR[2]. C’est sans doute ces nouveaux projets qui permettront de tester les possibilités offertes par la VR dans le domaine du jeu : liberté totale de mouvement, images en 360, immersion totale dans un univers, sensation de prise de risque physique, etc. Cette technologie est une opportunité pour les développeurs de proposer quelque chose de complètement nouveau, avec de nouveaux styles de jeu. Un tournant pour le marché de la VR Cette prolifération de jeux peut constituer un tournant pour le marché de la VR, caractérisé auparavant par la frilosité des éditeurs de contenus. La VR souffrait jusqu’alors d’un cercle vicieux empêchant son développement. Alors que le marché de la VR était très balbutiant, les développeurs ont adopté une posture attentiste ne voyant pas l’intérêt de créer des jeux coûteux pour un marché de la VR très restreint. Les jeux proposés lors du lancement des terminaux comme l’Oculus Rift ne tiraient pas parti du potentiel énorme de la VR et étaient assez limités dans leurs ambitions. De ce fait, les consommateurs n’ont pas été convaincus de l’intérêt d’investir dans un casque pour un marché encore balbutiant. En outre, de manière générale, le marché est confus pour un client lambda. Chaque développeur dispose de sa propre plateforme, sans passerelles possibles. Les consommateurs ont donc adopté eux aussi une approche prudente de ce marché, attendant qu’il devienne réellement intéressant. Cependant, depuis le lancement du PlayStation VR à la fin 2016, les choses évoluent positivement. Au premier trimestre 2017, Sony a vendu 429 000 PSVR, HTC a vendu 190 000 casques HTC Vive, Oculus a écoulé 99 000 Oculus Rift et Samsung a vendu plus de 489 500 casques Gear VR. Sony a ainsi atteint le million de casques PSVR vendu depuis son lancement en octobre 2016, un cap plus symbolique que réellement significatif. Mais le passage de ce cap montre que la réalité virtuelle sur PS4 a de beaux jours devant elle. Ce passage peut être expliqué par la relation de confiance qui existe entre les joueurs et la marque PlayStation, confiance qui s’est construite année après année, mais aussi par le fait qu’il s’agit d’un des casques les moins chers du marché : 399€, là où l’Oculus Rift coûte 699€ et le HTC Vive 899€. Aux alentours de Noël, le succès du PSVR a été tel que Sony a dû freiner ses efforts publicitaires car les stocks n’arrivaient pas à suivre les demandes des clients. La marge de progression de Sony est également assez nette puisqu’il existe près de 60 millions de personnes possédant une PS4, nécessaire au fonctionnement de la PSVR. Cette explosion des ventes de casques VR semblent donc avoir convaincu les éditeurs de l’intérêt économique de développer des jeux directement pour cette partie du marché. Et ce changement peut enclencher un cercle vertueux pour la VR. Un nombre croissant de jeux rendra les casques plus attractifs et devrait faire augmenter les ventes et le parc de terminaux compatibles installés. Un grand nombre de terminaux VR installés devrait ensuite convaincre un plus grand nombre d’éditeurs de produire des contenus directement pour la VR.
La VR semble sur le point d’exploiter son potentiel auprès du public. Mais il reste cependant de nombreux obstacles à franchir avant d’arriver à ce que la technologie soit réellement accessible auprès du grand public. Les étapes à franchir avant d’arriver à la VR grand public Mark Zuckerberg a déclaré en février dernier que la VR ne sera « réellement grand public qu’à l’horizon de 10 ans » et que la rentabilité ne sera pas au rendez-vous tout de suite. La technologie n’a qu’un an et à ce stade, les casques vendus aujourd’hui peuvent être vus, et le sont par beaucoup, comme des prototypes. Les casques actuels ne font que délivrer une expérience, pour donner aux utilisateurs le goût d’aller plus loin. La technologie proposée aujourd’hui comporte de nombreuses contraintes, particulièrement en termes de résolution de l’image, qui peut peser sur l’expérience utilisateur. Le casque HTC Vive par exemple a besoin de ses deux capteurs, des fils et d’un ordinateur puissant car pour éviter la sensation de gêne de l’utilisateur, il faut une résolution de 90 images par secondes sur chacun des deux écrans, là où un jeu vidéo fluide n’en nécessite que 60 par seconde, équivalent à l’UHD. Pour obtenir la résolution de l’œil humain, il faudrait atteindre une clarté de l’image 70 fois supérieure à celle des casques actuels. C’est sur ce point que la déclaration du PDG de Facebook prend tout son sens : la VR va devoir attendre l’avancée des technologies display pour pouvoir atteindre son plein potentiel. Une fois ceci possible, et une fois les puissances de calcul ainsi que l’autonomie de la batterie des casques seront suffisantes, des casques autonomes, qui ne nécessitent ni fils, smartphone ou ordinateur, vont pouvoir se développer. Google a déjà annoncé le mois dernier s’être allié à HTC et Lenovo pour développer ce genre de casque. HTC a également annoncé au dernier CES un partenariat similaire avec Intel. Microsoft a d’ailleurs profité de l’E3 pour déclarer qu’il attendait d’être capable de produire et commercialiser ce type de casques sans fil pour investir massivement dans les jeux en réalité virtuelle. Phil Spencer, président de la division Xbox de Microsoft a d’ailleurs déclaré : « Pour que la réalité virtuelle touche le grand public, elle doit être sans fil ». Microsoft et Asus devraient d’ailleurs commercialiser un casque commun en 2018 qualifié de « Mixed Reality[3] » plutôt que de réalité virtuelle. A plus court terme, de nombreuses autres entreprises semblent s’intéresser de près à la VR. Dell serait en train de développer un casque au prix abordable, et le nouvel iMac d’Apple est annoncé comme étant « VR-ready » et est destiné aux développeurs, et non aux joueurs. La multiplication des acteurs sur le marché devrait aboutir sur un choix plus varié pour l’utilisateur final et une baisse des prix. Le cabinet IDC prévoit par ailleurs le triplement des ventes de casque cette année. Il est possible qu’il faille attendre un autre cycle de développement de la technologie avant de pouvoir vraiment parler de VR pour tous, grand public. Mais les annonces faites à l’E3 montrent que les acteurs du marché semblent déterminer à développer leurs offres en attirant d’abord les initiés au monde du jeu vidéo.
[1] On pourrait également mentionner Final Fantasy VR de Square Enix ou Batman Arkham VR de Warner Interactive parmi les annonces importantes de ce salon. [2] Parmi les jeux annoncés on peut citer No Heroes Allowed ! de Acquire, MOSS de Polyarc ou Bravo Team de Supermassive Games. [3] La Mixed Reality fait référence à une technologie utilisant la VR, la réalité augmentée ainsi que la 3D, permettant de pouvoir « faire entrer » des personnes physiques dans un univers virtuel. Cisco prévoit le triplement du trafic vidéo sur internet d’ici 5 ans L’entreprise américaine Cisco a publié le 7 juin 2017 son dernier rapport annuel Visual Networking Index Forecast Update[1] qui prédit l’évolution d’internet et des usages numériques d’ici 2021. La principale leçon de ce rapport concerne la vidéo : Cisco prévoit en effet que la vidéo représentera 82% du trafic global IP[2] en 2021, cela représente 1 million de minutes de vidéos vues par seconde. La croissance continue d’internet De manière générale, internet va continuer de grandir. D’après ce rapport, 58% de la population mondiale sera connectée en 2021[3] (contre 47% à ce jour), le débit moyen passera de 27.5 Mbps[4] actuellement à 53 Mbps, il y aura plus de trafic sur smartphone que sur PC et nous produirons annuellement 3.3 zettabits[5] de données (contre 1.2 aujourd’hui). De plus, il y aura en 2021 trois fois plus d’appareils connectés qu’il n’y a d’habitants sur Terre, soit 27.1 milliards de terminaux connectés. Ceci sera rendu possible grâce aux connections Machine-To-Machine (M2M), qui incluent l’internet des objets (IoT). Ce pan d’internet va voir son nombre de connexions être multiplié par 2.4 d’ici à 2021 pour atteindre 13.7 milliards d’objets concernés, soit la moitié des terminaux mondiaux, et représenter 5% du trafic IP global. Ceci correspond à 1.75 connections M2M par habitant terrestre. Les principaux domaines concernés seront la maison (46% des connections M2M totales), le travail, la santé, la ville et la voiture. Dans ce domaine, la 5G va avoir une importance primordiale[6], mais ne représentera que 0.2% des connections, soit 1.5% du trafic mobile car une connexion 5G représente 4.7 fois plus de trafic qu’une connexion 4G. Pour soutenir ces évolutions et en l’absence de véritable explosion de la 5G, les connexions internet se feront à 37% sur un réseau câblé (fibre comme cuivre) et à 63% sur le réseau mobile et le Wi-Fi. Le nombre de hotspots Wi-Fi[7] va être multiplié
par six pour atteindre 541.6 millions à travers le monde. Plus des deux tiers des opérateurs mobiles et 78% des entreprises du câble ont ainsi l’intention d’utiliser le Wi-Fi pour supporter les services liés à l’IoT, notamment dans les hôpitaux où le nombre de hotspots va tripler d’ici à 2021. En ce qui concerne la France, le débit moyen passera de 25.6 à 64.5 Mbps, mais l’évolution la plus impressionnante concerne l’UHD sur le segment de la VoD qui devrait connaître un CAGR[8] de 160.9%, passant de 0.2% du trafic lié à la VoD en 2016 à 21.6% en 2021. Le trafic global de la vidéo sera multiplié par trois d’ici 2021 suivant une croissance similaire aux évolutions mondiales. Environ 24 000 minutes de vidéos seront visionnées chaque seconde. Les vidéos longs formats, correspondant aux offres OTT, ainsi que le live long format atteindront 72.1% du trafic vidéo en 2021, contre 55.6% en 2016. De manière plus globale, en termes de volume de données circulant en 2021 en France, l’équivalent en gigabit de l’ensemble des films jamais réalisés à ce jour devrait circuler sur les IP françaises toutes les heures. L’explosion de la vidéo Sur la période étudiée, la vidéo mobile croit de manière beaucoup plus rapide que la télévision digitale[10], avec un CAGR de 4.2%, là où la vidéo mobile connait un CAGR de
14.8%. D’après Cisco, 60% du trafic lié à la vidéo sur internet en 2016 était dédié à des vidéos longs formats (films, séries, documentaires, etc.). Il s’agit en fait de la proportion de données liées aux offres OTT. Cette masse de données sera multipliée par 3.68 en 2021, montrant bien que l’OTT a de beaux jours devant lui. La VoD IP, qui n’est qu’une partie de ceci, représentera elle 14.5% du trafic IP global en 2021.Actuellement, la vidéo[9] représente 73% du trafic IP global. En 2021, cette proportion atteindra 82% selon Cisco, le trafic global IP en vidéo sera ainsi multiplié par trois sur la période étudiée, avec un CAGR de 26%. Globalement, il y aura 1.9 milliard d’utilisateurs vidéo en 2021, hors utilisateurs mobile-only, il y en avait 1.4 milliard en 2016. Selon Cisco, 3 000 milliards de minutes de vidéos seront vues par mois en 2021. Un des facteurs de croissance de la vidéo sera la hausse de la qualité de l’image. Portée par la hausse du débit moyen, l’UHD, qui représentait en 2016 à peine 2% du trafic vidéo, va se démocratiser et atteindra 21% du trafic vidéo en 2021, ce qui correspond à un CAGR de 91%. De plus, le rapport prévoit que 56% des télévisions à écran plat et connectées seront des télévisions 4K en 2021, contre 15% en 2016. La vidéo live représentera 13% du trafic vidéo sur internet. Cela peut paraître faible mais le volume de données liées au live sera multiplié par 15 sur la période étudiée, représentant la plus grande opportunité pour de nouveaux entrants si on compare avec les autres domaines où les acteurs sont bien installés. Le principal facteur de croissance de la vidéo live devrait être l’internaute lui-même, à travers des services tels que Snapchat ou Facebook. Cette dernière entreprise avait par ailleurs déjà annoncé que la vidéo et le live seront ses principaux moteurs de croissance à l’avenir. Un autre facteur de croissance de la vidéo live concerne celui des chaînes télévisées, que le live soit distribué par la chaîne elle-même ou par un nouvel opérateur comme le français Molotov ou les américains Sling TV, Direct TV Now ainsi que YouTube TV. Il s’agit de nouveaux services OTT permettant à leurs utilisateurs de regarder la télévision de manière totalement délinéarisée avec des modèles mêlant le direct, le replay et pour les plus avancés le nPVR. Moyennant un abonnement, les utilisateurs de ces services ont ainsi accès à leur bouquet de chaînes depuis n’importe quel terminal supportant l’application du service. Ces nouveaux opérateurs diffusant le live d’un nombre conséquent de chaînes TV sur virtuellement n’importe quel support vont également représenter un moteur de croissance important pour le trafic vidéo en 2021. Le trafic lié à la réalité augmentée et à la réalité virtuelle va connaître un CAGR de 82% sur la période étudiée, ce qui représente une multiplication par 20 du volume de données dédiées, et représentera 1% du volume global du trafic lié au divertissement. C’est la première fois en douze ans que Cisco analyse ces technologies dans son rapport et a tenu à préciser qu’il s’agit d’un secteur à regarder de près dans le futur. En ce qui concerne le trafic sur mobile uniquement, la société Ericsson, qui a publié un rapport prospectif sur les évolutions du mobile jusqu’en 2022 cette semaine, s’attend à ce que le nombre d’utilisateurs mobiles passe de 3.9 milliards à 6.8 milliards. Le volume de données liées aux réseaux sociaux connaitra une croissance annuelle de 38%. Cependant la proportion de ces données sur le trafic global passera de 13% en 2016 à 11% en 2022, du fait de l’importance grandissante de la vidéo qui elle occupera 75% du trafic
Vous pouvez aussi lire