Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA

 
CONTINUER À LIRE
Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
Les derniers enseignements de l’Ofcom sur le
marché britannique des télécommunications

L’édition 2017 du rapport annuel de l’Ofcom sur le marché britannique des
télécommunications a été publiée le 3 août dernier et dresse le bilan de l’année
2016-2017 en quelques 243 pages. L’analyse du secteur de la télévision et
l’audiovisuel permet de mettre en lumière la corrélation entre l’amélioration
continue et rapide de la connectivité et de l’équipement des ménages britanniques
et l’installation de nouveaux usages.

• La connectivité au Royaume-Uni

82% des foyers britanniques ont désormais une connexion internet fixe à domicile (25,3M
de connexions), contre 79% l’année précédente. Surtout, la qualité de cette connexion
progresse puisque 44% des connexions à large bande (soit 10,8M de prises) ont profité au
mois de juin 2016, date de la mesure, d’un débit descendant réel d’au moins 30 mégabits
par seconde. Seulement 38% des connexions atteignaient ce débit réel en 2015, soit 6
points de moins. Le débit moyen réel des connexions s’établit à 36,2 Mbit/s au Royaume-
Uni en 2016 (contre 20,2 Mbit/s en France en 2015 selon l’Arcep).

L’internet mobile progresse également de manière conséquente. Si la proportion de foyers
abonnés à une offre de téléphonie mobile reste stable à 96%, les deux tiers des
abonnements, soit 52,4M sur un total de 92M, sont des abonnements 4G. Une progression
très importante puisqu’en 2015, 46% seulement des abonnements étaient compatibles 4G.
Si 94% des adultes britanniques (plus de 16 ans) possèdent un téléphone mobile, ils sont
76% à utiliser un smartphone et surtout, 66% selon les données de l’Ofcom Technology
Tracker à utiliser leur téléphone pour accéder à internet. Les smartphones sont identifiés
comme l’appareil le plus important pour la connectivité, et ils sont utilisés à la fois à
l’extérieur et à l’intérieur du domicile puisque l’Ofcom précise qu’environ les deux tiers des
connexions de données se font en Wi-Fi plutôt que par un réseau mobile. Sur ce point,
l’Ofcom a développé une méthodologie dédiée pour mesurer les usages sur téléphone
mobile. Une application passive est ainsi installée sur les smartphones Android d’un panel
d’utilisateurs. Une des conclusions les plus intéressantes concerne les usages de YouTube.
On apprend ainsi que 76% des sessions sur l’application YouTube des panelistes ont eu lieu
au quatrième trimestre 2016 via une connexion Wi-Fi contre 8% seulement via une
connexion 4G et 7% en 3G.

La conséquence directe de cette meilleure connectivité réside dans une utilisation
croissante des services de données. L’utilisation moyenne des données par ligne fixe a
augmenté de 36% par rapport à l’année précédente pour atteindre les 132 Go par mois en
juin 2016. Et malgré les usages massifs du Wi-Fi, l’utilisation moyenne des données
progresse également de manière très importante sur les réseaux mobiles avec 1,3 Go
mensuel soit un bond de 44% en un an. Globalement, 4% du total des données britanniques
ont transité sur les réseaux mobiles des opérateurs (juin 2016).
Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
• L’équipement des ménages britanniques

Comme mentionné précédemment, le smartphone est devenu le terminal le plus utilisé par
les adultes britanniques pour accéder à internet. Plus globalement, la photographie de
l’équipement des britanniques au premier trimestre 2017 se caractérise par deux faits
marquants. D’abord, un taux d’équipement élevé en ordinateurs au sens large mais qui ne
progresse plus d’une année sur l’autre : 29% des foyers possèdent un PC, 64% un
ordinateur portable et 58% une tablette (en France le taux d’équipement pour les tablettes,
tel que mesuré par GfK n’est que de 43% à fin 2016).

C’est surtout la très forte progression de l’équipement des ménages en terminaux
permettant d’accéder à internet sur le téléviseur qui retient l’attention. Les Smart TV
progressent ainsi de 9 points en un an. 36% des foyers britanniques sont désormais équipés
contre 25% en France (GfK). Dans le même temps, le nombre de foyers possédant une clé
TV (Google Chromecast, Roku Stick, Amazon Fire TV stick) ou une streaming box (NOW TV
set-top box, Roku, Amazon Fire TV, Apple TV) a doublé passant de 5 à 10%.

• Les nouveaux usages audiovisuels

La connectivité et l’équipement se traduisent par l’installation de nouveaux usages
audiovisuels. Le rapport annuel de l’Ofcom est particulièrement bien documenté sur ce
point avec un foisonnement d’informations mais qui proviennent de sources et de
méthodologies différentes, et qui sont éparpillées dans plusieurs chapitres. Il convient donc
de ne retenir que l’essentiel. D’abord, l’importance des usages multi-écrans mais avec un
paradoxe puisque si la consommation de contenus audiovisuels se fait de plus en plus sur
des écrans alternatifs au téléviseur, celui-ci, désormais connecté à internet, devient en
même temps l’écran le plus utilisé pour les nouveaux services disponibles en ligne. Ainsi,
alors que 54% des adultes disent apprécier la liberté de pouvoir regarder des contenus sur
leur tablette ou smartphone et même 83% des 16-24 ans, l’Ofcom constate que le téléviseur
domine les autres écrans pour les usages du iPlayer, le service en ligne de la BBC, son
concurrent de itv, le itv hub mais également Netflix ou Amazon Prime Video les deux
principaux services de SVoD. Le téléviseur est seulement dépassé par le PC, le Smartphone
et la tablette pour les usages de Facebook et de YouTube même si dans ce dernier cas, la
TV représente tout de même 33% des usages.

L’autre enseignement majeur réside dans la segmentation de plus en plus marquée des
usages en fonction de l’âge de la population. Les différences sont telles désormais entre les
plus jeunes et les plus âgés qu’il est de plus en plus difficile d’appréhender de manière
Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
globale l’évolution du paysage audiovisuel. De fait, au niveau de l’ensemble de la
population les usages de la télévision linéaire restent ultra dominants par rapport aux
formes alternatives de consommation de contenus audiovisuels. 91% des britanniques
regardent au moins une fois la TV linéaire chaque semaine. Et la durée d’écoute par
individu varie peu et reste stable à 3h32 par jour en 2016 (-4 minutes par rapport à l’année
précédente). Mais chez les plus de 64 ans, la DEI est en moyenne de 5h44, en hausse de 50
minutes en dix ans (2006) alors qu’elle n’est plus chez les 16-24 ans que de 1h54 en recul
de 41 minutes sur la même période. Et globalement, les britanniques ne sont plus que 30%
à déclarer regarder quotidiennement le même programme que les autres membres de leur
famille, ensemble devant le téléviseur du foyer.

L’individualisation de la consommation s’installe se traduisant par une véritable explosion
des usages sur les nouveaux services en ligne de vidéo à la demande, plateformes
d’hébergement comme services de vidéo à la demande par abonnement. Alors qu’en 2013,
la télévision en direct représentait 86% du temps total consacré à la consommation de
programmes audiovisuels, en 2016, elle ne représente plus que 80%. Une différence de six
points qui s’explique par la montée en puissance de la SVoD (qui passe de 1% à 4%) et des
services à la demande des chaînes (de 2% à 4% également). Plus concrètement, les deux
services leaders de SVoD représentent désormais 10 millions d’abonnements au Royaume-
Uni, 6 millions pour Netflix et 3,8 millions pour Amazon Prime avec un chiffre d’affaires («
OTT Subscription revenues ») estimés par Ampere Analysis pour l’Ofcom à 664M£ en 2016
(714M€) confirmant ainsi que le Royaume-Uni est de très très loin le premier marché de la
SVoD en Europe.

Si la concurrence de la SVoD n’est donc plus une menace mais une réalité pour les chaînes
de télévision britanniques, celles-ci ont néanmoins réussi à défendre leur place dans le
nouveau paysage audiovisuel. Et c’est certainement une des informations les plus
rassurantes du rapport de l’Ofcom. De fait, quand on demande aux britanniques quels sont,
hormis la TV en direct, les autres sources de contenus qu’ils utilisent, on constate que les
services en ligne des chaînes et en particulier des chaines du service public, dominent les
services des pure-players. Ainsi, le BBC iPlayer reste le service le plus populaire avec 63%
d’utilisateurs adultes, devant ITV Hub (40%), YouTube (38%) et Netflix (31%). Et si l’on
agrège les services, ceux des chaînes du service public (BBC iPlayer, All4, ITV Hub, My5)
sont utilisés par 67% des britanniques contre 45% pour les services de vidéo à la demande
par abonnement (Netflix et Amazon Prime) et 41% pour les médias sociaux (YouTube et
Facebook).
Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
Quand la France mise sur l’intelligence
artificielle

En termes d’intelligence artificielle, la France dispose d’un vaste écosystème de start-up et
de centres de recherche, d’autant plus vivant qu’il est l’objet d’un plan stratégique
spécifique du gouvernement et qu’il a permis de faire éclore plusieurs « success stories ».

#FranceIA, plan stratégique pour développer l’intelligence artificielle

     En janvier 2017, Axelle Lemaire, alors Secrétaire d’Etat au numérique et à
     l’innovation, présentait France IA, un plan stratégique national pour accompagner le
     développement de l’intelligence artificielle en France. A peine deux mois après ce
     lancement, les 17 groupes de travail de ce plan proposaient une première série d’une
     cinquantaine de recommandations articulées autour de 3 axes :
     Le soutien à la recherche en amont autour de l’intelligence artificielle via des
     structures dédiées, l’association des industriels et la formation
     L’aide au développement des start-up via la détection et le soutien des talents
     entrepreneuriaux ainsi que la facilitation des investissements dans les sociétés d’IA
     (défiscalisation, fonds d’investissement…)
     L’accompagnement dans l’adoption des technologies par le grand public via
     l’information, la transparence, en apportant également les garanties sur l’utilisation
     des données.

Ainsi, directement à la suite de ce rapport, France IA a souhaité accompagner 2 initiatives.
D’une part, la création d’un observatoire de l’Intelligence Artificielle en France , qui
recense l’ensemble des acteurs, notamment de la recherche. D’autre part FranceIsAI.com,
une plate-forme d’échanges pour accélérer le mouvement autour de l’IA créée par le fonds
d’investissement Isai.

Un secteur extrêmement dynamique

Au 19 juillet 2017, l’Observatoire de L’Intelligence Artificielle recensait 542 structures
dédiées dont 307 entreprises et 235 équipes de recherche. De son côté FranceIsAI,
concentré sur les start-up, annonce plus de 250 entreprises autour de l’Intelligence
artificielle créées depuis 2000. Le site intègre de plus les levées de fonds et rachat de
sociétés françaises par des groupes.

Une grande variété de secteurs
Les start-up françaises sont non seulement actives sur l’ensemble des domaines de
l’intelligence artificielle (machine learning, voice recognition…), mais aussi sur un grand
nombre de secteurs d’activité : de la publicité au transport, en passant par la distribution et
la santé
Les derniers enseignements de l'Ofcom sur le marché britannique des télécommunications - Insight NPA
Des levées de fonds importantes

Le site franceisai indique ainsi des investissements de plus de 566,9 millions de dollars
pour 83 des sociétés recensées dans des domaines très divers, ainsi les 4 plus importantes
levées de fonds sont :

     Algolia (74,22 M$ dont 53 M$ en juin 2017) propose un moteur de recherche pour les
     entreprises entièrement paramétrable .
     Navya (38,02 M$) : un véhicule autonome 100% électrique
     Sophia Genetics (28,75 M$) qui permet une aide au diagnostic médical
     Alkemics (27,6 M$) plateforme spécialisée dans le retail dédié aux relations entre
     fabricants et distributeurs

Plusieurs rachats ces dernières années

Ces levées de fond ont permis de créer de véritables success stories : comme c’est le cas
pour Algolia, Alkemics ou encore LinkFluence. Cette dernière est parmi les leader
mondiaux de la social intelligence et qui compte plus de 300 clients, dont des grands
comptes comme Danone, Sanofi, Orange ou encore McDonald’s. Cependant, plusieurs
sociétés françaises ont fait l’objet de rachat par des grands groupes ces dernières années :

     Zenly, réseau social géolocalisé, a été racheté par SnapChat en mai 2017 pour un
     montant estimé entre 250 et 350 M de Dollars. Zenly sert notamment de base
     technologique à la nouvelle fonctionnalité Map de SnapChat, lancée en juin 2017.
     En 2015, Priceline, maison mère de Booking.com, a mis la main sur Price Match,
     spécialisée dans le yield management hôtelier (pour un montant estimé entre 15 et 50
     M €). Cette même année, le géant américain de la relation client Zendesk avait acheté
     la start-up montpelliéraine Bime Analytics pour 45M de dollars. La société, toujours
     basée dans le sud de la France est devenue Zendesk France en mai 2017.
     Google, quant à lui a choisi en juillet 2016 de racheter MoodStocks afin d’accélérer
     ses développements dans la reconnaissance d’objets.

Un premier Blu-ray 4K Ultra HD pour Disney
fin août

Plus d’un an après le lancement officiel du format Blu-ray 4K Ultra HD, le studio
de Burbank s’apprête à inaugurer sa gamme de disques ultra-haute définition dès
le mois prochain avec un premier titre, Les Gardiens de la Galaxie Vol.2. Une
arrivée qui pourrait renforcer la dynamique de vente du nouveau support eu égard
à la portée de ses productions et aux succès répétés du studio sur le marché
amont.

Longtemps réduite au statut de simple rumeur, l’arrivée des productions de Disney sur le
marché de l’ultra-haute définition semble se préciser. James Gunn, le réalisateur du
deuxième opus des Gardiens de la Galaxie qui a longtemps milité auprès du géant du
divertissement pour que son œuvre soit exploitée sur le dernier né des supports vidéo
physiques, semble avoir obtenu gain de cause et en a fait l’annonce sur sa page
Facebook le 5 juillet : Les Gardiens de la Galaxie Vol.2 devrait être le premier film du
studio à être commercialisé sous format Blu-ray 4K UHD. Une information qui n’a pas été
officiellement confirmée par Disney.

  La sortie du film serait attendue pour le 22 août prochain aux États-Unis. Aucune date n’a
en revanche été évoquée s’agissant de sa commercialisation en Europe. Selon les premiers
éléments connus à date, la version américaine du film devrait être accompagnée d’une
bande-son Dolby Atmos et serait compatible HDR10 et Dolby Vision. Alors que les premiers
disques Blu-ray 4K Ultra HD ont fait leur apparition sur le marché mondial le 1er mars
2016, Disney faisait figure de grand absent parmi les majors hollywoodiennes. Le studio de
Burbank aurait ainsi fait le choix de patienter jusqu’à la prise en charge de ces standards
HDR par un maximum de lecteurs et téléviseurs avant de se lancer dans l’aventure du
format Blu-ray de dernière génération. Moins médiatiques que la 4K Ultra HD, les
technologies HDR10 et Dolby Vision paraissent pourtant tout aussi révolutionnaires pour le
spectateur avec une luminosité plus intense et une plus large palette de nuances dans les
couleurs qui permettent d’afficher des images d’une plus grande vivacité et d’un réalisme
incomparable.

L’arrivée des premiers films Disney en Blu-ray 4K Ultra HD devrait permettre de renforcer
la dynamique de vente du format. Selon le cabinet britannique Futuresource Consulting[1],
l’adoption soutenue des téléviseurs 4K et l’accroissement du catalogue de titres Blu-ray 4K
Ultra HD (110 œuvres disponibles en 2016 d’après le DEG, 250 de plus attendues en 2017)
devraient permettre à l’industrie d’écouler près de 8,4 millions de disques Blu-ray 4K Ultra
HD en 2017. Sur le seul marché français, 64 000 Blu-ray 4K Ultra HD ont été écoulés en
2016. Un chiffre qui pourrait être multiplié par trois ou quatre en 2017 selon les
estimations de GfK. L’attrait du grand public pour les œuvres de Disney, studio le plus
rentable de ces trois dernières années[2] avec des succès planétaires dans chacun de ses
domaines de production (Disney Animation, Live-Action, Lucasfilm, Marvel, Pixar), devrait
contribuer activement au décollage du marché.

Les Gardiens de la Galaxie Vol.2 est le deuxième plus gros succès du studio au box-office
mondial à mi-année (derrière La Belle et la Bête, 1,261 Md$). Il a généré 858 millions de
dollars de recettes, soit 85 M$ de plus que le premier volet de la franchise sorti trois ans
plus tôt. Autre titre évoqué, Pirates des Caraïbes : La Vengeance de Salazar, cinquième
volet de la saga, pourrait être le deuxième long-métrage de Disney a bénéficié d’une
exploitation sous format Blu-ray 4K Ultra HD (sortie prévue en septembre).

[1] Futuresource Consulting : Mapping the 4K Ultra HD Landscape

[2] The Hollywood Reporter : Studio-by-Studio Profitability Ranking: Disney Surges, Sony
Sputters

Le nouveau Dailymotion offre une caution
précieuse aux technologies P2P

La nouvelle version de Dailymotion proposée depuis la semaine dernière aux
internautes sur le marché français dans un premier temps est une refonte globale
et d’envergure du service. Si les éléments les plus visibles restent un nouveau
cœur de cible, une expérience utilisateur plus riche ainsi qu’un recentrage sur les
contenus professionnels de nombreux partenaires, le nouveau Dailymotion repose
également sur une architecture technologique ambitieuse ouverte à des solutions
de distribution en Peer-to-Peer (P2P).

• Le P2P comme technologie de diffusion complémentaire

L’explosion de la vidéo sur IP, les usages multi-écrans ainsi que l’amélioration continue des
formats vidéo obligent les diffuseurs de vidéo sur internet à réfléchir à des solutions de
diffusion innovantes. Les coûts de bande passante sont au centre des problématiques
actuelles et représentent un enjeu stratégique majeur. La priorité est donnée à la réduction
de l’OPEX via des économies de bande passante et la mise en place de nouvelles
infrastructures de diffusion capables de supporter les nouveaux standards ainsi qu’un
volume de trafic croissant sans dégrader l’expérience utilisateur. Les modèles actuels de
distribution sur internet commencent de fait à montrer leurs limites avec des pics de trafic
et des goulots d’étranglement du réseau de plus en plus complexe à gérer. Les protocoles
Unicast traditionnels, basés sur une relation one to one entre les serveurs et chaque
utilisateur nécessitent de constituer des infrastructures toujours plus lourdes avec un
maillage de serveurs de réseaux de distribution de contenus (CDN) géographiquement
proches de l’internaute et la multiplication des points de peering. Une situation encore plus
compliquée pour les flux live puisque par définition les vidéos ne peuvent pas être
dupliquées à l’avance sur les serveurs CDN.

La recherche de modèles de distribution OTT complémentaires de l’unicast est donc une
priorité pour continuer d’assurer la qualité de l’expérience et optimiser les coûts de
diffusion. Dans tous les cas, le principal enjeu est de décentraliser les infrastructures de
diffusion. Parmi les pistes explorées figurent le transport multicast qui a fait le succès de
l’IPTV, mais également le Peer-to-Peer pour la diffusion de chaines ou de vidéos live OTT à
grande échelle. La technologie du P2P est explorée comme une piste de travail depuis
longtemps par les professionnels en raison de son avantage intrinsèque permettant le
partage décentralisé des contenus en utilisant la bande passante disponible chez tous les
internautes qui servent de relais. L’EBU en a fait un de ses chantiers d’exploration dès
2006 (1) et il existe maintenant plus de dix ans de recherche académique sur le sujet. Mais
le P2P présente également des inconvénients majeurs qui ont freiné son déploiement à
grande échelle par les services légaux et les principaux acteurs du streaming (asymétrie
des connexions internet, absence de mesure et de contrôle de la distribution et donc de la
qualité de service, nécessité d’installation d’un logiciel chez chaque utilisateur final…).

Ces freins sont majoritairement levés aujourd’hui en raison de progrès décisifs rendus
possibles par les solutions développées et commercialisées par des start-ups comme Peer5
(Palo Alto, Californie) ou le français Streamroot (Paris et New York). Dans les deux cas les
technologies sont relativement similaires avec deux types d’avancées majeures par rapport
au P2P traditionnel. D’abord, l’hybridation du P2P avec les architectures CDN classiques.
Les solutions ne remplacent pas les autres modes de diffusion mais s’y ajoutent tout en ne
nécessitant qu’un effort d’intégration minimum. Les technologies sont donc
complémentaires. Le P2P permet de soulager les réseaux face aux pics de trafic, chaque
spectateur mettant sa bande passante à disposition pour partager le même flux vidéo ; mais
si le P2P est trop faible (peers insuffisants), les informations manquantes sont alors
récupérées via les serveurs CDN. La complémentarité se traduit également par la
possibilité de capitaliser sur les avantages des infrastructures CDN dans le domaine de la
sécurité. Les processus de géolocalisation des contenus, de gestion des droits numériques
(DRM), de cryptage restent inchangés. Ces processus sont agnostiques en termes de
technologie de diffusion et restent donc valides dans le cas de diffusion via une passerelle
P2P. Ensuite, seconde avancée majeure, les solutions de diffusion P2P des deux sociétés
sont optimisées avec des innovations et des technologies issues de l’internet ouvert à
commencer par le protocole WebRTC (Real Time Communication). Celui-ci, distribué en
open source par Google est intégré aux navigateurs HTML5 et au navigateur Safari d’Apple
depuis le début le mois de juin et permet une communication directe, instantanée et
sécurisée entre les utilisateurs. Il n’y a donc plus besoin de logiciels à installer pour créer
un réseau de distribution en P2P. Tout se fait directement au sein des navigateurs (2). De
même, Media Source Extensions (MSE), autre standard du W3C, permet la gestion du
streaming adaptatif (y compris en MPEG-DASH) et des formats haute définition, HD et
UHD 4K.

• Le P2P commercial obtient un soutien de poids

Dailymotion avant même sa refonte présentée la semaine dernière se plaçait parmi les plus
importantes plates-formes de streaming dans le monde avec 300 millions d’utilisateurs
revendiqués et 3,5 milliards de vidéos vues chaque mois. Si son intérêt pour les
architectures de streaming assisté en P2P est donc logique, il est également précoce et très
avancé. Il est vrai que le streaming en live pour laquelle ces technologies de diffusion sont
particulièrement adaptées est également une des pistes de développement importante pour
la plate-forme de Vivendi. Les partenariats avec le californien Peer5 et le français
Streamroot ont donc été annoncés respectivement en septembre et octobre 2016. Depuis,
les tests se sont multipliées sur certains formats (sport en direct, e-sport) et dans certains
pays (l’Asie notamment). Les deux solutions sont aujourd’hui en production. Il semblerait
également à en croire Peer5 lui-même que la solution américaine soit également utilisée
pour Canalplay, le service de vidéo à la demande de Vivendi.

Ce choix de tester puis d’utiliser deux partenaires dont les solutions technologiques sont
directement concurrentes montre la solidité de l’engagement de Dailymotion derrière le
streaming assisté en P2P. Surtout, il apporte une caution et une forme de validation pour
ces nouvelles formes de distribution OTT alternatives. Une question qui n’est pas neutre
puisque derrière l’aspect technologique le peer-to-peer souffre d’un véritable problème de
légitimité qui trouve ses origines dans son histoire intimement lié au succès de la
technologie décentralisée pair à pair BitTorrent et donc au piratage des contenus. Le
support de Dailymotion, lui-même engagé dans une stratégie de recentrage sur les
contenus premiums et professionnels et donc dans une stratégie de partenariats avec les
grands éditeurs pourrait s’avérer décisif pour les spécialistes de la technologie comme
Peer5 et Streamroot. De fait, le principal écueil qu’ils rencontrent aujourd’hui reste les
réticences des industries du contenu qui craignent toujours que la technologie P2P, même
commerciale, soit synonyme de piratage. Au point pour certains acteurs de mentionner
explicitement dans leurs contrats avec les distributeurs que l’utilisation de cette
technologie est interdite. Si Dailymotion n’est pas le premier acteur professionnel à utiliser
ce mode de diffusion, son envergure est sans conteste un atout majeur pour l’avenir du
peer-to-peer.

(1) Les travaux ont débouché en 2010 sur la publication d’un rapport de référence, TECH
REPORT 009, Peer-to-Peer (P2P) Technologies and Services

(2) WebRTC reste néanmoins limité pour l’instant à l’univers du PC, le standard étant
encore peu supporté sur les terminaux mobiles. Mais Peer5 a déployé un SDK Android et
prévoit un SDK iOS d’ici la fin de l’année.

La technologie 4DX, l’avenir pour les salles
de cinéma ?

  Après l’IMAX, le HFR, l’ICE et la 3D, la technologie 4DX est le nouveau format à
sensations fortes proposé dans les salles de cinéma. Censée apporter une
expérience complètement immersive pour le spectateur, la technologie se
développe de plus en plus en Europe et a pour but de transformer de manière
générale l’expérience du cinéma.

Une source de divertissement supplémentaire pour le
spectateur
La technologie 4DX propose au spectateur de vivre une expérience sensorielle lorsqu’il se
rend au cinéma. Les sièges vibrent et bougent sur trois axes pour pouvoir suivre les
péripéties du héros. Pesant 360 kilos ces sièges sont capables d’imprimer une forte
sensation de mouvement afin d’immerger le spectateur dans l’

aventure présentée à l’écran[1]. Ils sont également équipés de brumisateurs permettant de
générer de la brume ou des jets d’eau mais également de diffuseurs de parfum à l’arrière
du siège. La salle elle-même est équipée d’un système de soufflerie ainsi que des spots
permettant de créer de puissants effets lumineux.

Tous ces effets visent à proposer au spectateur une expérience plus immersive et plus
dynamique. Par exemple, durant le film Alien : Covenant, le vaisseau spatial connaît des
turbulences et à ce moment du film, la salle de cinéma déclenche des lumières rouges pour
simuler une alerte rouge et les sièges bougent pour simuler les turbulences. Il est
également possible de simuler différentes conditions météorologiques des premières
gouttes d’une pluie au gros coup de vent.

Il y a actuellement 370 salles de ce type dans le monde, principalement en Corée du Sud et
en Chine, mais qu’une seule en France : le Pathé de La Villette dans le XIX ème
arrondissement de Paris qui compte 104 sièges. A la fin de l’année 2017, suite à un
accord passé entre Gaumont Pathé et la société coréenne CJ 4DPLEX qui fournit la
technologie, il devrait y avoir sept salles compatibles en France. Cet accord prévoit
l’ouverture de 30 nouvelles salles 4DX en Europe (Pays-Bas, Suisse, Belgique et France).
Gaumont Pathé compte ainsi profiter de son statut de premier circuit de cinémas en France
pour populariser la technologie auprès du public.

Les tarifs pour un ticket 4DX au Pathé de La Villette à Paris sont de 20€ pour un ticket
normal, 16.5€ pour le tarif étudiant et de 17€ pour les séniors (65 ans et plus). La société
n’a pas souhaité communiquer les investissements consentis pour cette salle, mais elle
nécessite au minimum une régie spécifique dédiée en sous-sol ainsi que des serveurs
informatiques propres. D’après l’APCQ[2], l’investissement nécessaire pour une sal

le pourrait s’élever à plus de 1.3 millions d’euros[3]. La première utilisation de la
technologie a eu lieu en 2009 à Séoul et depuis, plus de 420 titres ont été diffusés en 4DX à
travers le monde. Le premier film diffusé en France fut Kong : Skull Island le 15 mars 2017,
au cinéma de La Villette. De nouvelles sensations pourraient être ajoutées dans les salles à
l’avenir comme de la neige ou de la chaleur.

Une opportunité pour les exploitants : ramener le public
jeune dans les salles
La manière de consommer des films a bien évolué ces dernières années avec l’arrivée de
nouveaux acteurs, comme Netflix, ainsi que la multiplication des écrans. Les exploitants de
salles de cinéma cherchent donc de nouveaux moyens d’attirer le public, notamment en
essayant de transformer chaque visite au cinéma en une expérience inoubliable.
C’est là qu’entrent en jeu les diverses technologies mises en place pour changer le cinéma
tel que nous le connaissons. Ces solutions ont un double avantage : elles proposent au
spectateur quelque chose qu’il ne pourra pas obtenir depuis chez lui et permettent
de justifier le coût du ticket. En moyenne par exemple, les cinémas diffusant Wonder
Woman en 4DX génèrent trois fois plus de revenus que les salles de cinéma classiques
jouant le même film.

L’innovation semble rencontrer un certain succès aux Etats-Unis, qui compte 9 salles
compatibles, malgré le surplus tarifaire allant de 6$ à 8$. The Fate of the Furious, dernier
film de la saga Fast and Furious, a enregistré 1.5 millions d’entrées en 4DX. Le record
d’entrées pour la 4DX outre-Atlantique est tenu par Star Wars : The Force Awakens avec
1.8 millions d’entrées.

Mais l’enjeu de la 4DX est également de permettre un renouvellement de l’audience. Pour
Arnaud Surel, Directeur exploitation cinématographique pour les cinémas Gaumont Pathé :
« en réalité, le cinéma en France se porte plutôt bien en termes de fréquentation. Le
problème c’est plutôt que le public vieillit. Il faut donc avoir des attentions
particulières pour les jeunes. C’est ce que la 4DX nous apporte ». Le cinéma Pathé La
Villette a proposé en 4DX dès son ouverture les films Logan et Kong : Skull Island, puis par
la suite La Belle et la Bête ainsi que Ghost in the Shell, Fast & Furious 8, Les Gardiens de
la Galaxie Vol. 2 et Pirates des Caraïbes : La Vengeance de Salazar. Tous sont des films
visant un public relativement jeune, promettant des sensations fortes en utilisant la 4DX.

La salle de La Villette fait office de laboratoire de nouveautés pour Gaumont Pathé.
Pour le moment, l’expérience semble réussir puisque le cinéma de La Villette, victime de
son succès, demande désormais aux personnes intéressées de réserver plusieurs jours à
l’avance. Cependant, si l’expérience vise les jeunes, seront-ils prêts eux à payer 20€ pour
aller au cinéma, au-delà de la première fois « pour essayer » ?

Des films pas forcément compatibles
Quelques critiques de la technologie commencent cependant à émerger des Etats-Unis, où
elle est utilisée depuis juin 2014. Outre les désavantages inhérents à la 4DX, comme des
mouvements du siège qui peuvent être trop violent et faire mal au dos, certains se
plaignent du manque de cohérence dans l’utilisation de la technologie. Certaines diffusions
n’offriraient pas d’expérience unifiée pour le spectateur mais plutôt une collection
d’effets superposés les uns aux autres, ce qui rendrait l’expérience confuse par rapport
au film. Ceci peut être expliqué par le fait qu’il y a deux personnes différentes qui gèrent
l’expérience, une pour les mouvements des sièges et l’autre pour l’environnement, et que
l’objectif pour elles semble être de maximiser l’usage des effets pour marquer le
spectateur, plutôt que d’étudier leur utilité réelle par rapport à un scénario.

L’écueil à éviter semble être celui que connaît la 3D : l’utilisation à outrance de la
technologie, sans considération pour l’œuvre cinématographique. Tout n’est pas sujet à
sensations fortes dans un film et tous les films ne seront pas adaptés à ce genre
d’expérience. Les sièges restent par exemple immobiles lors de scènes de dialogues ou ne
font que tourner lors de scènes panoramiques. L’intérêt semble donc limité pour des films
ne contenant pas de scènes d’actions. De plus, il reste la problématique du choix du
personnage à suivre lors de scènes d’actions ou de combats. Tout ceci nécessite de la
réflexion en amont, peut-être même dès la conception du film comme cela a été fait pour
certaines scènes du dernier film de Tom Cruise, La Momie.

[1] Les séances de films en 4DX sont d’ailleurs déconseillées aux femmes enceintes, aux
personnes âgées à mobilité réduite et aux personnes épileptiques ou ayant des problèmes
cardiovasculaires. Les enfants entre 4 et 7 ans ou faisant moins de 1,20 mètres doivent par
ailleurs être accompagnés.

[2] Association des Propriétaires de Cinémas du Québec

[3] L’association avançait en juillet 2016 qu’une salle 4DX coûte 2 millions de dollars
canadiens,            l’équivalent             de         1         350          497€
http://ici.radio-canada.ca/nouvelle/792412/cinema-4dx-salles-ecran-effets

E3 : Vers un décollage de la VR dans le jeu
vidéo ?

La semaine dernière se déroulait l’Electronic Entertainment Expo, ou E3, à Los
Angeles. Il s’agit du plus important salon international consacré aux jeux vidéo et
comme chaque année les grandes entreprises du secteur (Sony, Nintendo,
Microsoft, Ubisoft, etc.) étaient présentes et toutes ont fait des annonces,
notamment dans le domaine de la réalité virtuelle (VR).

Enfin des jeux pour les casques de réalité virtuelle
Alors que la nouvelle console de Microsoft, la Xbox One X, a été la véritable star de cette
édition 2017 de l’E3, la réalité virtuelle a également brillé de façon plus discrète. En effet,
cette année pas de présentation de nouveaux casques de VR pour attirer tous les regards
mais une présence plus diffuse sur les stands de presque la totalité des éditeurs. Cette
édition de l’E3 aura donc été marquée par une multiplication des annonces de jeux VR à la
place des annonces de hardware qui ont marqué les éditions précédentes.

Ainsi, une des tendances de cet E3 aura été l’annonce de très nombreuses adaptations de
jeux cultes pour la VR. Sony a ainsi présenté la version destinée à son casque Playstation
VR du célèbre jeu de course Gran Turismo. L’éditeur américain Bethesda a lui annoncé le
portage VR de ses principales franchises Doom, Elder Scrolls et Fallout pour les casques
HTC Vive et Playstation VR. Même Nintendo, qui pourtant n’a pas officiellement de projets
de casques VR, a annoncé une version VR de son jeu Mario Kart destiné à des bornes
d’arcades équipées de casque HTC Vive. Au final, chaque éditeur ou presque a annoncé le
portage en VR d’une de ses marques les plus fortes[1]. Cependant, cette vague de portage
était un peu attendue puisque certains éditeurs comme Capcom en avait déjà réalisé
l’année dernière et que les portages sont beaucoup moins risqués commercialement que le
développement intégral d’un nouveau jeu qui peut se révéler très coûteux tout en ne
bénéficiant pas d’une base de joueurs fidèles dès sa sortie.

Cependant, l’E3 a permis de constater que les grands éditeurs commencent également à
développer des jeux spécifiquement conçus pour une utilisation avec un casque de réalité
virtuelle. Ainsi, Ubisoft a annoncé par exemple Star Trek : Bridge Crew qui proposera une
aventure VR sur les PSVR, Oculus Rift et HTC Vive. C’est cependant Sony qui s’est imposé
comme l’acteur le plus innovant dans le domaine de la VR. Le géant japonais a ainsi
présenté lors de sa conférence un grand nombre de jeux développés par ses studios
partenaires exclusivement pour son casque de PlayStation VR[2]. C’est sans doute ces
nouveaux projets qui permettront de tester les possibilités offertes par la VR dans le
domaine du jeu : liberté totale de mouvement, images en 360, immersion totale dans un
univers, sensation de prise de risque physique, etc. Cette technologie est une opportunité
pour les développeurs de proposer quelque chose de complètement nouveau, avec de
nouveaux styles de jeu.

Un tournant pour le marché de la VR
Cette prolifération de jeux peut constituer un tournant pour le marché de la VR, caractérisé
auparavant par la frilosité des éditeurs de contenus. La VR souffrait jusqu’alors d’un cercle
vicieux empêchant son développement. Alors que le marché de la VR était très
balbutiant, les développeurs ont adopté une posture attentiste ne voyant pas l’intérêt de
créer des jeux coûteux pour un marché de la VR très restreint. Les jeux proposés lors du
lancement des terminaux comme l’Oculus Rift ne tiraient pas parti du potentiel énorme de
la VR et étaient assez limités dans leurs ambitions. De ce fait, les consommateurs n’ont pas
été convaincus de l’intérêt d’investir dans un casque pour un marché encore balbutiant. En
outre, de manière générale, le marché est confus pour un client lambda. Chaque
développeur dispose de sa propre plateforme, sans passerelles possibles. Les
consommateurs ont donc adopté eux aussi une approche prudente de ce marché, attendant
qu’il devienne réellement intéressant.

Cependant, depuis le lancement du PlayStation VR à la fin 2016, les choses évoluent
positivement. Au premier trimestre 2017, Sony a vendu 429 000 PSVR, HTC a vendu
190 000 casques HTC Vive, Oculus a écoulé 99 000 Oculus Rift et Samsung a vendu plus de
489 500 casques Gear VR. Sony a ainsi atteint le million de casques PSVR vendu
depuis son lancement en octobre 2016, un cap plus symbolique que réellement
significatif. Mais le passage de ce cap montre que la réalité virtuelle sur PS4 a de beaux
jours devant elle. Ce passage peut être expliqué par la relation de confiance qui existe
entre les joueurs et la marque PlayStation, confiance qui s’est construite année après
année, mais aussi par le fait qu’il s’agit d’un des casques les moins chers du marché : 399€,
là où l’Oculus Rift coûte 699€ et le HTC Vive 899€. Aux alentours de Noël, le succès du
PSVR a été tel que Sony a dû freiner ses efforts publicitaires car les stocks n’arrivaient pas
à suivre les demandes des clients. La marge de progression de Sony est également assez
nette puisqu’il existe près de 60 millions de personnes possédant une PS4, nécessaire
au fonctionnement de la PSVR.

Cette explosion des ventes de casques VR semblent donc avoir convaincu les éditeurs de
l’intérêt économique de développer des jeux directement pour cette partie du marché. Et
ce changement peut enclencher un cercle vertueux pour la VR. Un nombre croissant de
jeux rendra les casques plus attractifs et devrait faire augmenter les ventes et le parc de
terminaux compatibles installés. Un grand nombre de terminaux VR installés devrait
ensuite convaincre un plus grand nombre d’éditeurs de produire des contenus directement
pour la VR.
La VR semble sur le point d’exploiter son potentiel auprès du public. Mais il reste
cependant de nombreux obstacles à franchir avant d’arriver à ce que la technologie soit
réellement accessible auprès du grand public.

Les étapes à franchir avant d’arriver à la VR grand public
Mark Zuckerberg a déclaré en février dernier que la VR ne sera « réellement grand public
qu’à l’horizon de 10 ans » et que la rentabilité ne sera pas au rendez-vous tout de suite. La
technologie n’a qu’un an et à ce stade, les casques vendus aujourd’hui peuvent être vus, et
le sont par beaucoup, comme des prototypes. Les casques actuels ne font que délivrer une
expérience, pour donner aux utilisateurs le goût d’aller plus loin. La technologie proposée
aujourd’hui comporte de nombreuses contraintes, particulièrement en termes de
résolution de l’image, qui peut peser sur l’expérience utilisateur.

Le casque HTC Vive par exemple a besoin de ses deux capteurs, des fils et d’un ordinateur
puissant car pour éviter la sensation de gêne de l’utilisateur, il faut une résolution de 90
images par secondes sur chacun des deux écrans, là où un jeu vidéo fluide n’en nécessite
que 60 par seconde, équivalent à l’UHD. Pour obtenir la résolution de l’œil humain, il
faudrait atteindre une clarté de l’image 70 fois supérieure à celle des casques actuels. C’est
sur ce point que la déclaration du PDG de Facebook prend tout son sens : la VR va devoir
attendre l’avancée des technologies display pour pouvoir atteindre son plein potentiel.

Une fois ceci possible, et une fois les puissances de calcul ainsi que l’autonomie de la
batterie des casques seront suffisantes, des casques autonomes, qui ne nécessitent ni fils,
smartphone ou ordinateur, vont pouvoir se développer. Google a déjà annoncé le mois
dernier s’être allié à HTC et Lenovo pour développer ce genre de casque. HTC a également
annoncé au dernier CES un partenariat similaire avec Intel. Microsoft a d’ailleurs profité de
l’E3 pour déclarer qu’il attendait d’être capable de produire et commercialiser ce type de
casques sans fil pour investir massivement dans les jeux en réalité virtuelle. Phil Spencer,
président de la division Xbox de Microsoft a d’ailleurs déclaré : « Pour que la réalité
virtuelle touche le grand public, elle doit être sans fil ». Microsoft et Asus devraient
d’ailleurs commercialiser un casque commun en 2018 qualifié de « Mixed Reality[3] »
plutôt que de réalité virtuelle.

A plus court terme, de nombreuses autres entreprises semblent s’intéresser de près à la
VR. Dell serait en train de développer un casque au prix abordable, et le nouvel iMac
d’Apple est annoncé comme étant « VR-ready » et est destiné aux développeurs, et non aux
joueurs. La multiplication des acteurs sur le marché devrait aboutir sur un choix plus
varié pour l’utilisateur final et une baisse des prix. Le cabinet IDC prévoit par ailleurs le
triplement des ventes de casque cette année.

Il est possible qu’il faille attendre un autre cycle de développement de la technologie
avant de pouvoir vraiment parler de VR pour tous, grand public. Mais les annonces faites à
l’E3 montrent que les acteurs du marché semblent déterminer à développer leurs offres en
attirant d’abord les initiés au monde du jeu vidéo.
[1] On pourrait également mentionner Final Fantasy VR de Square Enix ou Batman Arkham
VR de Warner Interactive parmi les annonces importantes de ce salon.

[2] Parmi les jeux annoncés on peut citer No Heroes Allowed ! de Acquire, MOSS de
Polyarc ou Bravo Team de Supermassive Games.

[3] La Mixed Reality fait référence à une technologie utilisant la VR, la réalité augmentée
ainsi que la 3D, permettant de pouvoir « faire entrer » des personnes physiques dans un
univers virtuel.

Cisco prévoit le triplement du trafic vidéo sur
internet d’ici 5 ans

L’entreprise américaine Cisco a publié le 7 juin 2017 son dernier rapport annuel
Visual Networking Index Forecast Update[1] qui prédit l’évolution d’internet et
des usages numériques d’ici 2021. La principale leçon de ce rapport concerne la
vidéo : Cisco prévoit en effet que la vidéo représentera 82% du trafic global IP[2]
en 2021, cela représente 1 million de minutes de vidéos vues par seconde.

La croissance continue d’internet

De manière générale, internet va continuer de grandir. D’après ce rapport, 58% de la
population mondiale sera connectée en 2021[3] (contre 47% à ce jour), le débit moyen
passera de 27.5 Mbps[4] actuellement à 53 Mbps, il y aura plus de trafic sur smartphone
que sur PC et nous produirons annuellement 3.3 zettabits[5] de données (contre 1.2
aujourd’hui). De plus, il y aura en 2021 trois fois plus d’appareils connectés qu’il n’y
a d’habitants sur Terre, soit 27.1 milliards de terminaux connectés. Ceci sera rendu
possible grâce aux connections Machine-To-Machine (M2M), qui incluent l’internet des
objets (IoT).

Ce pan d’internet va voir son nombre de connexions être multiplié par 2.4 d’ici à 2021 pour
atteindre 13.7 milliards d’objets concernés, soit la moitié des terminaux mondiaux, et
représenter 5% du trafic IP global. Ceci correspond à 1.75 connections M2M par habitant
terrestre. Les principaux domaines concernés seront la maison (46% des connections M2M
totales), le travail, la santé, la ville et la voiture. Dans ce domaine, la 5G va avoir une
importance primordiale[6], mais ne représentera que 0.2% des connections, soit 1.5% du
trafic mobile car une connexion 5G représente 4.7 fois plus de trafic qu’une connexion 4G.

Pour soutenir ces évolutions et en l’absence de véritable explosion de la 5G, les
connexions internet se feront à 37% sur un réseau câblé (fibre comme cuivre) et à
63% sur le réseau mobile et le Wi-Fi. Le nombre de hotspots Wi-Fi[7] va être multiplié
par six pour atteindre 541.6 millions à travers le monde. Plus des deux tiers des opérateurs
mobiles et 78% des entreprises du câble ont ainsi l’intention d’utiliser le Wi-Fi pour
supporter les services liés à l’IoT, notamment dans les hôpitaux où le nombre de hotspots
va tripler d’ici à 2021.

En ce qui concerne la France, le débit moyen passera de 25.6 à 64.5 Mbps, mais l’évolution
la plus impressionnante concerne l’UHD sur le segment de la VoD qui devrait
connaître un CAGR[8] de 160.9%, passant de 0.2% du trafic lié à la VoD en 2016 à
21.6% en 2021. Le trafic global de la vidéo sera multiplié par trois d’ici 2021 suivant une
croissance similaire aux évolutions mondiales. Environ 24 000 minutes de vidéos seront
visionnées chaque seconde. Les vidéos longs formats, correspondant aux offres OTT, ainsi
que le live long format atteindront 72.1% du trafic vidéo en 2021, contre 55.6% en 2016.
De manière plus globale, en termes de volume de données circulant en 2021 en France,
l’équivalent en gigabit de l’ensemble des films jamais réalisés à ce jour devrait circuler sur
les IP françaises toutes les heures.

L’explosion de la vidéo

Sur la période étudiée, la vidéo mobile croit de manière beaucoup plus rapide que la
télévision digitale[10], avec un CAGR de 4.2%, là où la vidéo mobile connait un CAGR de
14.8%. D’après Cisco, 60% du trafic lié à la vidéo sur internet en 2016 était dédié à des
vidéos longs formats (films, séries, documentaires, etc.). Il s’agit en fait de la proportion de
données liées aux offres OTT. Cette masse de données sera multipliée par 3.68 en 2021,
montrant bien que l’OTT a de beaux jours devant lui. La VoD IP, qui n’est qu’une partie de
ceci, représentera elle 14.5% du trafic IP global en 2021.Actuellement, la vidéo[9]
représente 73% du trafic IP global. En 2021, cette proportion atteindra 82% selon Cisco, le
trafic global IP en vidéo sera ainsi multiplié par trois sur la période étudiée, avec un
CAGR de 26%. Globalement, il y aura 1.9 milliard d’utilisateurs vidéo en 2021, hors
utilisateurs mobile-only, il y en avait 1.4 milliard en 2016. Selon Cisco, 3 000 milliards de
minutes de vidéos seront vues par mois en 2021.

Un des facteurs de croissance de la vidéo sera la hausse de la qualité de l’image.
Portée par la hausse du débit moyen, l’UHD, qui représentait en 2016 à peine 2% du trafic
vidéo, va se démocratiser et atteindra 21% du trafic vidéo en 2021, ce qui correspond à un
CAGR de 91%. De plus, le rapport prévoit que 56% des télévisions à écran plat et
connectées seront des télévisions 4K en 2021, contre 15% en 2016.

La vidéo live représentera 13% du trafic vidéo sur internet. Cela peut paraître faible mais
le volume de données liées au live sera multiplié par 15 sur la période étudiée,
représentant la plus grande opportunité pour de nouveaux entrants si on compare
avec les autres domaines où les acteurs sont bien installés. Le principal facteur de
croissance de la vidéo live devrait être l’internaute lui-même, à travers des services tels
que Snapchat ou Facebook. Cette dernière entreprise avait par ailleurs déjà annoncé que la
vidéo et le live seront ses principaux moteurs de croissance à l’avenir. Un autre facteur
de croissance de la vidéo live concerne celui des chaînes télévisées, que le live soit
distribué par la chaîne elle-même ou par un nouvel opérateur comme le français
Molotov ou les américains Sling TV, Direct TV Now ainsi que YouTube TV. Il s’agit de
nouveaux services OTT permettant à leurs utilisateurs de regarder la télévision de manière
totalement délinéarisée avec des modèles mêlant le direct, le replay et pour les plus
avancés le nPVR. Moyennant un abonnement, les utilisateurs de ces services ont ainsi
accès à leur bouquet de chaînes depuis n’importe quel terminal supportant l’application du
service. Ces nouveaux opérateurs diffusant le live d’un nombre conséquent de chaînes TV
sur virtuellement n’importe quel support vont également représenter un moteur de
croissance important pour le trafic vidéo en 2021.

Le trafic lié à la réalité augmentée et à la réalité virtuelle va connaître un CAGR de 82% sur
la période étudiée, ce qui représente une multiplication par 20 du volume de données
dédiées, et représentera 1% du volume global du trafic lié au divertissement. C’est la
première fois en douze ans que Cisco analyse ces technologies dans son rapport et a tenu à
préciser qu’il s’agit d’un secteur à regarder de près dans le futur.

En ce qui concerne le trafic sur mobile uniquement, la société Ericsson, qui a publié un
rapport prospectif sur les évolutions du mobile jusqu’en 2022 cette semaine, s’attend à ce
que le nombre d’utilisateurs mobiles passe de 3.9 milliards à 6.8 milliards. Le
volume de données liées aux réseaux sociaux connaitra une croissance annuelle de 38%.
Cependant la proportion de ces données sur le trafic global passera de 13% en 2016 à 11%
en 2022, du fait de l’importance grandissante de la vidéo qui elle occupera 75% du trafic
Vous pouvez aussi lire