Big Data, Réalité virtuelle, production low-cost et Ultra-HD : les télévisions européennes cherchent à conquérir l’audience de 2020

Le Production Technical Seminar, organisé chaque mois de janvier par l’Union Européenne de Radio-Télévision (EBU), avait insisté en 2015 sur l’absolue nécessité de repenser l’organisation des infrastructures et des métiers : abolition des silos de production étanches entre eux (news, sport, magazines, fictions, documentaires, diffusion) au profit d’une infrastructure horizontale pensée comme un Cloud : le réseau et le stockage sont agnostiques et communs, seules les applications sont dédiées. Un an plus tard, le crédo n’a pas changé, sauf qu’il n’est plus l’heure de convaincre ceux qui auraient encore des hésitations, il s’agit d’aller de l’avant pour récolter au plus tôt les fruits de ces réformes d’envergure.

Par Matthieu Parmentier

A ce jeu, les chaînes moins argentées (Suisse, Pologne, Portugal, Russie, Belgique) et les grands groupes très friands de R&D (Sky, BBC, ARD-ZDF) tirent leur épingle en présentant des réformes déjà abouties ou bien engagées : migration vers ces infrastructures Cloud, traitement attentif des métadonnées, créations d’outils sur mesure et expérimentations tous azimuts… au risque de provoquer des crises sociales. Mais ces expérimentations sont justifiées par la valeur des réponses attendues.

Expédiées en une première matinée de prises de parole, ces « bons élèves » ont certainement éludé les nombreuses difficultés rencontrées, mais leur enthousiasme fait frissonner l’audience. Karl Petermichl, conseiller stratégique à la radio-télévision publique autrichienne (ORF) a ainsi exposé les nombreuses solutions de production low-cost envisagées avec l’aide de salariés motivés, pour multiplier les captations de sports et de concerts en faisant drastiquement chuter les coûts.

ORF_1


ORF_2

A ma question : « comment votre direction des ressources humaines et vos syndicats s’engagent dans ce champ d’expérimentations ? » Karl Petermichl a confirmé que ces nouvelles organisations de production dépendent étroitement des femmes et des hommes aux manettes, pour créer des équipes complémentaires capables de se répartir les nombreuses tâches à effectuer. Cela va donc à l’encontre d’une organisation de services spécialisés ou chaque salarié peut être facilement remplacé par un autre. Donc à ce jour, la Direction des Ressources Humaines n’est pas encore associée à ces expérimentations, la question se posera en temps voulu lorsque ces nouveaux moyens de production auront prouvé leur utilité. Il s’agit avant tout pour l’ORF de repenser l’équation coût/qualité/fiabilité.

ORF_4


Le premier gros sujet de ce séminaire a concerné le Big Data : comment créer de la valeur en exploitant… ce que l’on a déjà. Les exemples pullulent, et la mise en œuvre d’outils d’archivage et d’enrichissement sémantique conquiert une à une toutes les directions des Systèmes d’Information.

  • Avec la prépondérance des émissions d’information en continu sur tous les écrans, l’accès aux archives et les besoins d’archivage explosent. Les équipes comme les outils ne s’avèrent plus assez dimensionnés. Grâce aux liens sémantiques créés par les archivistes, la navigation devient directement accessible aux journalistes, qui soignent en retour le niveau d’information qu’ils délivrent avec leurs documents. Un cercle vertueux. Quelque part l’outil remplace l’homme, mais l’homme a désormais pour mission de rendre son outil plus intelligent et plus « apprenant » chaque jour.
  • La mise en œuvre d’outils de reconnaissance d’images et de sons permet d’automatiser les déclarations d’utilisation de musique et d’images d’agences.
  • La sémantique permet de créer un outil d’assistance journalistique surpuissant en un temps record : démonstration de Jean-Pierre Evain (EBU) qui a développé en quelques semaines un site Web dédié au biathlon. Par le simple scan d’une « fiche de résultats » lors d’une compétition, son site Web permet de naviguer dans une gigantesque masse issue automatiquement des bases de données sémantiques d’Internet. Dans l’interface, chaque biathlète peut être ausculté : photos, CV, palmarès, partenaires, matériel, habitudes. L’outil étend ensuite  ses possibilités d’apprentissage via l’analyse du commentaire du journaliste lors de la compétition. A chaque citation d’un biathlète ou d’un terme particulier lié au biathlon (tir debout, tir couché, tour de pénalité etc.) un index est posé sur la vidéo, et vient enrichir la fiche personnelle de chaque sportif concerné.
  • La BBC R&D a poussé le concept jusqu’au bout, utilisant chaque métadonnée pour donner du sens au moindre pixel d’une image. Leur démonstrateur cible un bulletin météo et définit le premier exemple de production vidéo « object-based », un terme jusqu’ici réservé à la nouvelle génération d’outils de production audio. Chaque élément visible (carte, villes, températures, présentatrice, présentateur en langue des signes, sous-titres) est fourni séparément au lecteur final, avec ses métadonnées bien sûr, et s’adapte au contexte :
    • À la taille de l’écran : TV, tablette, Smartphone tenu à la verticale…
    • À l’environnement visuel : contraste, couleurs
    • À l’utilisateur : sous-titres, langue des signes
    • À d’éventuels usages interactifs : si par exemple l’agenda de l’utilisateur indique un rendez-vous dans 2 jours à 200 km, une alerte particulière sur la météo prévue s’affiche sur la carte au lieu du futur rendez-vous.

A noter, en conclusion de cette partie Big Data, la convergence autour du concept d’objet et de « production orientée objets ». Pour s’accorder sur le vocabulaire : un objet se définit comme un média associé à des métadonnées le décrivant.

Deuxième sujet : devons-nous plonger dans la Réalité Virtuelle ? En 2015, nombreux sont les éditeurs à s’être frottés aux usages et à la pertinence des contenus en 360°, avec ou sans 3D stéréoscopique : les anglais (BskyB, BBC), les allemands (Arte, ZDF, Fraunhofer) et les Français (Canal+, France TV, Arte). Ecrire pour la Virtual Reality passionne les uns quand les autres s’attachent à faire largement progresser la qualité du rendu graphique et sonore, car à l’époque de l’Ultra Haute Définition, les gros pixels déformés font tâche. De nouvelles caméras 360°, de plus en plus simples à mettre en œuvre y compris en direct, sortent chaque mois. Les systèmes de captation sonore associés commencent aussi à progresser, c’est d’ailleurs l’un des plus gros chantiers. Car une limite physique doit encore être dépassée : les caméras ont besoin de recul pour moins déformer l’image, quand l’audio a besoin de proximité pour offrir un son mieux défini, à la localisation plus précise.

VR_1

Chez Arte, découvrir les contenus propices à la Réalité Virtuelle fait l’objet d’une attention particulière. Leurs travaux de recherche concernent l’écriture de documentaires, de fictions, la mise en image d’informations, et la captation de performances artistiques. Arte s’appuie pour cela sur une application dédiée à la lecture de médias 360, déclinée également sur le site web www.arte.tv/360.

Sky a même investit dans la confection d’une caméra 360° pour mieux rendre compte de l’actualité, et présentait ses premières images captées en Grèce pour illustrer l’afflux des navires de migrants échoués sur les côtes européennes.

Sky_VR_1

Sky_VR_2

Côté audio, la Réalité Virtuelle vient redonner un élan imprévu à l’ensemble des technologies « audio orienté objets », nous en parlerons dans quelques instants. Jusqu’ici ces nouveaux outils de production se tournaient majoritairement vers la spatialisation sur haut-parleurs et au casque dans le sillage des outils du cinéma (Dolby Atmos, DTS:X). En 2015, seuls la BBC, Radio France et France TV ont explorés de vrais usages en production et diffusion :

  • Radio France a mis en œuvre fin 2015, avec l’aide d’Orange Labs, son lecteur « nouvOson v2 » capable de jouer des programmes en 5.1 sur haut-parleurs ou en casque en binaural, avec personnalisation du traitement binaural pour un rendu plus impressionnant. L’ensemble tourne sur un simple navigateur Web, Google Chrome de préférence.
  • la BBC R&D s’est concentrée sur les programmes de Radio, profitant d’une « production orientée objets » pour adapter la durée de l’émission au temps de trajet de l’auditeur. Très « big data », cette idée nécessite de repenser les outils de scénarisation des programmes. Beaucoup de travail en perspective. Mais en 2015, l’Union Européenne a décidé de financer le projet ORPHEUS, qui mobilise désormais une grande partie de l’équipe R&D audio de la BBC, de sorte d’accélérer la mise en œuvre de toutes ces fonctionnalités permises par l’invasion des métadonnées dans la production audio.
  • A France Télévisions, on privilégie les fonctions « accessibles » permises par l’audio orienté objets. Le projet Media4Dplayer utilise cette technologie pour que le téléspectateur puisse ajuster le niveau des dialogues, ajouter un commentaire d’audiodescription ou adapter le rendu en fonction de l’environnement sonore. Ce démonstrateur tourne également sur un navigateur Web et vise les usages numériques (PC, tablette, smartphone).

Par sa quête d’un réalisme sonore aboutie dans un contexte d’interactivité complète (l’utilisateur bouge la tête en permanence), la Réalité Virtuelle ne peut désormais plus se passer de l’audio orienté objet. Les spécialistes (Oculus et Samsung) soulignent continuellement la part prépondérante du son dans la sensation de réalité. Il faut parfois peu d’éléments pour tromper le cerveau, mais une mauvaise bande son annule l’effet de réalité immédiatement.

L’autre débat d’importance, à haute portée stratégique, concerne le déploiement d’infrastructures de production « tout IP ». Un sujet prospectif largement abordé chaque année, mais enrichi en 2015 par la publication de nombreux standards qui posent des bases crédibles pour la confection de régies et car-régies intégralement IP. Plusieurs installations expérimentales ont permis d’engranger de l’expérience, notamment grâce à la BBC, la VRT, RTL, l’IRT et France TV. Le constat partagé : il manque encore des standards pour fiabiliser ce type d’infrastructure et les rendre aussi modulaires qu’actuellement. Néanmoins les pistes d’économie semblent suffisamment crédibles pour que plusieurs chaines annoncent, dès cette année, l’arrêt des investissements dans des équipements SDI au profit du design et de la mise en production de régies IP. Ainsi, le nouveau site européen de BCE (RTL-city) s’apprête au grand saut en 2016, après une année 2015 d’études et de preuves de concept en collaboration avec l’IRT.

BCE_1

BCE_2

Enfin le sujet « star » de ce séminaire, pour les ambitieux défenseur de la qualité d’image, concernait comme chaque année l’Ultra Haute Définition.

2015 a vu l’arrivée de la haute dynamique (HDR) dans les télévisions grand public Ultra HD. En premier lieu, ces écrans UHD-HDR savent gérer une résolution 10 bits par composante Rouge, Vert, Bleu, au lieu de 8 bits jusqu’à présent. 10 bits par composante, c’est également ce que savent gérer les équipements professionnels, on assiste donc à un alignement par le haut entre TV grand public et moniteur professionnel.

Ensuite, pour rendre la haute dynamique – soit un écart et un nombre de pas plus importants entre un noir profond et un blanc éclatant – ces téléviseurs ont recours à deux types de technologies :

  • l’OLED, choisi par le coréen LG, permet d’obtenir des noirs intenses car chaque pixel génère sa propre luminosité : un pixel éteint apparaît donc complètement noir. En revanche, sur ces écrans OLED les blancs les plus éclatants atteignent au mieux 500 Nits, ce qui s’avère déjà deux fois plus puissant qu’une télévision standard. Pour profiter pleinement de la haute dynamique sur ce type d’écran, il vaut donc mieux se plonger dans la pénombre.
  • Le rétro-éclairage LED, choisi par Samsung et Sony, permet d’atteindre des blancs beaucoup plus lumineux (800 à 1000 Nits). En revanche, impossible de garantir un noir profond au pixel près, car ce type de technologie implique qu’une zone lumineuse de l’écran rende d’éventuels pixels noirs adjacents légèrement grisés. Ces écrans sont donc pensés pour une visualisation en journée, en luminosité ambiante.

PTS2016_canon%20-%202

Au rang des moniteurs professionnels, où seul Sony propose aujourd’hui une référence UHD-HDR OLED capable d’afficher jusqu’à 1.000 Nits, Canon présentait son futur produit concurrent en technologie LCD (à droite), ici comparé à son moniteur de référence UHD-SDR (à gauche).

F4D5A04C-B313-4194-9E87-24155DECCA6D

Au delà de ces considérations technologiques importantes, la guerre des formats UHD-HDR fait toujours rage. Au moins 5 solutions de transmission des contenus arrivent sur le marché. Des partenariats se nouent en fonction des fabricants de TV, de lecteurs Blu-ray 4K ou de studios de films. Nous retiendrons surtout les 2 initiatives libres et gratuites, a priori avantagées :

  1. L’une, standardisée SMPTE 2084, consiste à coder la luminance sur 10 bits suivant une échelle absolue : de 0,001 Nits (noir complet, du point de vue humain) jusqu’à 10.000 Nits (blanc extrêmement lumineux, nécessitant généralement le port de lunettes de soleil). La répartition des niveaux de luminance n’est pas linéaire, elle épouse les principes perceptifs humains. Un tel contenu n’est pas lisible sur les téléviseurs standard, il faut le signaliser (standard SMPTE 2086) et prévoir un convertisseur au besoin pour afficher l’image correctement. Le groupe Sky a notamment expérimenté cette solution en partenariat avec Sony lors d’un match de football au mois de mai 2015, se félicitant du réalisme saisissant du rendu des contrastes et des couleurs. Cependant, lors de ce même match, l’autre solution fut également testée sans qu’une différence visible entre les deux ne soit perceptible sur un moniteur UHD-HDR grand public.
  2. L’autre solution, dénommée Hybrid Log Gamma et proposée par la BBC et la NHK, consiste à coder la luminance sur 10 bits également, suivant une échelle relative assez semblable à l’échelle standard (gamma 2.2) pour ce qui concerne les basses et moyennes lumières. Ce principe permet principalement d’étendre la capacité d’encodage des hautes lumières, et s’avère particulièrement rétro-compatible avec le parc de téléviseurs installés sans nécessité de signaler un type d’image particulier. L’expérimentation menée par le consortium 4EVER en décembre à l’opéra de Paris a pu en témoigner.

Sans parler des propositions HDR haute performance de Dolby, Philips et Technicolor, qui nécessitent une signalisation ainsi que le recours à une technologie de rendu sous licence, on pourrait considérer ces deux solutions gratuites en parallèle : l’Hybrid Log Gamma pour tout ce qui concerne l’émission en direct (TV linéaire), parce que le signal s’avèrerait directement compatible avec l’ancien et le nouveau parc de récepteurs ; et les standards SMPTE 2084 et 2086 pour les contenus à la demande, puisque le téléviseur négocierait de télécharger le fichier compatible avec ses capacités d’affichage haute dynamique… ou pas. Côté production en direct (régie, car-régie), travailler en SMPTE 2084 ou en Hybrid Log Gamma revient au même tant qu’un choix clair est observé partout. Les conversions du signal final peuvent ensuite s’effectuer dans les deux sens. Dolby démontrait justement une régie de production tout « SMPTE 2084 » avec conversion de sources SDR en HDR et réciproquement, pour alimenter un réseau de diffusion standard. Le nœud du problème ne semble pas se situer au niveau de l’intégration matérielle, le plus compliqué consiste à garantir que la conversion HD standard d’un contenu UHD-HDR respecte l’état de l’art de ce qui est produit aujourd’hui directement en HD standard. C’est avant tout une affaire de méthodologie et de priorité des tâches pour les ingénieurs de la vision.

Ce contenu a été publié dans Big Data, IP, Réalité virtuelle, Ultra-HD. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *