NAB 2016 : Du HDR oui, mais lequel ?

Cette année, plusieurs volets de l’Ultra HD phase 2 s’invitent dans les salons broadcast. Après l’UHD phase 1 en 2014 – mêlant 4K, 50 images/seconde et quantification sur 10 bits par composante couleur Rouge/Vert/Bleu, ce sont surtout les dimensions High Dynamic Range et Wide Color Gamut qui sont exposées. La guerre se joue dans les différences d’approche pour les mécanismes d’encodage, de décodage et de rendu du signal HDR produit. Aujourd’hui, les caméras HDR sont capables d’améliorer considérablement la qualité d’image, parfois en fusionnant des flux exposés différemment. Les capteurs acceptent toujours plus de lumière, et plusieurs proposent même un flux 16 bits en sortie. Les téléviseurs HDR restent le maillon faible, même s’ils affichent désormais une gamme d’intensités plus large pour chaque pixel, grâce au passage sur 10 bits. Cette quantification donne plus de profondeur à chaque pixel, pour une gamme de valeurs plus étendue (1 024 nuances au lieu de 256 en 8 bits). Bien qu’essentiel, notamment sur les contenus sport, le doublement de la cadence (passage de 50p à 100p) était moins représenté sur le NAB.

Par Vincent Dabouineau – Innovations & Développements – France Télévisions

NAB16 UHDphaseAu niveau acquisition, presque toutes les caméras UHD phase 1 capturent déjà en HDR (Sony F65, Panasonic, Canon, ARRI…), avec ou sans viseur adapté, chacune prioritairement avec sa courbe OETF(1) propriétaire : S-Log, C-Log, J-Log, respectivement pour Sony, Canon et JVC. L’arrivée du support de l’Hybrid Log Gamma se fait au coup par coup, avec des mises à jour de firmware. Par exemple, la Sony HDC-4300 équipée d’un firmware en version bêta ne donne pas encore de résultats satisfaisants du côté de la rétrocompatibilité SDR. En théorie, toutes les caméras sont censées intégrer la prochaine recommandation ITU-HDR TV, discutée dans le projet d’accord de l’IUT-R/WP6C en février 2016. La proposition de standard inclut dès à présent les courbes OETF PQ et HLG, aussi pratiques que gratuites. Mais lors de cette série de meeting à Genève, des compromis furent nécessaires pour éviter le blocage entre les différents points de vue plus ou moins intéressés des constructeurs. Technicolor y soumettait une contribution, une formule paramétrique présentant une implémentation unique pour les deux approches PQ et HLG, de sorte à faciliter l’intégration de ces deux fonctions de transfert, dès lors que les paramètres seraient choisis de façon adéquate. Cette proposition française fut intégrée dans une annexe informative (et non normative) du futur standard. Une autre annexe informative expliquait de façon pédagogique les notions d’OETF, EOTF(2) et OOTF(3). Jusqu’à la télévision HD, l’OOTF était la résultante de l’OETF et de l’EOTF. Désormais, l’OOTF peut être ajustée de façon indépendante, les OETF et EOTF n’étant utiles que pour la quantification/déquantification du signal vidéo.

NAB16 OETF(1) OETF (Opto-Electronic Transfer Function) : fonction de transfert d’une caméra en sortie du capteur, permettant de convertir la luminance d’une image en une suite de valeurs numériques ;

(2) EOTF (Electro-Optical Transfer Function) : fonction de transfert d’un moniteur, permettant de transformer ces valeurs numérique en un signal vidéo de luminance ;

(3) OOTF (Optical-to-Optical Transfer Function) : correspondante entre les luminances capturées et reproduites ;


Les métadonnées HDR permettent de signaliser la présence d’un flux éponyme aux récepteurs, elles sont requises en cas de production et de distribution des contenus HDR PQ et doivent être conservées à l’encodage. À travers la signalisation, HEVC sait prendre en charge toutes les courbes HDR “de base”, mais de nouveaux codecs sont nécessaires dès lors qu’il s’agit de systèmes plus optimisés, par exemple double couche. ATEME travaille d’arrache-pied sur ce sujet, en embarquant les métadonnées issues de l’analyse Prime Single dans le train HEVC. Différents points de vue s’affrontent quant à la simplicité de mise en œuvre de ces métadonnées sur des workflows temps réels, un sujet sensible qui fait largement débat entre diffuseurs. Une standardisation SMPTE pour intégrer la notion de métadonnées dynamiques (nécessaires pour le système Dolby Vision) est attendue dans le courant de cette année.


Du côté de la conversion HDR/SDR, les choses se compliquent encore, c’est globalement là que la cacophonie entre constructeurs et fournisseurs de technologies atteint son paroxysme.

Lors d’une démonstration privée, Sony présentait sa stratégie HDR, assez décevante. Le HDR façon Sony consiste aujourd’hui à sortir des caméras un flux S-Log3 BT.2020 et un flux SDR BT.709. À tous ceux qui attendaient raisonnablement un support HLG natif en sortie de caméra, le constructeur répond par un convertisseur hardware qu’on insère en fin de chaîne pour transformer le flux S-Log3 en HDR PQ et/ou HLG : “HDR Production Converter”. À grand renfort d’algorithmes jouant sur le gain, ils démontrent la fabrication d’un signal à dynamique standard à partir du flux HDR d’une caméra F65, mais nous nous écartons d’une production unique HDR + SDR…

De son côté, Toshi Ogura, habitué des salons privés pour Sony Japon présentait un prototype de téléviseur à technologie LCD doté d’une nouvelle génération de LED avec la dénomination évocatrice de “Backlight Master Drive”. Le résultat est tout simplement bluffant, on s’approche réellement d’une technologie OLED, mais sur un téléviseur gigantesque et grand-public. La qualité est impressionnante, Sony nous livre quelques informations :

  • l’écran présente plus de 1 000 LED (le chiffre exact n’est pas divulgué) et un peak de luminance à 4 000 nits
  • une plus forte densité de LED, plus précises et sans besoin de refroidissement. La consommation est largement optimisée
  • les premières industrialisations n’auront pas lieu avant 2017
  • le prototype pourrait être présenté à l’IBC et à l’IFA 2016

Sur le stand, Sony présentait également sa caméra HDC-4800, mono capteur CMOS S35. Comme son aînée HDC-4300, elle doit être utilisée en mode slow motion pour obtenir un mode HFR (ralenti 8x en UHD). Cette nouvelle mouture est associée à un nouveau BPU-4800, plus petit que les précédents, incluant un serveur de ralenti, mais ne proposant pas autant de sorties que son prédécesseur. La fonctionnalité HD Cut Out, prisée des réalisateurs sports reste de la partie.

NAB16 Sony HDC4800

La nouvelle caméra Sony HDC-4800, annoncée pour octobre 2016…

NAB16 BPU4800

…et le BPU correspondant

NAB16 HD Cut out

La fonctionnalité “HD Cut Out” sur un signal de caméra 4K

Les deux moniteurs de référence capables de reproduire de manière fidèle ces signaux restent l’indétrônable Sony BVM X300 (4K 30’’ à technologie OLED, avoisine les 800 nits) et le CANON DP-V2410 4K, pour une version LCD de 24’’. Dans une version plus abordable, la firme nippone propose le PVM55’’, 400 nits en peak, compatible avec les espaces colorimétriques DCI-P3 et ITU-R BT.2020. Il présente l’avantage d’avoir chaque quadrant dans un format différent.


Devant le malaise engendré par cette cohabitation des deux versions de dynamique du signal, certains misent sur des technologies d’upconversion SDR vers HDR. Sur 3 stands distincts, les mêmes bases algorithmiques sont mises en application, mais leur intégration et surtout les moniteurs utilisés modifient totalement les résultats :

  • chez B<>Com, le résultat est très bon avec un Sony BVM X300
  • le sentiment est plus mitigé avec Harmonic/TVN et son écran LG
  • le rendu est quasiment médiocre sur le stand de BBright avec un téléviseur LG pas vraiment HDR

Chez Dolby, les conditions de démonstrations HDR sont irréprochables. Basse lumière mais pas noir complet, moniteur étiqueté Dolby montant à 4 000 nits et oscilloscope à l’appui, le fabricant propose une solution de conversion automatique HDR PQ vers SDR, sans paramétrage ni métadonnées. Ils passent le flux live de la caméra 4K Grass Valley installée sur le stand inférieur à travers leur processeur hardware de conversion. Ce procédé propriétaire remplit correctement la fonction contre une latence induite d’une image seulement. La métrologie permet de valider les seuils de lumière et de couleurs pour les deux signaux, et de démontrer in fine les bienfaits du processeur Dolby comparé au flux SDR directement généré par la caméra LDX 86N. Même si l’on peut regretter l’utilisation de contenus finement choisis et vus déjà de nombreuses fois (Grand Prix moto par exemple), l’exercice de comparaison fait mouche, car toujours légèrement à l’avantage du signal converti. Dolby indique que l’opération est réalisée dans le système de couleurs ICtCp, c’est un atout. Les problématiques (réelles) liées à la reproduction de l’espace couleur BT.2020 sont écartées, Dolby travaillant exclusivement dans l’espace DCI-P3 qu’ils maîtrisent bien.

NAB16 Cam GV

La caméra 4K Grass Valley LDX 86N, alimentant le stand Dolby en signaux HDR et SDR


À la NHK, ce sont les projections laser 8K qui attirent la foule. L’apport du HFR à 120 images par seconde et du HDR Hybrid Log Gamma est indéniable sur du patinage sur glace, le rendu sonore 22.2 venant sublimer le tout. La 8K permet à l’œil de se déplacer dans l’image, d’aller chercher un détail en particulier, mais les démos HFR à base de plans relativement statiques perdent en pertinence. Le comparatif Standard Frame Rate / High Frame Rate sur des plans fixes avec des ralentis pour montrer des flous plus au moins importants sur les objets en mouvement laisse aussi supposer que la surchauffe du capteur 8K ne serait pas maîtrisée en cas de scènes plus rapides.

NAB16 HHK 8K

Les projections laser 8K de la NHK, une toutes les 20 minutes…

NAB16 NHK 8K2

Sur les questions d’interopérabilité d’un écosystème HDR/SDR toujours plus distendu, certains projets de recherche sont observés de près, voire reconnus comme des acteurs majeurs d’un marché en pleine effervescence. C’est le cas de 4EVER-2, consortium Européen de 9 partenaires, piloté par Orange Labs, et dont France Télévisions fait partie. Hébergé dans le Futures Park sur un stand dédié, le projet collaboratif s’est vu remettre le prix de l’innovation technologique du NAB. Attribué traditionnellement aux organisations ayant apporté une contribution significative au monde du broadcast et présentant des démonstrations avancées sur le salon, ce sésame crée un précédent pour un projet collaboratif français. Véritable reconnaissance par les américains et sur leur sol, ce Technology Innovation Award fut obtenu pour avoir “démontré les caractéristiques et bénéfices importants de la télévisions Ultra Haute Définition à travers différents types de réseaux…” (entendez ATSC 3.0 et DVB-T).

NAB16 4ever booth

Stand du projet 4EVER-2, tout au fond du hall sud. Le prix de l’innovation du NAB trône fièrement au milieu de l’espace de démo’ HDR et ATSC 3.0

NAB16 4ever booth2

Un troisième écran laissait dérouler une présentation plus globale du projet de recherche, les résultats de tests obtenus et la dissémination

Au delà de la preuve de concept d’une diffusion live UHD HDR sur un réseau ATSC 3.0, 4EVER-2 présentaient deux type de démonstrations :

HDR : une boucle comparative entre les rendus SDR BT.709 avec gamma standard et HDR PQ à 1000 nits (SMPTE 2084 / BT.2020), puis la démonstration d’un passage de la courbe PQ 10 bits à HLG, sans qu’on puisse noter de différences notables. Enfin, la version SDR de ce dernier encodage HDR HLG remplaçait la partie PQ pour prouver la rétrocompatibilité de la solution. Ces mêmes contenus UHD 50p étaient encodés en HEVC par ATEME et joués en split screen sur un téléviseur Samsung KS9500 capable d’afficher jusqu’à 1000 nits et équipé d’un firmware modifié (support HLG et BT.2020) :

NAB16 4ever booth3

La vision de 4EVER-2 côté production

Dès lors qu’on souhaite se lancer dans une production HDR, la compatibilité arrière pose une question centrale, car le rendu SDR reste LE signal commercial pour encore quelques temps (“money is here”). Comment calibrer les moniteurs ? Quel écran l’ingénieur de la vision va-t-il regarder ? Sur quelle image agira-t-il en priorité, sans tomber dans un casse-tête de corrections colorimétriques et de luminance qui favoriserait un rendu au détriment de l’autre ? L’objectif des workflows de production HDR, tel qu’affiché par le consortium 4EVER2, est de mettre en œuvre une production unique en utilisant un HDR Hybrid Log Gamma, une voie privilégiée pour prouver qu’une telle production ne coûte finalement pas plus chère. Produire HDR et SDR en même temps, c’est pouvoir générer simultanément :

  • un flux UHD HDR BT.2020
  • un flux UHD SFR BT.2020
  • un flux HD SDR BT.709

…avec une qualité maitrisée pour chaque caméra, c’est à dire validée par les ingénieurs vision et directeurs photo.
 N’oublions pas de prendre en compte les autres sources à composer, comme les graphiques, titrages, voire d’autres axes de caméras SDR, qui nécessiteront donc une upconversion.

Le flux le plus important reste le résultat HD SDR BT.709, car c’est ce signal qui va payer 90% de la production, sa qualité est primordiale. 4EVER2 parle ainsi plutôt de workflow Forward Compatible (d’abord SDR, mais compatible HDR), tandis que la mode est à présenter des systèmes Backward Compatible, c’est à dire d’abord HDR avec la possibilité de générer automatiquement un signal SDR.

On peut distinguer aujourd’hui trois scénarios :

  • une double production : on utilise les sorties HDR et SDR de la caméra de façon indépendante, avec une pénalité en matière de coût (double câblage) mais une garantie de qualité optimale
  • une production Hybrid Log Gamma : un seul flux peut-être vu en SDR ou HDR. Même si toutes les problématiques ne sont pas résolues, notamment sur la prise en compte du type de contenu tourné, c’est LA solution retenue par le consortium
  • une production HDR avec utilisation de convertisseurs automatiques pour générer la version SDR (solutions proposées par Sony, Dolby, Technicolor…)

Dans le troisième schéma, la question reste de savoir où et combien de convertisseurs utiliser. 
Technicolor et Sony évoquent la possibilité d’intégrer le matériel en sortie de car. Dès lors, il apparaît plus difficile pour l’ingénieur de la vision de contrôler ce que donne en SDR automatique le réglage qu’il fabrique en HDR. En plaçant un convertisseur sur chaque sortie de caméra, le workflow nécessite beaucoup plus de matériel. On peut alors se demander de façon légitime pourquoi la conversion n’est pas intégrée dans le BPU de la caméra. La réponse se trouve sans doute dans la détermination de chaque constructeur à vendre un workflow complet basé sur sa solution propriétaire. Les différentes démonstrations de ce NAB 2016 abondent en ce sens…

Au niveau des outils connexes à ces problématiques nouvelles, citons :

  • Blackmagic Design propose une version bêta 12.5 de son logiciel phare DaVinci Resolve. Il apporte de nouveaux outils pour l’étalonnage HDR. L’éditeur annonce également une mise à jour de ses cartes UHD pour le support du HDMI 2.0a, qui permettra d’étalonner sur des écrans grand public
  • Atomos Shogun Inferno : un moniteur/enregistreur de terrain tout en un avec des capacités HDR (jusqu’à 1500 nits). Les formats supportés ne sont pas très clairs en revanche.
NAB16 Atomos

Atomos Shogun Inferno

Ce contenu a été publié dans Ultra-HD. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *