AES Berlin – Audio Orienté Objet et Réseaux IP : le grand virage s’amorce

L’audio spatialisé en 3D, l’essor de la réalité virtuelle, l’appétit croissant des utilisateurs pour l’écoute des programmes en version originale ou la diffusion « morcelée » des meilleures séquences des talk-shows sur les réseaux sociaux font tous appel aux mêmes grands principes techniques : décrire le contenu audio pour l’adapter à la consommation. Ces données descriptives doivent voyager synchronisées aux différents éléments sonores et l’Internet Protocol est LA solution la plus évidente pour y parvenir, dans le cadre d’un grand plan audio + métadonnées + vidéo + synchronisation qui va refondre tout le transport des signaux dans l’environnement de production.

Par Matthieu Parmentier – France Télévisions – innovations&développements

La fin des liaisons série au profit de l’IP

Faire circuler de l’audio sur les réseaux IP n’est pas une idée neuve. Tout a débuté avec les premières plateformes de dialogue en ligne (les ancêtres de Skype) suivies par les matrices d’ordres pour faciliter l’intercommunication. Pour ces applications la voix, numérisée puis compressée, visait la qualité « téléphone ». Désormais les protocoles IP supportent l’audio non compressé et les premiers usages sont apparus dans le monde de la sonorisation, puis plus récemment dans les infrastructures de production.

Pour accompagner l’industrie face à cette révolution du transport de l’audio, à peine comparable avec le passage de l’analogique au numérique tant l’IP refonde tous les grands principes, le standard AES67 a vu le jour en 2013. Ce standard reprend toutes les bonnes idées des pionniers de l’audio sur IP, jusqu’ici rassemblées dans plusieurs alliances qui perdurent : AVB, Dante, Ravenna… ce qui ne simplifie pas la compréhension des challenges en cours. Pour illustrer le principe, AES67 s’apparenterait au groupe sanguin O-, ou donneur universel.

Mais la grande nouveauté de cette année 2017 vient d’ailleurs, la SMPTE et tout ce que l’audiovisuel compte comme groupes de travail spécialistes du transport des signaux et de l’IP sont en train de finaliser un standard commun pour le transport de la vidéo, l’audio, les flux de métadonnées et les protocoles de synchronisation : le ST. 2110. Ce standard se décline en sous-documents dédiés : 2110-10 pour la synchronisation des flux, 2110-20 pour la vidéo, 2110-30 pour l’audio, 2110-40 pour les métadonnées etc.

AES67 vient contribuer à cette grande réunion des solutions de transport IP avec une solide expérience et plusieurs solutions déjà fonctionnelles. Le standard ST. 2110-30 spécifie 4 niveaux pour le transport d’audio sur IP : A, B, C et D. Le niveau A s’avère pleinement compatible avec l’AES67 (1 à 8 canaux d’une fréquence d’échantillonnage à 48 kHz, et des paquets de 1 ms).

 

JT-NM regroupe l’AMWA, l’EBU, la SMPTE et le VSF (video services forum) et a publié la roadmap de cette migration des transports de signaux vers l’IP.

 

L’AMWA a publié le Network Media Open Specifications (NMOS). Une famille nombreuse de specifications pour aider au développement de produits et services partageant des principes ouverts (= sans coût de licence). L’AMWA définit des modèles et méthodes basés sur l’architecture de référence du JT-NM : découverte et identification, synchronisation.

 

 

Enfin l’organisme IEEE a standardisé le protocole de synchronisation PTP et IETF s’est chargé du RFC.4175 (mise à jour des protocoles IP autorisés, l’IETF est l’association professionnelle des ingénieurs de l’Internet). On peut saluer d’une part l’ambition aboutie de réunir tous les experts dans un chantier unique moyennant le respect du rôle de chaque organisation, et d’autre part s’étourdir de la vitesse avec laquelle les travaux avancent et s’apprêtent à modifier tous les modèles économiques liés aux infrastructures.

 

Illustration concrète de l’aboutissement du projet IP de la radio publique suédoise

Dans la foulée des standardisations d’ACIP (audio contribution over IP) et AES67, la radio suédoise (Sveriges Radio) a décidé de renouveler 2 stations régionales en les basculant complètement en IP.

La production sur place – ou en reportage – s’effectue sur une application dédiée, portée sur un iPad pro lorsque le journaliste opère en mobilité. Cette application mêle toutes les fonctions nécessaires : entrées micro, éditeur, liste de diffusion, intercom, contrôle simplifié des traitement (niveau, EQ, compression), mesure etc.

Lorsque l’émission est en duplex de la station, la liaison de contribution s’effectue de préférence à l’aide d’un sac à dos dédié comprenant 5 émetteurs 3G/4G en parallèle. En secours, une application iOS sur Smartphone (dépendant d’une unique carte SIM 3G/4G) est en cours de développement.

Pour les grands événements prévisibles, le satellite et la location de fibres privatives restent les moyens privilégiés, mais le téléphone et les liaisons ISDN ont désormais disparu au profit des liens IP.

Côté station, ce sont les consoles de mixage et leurs périphériques qui ont laissé leur place à quelques écrans tactiles de grande taille, directement à la disposition des deux journalistes-animateurs-techniciens, leur permettant de réaliser l’émission eux-mêmes.

Enfin, comble de la migration, le hardware a également disparu de ces stations régionales, pour être centralisé à Göteborg où les services d’ingénierie et de maintenance sont concentrés. Il reste encore un peu de câblage AES et MADI mais uniquement d’une baie à l’autre du broadcast center. Tout ce qui entre et sort de ce broadcast center est en IP. Cette centralisation des moyens techniques a permis d’économiser de nombreux équipements grâce à la virtualisation des environnements de travail et l’utilisation optimisée des ressources matérielles disponibles.

La sécurité globale est assurée au moyen de protocoles VPN utilisés pour encrypter les flux de données circulant sur les réseaux publics.

L’après-projet consiste à open-sourcer l’ensemble de ce qui fut développé, la documentation et la mise à disposition des différents logiciels vient de démarrer : https://irisbroadcast.org

 

Déjà de nouvelles offres d’infrastructures grâce au tout IP dans le domaine de l’audio.

blu est une suite de services offert par la société française Digigram pour permettre la dématérialisation de la production audio. Il s’agit d’une solution Cloud, autrement dit une station de radio virtuelle. Côté transport des signaux audio, blu gère les liaisons en SIP/ACIP, webRTC ainsi que des communications téléphoniques RTC classiques.

Un hardware Digigram – blu connect: – sert de gateway entre l’utilisateur de la station radio physique, le bâtiment hébergeant le(s) studio(s), et le Cloud où se trouve tout le reste. Sur cet équipement hardware se connectent tous les équipements sources (micros, flux)/destinations (monitoring, départ antenne) tandis que les fonctionnalités techniques au cœur de la radio : programmation, enregistrement, édition, liaisons d’ordres, liaisons duplex etc. sont virtualisées dans un data center partenaire de Digigram.

Ainsi, une console 64 pistes est accessible dans le Cloud via un navigateur Internet pour gérer l’antenne et toutes ses fonctions associées. Présentée comme une solution pratique de « disaster recovery » pour les diffuseurs chevronnés, Digigram entend déjà commercialiser son service auprès des plus petites stations qui songent à renouveler leur outil de production.

Ce contenu a été publié dans audio, Audio, IP. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *