IBC 2018 : Intelligence Artificielle

Impossible de rater le message : IA, machine learning, deep learning, réseaux de neurones… tout le vocabulaire à la mode est de sortie et chaque stratège marketing s’efforce d’emboîter le pas d’IBM, Microsoft, Facebook ou Google pour dépeindre un avenir plus fiable, plus économique et bien plus savant à la production audiovisuelle. Faisons un petit tour derrière le décor.

À la base, des technologies d’Intelligence Artificielle regroupent toutes sortes de dispositifs plus ou moins savants, à commencer par les capteurs les plus simples (les détecteurs de fumée, d’ouverture de porte, etc.) jusqu’aux réseaux de neurones : des constructions algorithmiques parfois très complexes dont le rôle consiste à attribuer des coefficients aux données traitées pour pouvoir les distinguer et, lorsque les probabilités apparaissent fortes, de les trier. Cette action de classification peut être supervisée humainement ou par d’autres machines – ce qui introduit de nouvelles règles de probabilité – avant d’en restituer le résultat à un utilisateur plus ou moins directement. Car désormais, entre l’utilisateur et les données, d’autres algorithmes transforment les informations triées ou réorganisent leur présentation. Par exemple, derrière un service conversationnel comme Siri se trouvent des algorithmes de reconnaissance vocale (reconnaissance des mots pour les uns, du sens de la phrase pour d’autres, voire du ton employé), puis des règles permettant d’affiner la base de reconnaissance de nouvelles variantes de prononciation lorsque les mots sont apparus bien décryptés, et enfin des algorithmes dédiés à traiter la conversation et organiser les réponses aux questions posées, avant de solliciter un dernier algorithme en charge de la vocalisation. Toute la complexité de ces enchaînements de calculs laissent souvent apparaître l’impression de converser avec un humain, d’où le terme d’intelligence artificielle.

Appliquées à la production audiovisuelle, l’Intelligence Artificielle promet de grandes révolutions. En réutilisant les succès des géants de l’Internet dans le domaine de la conversation automatisée, les activités de sous-titrage et de traduction vont coûter de moins en moins cher. Dans le domaine de la sécurité, le développement de solutions complexes capables d’apprendre de leurs erreurs permet d’envisager des infrastructures qui savent prévenir leurs pannes, anticiper et provisionner de nouveaux besoins (stockage, process), optimiser chaque tour de processeur pour réduire l’empreinte énergétique à son minimum et finalement détecter toute intrusion ou acte malveillant dans la mesure où l’infrastructure – surveillée/maîtrisée dans ses moindres détails – venait à présenter un état différent.


Watson, le service Cloud d’IBM, poursuit son développement. C’est l’exemple-type d’une Intelligence Artificielle en devenir, s’il est bien convenu qu’une Intelligence Artificielle aboutie sache un jour réagir de façon appropriée en toute situation. Pour l’instant, Watson fonctionne par type de service. En fonction des applications (classement de données ou interprétation de données : reconnaissance d’images, de textes ou de sons…) IBM spécialise un réseau de neurones pour distinguer les données, et par processus itératifs, apprendre à les reconnaitre pour les classer. On parle de machine learning dès que l’apprentissage est automatisé, et de deep learning lorsque cet apprentissage fait appel à des traitements plus complexes visant par exemple à extraire un modèle à partir des données analysées. En clair, l’Intelligence Artificielle au sens abouti reste encore une promesse et, suivant la puissance, la qualité des données et la durée d’apprentissage des solutions mises en oeuvre, on obtient aujourd’hui un outil d’assistance plus ou moins fiable et plus ou moins rapide. Ainsi Watson peut s’entraîner à décrypter des retransmissions sportives, et en multipliant les apprentissages sur un même sport, devenir de plus en plus pertinent dans la reconnaissance des compétiteurs ou l’analyse des statistiques. Les applications sont ensuite nombreuses, à commencer par le tri automatisé de quantités de données afin de faire ressortir des informations pertinentes, la reconnaissance automatisée des meilleures séquences ou encore l’indexation poussée des images destinées aux archives.


Sur Azure, l’offre Cloud de Microsoft, de très nombreux services automatisés sont déjà offerts aux clients professionnels de l’audiovisuel. Microsoft voit loin, immédiatement, avec le risque d’apparaître trop pressé. La transcription automatique de texte à partir d’un enregistrement marche plutôt bien en Anglais, mais la traduction automatique qui s’ensuit, par exemple vers le Français, comporte trop d’incohérences et de contresens. On comprend tout juste le sujet sans pouvoir évaluer le fond et la pertinence du discours. Bien sûr Microsoft argumente que l’augmentation significative de clients ne fera qu’accélérer la masse de données d’apprentissage et donc la pertinence des résultats. Il est alors permis de penser que Microsoft devrait payer ses premiers clients plutôt que le contraire ! Car s’illustre ici le modèle économique de toutes ces solutions, certainement à la base de toutes nos technologies à venir :

Avec l’IA, à qui appartiennent les résultats produits par une entité à partir des données d’une autre ?

En l’absence de réponse, on constate la montée d’attitudes défensives (protectionnisme absolu des données) par crainte de nourrir involontairement les empires des GAFAM, lesquels se sont constitués en quelques années grâce au traitement automatisé de données tierces afin d’en extraire un maximum de valeurs. A l’opposé, d’autres acteurs prônent l’ouverture des données pour faciliter la transparence, permettre la chasse aux fake news qui déstabilisent l’économie toute entière, et parient sur leurs propres compétences pour valoriser ces données – certes ouvertes à tous les autres – le mieux possible, y compris mieux que Google ou Facebook.


Comment conjuguer l’apport de l’IA et la nécessité d’inspirer confiance, lorsqu’on est une entreprise dont l’engagement déontologique est la valeur directrice : information, éducation, juridique etc. Un détour par la start-up clermontoise Perfect Memory, spécialisée dans les bases de connaissances (ou « catalogues sémantiques de contenus »), permet de constater l’intérêt majeur de nourrir tout algorithme de traitement avec des données structurées. Perfect Memory offre une plateforme de gestion des contenus comme beaucoup d’autres acteurs, mais basée sur l’exploitation de données sémantiques pour organiser, rechercher et piloter efficacement toute sorte de micro-services aux chaînes d’algorithmes plus ou moins complexe.

À l’heure où l’automatisation promet de débarrasser les techniciens et documentalistes de nombreuses tâches subalternes, aussi indispensables que peu valorisantes, Perfect Memory utilise la sémantique pour lier toutes les données d’un programme présentes dans sa plateforme (audio, vidéo, sous-titres, métadonnées) et les enrichir de façon contrôlée avec les bases de connaissances ouvertes du web : le LOD ou Linked Open Data. L’ensemble permet une automatisation plus pertinente des process qui ne traitent plus de simples données potentiellement ambigües : les homonymes et synonymes font souvent défaillir les algorithmes par exemple, très facile à extrapoler et complexifier dans le domaine du traitement de l’image et du son (quel algorithme sait distinguer un nuage de pluie de la vapeur d’une cheminée de locomotive ?). L’une des forces de cette plateforme consiste aussi à indiquer les données de confiance – validées par une intervention humaine traçable – et celles déduites grâce aux algorithmes.

L’intérêt d’utiliser des bases de connaissances, plutôt que des bases de données, apparaît double :

  1. une base de connaissances stocke toute nouvelle donnée en association à son contexte : elle n’est jamais « perdue » au milieu d’autres données mais au moins reliée à l’une d’entre elles, elle-même déjà reliée à au moins une autre etc.
  2. effectuer une requête dans une base de connaissances s’opère avec un langage simple et ouvert qui permet de filtrer directement les résultats en fonction du contexte de la recherche, plus besoin de développer un connecteur dédié à chaque base de données utilisée comme source d’information.

 

 

Ce contenu a été publié dans IA. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *