Guides et articles

Principes fondamentaux de l’encodage multicanal pour une diffusion en continu

Qu’est-ce que l’encodage ?

L’encodage consiste à convertir une vidéo capturée ou une infographie en un format numérique facilitant l’enregistrement, le déplacement, la multiplication, le partage, la modification ou la manipulation de contenu vidéo pour le montage, la transmission ou l’affichage de contenu. Le processus consiste à suivre un ensemble de règles lors de la numérisation de la vidéo, qui peuvent être inversées par un « décodeur » pour permettre de lire la vidéo. Le décodeur peut être un appareil dédié ou simplement un lecteur logiciel. Le processus d’encodage peut utiliser une norme standardisée ou un schéma d’encodage propriétaire.

Première étape : la capture vidéo

La première étape de l’encodage est la capture vidéo. La capture audio se fait pratiquement toujours en même temps, si possible.

Il existe de nombreuses sources pouvant être « capturées », qui proviennent de caméras, d’équipements de production vidéo et de commutation, ou de rendus graphiques.

Pour les caméras et les équipements de production vidéo et de commutation, il existe différentes connexions permettant de capturer l’audio et à vidéo. Les plus répandus (E/S) sont HDMI et SDI.

La capture de rendus graphiques ou de vidéos à partir d’un ordinateur peut être effectuée de différentes façons. Un logiciel peut être utilisé pour capturer ce qui est visible sur l’écran de l’ordinateur. Une autre option consiste à capturer le signal de la sortie graphique de l’ordinateur grâce à des connexions telles que DisplayPort™ ou HDMI. Il est même possible d’effectuer une capture matérielle depuis l’intérieur du PC grâce au bus PCI-Express. Aussi, des produits permettant une capture et un encodage de très haute qualité peuvent être utilisés pour enregistrer ou diffuser en temps réel des vidéos 360° et de la réalité virtuelle (RV) ou augmentée (RA) lorsqu’ils sont associés à des GPU capables de gérer l’assemblage et la combinaison de plusieurs vidéos provenant de diverses sources.

Si l’encodage est logiciel (voir ci-dessous), le matériel utilisé avec un ordinateur pour la capture peut être : une carte PCI-Express®, un périphérique de capture USB ou un périphérique de capture utilisant d’autres types de connexions.

Étape suivante : l’encodage vidéo

L’encodage vidéo peut être matériel ou logiciel. Il existe toutes sortes d’appareils et de logiciels, à des prix variables, offrant diverses fonctionnalités qui permettent de répondre aux besoins de chaque production.

Hardware Software Diagram FR

Transcodage et conversion

Le transcodage et la réduction du débit binaire sont d’autres formes d’encodage. Il s’agit de prendre une vidéo numérique et de la convertir. Le transcodage permet de convertir une vidéo d’un format MPEG-2 à un format H.264, par exemple. La conversion consiste à modifier la résolution et le débit d’une vidéo, tout en conservant le même format (H.264, par exemple). Parfois, lors d’un transcodage, la vidéo doit être décodée et ensuite réencodée. Dans certains types de transcodage, il est possible de conserver le format tout en modifiant les protocoles de diffusion en continu.

Aussi, des logiciels (installés localement ou accessibles dans le nuage) peuvent être utilisés pour effectuer le transcodage. L’objectif et les exigences de qualité d’un transcodage varient considérablement. La latence pouvant être tolérée lors d’une diffusion en continu peut avoir une incidence sur les choix des options d’encodage et de transcodage.

Encodage avec ou sans compression

L’encodage de vidéos peut être réalisé avec ou sans compression.

 Dans le cadre de la postproduction, par exemple, la vidéo passe par différentes étapes. L’ensemble du travail s’effectue donc, la plupart du temps, avec des fichiers vidéo numériques non compressés.

Dans le cas d’une diffusion sur Internet, la vidéo est généralement compressée afin de s’adapter au réseau et être lue sur le plus grand nombre possible de périphériques.

Un service de contournement (OTT ou over the top) est un service qui permet aux propriétaires de contenu de transmettre directement la vidéo aux spectateurs sans passer par des fournisseurs de services câblés ou par satellite. La quasi-totalité des programmes diffusés à des spectateurs sont des vidéos compressées, quelque soit le moyen de diffusion : service OTT, Blu-ray, service de diffusion en continu en ligne ou même cinéma.

 Bien que la vidéo puisse être encodée (numérisée) avec ou sans compression, on utilise habituellement un codec vidéo (qui est un raccourci de compression/compression) si on veut la compresser.

 Si des médias enregistrés doivent être encodés pour une diffusion en direct ou une diffusion à la demande, un codec vidéo (H.264 par exemple) est utilisé pour compresser la vidéo. Les décodeurs logiciels et matériels inversent le processus et vous permettent de lire le contenu.

Il existe de nombreuses ressources en ligne décrivant les codecs les plus courants. De nombreux rapports indiquent que le codec H.264 domine très largement le marché. Exemple: streamingmedia.com

HAUT DE PAGE

 

 

Video Codec Market Share Diagram Fr

Encodage en temps réel ou non réel

L’encodage vidéo est une opération qui peut se produire en temps réel ou avec latence.

Une grande partie des vidéos, films ou émissions disponibles en ligne grâce aux services de diffusion en continu utilisent l’encodage multipasse, permettant d’offrir le meilleur équilibre possible entre performance et qualité de service aux spectateurs. La qualité d’image et le débit sont généralement inversement proportionnels, l’optimisation de l’un pénalisant l’autre. Mais le débit binaire d’une vidéo peut être considérablement réduit grâce aux techniques multipasses, tout en produisant une qualité d’image exceptionnelle pour les spectateurs.

En savoir plus sur l’encodage multipasse afterdawn.com

Dans d’autres cas, l’encodage vidéo en temps réel convient mieux. Par exemple, pour une diffusion en direct, où seule une latence très faible est tolérable entre la prise de vue et la diffusion aux spectateurs, la vidéo est souvent capturée, encodée et formatée pour une diffusion instantanée.

Les réunions et les conférences Web en ligne utilisent normalement l’encodage vidéo en temps réel, tout comme les émissions Web en direct produites de manière professionnelle.

Remarque : la version « à la demande » des conférences et des émissions Web pour la visualisation ultérieure par des spectateurs est généralement enregistrée au même format que la diffusion en direct. Cela est dû au fait qu’une vidéo, une fois compressée en temps réel, ne peut pas être recompressée dans une meilleure qualité ultérieurement.

Les caractéristiques principales qui différencient les encodeurs en temps réel, matériels ou logiciels, lors d’une utilisation sur un réseau à bande passante limitée, sont la latence, la qualité et l’optimisation du débit. Les meilleurs encodeurs, à la fois matériels et logiciels, peuvent atteindre une qualité exceptionnelle avec une très faible latence et à des débits très faibles.

Parfois, les encodeurs peuvent être couplés à des décodeurs. Cela signifie que les fabricants proposent ces produits avec la possibilité d’optimisations supplémentaires. Par exemple, la facilité et l’automatisation de la connexion entre la source et la destination, la gestion et la commutation des signaux, ainsi que les performances et la qualité globale peuvent être ajustées pour compléter, augmenter ou même, dans certains cas, remplacer entièrement les infrastructures AV traditionnelles.

Pour plus d’informations à ce sujet, veuillez consulter Principes de base d’AV sur IP.

Encodage matériel contre encodage logiciel

La différence entre l’encodage matériel et l’encodage logiciel est que l’encodage matériel utilise un traitement dédié pour l’encodage, tandis que l’encodage logiciel repose sur un traitement général.

Lorsque l’encodage est effectué avec du matériel dédié, celui-ci est conçu pour appliquer automatiquement les paramètres d’encodage. Une bonne conception matérielle permet d’avoir une vidéo de qualité supérieure, une faible consommation d’énergie et une latence très faible, et d’accéder à des fonctions plus complexes. Celles-ci sont généralement utilisées dans des situations où l’encodage en direct est nécessaire.

L’encodage logiciel utilise également du matériel dédié (processeurs d’ordinateurs personnels ou périphériques mobiles, par exemple), mais effectue un traitement plus général. Dans la plupart des cas, l’encodage logiciel est moins rapide, car moins puissant, et ceci est encore plus vrai pour les vidéos de haute qualité. De nombreux processeurs ou GPU modernes permettent un certain niveau d’accélération matérielle pour l’encodage. Certains sont limités en E/S et principalement utilisés pour le transcodage. D’autres incorporent un encodage matériel pour un seul flux, par exemple pour partager un jeu vidéo en direct.

Un bon exemple d’utilisation d’un encodage logiciel d’une vidéo de haute qualité est le montage vidéo, où les monteurs travaillent avec une vidéo encodée non compressée pour conserver une qualité optimale. À la fin du montage, le réencodage de la vidéo (transcodage), en utilisant une compression, permet de partager la vidéo plus facilement pour la visualiser ou la stocker dans fichier moins lourd. Bien que la vidéo non compressée soit généralement sauvegardée quelque part pour d’autres utilisations, des copies supplémentaires existent dans un format compressé. Transmettre une vidéo non compressée est extrêmement demandant en termes de bande passante. Même avec les nouveaux réseaux à large bande passante, les performances sont toujours supérieures avec une vidéo compressée.

Un autre exemple d’encodage logiciel est l’utilisation d’une caméra d’un ordinateur personnel ou d’un téléphone intelligent lors de vidéoconférences (ou d’appels vidéo). Il s’agit souvent d’un encodage vidéo hautement compressé, exécuté par un logiciel à l’aide du ou des processeurs de l’appareil.

Pour les utilisateurs, la distinction entre un encodage s’appuyant sur une accélération matérielle et un encodage logiciel peut être floue. L’accélération matérielle répond à plusieurs objectifs selon les cas de figure. Par exemple, de nombreux périphériques portables possèdent des processeurs capables d’effectuer un encodage hautement compressé, comme lors d’un appel vidéo. Dans ce cas, « l’objectif » de l’accélération matérielle est de protéger la durée de vie de la batterie du périphérique mobile comparativement à un encodage logiciel exécuté sans accélération. En effet, effectuer un appel vidéo ou regarder une vidéo diffusée en continu sur YouTube ou des vidéos stockées sur le téléphone en utilisant une compression logicielle, sans aide d’une accélération matérielle, réduirait considérablement la durée de vie des batteries.

Il existe une corrélation entre la « complexité » de l’encodage et le choix d’un encodage logiciel (traitement général) ou d’un encodage avec une accélération matérielle. Maintenir la qualité d’une vidéo, tout en réduisant considérablement sa taille pour le stockage ou la transmission sur des réseaux, est particulièrement complexe.

C’est une des raisons pour lesquelles les normes vidéo sont très importantes. H.264 est une norme vidéo utilisée depuis longtemps, car il y a une accélération matérielle aussi bien dans un appareil intelligent que dans un ordinateur personnel. C’est une des principales raisons pour lesquelles il est si facile de produire, partager et consommer du contenu vidéo.

Les services de diffusion en continu qui permettent aux utilisateurs de regarder des films et des spectacles utilisent parfois un encodage logiciel pour obtenir la plus haute qualité possible à des débits très faibles. Cela permet une diffusion de haute qualité et fiable à des millions d’utilisateurs simultanément. Mais dans ce cas bien précis, ils utilisent un grand nombre d’ordinateurs avec un temps d’encodage très long, afin de trouver les paramètres d’encodage optimaux. Cette opération ne peut pas être effectuée en temps réel et convient davantage à une diffusion à la demande qu’à une diffusion en direct.

Lors d’une diffusion restreinte, comme lors d’une session de montage vidéo, il est logique d’utiliser un traitement moins complexe pour l’encodage, qu’il soit non compressé ou légèrement compressé.

Pour les entreprises, les administrations, les établissements scolaires et les autres organisations qui produisent beaucoup de vidéos pour leur propre usage (par opposition aux vidéos produites pour une diffusion à des consommateurs), il est nécessaire d’équilibrer de nombreuses variables. La qualité vidéo est importante et il est essentiel de la maintenir, mais il faut préserver la fiabilité et les performances d’une transmission par réseau. Effectuer un encodage avec une latence faible, garder une qualité vidéo élevée et utiliser le moins possible de bande passante sont primordiaux lors d’une diffusion en direct. L’« enregistrement » pour une diffusion à la demande est souvent effectué à la même étape que l’encodage lors de la diffusion en direct. L’option d’une compression faible, avec une utilisation élevée de bande passante, comme lors d’un montage vidéo, n’est donc pas efficace ici. L’option de faire un encodage multipasse, comme dans les services de diffusion en continu de films, est trop coûteuse et ne peut pas se faire en temps réel. Elle ne convient donc pas non plus.

Encodage pour la diffusion en continu et l’enregistrement

L’encodage de la vidéo n’est que la première étape du processus de diffusion ou d’enregistrement. Alors, comment faire passer la vidéo encodée de l’encodeur au spectateur ou au périphérique d’enregistrement ? L’encodeur doit envoyer non seulement la vidéo à une destination, mais il doit également indiquer au destinataire ce qu’il envoie.

Les protocoles de diffusion en continu sont différents paramètres qui ont pour objectif de minimiser l’utilisation de la bande passante réseau et d’améliorer le temps de latence vidéo, la compatibilité des principaux périphériques, la fluidité lors de la lecture d’une vidéo et les performances en général.

Les protocoles de diffusion en continu permettent aux flux qui ont été encodés d’être transmis, soit en temps réel, soit ultérieurement. Les protocoles n’affectent pas la vidéo elle-même, mais plutôt la façon dont un utilisateur/un spectateur peut interagir avec la vidéo, la fiabilité de sa diffusion ou les périphériques/lecteurs logiciels qui peuvent la lire. Certains protocoles sont propriétaires et ne peuvent être utilisés qu’avec le matériel d’un seul fabricant, ce qui réduit considérablement l’interopérabilité et la portée potentielle de votre contenu.

Les produits AV sur IP de base du secteur AV utilisent la plupart du temps des protocoles propriétaires, ce qui augmente la nécessité de se fournir auprès d’un seul fabricant et réduit considérablement l’interopérabilité et la flexibilité des installations d’une entreprise. En revanche, ils garantissent l’interopérabilité des produits. Il arrive donc que les clients préfèrent parfois cette solution, car ils ont ainsi la certitude que leur installation, parfois complexe, fonctionnera parfaitement. Aussi, ils ont l’assurance que l’assistance technique sera plus performante en cas d’incompatibilité, de bogues ou d’autres problèmes.

Différents protocoles sont conçus pour différentes utilisations. Par exemple, lors du partage d’un événement en direct sur un réseau local, la latence sera l’élément le plus important à prendre en considération. Le spectateur n’aura pas nécessairement besoin de commandes de lecture et la fiabilité du réseau peut être assurée par l’entreprise elle-même. Il est donc moins nécessaire de recourir à une correction minutieuse des erreurs. Par conséquent, les protocoles employés lors d’une utilisation nécessitant le nuage ou l’Internet public peuvent différer de ceux utilisés pour les infrastructures AV sur IP.

Pour une diffusion plus large d’un flux vers plusieurs plateformes Internet, HLS, MPEG-DASH et Web RTC sont parmi les protocoles les plus utilisés pour diffuser un contenu à grande échelle. Avant l’utilisation de ces protocoles pour la diffusion de flux, RTMP pouvait servir de protocole de diffusion pour le téléversement de contenu vers des services en nuage. Lorsque la fiabilité d’un réseau n’est pas parfaite, mais que la qualité vidéo doit être constante, ou que la vidéo doit être sécurisée, de nouveaux protocoles émergents, tels que SRT, peuvent également être appropriés.

Secure Reliable Transport (SRT) est un nouveau protocole qui avait été développé pour remplacer RTMP. De nombreux fabricants de matériel et de concepteurs de logiciel ont déjà mis en place une assistance pour ce nouveau protocole de transport.

Il existe de nombreux autres protocoles que ceux mentionnés ici, chacun d’eux présentant des atouts différents. Pour plus d’informations à ce sujet, veuillez consulter ce webinaire Matrox sur les protocoles de diffusion en continu.

Lorsqu’une vidéo doit être stockée, plutôt que diffusée en direct, une méthode de stockage est nécessaire. Sans surprise, il existe de nombreuses options pour le stockage de fichiers non compressés, légèrement compressés et très compressés. Bien qu’il soit possible de traiter des vidéos stockées ultérieurement pour les diffuser, il est préférable de connaître dès le départ la façon dont la vidéo stockée sera finalement utilisée, pour choisir les meilleures options de numérisation possible. Tout comme l’exemple de la diffusion en continu ci-dessus, il existe des outils pour chaque type de production. Dans le cadre de cette discussion sur l’encodage multicanal, de nombreuses options pour le stockage peuvent être définies au moment de la capture ou lors du transcodage, à l’aide de serveurs médias ou d’autres outils.

Pour plus de renseignements à ce sujet, veuillez consulter Comparaison des formats de fichier vidéo. Vous accéderez également à des liens supplémentaires, notamment des comparaisons entre les lecteurs multimédias et les différents formats de fichier pris en charge.

HAUT DE PAGE

 

Qu’est-ce que l’encodage multicanal ?

L’encodage multicanal fait référence à la capacité de traiter simultanément plusieurs sources vidéo. C’est particulièrement utile pour diffuser une source vers de multiples destinations pour un usage immédiat (diffusion en direct) ou une consommation ultérieure (diffusion à la demande). L’encodage multicanal apporte des solutions aux questions suivantes : combien y a-t-il de spectateurs ? Quels sont les types de plateformes de visualisation (matérielle ou logicielle, périphériques sans fil, etc.) ? Quelles sont les options d’enregistrement pour une diffusion à la demande ?

Alors que des vidéos non compressées sont utilisées la plupart du temps en production vidéo pour assurer la qualité tout au long du montage, l’encodage multicanal va de pair avec des vidéos compressées, que ce soit lors d’une utilisation dans des installations audiovisuelles ou pour la distribution de contenu vers de nombreuses destinations et sur Internet.

Différentes façons de réaliser un encodage multicanal

Il existe plusieurs configurations de travail permettant de transmettre plusieurs flux.

Utilisation d’un encodeur multicanal

Un des moyens de générer plusieurs flux différents consiste à utiliser un encodeur doté de la puissance de traitement et des fonctions nécessaires.

Multi Channel Encoder Diagram Fr

Utilisation d’un serveur média de diffusion en continu

Une autre méthode consiste à utiliser des serveurs médias de diffusion en continu, c’est-à-dire un logiciel installé sur des appareils dédiés, des ordinateurs ou des serveurs, qui traite les sources en entrée et qui utilise la puissance de traitement du serveur média pour transcoder et multiplier le nombre de flux. Certains serveurs médias de diffusion en continu fonctionnent localement et d’autres, dans le nuage.

Streaming Media Server Diagram Fr

Il existe de nombreux types de serveurs médias. Certains sont faits pour diffuser du contenu média à domicile, d’autres pour effectuer des opérations de transcodage pour une diffusion en entreprise. Les serveurs médias sont très utiles pour améliorer les fonctionnalités des encodeurs. Toutefois, ils requièrent soit du matériel supplémentaire (pour les serveurs médias sur site), soit un abonnement à un prestataire de services (pour les serveurs basés sur le nuage), et parfois les deux.

Bien que les serveurs médias de diffusion en continu offrent une flexibilité (en particulier pour les services dans le nuage), ils ne peuvent pas améliorer la qualité de la vidéo qu’ils reçoivent. Par conséquent, si l’option A consiste à effectuer une diffusion en continu en direct à l’aide d’un encodeur multicanal et l’option B consiste à utiliser un encodeur simple canal de faible qualité avec un service média de diffusion en continu, le coût peut être similaire, voire légèrement moindre pour l’option B, mais la vidéo diffusée avec l’option A sera d’une qualité largement supérieure.

Cependant, les serveurs médias de diffusion en continu et les encodeurs multicanaux peuvent fonctionner ensemble. Par exemple, vous pouvez utiliser un encodeur multicanal pour diffuser dans plusieurs résolutions sur un réseau local et utiliser un des canaux de cet encodeur pour envoyer un flux hors site vers un serveur média de diffusion en continu. De même, l’encodeur multicanal peut envoyer un flux vers un périphérique de stockage réseau (NAS) et un second flux vers un serveur média de diffusion en continu. Dans les deux cas, l’encodeur multicanal est capable de répondre aux besoins locaux et d’envoyer une vidéo de haute qualité au serveur média de diffusion en continu pour une diffusion à grande échelle.

Pour plus de renseignements sur les serveurs de médias en continu, veuillez consulter le Guide de l’acheteur pour les serveurs de médias 2017.

1. Modifier/augmenter les protocoles

Étant donné que les différents protocoles de diffusion vidéo en continu permettent de solutionner différents problèmes, il est logique que plusieurs protocoles soient parfois nécessaires pour traiter des vidéos provenant de diverses sources et les envoyer simultanément, à de grandes distances, à de nombreux spectateurs utilisant des appareils différents (téléphones, tablettes, ordinateurs, lecteurs médias ou consoles de jeux). Cela implique souvent l’utilisation de services infonuagiques ou Internet.

Par exemple, les protocoles de diffusion en « continu », comme RTMP, peuvent maintenir un haut niveau de qualité vidéo tout en minimisant la latence.

Les protocoles HTTP, comme HLS et MPEG-DASH, fragmentent les flux vidéo afin de mieux exploiter l’interopérabilité entre les réseaux et les logiciels. Ils reposent sur la transmission TCP pour fournir une correction d’erreur et sur HTTP pour traverser les pare-feu sans nécessiter d’instructions spéciales. Toutefois, ces protocoles nécessitent de grandes quantités de mémoire tampon, ce qui augmente la latence. Ces solutions sont parfaitement acceptables dans le cadre d’une diffusion à la demande. Mais les fabricants travaillent pour essayer de diminuer la latence lors de diffusions en continu en direct.

Donc, le fait d’avoir accès à plusieurs protocoles et de pouvoir changer de protocole pour vos différents flux vous permet d’élargir votre audience et d’optimiser les performances de votre installation. Vous pouvez avoir des canaux travaillant avec une faible latence et des performances vidéo très élevées, mais aussi des canaux garantissant une compatibilité totale avec votre configuration de diffusion en continu.

Cela s’applique aussi bien localement que pour Internet.

Localement

À l’échelle locale, un encodeur fonctionnant sur un réseau adéquat peut alimenter directement un décodeur et fournir des vidéos haute résolution avec une latence minimale. S’il s’agit d’un encodeur multicanal, le même encodeur peut fournir des flux supplémentaires fonctionnant avec des lecteurs et des navigateurs standards en utilisant une bande passante réduite. Que votre encodeur prenne en charge ou non l’encodage multicanal, il est également possible d’utiliser un serveur média de diffusion en continu pour multiplier les flux et modifier les protocoles afin de les adapter à vos besoins.

Certains fabricants d’encodeurs fournissent également des décodeurs matériels et logiciels pour faire en sorte que tout fonctionne correctement.

« L’enregistrement » pour une diffusion à la demande peut également servir afin d’éviter de perdre un discours ou un moment important en cas de défaillance du réseau. Parfois, les encodeurs multicanaux et les combinaisons encodeur et serveur média de diffusion en continu ont en mémoire cache une sauvegarde locale, tout en enregistrant simultanément sur le nuage. Vous pouvez aussi enregistrer et diffuser simultanément en direct des sources vidéo capturées. Ici aussi, il est possible d’utiliser différents protocoles comme FTP pour un enregistrement de fichier MPEG-4 et RTMP H.264 pour la diffusion en direct.

Local Diagram Fr

Nuage/Internet

Le même principe s’applique à un encodage multicanal basé sur le nuage/Internet, ce qui permet de choisir le protocole le plus approprié pour chaque flux vidéo de diffusion vidéo en continu.

En utilisant le protocole le plus approprié pour chaque flux, il est possible de diffuser des flux de très haute qualité et des flux très faciles d’accès. La flexibilité quant à la gestion des protocoles vous permet aussi d’associer des équipements de traitement plus anciens avec des équipements beaucoup plus modernes. Cela signifie qu’il est possible d’améliorer et de faire évoluer continuellement votre infrastructure de diffusion en continu, au lieu d’imposer des restructurations importantes et le renouvellement de votre infrastructure.

De nombreuses configurations de diffusion en continu basées sur le nuage utilisent actuellement un protocole à faible latence, tel que RTMP, pour la transmission de la source vidéo vers le nuage et un protocole HTTP, offrant une plus grande compatibilité, pour une diffusion à grande échelle.

La multiplication des flux peut être effectuée par l’encodeur, par les serveurs médias de diffusion en continu ou par une combinaison des deux.

Fichiers enregistrés

Le changement de protocole survient aussi lorsqu’une diffusion en continu est effectuée à partir d’un fichier stocké au lieu d’une source directe. Les services de vidéo à la demande (VOD) en sont un exemple parfait. Ces fournisseurs doivent stocker leurs contenus et, lorsqu’un utilisateur lance une session de visualisation, ils convertissent le fichier stocké en un flux vidéo pour lui envoyer par Internet. Cela peut être géré par un encodeur multicanal ou un serveur média de diffusion en continu. Le protocole qu’ils utiliseront pour communiquer avec le périphérique de visualisation (une télévision intelligente, par exemple) pourra les informer de la disponibilité de la bande passante et de la fiabilité du réseau, ce qui leur permettra de sélectionner la résolution la plus appropriée pour la diffusion.

2. Modifier/augmenter le nombre de résolutions

Une des variables les plus importantes pouvant modifier le débit des flux en direct est la résolution de la vidéo diffusée en continu. L’encodage multicanal peut fournir une solution à ce problème.

Comparing Resolutions Sizes
Streaming Video Diagram Fr

La diffusion de vidéo en continu requiert un équilibre délicat entre l’acuité visuelle et la stabilité du flux. Lors des premières diffusions de vidéo sur Internet, les utilisateurs étaient souvent frustrés par la mise en mémoire tampon. De nombreuses vidéos étaient tout simplement impossibles à regarder.

Depuis, des progrès significatifs ont été accomplis, permettant aux utilisateurs de regarder sans encombre les vidéos. On tient compte maintenant de la quantité de bande passante disponible et donc de la quantité d’informations pouvant être transmises lors d’une diffusion en continu. Des résolutions plus élevées impliquent plus d’informations.

Aujourd’hui, la technologie de diffusion en continu à débit variable détecte automatiquement et en temps réel la bande passante et les possibilités de traitement informatique de chaque utilisateur, et permet de fournir un flux média qui s’adapte à ces contraintes.

Le transcodage dans le nuage crée une latence et nécessite des services payants. Pour cette raison, les entreprises diffusant de nombreuses vidéos à l’interne préfèrent soit envoyer plusieurs flux à des résolutions différentes à partir d’encodeurs multicanaux, soit utiliser des encodeurs à débit variable compatibles avec des lecteurs multimédias capables de basculer entre les différents débits et d’offrir ainsi la meilleure qualité (souvent la résolution) permise par la puissance de traitement et les conditions réseau.

Que ce soit dans une entreprise ou dans le secteur des médias ou du divertissement, cela signifie généralement que les sources vidéo sont encodées avec une résolution et une qualité maximales, mais que l’encodeur et le serveur de diffusion en continu locaux créent également des copies de flux avec des paramètres de qualité réduits.

Cette « mise à l’échelle » des sources vidéo grâce à l’utilisation de multiples profils vidéo de diffusion en continu est très utile pour transmettre instantanément un flux à tout type de destination. Une source 4K, par exemple, peut être conservée en 4K et être lue ainsi. Mais la même source 4K peut être visualisée sur une tablette ou un téléphone intelligent. Ces appareils disposent souvent d’un écran avec une résolution plus faible et des possibilités de traitement plus limitées, donc le flux envoyé devra avoir une résolution et un débit moindres, permettant de l’adapter au réseau sans fil et à la puissance de ces appareils.

3. Modifier/augmenter les profils de diffusion en continu ou les formats vidéo

Une des variables les plus importantes affectant le débit des flux en direct est la résolution de la vidéo diffusée en continu.

Un autre aspect de l’encodage multicanal est la possibilité de convertir des vidéos, et donc de modifier leur codec de diffusion en continu ou leur format. Cela peut être plus complexe que la modification des protocoles de l’exemple ci-dessus. Pour passer d’un codec à un autre, il faut souvent décoder le flux ou le fichier d’origine et le transcoder (le réencoder) dans des formats de fichiers différents, en utilisant un ou des nouveaux codecs.

Il existe différentes raisons de modifier le codec de vos vidéos.

Voici un exemple concret :

Supposons qu’une entreprise ait ajouté un nouvel appareil capable de capturer dans une très haute résolution, par exemple 4K. Dans ce cas-ci, la solution d’utiliser un codec réduisant la bande passante nécessaire peut être intéressante. Mais le codec et le profil d’encodage ne correspondent pas forcément au codec ou au profil d’encodage optimal pour une diffusion de contenu à grande échelle.

Streaming Media Server Diagram Fr

L’utilisation de HEVC (H.265) pour encoder le contenu 4K permet de réduire la bande passante et aide à garantir la stabilité du flux, de sa capture à sa diffusion sur un réseau ou sur Internet. Cependant, HEVC a tendance à décharger la batterie des périphériques mobiles, beaucoup plus que H.264. Aussi, de nombreux périphériques plus anciens ne fonctionnent pas avec HEVC. Les serveurs médias ou d’autres outils sont donc très souvent utilisés pour convertir des sources HEVC en flux H.264 plus pratiques.

Inversement, certaines installations utilisent un MPEG-2 natif. Dans ce cas, un transcodage permet de réduire la bande passante nécessaire pour la transmission et améliore la compatibilité avec les périphériques en aval.

Tous les encodeurs ne sont pas équivalents

Il est important de noter qu’il existe un grand écart de performance entre les encodeurs. Certains encodeurs H.264 très performants surpassent certains encodeurs HEVC plus anciens ou de faible qualité, que ce soit du côté du débit, de la latence ou de la qualité d’image.

Mais au fil du temps, les résolutions et les codecs évoluent et peuvent être appelés à changer. À certains moments, il est parfois logique de passer à une nouvelle technologie, que ce soit pour l’encodeur source, l’infrastructure de diffusion, le réseau de diffusion de contenu ou même les appareils de visualisation. L’archivage du contenu en haute résolution est parfois une bonne excuse pour passer à des technologies moins établies afin de réduire les coûts de stockage. En revanche, une diffusion à grande échelle requiert toujours des technologies bien établies pour une compatibilité et une portée maximales.

Le transcodage peut être coûteux. Il est important de se demander comment réduire au minimum le coût du transcodage. Lorsqu’une bibliothèque vidéo doit être archivée dans un format hautement compatible, il est préférable d’utiliser un codec courant, comme H.264, et d’ignorer certaines normes émergentes. Des normes bien établies permettent souvent de concevoir des installations plus évoluées et offrent un équilibre très convaincant entre performances et compatibilité étendue.

Quels que soient vos besoins, les encodeurs multicanaux et les logiciels ou services de transcodage peuvent vous aider à changer de codec ou de profil d’encodage et vous permettre d’atteindre plus facilement votre public.

4. Trouvez des solutions adaptées à différentes bandes passantes réseau et optimisez-les pour chaque situation

Les trois sections précédentes, illustrant comment prendre en charge simultanément divers protocoles, comment assurer le transcodage et la conversion, et comment produire des flux de résolution et de qualité différentes pour travailler à différents débits et avec différents décodeurs/lecteurs, justifient largement l’utilisation d’un encodage multicanal.

Nous avons également vu différentes méthodes d’encodage multicanal, comme les encodeurs multicanaux qui produisent des flux multiples directement à la source, les encodeurs à débit variable produisant de multiples profils compatibles avec différentes destinations, ou encore les serveurs médias qui sont des logiciels et des services de transcodage vous permettant de manipuler et de multiplier vos flux vidéo pour répondre à vos besoins.

Les environnements hybrides qui exploitent pleinement une ou plusieurs de ces technologies d’encodage multicanal permettent aux entreprises de diffuser en continu de manière optimale en tenant compte de la sécurité, de la bande passante réseau, du nombre et du type de décodeurs/lecteurs, etc.

HAUT DE PAGE

Firewall Diagram Fr