Worflow Théorie
Worflow Théorie
Worflow Théorie
1) Introduction
A) Définitions
- RAW= signaux pas encore traité, contient des données brutes du capteur, il n'a pas subi
de transformations irréversibles, ce qui permet de retravailler sans dommage.
- MOV= type de fichier utilisé par le logiciel multimédia QuickTime Player. On l'associe
directement à la firme Apple. Le format .mov est un format conteneur qui présente des
flux vidéo HD ou SD encodés sous différents codecs (MPEG-4 en particulier) et des flux
audio, compressés en MP3 ou en AAC.
- MXF= (Material eXchange Format) conteneur utilisé pour les données audio et vidéo
numériques. Gratuit, ouvert et évolue avec le temps.
- XAVC= (essence) Format d'enregistrement lancé par Sony et vendu sous licence.
Organisation d’enregistrement, mélange d’audio, vidéo, compression (ex: Prores)
- GOP= dans le domaine du codage vidéo, la structure d’un GOP (Group of pictures)
définit l'ordre dans lequel sont disposées les images à codage interne (image intra) et à
codage prédictif image inter. Un GOP est constitué d'une suite d'images regroupées
1
dans un flux vidéo encodé qui est répété périodiquement jusqu'à la fin de l'encodage.
Les images visibles sont générées à partir des images codées contenues dans un GOP.
- POC= (Proof of concept) Réaliser toutes les étapes du workflow avant de le valider,
s’assurer que le workflow théorique fonctionne.
Workflow =
- L’étude du flux de travail, cheminement de chaque étape d’un projet (continuité).
- Succession d’étapes qui vont transformer des médias dans le temps dans le but de
recevoir le média final.
- Anticipation de tout le travail de la préprod, la production et la post-production.
2
Il y a 2 types de workflow:
→ un workflow de production est plus facile à réaliser mais il faut encore le traduire
correctement en workflow technique.
But du workflow:
L’ensemble des étapes de production est inspiré par un cahier des charges (de la production)
et impose un mode de travail concret : il organise un schéma global du travail.
CEPENDANT : Le cahier des charges n’indique pas le procédé ! C’est le workflow qui va
traduire le cahier des charges en étapes techniques.
3
2) Etude des médias
A) Mise en situation
B) Définitions
➔ Un média est en fait l’ensemble de données qui vont pouvoir être diffusées et partagées.
- Actif (Asset) = CONTENU + DROITS (contenu sur lequel on a des droits en prod). Il
désigne l’ensemble des tâches et décisions au sein d’une organisation qui permettent la
collecte, la classification, la recherche, la visualisation, le stockage et la distribution des
différents contenus multimédias de l’organisme. Des droits y sont appliqués.
4
MEDIA
FORMAT = résolution. Caractéristiques de ce que l’on voit (vidéo) et ce que l’on entend
(audio) → impacte l’image brute. Détermine la qualité de base de l’image et du son (ex: UIT
601, UIT 709, AES,...)
SUPPORT = disque dur physique qui contient le média (les métadonnées, l’essence et le
container). Un support à des spécificités : l’espace, les débits d’entrées et de sortie, le
formatage, la taille physique, la résistance du support, la zone de stockage, la sécurisation.
5
SCHEMA
6
Tableau qui regroupe les propriétés et la nomenclature d’un média:
Enfin,
7
D) Exercice : chaque élément correspond à une caractéristique citée plus haut
• Caractéristiques du Format
Résolution :
- Taille écran + distance de
visionnement
DAR :
- proportions de l’image/format de
l’écran (rapport largeur-hauteur) →
4/3 ou 16/9
Bit Depth :
- profondeur/quantification de
l’image → nb de niveaux
8
NB : Attention à l’erreur de quantification ! L’œil ne doit pas remarquer le processus pour que ça
reste une image réaliste → erreur entre le niveau réel et le niveau mesuré.
Si on quantifie en 2 bits, on aura QUE 2 niveaux par échantillon (noir ou blanc) et donc une erreur
de quantification très élevée.
L'œil ne voit plus l'erreur de quantification à partir de 256 niveaux, donc 8 bits. Si on est à 8 bits
(2^8) on aura 256 nuances de gris qui vont du blanc au noir. On doit donc encoder à minimum 8
bits.
➔ + il y a de bits, + il y a de niveaux donc de détails dans l’image, et + l'erreur de
quantification diminue (2^n)
Color Space :
- Comment transporter la
couleur ? RVB ou Y Cr Cb ?
Color Subsampling :
- méthode de réduction de volume des images numériques :
diminuer le nb d'échantillons à traiter → + on échantillonne, - on
aura d’infos colorimétriques.
➢ 4:2:2
➢ 4:4:4
9
➢ 4:2:0
- Y mesuré systématiquement
- Cr et Cb mesurés que 1 pixel sur 2 et une ligne
sur deux.
- On a 24 échantillons (16Y, 4Cb et 4Cr). 24/32 =
0,75x + précis que le 4 :2 :2
➢ 4:1:1
➢ 4:1:0
Color Primaries :
- Position des 3 primaires dans le diagramme XY.
- Quand on change ça, l’équation change :
10
Color Transfert :
- Niveaux de couleurs = relation entre les
≠ espaces.
- Lois de conversion d’échelle de
valeurs.
Scan Type :
- Type de balayage : progressif / entrelacé / PSF ?
Scan Order :
- quand on est en entrelacé, on doit définir quelle
trame on affiche en 1ère, au-dessus avant l’autre.
- Top field first = 1ère ligne de l’image (FFT)
- Bottom field first = 2e ligne
Frame Rate :
- fréquence d’image (25 i/s , 50 i/s , 120 i/s , …)
Duration
Stream Size :
- taille du flux/poids, espace sur le disque de stockage.
- un stockage se met en « Octet »
- Poids = Débit x durée / 8 ( octets, Bytes ) → pour transformer les Bits en Bytes
11
• Les 3 standards de la vidéo
• Caractéristiques du Codec
But codec = réduire le débit
Algorithmes de compression :
MJPEG (ex : Appel Progress)
MPEG2
H264 ou AVC
H265 ou HEVC
JPEG 2000
GOP :
- groupement d’images, structure d’organisation des images de type inter (B et P).
I = une image JPEG en entité
P = image de prédiction (MPEG)
B = image bidirectionnelle
Un GOP va toujours commencer par une image de type I pour avoir une image de référence.
- Toutes les images de type P vont prendre leur base sur l’image qui les précède (qui peut être de
type I ou P). Les images de type P pèse 50% de moins que les I.
- Les images de type B vont se baser sur les images de type I ou P qui les précède et qui les
succède. Les images de type B pèse 75% de moins que les I.
Cela signifie que pour les images de type B, on va chercher des vecteurs de mouvement dans le passé
ET dans le futur.
13
CBR / VBR :
- Constant Bit Rate = algorithme qui fait que le débit est toujours
constant et la qualité variable.
- Variable Bit Rate = algorithme qui fait que le débit est variable et
la qualité toujours constante.
Débit du codec :
Débit du format / taux de compression ( Bits/sec ) → x8 (octet) = stream size
• Caractéristiques du format
14
On a + de niveaux dans les faibles niveaux que dans les hauts : le pas de q° n’est pas uniforme.
- On a un bruit faible pour un niveau faible
- On a un bruit élevé pour un niveau élevé. Les courbes non-linéaires μ et A permettent de garder un
nombre de niveau de q° faible avec une qualité élevée.
Donc : En linéaire 8 bit, on entend un bruit dans les bas niveaux → la loi μ permet de les
atténuer, en 16 bit, on n’a pas ce problème.
SAMPLING FREQUENCY :
- C’est la fréquence d’échantillonnage audio
- Norme = 44.1 kHz (c’est la vidéo qui a imposé ça car
c’est la 1e harmonisation avec la vidéo)
- Ce n’est pas la seule Fech utilisée : 48 Hz est utilisé
aussi (44.1 est + utilisé pour la musique).
Bit Depth :
- 8, 16 et 24 bits
Channels :
- Canaux = nombre de voies
utilisées pour transporter l’audio.
→Stéréo
→Stéréo + d’autres sources
Operating mode :
On peut avoir du « joint stéréo » = quand les canaux sont traités de la même façon
avec un contenu commun (alors qu’en stéréo, les canaux sont traités différemment)
File Coding :
- Mode AESCBU (d’autres existent mais
c’est le + répandu) = organise les éch
entre eux.
15
.
Endianness :
- C’est la façon dont les éch sont stockés dans le fichier, la façon dont on a découpé les éch
en groupe de 8 bits.
Duration
Stream Size
16
1) On applique une transformation.
2) On découpe 20 kHz en bande de fréquence.
3) On regarde quelle est la fréquence la + élevée.
17
3) Transformation d’un média
A) Étapes de production
• Etude de cas:
→ Il est donc bien de connaître la finalité des choses dès le début ainsi que les efforts à
appliquer à cette finalité.
18
Modélisation :
2) Post-production:
- montage
- habillage (infographie)
- mixage
⚠️Important de mettre une double-flèche pour dire que ces étapes sont liées en continu !
On indique que les présentations auront lieu en studio (décor virtuel) avec des images
extraites, ce qui a pour conséquence :
- Des diffusions virtuelles des images extraites d’archives ou tournages ultérieurs
- Un décor virtuel
Une fois ces deux facteurs réunis, on peut procéder à l’enregistrement. Lié à l’étape de
postproduction, on pourra donc assembler le tout afin de les diffuser sur les différents
supports décrits à savoir :
- VOD (vidéo à la demande)
- PAD
- Clean Feed
Attention: À l’assemblage, le projet doit être virtuel, càd. que les pistes doivent être modifiables.
Définitions:
- Diffusion linéaire = la télévision est typiquement linéaire, càd que le flux est permanent.
- Dirty feed (PAD) = en opposition au Clean Feed.
19
Autre manière de faire le schéma:
Modèle synthèse:
20
4) Transformation
A) Complexité
Média simple = n’est composé que d’une piste vidéo et d’une piste audio stéréo.
VS
Média complexe = séquencement des ≠ tracks du média : séquencement des pistes vidéo
et audio (et parfois metadata), on regarde comment elles-sont enchainées en // et on en
déduit une complexité du média.
- Acquisition : une piste audio et une piste vidéo synchronisée. Lors de l’acquisition,
certaines caméras peuvent générer plusieurs pistes vidéo : une native et un proxy. Ce
procédé se nomme le double enregistrement.
- Playout : plusieurs qualités → plsr pistes audio et vidéo mais synchro entre elles.
21
B) Description
C) Qualité
- On veut que la qualité soit constante mais en général, elle ne l’est pas.
- On cherche la meilleure qualité requise par la norme de PAD requise (la + adaptée à la
diffusion). Il faut viser la qualité de distribution (en fonction de ce qu’on en fait on aura
des objectifs de qualité différents). On n'est pas toujours dans la plus haute qualité car
ça coûte cher, il faut trouver la qualité qui convient, celle qu’on va utiliser.
- Il y a des workflow qui permettent de garder la qualité du média original (en fonction
de l’essence qu’on choisit) → But = archiver dans la même qualité que l’acquisition
pour en faire autre chose par la suite.
22
D) Résumé de l’évolution de la complexité
La complexité:
- L’acquisition: la complexité est faible car les vidéos et l’audio sont synchronisés.
- Archives et contribution: le Clean Feed est constitué d’une piste vidéo et plusieurs
pistes audio, synchronisées. Ils possèdent la même configuration, donc la même
complexité.
23
Le descriptif :
La qualité :
→ La qualité sera donc décroissante. Cependant, il existe des workflows dans lesquels la
qualité évolue.
24
5) Les essences
A) Les artéfacts
Comment mesurer la qualité des essences ? → Avec nos yeux et nos oreilles, mais on
regarde aussi les artéfact qui dégradent l’image.
Cause:
Artefact = défaut qui fait que l’image/le son n’est pas optimal (ex: du bruit, le blocking,...)
- pbm de compression
- retouche de l’image sans anticipation
- défaut d’optique
2 catégories :
- Lié au codec (à la compression)
- Lié au format (conversion)
→ Artefacts liés à des choix inadaptés = artéfacts liés à des conversions dans les deux cas, ça
génère des défauts dans l’image et le son.
• Format :
➔ La quantification
- Combien de bits on a (8 - 10 - 12 - 14)
- 8 bits : pas suffisant après étalonnage car dégradé
séquencé.
25
- Echantillonnage des couleurs : élément clé qui permet d’avoir une bonne découpe pour le
chroma key.
➢ Chaque pixel à une couleur différente de son voisin en 4 :4 :4
(Y, Cr, Cb, on a toute l’information sur la couleur).
- Si pas en 444, alors 4:2:0 chaque pixel partage la couleur
avec son voisin (même information de couleur pour 4 pixels).
➔ L’étalonnage:
Si on modifie les couleurs indépendamment des unes des autres (le 444 permet d’avoir
une meilleure transition entre les couleurs : on modifie la chrominance de pixel par pixel
et pas un groupe de pixel).
➔ Le framerate:
Le nombre d’images par seconde (si on veut faire du ralenti, il faut un framerate très
élevé).
● Codec :
➔ Le blur :
- on coupe les hautes fréquences.
➔ Le ringing:
- on voit plusieurs fois le bord de l’objet.
➔ Le blocking:
- apparition des blocs de l’image.
➔ Le débit:
- choix du débit en fonction de ce qu’on veut faire.
26
● Audio :
➔ Compression :
- en général pas nécessaire car les fichiers audio ne sont pas lourds.
- pour la compression, on filtre par bande de fréquences : pour passer de rien à bcp, il
faut des hautes fréquences = avant que le signal non compressé ne commence, il y a
une réplication du signal à l’avant.
- Effet de masque = étouffement
- Distorsion = son métallique
- Pré-écho = on entend la musique avant qu’elle ne commence
→ Quand on transforme une portion du signal en fréq, on décompose cette analyse en bandes
de fréq qu’on quantifie pour cacher les sons inaudibles. On aura donc une - bonne fréq dans
les HF. Les son est alors « répliqué » avec un niveau faible mais + qu’à 0.
B) La génération
● Définition :
27
● Influence sur le format :
28
➢ Conclusion :
- changement de format vers des résolutions + élevées = réalisé en début de workflow
- changement de format vers des résolutions + faibles = réalisé en fin de workflow
- réduction de débit opérée en fin de workflow
C) Editing
● Codec INTRA :
Chaque image est de type I, pas de dépendance entre images et codées indépendamment.
- Les images I peuvent s’enchaîner, quelle que soit la coupe. Cependant, lorsqu’il y a un
effet appliqué, il faut recalculer la zone de cet effet. La même chose se produit lors
d’une application de couche graphique, on recalcule l’entièreté de la Time Line.
- Le jaune est l’orange doivent être enregistrés avec le même codec. Quand on coupe
entre 2 images on a donc qlq chose de clair.
● Codec INTER :
On utilise les mêmes codec pour avoir les mêmes GOP (la structure des GOP ne peut pas
être changée : les images peuvent être de 3 types différents : I, P et B. Ces images se
basent les unes sur les autres pour être codées et décodées).
La coupe est possible si les GOP des 2 séquences sont les mêmes, s’ils sont en parallèle,
fermés et que si la coupe soit faite à la fin du GOP de la 1e séquence d’images et avant le
GOP de la seconde.
29
3 manières pour traiter l’enchaînement du GOP entre 2 séquences d’images :
➢ 1ère manière :
➢ 2ème manière :
➢ 3ème manière :
30
On termine « proprement » le fichier après la coupure :
4) Toutes les images de part et d’autre de la coupure doivent avoir une image de référence qui
leur ressemble +/-
➔ 2 inconvénients :
- on doit recalculer des images donc on a une perte de qualité
- on a toujours un pic de débit à la coupure (...– B – P – P – I – B – ...)
5) Codec à débit variable = on peut recalculer + d’images ce qui permet de lisser le GOP ET
Smart rendering → on revoit le GOP et on revoit les images à recalculer en d’autres images
31
● Essence Native :
Tout ce qu’on vient de voir a un impact sur l’import et l’export. But = minimiser un max les
générations pour garder une bonne qualité.
Essence native = essence non transformée et fournie au processus, on ne modifie pas
l’essence de base, et on la traite sans avoir besoin de la transformer (sort de la caméra).
➔ Faire une essence native avec un codec intra = pas de perte de qualité car pas de
génération, MAIS pèse plus lourd. (Possible si on ne fait que du cut et que le logiciel est
capable de traiter une essence native).
➔ Appliquer un codec inter à une essence = tout reste identique sauf autour du point de
coupe, donc petite perte de qualité sur quelques images car génération supplémentaire
au point de coupe. Pas d’image de référence donc, perte de qualité de part et d’autre de
la coupure → pas besoin de recalculer les images.
➔ Codec intra avec un effet entre les deux séquences = pour faire l’effet, il faut
recalculer tous les échantillons (on fait une génération car on change le contenu, on
calcul les effets. On doit recalculer la zone où se trouve l’effet, là où on a édité le
contenu.
32
➔ On ajoute un logo, un chromakey, étalonnage = génération appliquée sur l’ensemble
de la timeline.
• Essence Mezzanine :
Si une essence ne peut pas être traitée en native, on doit passer par une essence mezzanine
(généralement intra).
Mezzanine = on passe par une essence intermédiaire complètement gérée par le logiciel :
à l’import, il faut passer d’une essence native à une essence mezzanine (intermédiaire)
➔ Même transformation que les natives mais une génération en + (total = 2 générations)
33
Conclusion :
➔ Soit on a une perte de qualité supérieure avec la perte de qualité du rendering final
➔ Soit on veut une qualité supérieure mais on ne sait pas, donc on a forcément une perte
(ou une infériorité).
• Comparaison :
34
Attention: voir les différentes informations de chaque essence dans les exposés et documents
- Hd Xdcam : des GOP longs (12 images) mais peut avoir un faible débit (50 Mbps). Peut
tourner +- 2H et permet un transfert rapide. Le codec est dans les circuits intégrés, il
engendre par conséquent - de calculs et les batteries sont moins conséquentes.
- DNxHD : format créé par AVID, norme VC3, version 8 ou 10 bits. Essence de logiciel de
montage (AVID) qui peut être fortement compressée (1185 Mbps – 185 Mbps). Son
MJPEG est un peu particulier. Il permet un Full résolution et un débit élevé.
- ProRes : full HD mais on peut monter jusqu’en 4K (UHD). Possède une vitesse codage-
décodage élevée ce qui permet de travailler avec les natifs. Codec propriétaire (APPLE)
qui est proche du MJPEG. Il n’existe pas en acquisition.
- AVC-I : inventé par Panasonic, utilise le H264 (codec inter) → prédiction intra, favorise
les images de type I plutôt que les GOP. Son codec est le H264 mais il est limité à
l’interpolation intra, au filtre anti-blocking et au CABAC/CAVLC. Cependant, il existe à
l’acquisition.
- XAVC intra
- XAVC Long Gop : + efficace car inter, débit plus faible, on peut aller jusqu’au 4K, peut
passer en UHD.
35
Comparaison visuelle des essences :
NB : Il n’existe pas d’essence meilleure que d’autres → c’est subjectif et varie selon ce qu’on préfère.
⚠️ Erreur récurrente : on ne peut pas associer une qualité à un débit ! Ce n’est pas parce qu’un débit
est faible que la qualité est faible !
➔ La taille du fichier est proportionnelle au débit : parfois, on a un débit variable mais une
qualité constante
NB : La SEULE situation où on peut se baser sur le débit pour définir la qualité est quand on
compare des codecs qui ont le même algorithme de compression.
Pourquoi les débits sont différents avec une même qualité d’image ?
➢ Le débit varie car il dépend du type d’algorithme, il est différent entre inter ou intra.
36
6) Container
A) Utilisation
Les containers regroupent les différentes essences et les organisent. Ils aident au transfert
de ces essences dans la chaîne de postproduction. Interopérabilité = rendre fluide le
passage des éléments entre les ≠ étapes.
1) Transfert de container = logiciel qui a accès à des fichiers, il faut les extraire et les
transférer (transfert organisé, codé, structuré grâce à un container) → compatibilité
Le modèle OSI :
37
Modèle simplifié : basé sur le modèle OSI, en 5 couches.
C’est le 1e container historique → Objectif = créer une application qui synchronise l’audio et
la vidéo et sur laquelle la Timeline pouvait contenir des graphiques, images animées, textes,…)
➢ Avoir un outil de présentation (synchrone)
➢ Contenir l’essence dans une seule valise
Cela remonte lorsqu’Apple cherchait un moyen de synchroniser ses pistes audio et vidéo. Ils
décident d’abord de développer la synchronisation temporelle. À cette époque, QuickTime était
un fichier multimédia qui regroupe différents fichiers.
Sa structure va être détournée de manière à permettre la synchronisation de l’audio, de la
vidéo et du sous-titrage, ce qui va annoncer le premier container.
38
● Structure :
Structure basée sur la notion d’atome (bouts de fichiers liés les uns aux autres) :
déterminée par une entête avec une destination, ensuite on explique ce qu’il y a dans le
fichier (atome le plus grand = le média, atome le plus petit = échantillons)
Inconvénient du QuickTime :
39
Nouvel objectif : créer un nouveau container libre d’accès pour tous avec un transfert
optimisé.
➔ Donc on a essayé de mettre en place des containers + universel, càd qui ne sont pas liés
à des propriétés spécifiques.
Il va voir le jour sous le nom de Media Exchange Format, plus communément appelé : MXF
➢ Container qui n’appartient à personne (usage libre).
● Objectifs :
- Doit être open source : pas soumis à des licences et peut évoluer.
- Doit être indépendant des essences : il doit marcher pour tout type d'essence. Les
Meta-data doivent être accessibles sans que le fichier soit transféré et/ou ouvert.
- Doit fonctionner sur n’importe quelle plateforme.
- Doit pouvoir transporter n’importe quel type de codec/format.
- Gérer des Proxys (envoyer le fichier avec une qualité inférieure). Si pas de Proxys avec
un fichier lourd : transférer, charger progressivement, même si le fichier est transféré
d’un container à l’autre on peut modifier ce qui a déjà été transféré.
- Avant de commencer le transfert, il faut connaître la taille du fichier global, d’où il vient,
s’assurer que c’est le bon fichier (avoir accès aux métadonnées).
40
- Fichier = informations différentes liées entre elles.
- Fichier texte = information qu’on voit sur l’écran qu’on va écrire sur le disque dur et
transformer en binaire (contenu = les lettres et la police,…). Espace dans lequel on va
écrire les informations binaires dans des cases de 8 bits (1 octect).
I00100
100100
…
Fooster (fin)
Vidéo
10101000 01001001
Audio
10101010 001
Métadata
11001000 1
➔ Cases de 8 bits où on classe d’abord la vidéo puis l’audio puis les métadonnées :
Entête
10101000
01001001
10101010
o11001000
fin
41
● Structure :
La structure MXF est basée selon les Key, Length et Value (KLV) (clé, longueur, valeur) :
on met une info avant, qui nous dit ce que c’est et combien de place ça vaut.
➔ Permet une lecture à différents niveaux afin de savoir quand, comment et quels éléments
sont à sauter si illisibles.
- Key = nom de code qui permet au container de savoir si des éléments sont illisibles
(mode 8 bits). Permet d’expliquer de quoi il s’agit (quel codec/format, etc…) et
nm de ne pas planter le système même si on n’a pas la puissance.
On va décomposer les médias en cellules (ex: on transfère les données pour la 1e image :
l’image, l’audio associé,.. ensuite la 2e etc). On transfère les données de manière synchrone
et progressive.
42
• Index et partition :
- Cas du codec intra : un simple calcul suffit à connaître les positions de chacune des
images. MAIS, on ne sait pas avoir accès à une portion du fichier s’il n’y a qu’un seul
index. On va donc attribuer des GOP à chacun des fichiers, précédés par les metadata
et les informations de partition. C’est cette partition qui permet l’accès et le travail sur
des portions de fichier.
- Cas du codec inter : cette structure change car elle est de taille variable puisque les
GOP correspondent à un enchaînement d’images de types I, P et B qui sont +- grandes.
On a du mal à calculer pour lire le fichier à un endroit précis → il faut donc rajouter un
index indiquant la place mémoire (adresse) de chacune des images se trouvant au
début du fichier.
➢ On découpe le temps en morceau (ex: 1min = la fin d’un fichier) : table d’index pour
chaque morceau
43
● Les packages :
3 types de métadonnées:
44
9 modes de fonctionnements :
OPa = single package. Il se montre donc du début à la fin → Material Package = File Package
puisqu’il ne comporte qu’un seul fichier (Material Package inutile).
➢ OP1a : ce qu’on montre et ce qu’il y a dans le fichier = File package. 1 seul Material
Package lié à 1 seul File Package, tous deux de même durée pour un même média
(90% des cas du MXF).
➢ OP2a : 1 Material Package pour plusieurs File Packages, le 1er définissant les seconds.
Permet d’organiser la diffusion/créer une playlist sans rééditer le fichier. Chaque File
Package doit être diffusé entièrement. Il y a un ordre de diffusion des différents File
Package, et on rassemble tous les fichiers comme une playlist, c.à.d. on choisit l’ordre et
ils seront automatiquement l’un à la suite de l’autre. Le Material Package vaut la somme
des différents File Packages.
OPc = Choice of (Alternate) Material Package. Offre la possibilité d’inclure et choisir parmi
différents Material Packages au sein d’1 seul MXF. >< aux OPa et OPb, on a le choix de
différentes versions.
➢ OP1c : Plusieurs Material Package contenant plusieurs File Packages pour 1 média.
➢ OP2c : Idem mais sur base de playlist par Material Package (versions de playlist).
➢ OP3c : Idem mais basé sur une structure EDL par Material Package (versions de
montage).
OPatom = version à part entière du container car il ne contient qu’1 seule essence (donc, 1
fichier par essence).
45
Exemple :
➔ Cam Panasonic 2
Applications spécifiques :
Le MXF est beaucoup utilisé aujourd’hui car on peut tout faire avec, mais le problème est qu’il
devient non-interopérable.
⚠️ Le conteneur MXF ne permet pas les effets spéciaux → inutilisable en montage. Par contre,
utilisé pour l’acquisition, les archives, la contribution, la diffusion et la distribution (quand le fichier est
linéaire). Un MXF est programmable et il faut définir des paramètres particuliers pour chaque opération.
Objectif = trouver un moyen pour normaliser les échanges entre les étapes de postproduction,
surtout quand les logiciels ne font pas partie d’une même suite.
➔ Solution : l’EDL (Edit Decision List), fichier contenant la description du contenu d’un
média (IN et OUT des différents rushs, leur durée et leurs effets.)
Il est facilement lisible mais assez limité.
46
E) AAF
• Objectifs :
Le container AAF est transmis avec toutes les infos pour le traitement (on veut garder
l’historique des essences). Il reprend tous les objectifs du MXF, mais prend aussi en
compte la créativité, donc les étapes en postproduction.
DONC, il permet l’échange de sessions de travail en postproduction de façon facilitée en
conservant :
- Les effets et autres transitions, audio et/ou vidéo.
- La possibilité de modifier le montage.
- La possibilité d’aller-retours entre différents logiciels de postproduction
1) Pouvoir faire des échanges entre les ≠ éléments de post-prod en gardant toutes les
étapes de prod :
2) Pouvoir transporter un container dans lequel on a tout, mais pour lequel le système n’a
pas la puissance ou le codec nécessaire pour tout utiliser.
(ex: un système audio doit avoir accès aux essences audio sans avoir forcément accès au reste)
47
• Structure :
➢ Entête et pied
➔ Le MOB = en qlq sorte un atome pour le MXF, l’unité la + petite contenant différents
paramètres.
48
49
7) Le support
A) Définition
Support = endroit physique où le média est stocké (// frigo pour la compote de pommes).
→ Endroit où les données audio et vidéo sont stockées après captation. Sans ce dernier, le
fichier n’a pas d’existence physique.
B) Comparaison
Exemples de supports :
C) Types de supports
50
1) Network Attached Storage (NAS) = système qui dépend du réseau, donc le traitement
des fichiers stockées en NAS dépend de celui-ci. Utile si on souhaite stocker
massivement car pas puissant ni coûteux.
- Avantages : tout le monde y a accès
- Inconvénients : le réseau est partagé mais il a un débit fixe → saturation. Il est piratable
et on doit avoir accès au réseau.
2) Storage Area Network (SAN) = système + coûteux que le NAS car technologie plus
pointue. Son accès au système de fichier est facilité et ne dépend pas du réseau. Le
SAN est donc son propre réseau → connecte l’ensemble des unités de stockage et des
serveurs. Réseau en fibre optique, stockage local mais partagé. Réseau utilisé QUE
pour le stockage et rien d’autre (ex : pas de connexion, d’envoi de mails etc...).
- Les médias non linéaires (Blu-ray, cartes mémoires, disques durs, etc.)
- Les médias linéaires (LTO, cassettes, etc.)
D) Sécurisation technique
Lorsqu’on emploie des supports, il vaut mieux toujours s’assurer de sa sécurité pour éviter des
fichiers corrompus et cracher tout son contenu. Il existe plusieurs systèmes nommés RAID, qui
s’assurent de la sécurisation des données.
2 types de sécurisations :
1) Sécurisation technique
2) Sécurisation opérationnelle
51
● RAID 0
● RAID 1
● RAID 5
52
● RAID 6
E) Sécurisation opérationnelle
• Fragmentation de disque :
Être certains que personne n'efface ou pique les données. Pour cela on fait plusieurs
backup qui sont envoyé dans une archive.
53
8) Le PAD
A) Les normes techniques
- vérifications techniques
- vérifications de qualité
- vérification éditoriales
➔ il existe pleins de normes de diffusions différentes, c’est pourquoi on s’aide d’un outil
appelé IMF.
B) L’IMF
Exemple :
2) On a plein de versions
de ce fichier
54
- Output profile List = format qu’on peut sortir, contient les caractéristiques de rendering
(caractéristiques du média qu’on crée) → on transforme les média dont on a besoin en
composants (changer les versions, les sous titres,…) puis on définit le format.
- Package List = étiquette qui décrit l’enveloppe.
- Asset MAP = décrit où se trouvent les médias (peuvent se trouver sur un serveur et non
dans l’enveloppe).
On encrypte les films : on génère des clés pour décrypter le média en bout de chaîne (les clés
sont timées pour les diffuser à un moment précis).
55
➢ CPL= relation qu’on définit entre les
différentes compositions (composition de
playlists). Autre fichier qui organise les
relations entre les éléments.
D) Le PAM
- Stocker, mettre des droits sur les médias, organiser l’espace de travail
- Centraliser et simplifier la gestion du projet → aide à produire
- Gère le profil et les utilisations
MAM = gère les médias pendant la durée de leur vie, va les documenter et les décrire.
PAM = gère le projet pendant la production.
56
9) Analyse des essences
- Prores
- RAW
- HDXD Cam
- DNxHD
- AVC Intra
- XAVC
Calculer un stockage:
Vidéo
- Essence : MPEG2 à 50mb/s
- Durée : 18min24sec
Audio 1 - 2
- Débit = 48kHz (48x10^3) x 24bits x 2 = 1,152mb/sec
Calculs
- Débit total = 50mb/s + 1,552 x2 (car 2 cannaux audio) = 52,304 mb/s
- Stockage : débit x durée (sec)
→(18 x 60 + 24) = 1104 sec x 52, 304mb/s = 1143,116 /8 Mo = 7,217952 Go
57