ÉTUDE SUR LES CARACTÉRISTIQUES DES CAPTEURS - Groupe de travail du Département Image de la CST
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
ÉTUDE SUR LES CARACTÉRISTIQUES DES CAPTEURS Groupe de travail du Département Image de la CST JACQUES GAUDIN ALAIN SARLAT GILLES ARNAUD YANN CAINJO BAPTISTE MAGNIEN
La CST est la première association de techniciens du cinéma et de l’audiovisuel française. Née en 1944, elle défend le travail collectif et promeut l’excellence technique pour permettre l’aboutissement de la vision de l’équipe artistique. La CST respecte cette vision et en garantit la traduction sur l’écran pour l’en- semble des spectateurs. À ce titre, la CST accompagne les salles de cinéma qui souhaitent proposer une expérience optimale à leurs spectateurs et assure la Direction technique de plusieurs festivals, dont le Festival International du Film de Cannes. La CST est également devenue la maison des associations pour la quasi totalité des associa- tions de professionnels de l’industrie cinématographique. Les actions de la CST se traduisent enfin par l’organisation de groupes de travail pour définir les bonnes pratiques professionnelles qui deviendront des recommandations techniques, parfois même adoptées en normes et standards. Ces travaux se déroulent au sein des cinq Départements de la CST : Production/ ÉTUDE SUR Réalisation, Son, Post-production, Diffusion-Distribution-Exploitation et le Département Image qui a réalisé cette présente étude. La CST est une organisation principalement financée par le CNC. LES CARACTÉRISTIQUES DES CAPTEURS CST – COMMISSION SUPÉRIEURE TECHNIQUE DE L’IMAGE ET DU SON 22/24 AVENUE DE SAINT-OUEN – 75018 PARIS Groupe de travail www.cst.fr du Département Image de la CST Délégué général : Baptiste Heynemann Responsable de la communication : Myriam Guedjali Maquette : fabiennebis.wixsite.com/graphisme Février 2019 2 3
SOMMAIRE 1 INTRODUCTION 6 4 MÉTHODOLOGIE 20 A BUT DE CETTE ÉTUDE 6 A MÉTHODES DE LA NORME ISO 12232 20 B PROTOCOLES ENVISAGÉS 8 1 Méthode du plan focal 20 2 Méthode basée sur la moyenne arithmétique de la luminance de la scène 21 2 DONNÉES DU PROBLÈME 9 B MÉTHODE DÉVELOPPÉE PAR ALAIN SARLAT 21 A IMPORTANCE DE LA TAILLE DU CAPTEUR 9 1 Estimation de la sensibilité 22 1 Rendement quantique 10 2 Estimation de l’étendue utile 23 2 L’étendue utile 10 3 Profondeur de champ 10 C MÉTHODE DÉVELOPPÉE PAR BAPTISTE MAGNIEN 25 4 Bruit 11 1 Dispositif expérimental 25 5 Diffraction 11 2 Tableaux et courbes 26 6 Fonction de transfert de modulation (FTM) 13 3 Analyses et interprétations 28 B TECHNOLOGIES DES CAPTEURS 13 D DÉTERMINATION DE LA SENSIBILITÉ SELON LES DONNÉES CONSTRUCTEUR 28 1 CCD et CMOS 13 E LA CARACTÉRISATION DU BRUIT 29 2 FSI et BSI 14 F LA MESURE DE RÉPONSE SPECTRALE 29 C SÉPARATION DES PRIMAIRES 14 1 Séparation à prismes (tri CCD ou tri CMOS) 14 2 Séparation par matrice de filtres colorés (mono capteur) 15 5 CONCLUSION 33 3 Importance du dématriçage 15 6 ANNEXES 34 3 MIRES DE CONTRASTE, TYPES DE FICHIER ET OUTILS D’ANALYSE 16 A INDICES EV / IL 34 A LES MIRES DE CONTRASTE 16 1 Calcul de l’indice EV pour 100 ISO 34 1 Les mires Xyla 16 2 Rapport de contraste EV et linéaire 34 2 Arri Dynamic Range Test Chart DRTC-1 16 3 Table des indices EV pour 100 ISO (Sekonic Cine Master) 35 3 TE264 16 4 La mire réalisée par Alain Sarlat à l’École Nationale Louis Lumière 16 B CALCUL DE LA SENSIBILITÉ ISO D’UN FILM NÉGATIF COULEUR 36 C NORME ISO 12231 VOCABULAIRE 36 B LES DIFFÉRENTS TYPES DE FICHIER RAW 16 1 Gain 36 1 Les fichiers DNG 17 2 Fonction incrémentale du gain 36 2 Les fichiers Arri RAW 17 3 Incrémentation du signal de sortie 36 3 Les fichiers RAW Panasonic 18 4 Bruit de sortie 36 4 Les fichiers RAW SONY 18 5 Limite d’exposition maximale 36 5 Les fichiers RAW RED 18 6 Limite d’exposition minimale 36 C LES OUTILS LOGICIELS D’ANALYSE UTILISABLES 19 D PIXEL 37 1 Matlab 19 2 GNU Octave 19 3 RAW Digger 19 7 BIBLIOGRAPHIE 38 4 5
1 INTRODUCTION tout en l’absence d’un filtre anti-aliasing adapté. Il faut donc se faire à l’idée que la vidéo numérique constitue un média différent de l’argentique et de la vidéo traditionnelle, même si des rappels et des similitudes entre les 1 uns et les autres existent. A But de cette étude Les caméras numériques peuvent être utilisées principalement de deux manières : soit pour produire un enreg- istrement vidéo, encodé en composantes vidéo numériques et compressé, avec toutes les restrictions que cela Avec l’avènement du numérique, il est devenu indispensable, pour le directeur photo, de connaitre les caracté- comporte, soit pour produire une image plus riche, de type « cinéma », qui demandera un traitement en post- ristiques du capteur de la caméra qu’il utilise. production : c’est le mode RAW. Il va de soi que c’est cette seconde option qui permettra de juger de toutes les Pour évaluer ces caractéristiques, différentes approches peuvent être envisagées : qualités d’une caméra, le mode vidéo constituant un nivellement de la dynamique et de la richesse de l’image. Soit une approche subjective basée sur une scène avec une silhouette lumière permettant d’évaluer un ren- En sortie du capteur, la lecture analogique des tensions issues des photosites est convertie en valeurs numériques du artistique mais qui ne vaut que pour des essais particuliers ; et codée. À partir de là, l’enregistrement du signal peut se faire de deux manières : Soit une approche objective basée sur des mesures et permettant de tracer une courbe sensitométrique ai- sément diffusable. L’information est totalement « développée » dans la caméra, encodée en mode composantes et compressée dans un fichier vidéo [figure 1] ; Le but de cette étude est finalement modeste : comment réaliser, pour un capteur, l’équivalent de la courbe car- actéristique que nous réalisions en argentique ? L’information est écrite plus ou moins directement, soit en linéaire, soit en log, avec parfois même une compres- Cette courbe apportait à l’opérateur des informations indispensables : étendue utile, sensibilité, latitude de pose, sion, dans un fichier dit RAW [figure 2]. La caméra renferme ainsi une partie du labo sans que la documentation défauts éventuels. Ces informations n’étaient établies que pour un couple stock d’émulsion/labo, et pouvaient soit toujours claire à ce sujet. La lecture peut s’effectuer ensuite, soit dans un flux vidéo numérique qui transmet donc varier avec un autre stock d’émulsion du même modèle et de la même marque et un autre labo, voire le en réalité des valeurs binaires, soit en lisant directement les valeurs numériques du fichier RAW. même labo quelques mois plus tard. L’enregistrement RAW permet de préserver au maximum les informations de l’image en évitant de les dégrader Que signifie « sensibilité de capteur » et peut-on utiliser sa cellule pour poser une image numérique ? par un traitement dans la caméra, celle-ci n’étant rien d’autre qu’une station graphique portable, et donc très optimisée car devant traiter, en temps réel, un grand nombre d’opérations : dématriçage, matriçage primaire Alors qu’en argentique, il suffisait de changer d’émulsion pour changer de type de capteur, en numérique nous (matrix), gammas, knee, correction de contours, codage vidéo composantes (Y,Cb,Cr), compression etc. En sommes pour ainsi dire prisonniers des caractéristiques du capteur : étendue utile, sensibilité et colorimétrie. Il est mode RAW toutes ces opérations seront traitées a posteriori sur des stations donc indispensable de les définir rigoureusement. Le parallèle avec la sensitométrie argentique constitue donc graphiques d’étalonnage plus efficaces, infiniment plus souples et moins lim- notre base de départ pour déterminer un protocole qui nous donnera des résultats objectifs. itées en ressources, et travaillant en RGB et non pas en codage composantes Par ailleurs, le grain d’une émulsion constitue une trame aléatoire tandis que la structure des photosites d’un Y’,Cb, Cr, codage destructeur de l’espace colorimétrique qui se trouve en capteur constitue un réseau géométrique régulier ce qui peut provoquer des effets indésirables de moirage sur- effet divisé par 6 [figure 3]. Ce codage, inventé au départ pour la télévision, est Lien PC Lien Mac peu adapté aux exigences de l’étalonnage du cinéma numérique. Les buts de cette étude sont donc les suivants : 1. Déterminer l’étendue utile du capteur. 2. Caractériser le rapport signal sur bruit. 3. Déterminer la sensibilité du capteur. 4. Déterminer la sensibilité spec- Figure 1 trale du capteur et la Tempéra- Flux vidéo ture de Couleur générant le moins traditionnel. de bruit. La méthode utilisée s’inspire de la sensitométrie argentique : exposi- tion du capteur à travers une mire de contraste pour réaliser un sen- sitogramme numérique, relevé de valeurs, tracé de la courbe, puis interprétation de cette courbe. Accessoirement, cette étude cherche également à tordre le cou à certaines idées reçues et à faire bouger les lignes par Figure 3 rapport à certains fabricants qui Illustration de la réduction de l’espace de quantification d’une image ne communiquent qu’assez peu, codée en composantes vidéo Toutes les parties hachurées du cube de quantification Y, Cb, Cr correspondent à de l’espace perdu : Figure 2 voire pas du tout, sur la structure RGB 8 bits 16 777 216 couleurs Enregistrement RAW. de leur fichier RAW. YCbCr 8 bits 2 728 790 couleurs 6 7
B Protocoles envisagés 2 DONNÉES DU PROBLÈME Le protocole envisagé, même s’il est ouvert à des évolutions futures, doit prendre en compte un certain nombre de contraintes : A Importance de la taille du capteur Les capteurs sont de tailles différentes, du micro 4/3 jusqu’au 24 x 36 mm voire plus ; La taille du capteur détermine la taille des photosites et cette dernière est déterminante dans de nombreux do- maines tels que la sensibilité, la dynamique, la profondeur de champ, la diffraction et la FTM (Fonction de Transfert On ne peut pas opérer par contact, contrairement au film, à cause de la présence de divers filtres, des lentilles de Modulation) [tableau 1]. La taille des photosites dépend également de la définition du capteur : en photo par gaufrées, etc. exemple, la course aux pixels a rapidement atteint une limite car, avec une densité de photosites plus grande, donc des photosites plus petits, on réintroduit les défauts propres aux capteurs de petite taille. Deux approches peuvent être envisagées, avec ou sans objectif : La méthode avec objectif consiste à projeter l’image d’une mire sur le capteur via un système optique, le Dimensions capteur plus simple étant d’utiliser un objectif présentant peu de flare, à l’ouverture requise, et dont les caractéristiques Caméra H en mm L en mm Diag. en mm Ratio brut sont par ailleurs disponibles et mesurables. Cette méthode avec objectif présente l’intérêt d’enregistrer l’image d’une mire comportant de nombreuses zones pouvant couvrir jusqu’à 21 EV en une seule passe, d’où un gain Super 16 mm 6.72 11.95 13.71 1.78 de temps considérable et un repérage très simple, mais elle a l’inconvénient d’intégrer la transmission spectrale 35 mm 2 perf 9.1 16.1 18.49 1.77 de l’objectif ainsi que ses éventuels défauts, dans la mesure. L’idéal serait d’utiliser une optique à miroir, dite cata- S35 mm 3 perf 13.9 24.9 28.52 1.79 dioptrique, car dépourvue d’aberration chromatique et neutre du point de vue transmission, mais outre que ces objectifs ne disposent pas d’un diaphragme mais d’une ouverture fixe, ce sont toujours des objectifs de longue Vidéo 1/3” 4:3 3.6 4.8 6.00 1.33 focale et très encombrants ce qui poserait des problèmes au niveau du banc optique. Vidéo 1/2” 4:3 4.8 6.4 8.00 1.33 La méthode sans objectif consiste à éclairer directement le capteur à l’aide d’une source tungstène ponc- Vidéo 2/3” 4:3 monture B4 6.6 8.8 11.00 1.33 tuelle : c’est la méthode dite du plan focal. La source est une source tungstène normalisée basse tension, régu- Vidéo 2/3” 16:9 monture B4 5.39 9.58 10.99 1.78 lée, de type sphère intégrante produisant un éclairement uniforme du capteur. La variation EV est obtenue en faisant varier la vitesse d’obturation de 1/3 en 1/3 d’EV (voir partie 4.A.1). Cette méthode est bien adaptée aux Blackmagic Pocket 7. 12.5 14.33 1.79 boîtiers photo sur lesquels l’obturateur peut varier de 1/3 en 1/3 d’EV selon les préconisations ISO, mais pas né- Blackmagic 2.5K 8.8 15.8 18.09 1.80 cessairement aux caméras numériques qui ne possèdent pas toujours des variations d’obturation aussi subtiles, Micro 4/3 13.5 18. 22.50 1.33 sauf à utiliser le clear scan, et se trouvent limitées par les vitesses lentes si on se cale sur 24 ou 25 i/s. Par ailleurs, les poses longues génèrent du bruit sur le capteur, la norme ISO recommandant de ne pas dépasser le 1/30ème. AJA CION 11.9 22.5 25.45 1.89 La plage d’obturation du 1/8000ème au 1/30ème couvre 8 EV ce qui est inférieur à la dynamique des caméras RED RAVEN 10.8 23. 25.41 2.13 actuelles. Il reste la possibilité de reculer la source mais aux courtes distances, les erreurs de mesure au luxmètre Canon 7D M II 14.9 22.3 26.82 1.50 peuvent être importantes. En résumé, c’est une bonne méthode pour déterminer la sensibilité d’un capteur. En revanche, elle rend laborieuse la détermination de l’étendue utile, surtout si l’on veut couvrir 16 EV par 1/3 de Sony F3, FS100U 13.3 23.6 27.09 1.77 valeur et si, de plus, l’on veut mesurer cette étendue utile pour toutes les plages de sensibilité proposées par la Sony F5/F55, FS5, FS7, FS700U 12.7 24. 27.15 1.89 caméra. Sony F65 13.1 24.7 27.96 1.89 Arri ALEXA AMIRA 16:9 13.4 23.8 27.31 1.78 Panasonic Varicam 35 / LT 12.9 24.5 27.69 1.90 Sony NEX APS-C 15.6 23.5 28.21 1.51 Canon C100, C300, C500 13.8 24.6 28.21 1.78 RED Scarlet-W 13.5 25.6 28.94 1.90 Arri ALEXA mode 4:3 17.8 23.8 29.72 1.34 ANSI S35 Silent 18.66 24.89 31.11 1.33 RED Mysterium-X 14.6 27.7 31.31 1.90 Arri ALEXA Open gate Mode 18.13 28.17 33.50 1.55 RED Dragon 6K FF 15.8 30.7 34.53 1.94 Sony A7, Nikon D810, Canon 5D 24. 36. 43.27 1.50 RED Weapon 8K W 21.6 40.96 46.31 1.90 Arri ALEXA 65 (Full) 25.59 54.12 59.87 2.11 Arri ALEXA Spherical WS 22.64 54.12 58.66 2.39 Tableau 1. Quelques dimensions de capteurs : film, vidéo et numérique illustrant la très grande variété présente sur le marché actuellement. 8 9
1 Rendement quantique Le rendement du capteur dépend de plusieurs facteurs, mais, en premier lieu, de la surface de ses photosites. À l’instar des cristaux d’halogénure d’argent en argentique, plus la surface des photosites est grande plus le 2 rendement du capteur sera important car des photosites de plus grande taille peuvent capter plus de photons. Pour un même ratio et une même résolution, donc avec le même nombre de photosites, un capteur 2 fois plus large et 2 fois plus haut aura des photosites d’une surface 4 fois plus grande, et aura ainsi un rendement 4 fois plus important [figure 4]. 2 L’étendue utile L’étendue utile pour un capteur est le nombre d’EV, ou de diaphragmes, que ce capteur peut restituer entre l’exposition maximale, correspondant au point de saturation, et l’exposition minimale, valeur la plus basse ayant un niveau de bruit acceptable (voir définitions en annexe). Plus les photosites ont une grande surface, et donc plus le capteur est grand, plus ils peuvent accumuler de charges et donc capter des informations dans les hautes lumières. Comme ils sont par ailleurs plus sensibles, l’image résultante présentera également plus d’information dans les basses lumières. Son étendue utile globale sera donc plus grande. 350 m2 300 m2 250 m2 200 m2 150 m2 1000 m2 Figure 4 Surface théorique maximale 50 m2 des photosites en fonction de la largeur du capteur pour Figure 5 une définition HD : la courbe Profondeur de champ à une distance donnée en fonctionde la largeur du capteur à focale équivalente pour conserver l’angle est exponentielle. [La taille de champ. 0 m2 réelle des photosites est bien entendu nettement inférieure à la taille théorique de la mosaïque.] Vous pouvez télécharger une feuille de tableur illustrant le phénomène ici (NB : les graphiques ne s’afficheront pas en ligne.) 3 Profondeur de champ La gestion de la profondeur de champ permet, dans un but esthétique, de séparer le sujet du fond. L’utilisation d’un grand capteur donnera un aspect “cinéma” à une vidéo, les capteurs de petite taille ne permettant pas de détacher le sujet du fond. On peut, tout au contraire, intégrer son sujet au décor. Les deux choix se respectent tant 4 Bruit qu’ils sont le résultat d’une intention. Ce qu’il faut en conclure, c’est que pour un petit capteur la profondeur de Un capteur de grande taille sera par ailleurs moins sensible au bruit : il dispose d’une meilleure dissipation thermique champ devient très grande et donc un flou d’arrière plan sera très difficile à réaliser. liée à sa surface, il est plus sensible donc demande un gain plus faible. La norme ISO 15739 définit avec précision la Si nous tenons compte que : mesure du bruit. H = F² / (N x CoC) H : hyperfocale en mètre, F : focale en mètre, N : ouverture géométrique 5 Diffraction CoC : cercle de confusion en mètre La diffraction intervient lorsqu’on ferme le diaphragme au-delà d’une certaine ouverture. On quitte alors le do- La progression de l’hyperfocale, fonction de F², n’est donc pas linéaire mais exponentielle. L’apparence des courbes maine de l’optique géométrique pour entrer dans celui de l’optique ondulatoire : l’image, d’un point, une étoile de profondeur de champ résultantes, liées à la largeur du capteur, sont donc sensiblement de type hyperboles. par exemple, devient une tache, le cercle d’Airy [figure 6], qui sera d’autant plus grande que l’ouverture sera petite. La diffraction dégrade donc sérieusement la résolution des optiques au-delà d’une certaine ouverture. Sur le graphique [figure 5], les courbes bleue et rouge affichent les limites de netteté avant et arrière. La figure ré- Le diamètre de cette tache dépend de l’ouverture selon la formule : sultante affiche la profondeur de champ en fonction de la largeur du capteur, à angle de prise de vues constant, profondeur de champ qui se situe donc entre la courbe verte, limite avant, et la courbe rouge, limite arrière. Cette d = 2,44 . . N profondeur de champ sera donc très grande avec un capteur de petite taille ce qui « collera » le sujet sur le fond d en nm si longueur d’onde en nm, de manière parfois peu esthétique et elle deviendra très faible avec un capteur de grande taille. N ouverture géométrique. 10 11
6 Fonction de transfert de modulation (FTM) Il est beaucoup plus facile de construire des optiques pour un capteur de grande taille que pour un capteur de petite taille. En effet, si on divise par exemple la taille d’un capteur par 2, il faudrait pour conserver la même 2 résolution que l’optique associée puisse passer des fréquences doubles. Le prix d’une telle optique serait donc multiplié par 2, 3 voire 4. Malheureusement, dans la réalité, c’est tout l’inverse qui se passe : pour obtenir des caméras ou des appareils photo bon marché les fabricants sont obligés de rogner sur tous les éléments possibles, taille du capteur, qualité optique, processeur d’image. En dehors des qualités des objectifs, tout circuit électronique tend à atténuer les hautes fréquences, donc les fins Figure 6 Cercle d’Airy. P détails de l’image. Les caractéristiques même de l’électronique associée aux photosites vont jouer sur la FTM. Par ailleurs le gain de l’électronique associée aux photosites va varier selon la technologie et la taille des cap- On peut illustrer ce phénomène avec une feuille de tableur à télécharger ici. Les couleurs, qui teurs générant du bruit ce qui est préjudiciable à la FTM. correspondent à une mise en forme conditionnelle, ne s’afficheront pas en ligne. Enfin, pour les capteurs de petite taille, la diaphonie électrique2 est un très gros problème en raison de la faible Cette feuille de tableur [figure 7] illustre la diffraction, en fonction de la largeur du capteur et de distance entre les photosites. l’ouverture, pour une résolution horizontale de 2K, 4K, 6K ou 8K. Une mesure de FTM est donc appropriée pour caractériser un capteur et l’électronique qui l’entoure. La norme ISO 12233 définit précisément la mesure de la réponse en fréquence spatiale (Spatial Frequency Response ou SFR). B Technologies des capteurs 1 CCD et CMOS Apparus en 1970 dans les Laboratoires Bell et donc historiquement les plus anciens, les capteurs CCD laissent peu à peu place aux capteurs CMOS. Ce sont deux technologies très différentes présentant chacune divers avantages et inconvénients. Moins sensibles au demeurant les capteurs CMOS ont fait d’énormes progrès et, devant la course aux pixels et à l’ultra-haute définition, ils tendent à s’imposer à cause de leur faible con- sommation, de leur rapidité de traitement : pas de zones mémoires complexes comme sur les capteurs CCD. Si les capteurs CCD, de type HAD ou FIT, équipent encore nombre de caméras HD broadcast, les capteurs CMOS sont bien adaptés aux hautes fréquences de l’ultra haute définition. Par ailleurs de gros progrès ont été faits sur les capteurs CMOS pour éviter en particulier les artefacts de rolling shutter qui provoquent la dé- formation des objets dans les panoramiques ou les objets en mouvement et surtout pour améliorer leur sensi- bilité (Sony ClearvidTM et ExmorTM). De plus, leurs sous-couches électroniques peuvent déjà inclure des étapes décisives du traitement comme le gain et même la conversion analogique/numérique ce qui limite le bruit extra-capteur. CCD CMOS Figure 7. Diffraction en fonction de la largeur du capteur. Charge Coupled Device Complementary metal oxyde semi-conductor Vous pouvez télécharger ici le fichier Excel. Coût de fabrication important Coût de fabrication faible si série importante Lenteur Rapidité de traitement Pour les calculs, = 555 nm, ce qui correspond au pic de sensibilité spectrale de la vision humaine. Soit N l’ouverture géométrique (diaphragme). La dif- Consommation élevée Consommation très faible (cent fois moins que les CCD) fraction commence lorsque le diamètre du cercle d’Airy dépasse la dimen- Moins bonne uniformité Bonne uniformité sion d’un photosite (domaine orange). (corrigée par une mémoire de matrice) Rendement quantique élevé (jusqu’à 80 %) Rendement quantique plus faible (25%) Elle devient inacceptable lorsque le rayon du cercle d’Airy = 1,22. . N (critère de Rayleigh) dépasse l’entraxe entre deux traits, sachant que pour Étendue utile (dynamique range) élevée Étendue utile plus faible faire un trait noir sur fond blanc, il faut deux colonnes de photosites [figure 8], Bonne sensibilité Sensibilité plus faible (bruit plus élevé) une pour le noir et l’autre pour le blanc1 : domaine rouge sur le graphique. Blooming ou Smear Le critère de Rayleigh suppose par ailleurs que l’objectif ait une très bonne Rolling shutter (trait blanc vertical sur les hautes lumières) « fonction de transfert de modulation ». Obturateur global : scintillement global Obturateur par ligne : scintillement par bande Figure 8 1. NB : Le fait de devoir utiliser deux colonnes pour dessiner un trait correspond par ailleurs au théo- Représentation du critère 2. La diaphonie optique et la diaphonie électrique, optical crosstalk ou electrical crosstalk, constituent un parasitage optique ou électrique rème de Nyquist-Shannon sur la quantification. de Rayleigh. entre deux zones très proches d’un composant. C’est une des défis majeurs pour la conception d’un capteur. 12 13
2 FSI et BSI 2 Séparation par matrice de filtres colorés (mono capteur) L’architecture traditionnelle FSI (Front Side Illumination = Illumination par l’avant) laisse peu à peu la place à une L’avènement de la photographie numérique et la rencontre de la photo et de la vidéo ont contribué à s’af- architecture BSI (Back Side Illumination = Illumination par l’arrière) [figure 9], comme la technologie Sony ExmorTM, franchir des prismes séparateurs et à imposer, pour le cinéma numérique, des caméras mono-capteur. 2 qui améliore considérablement l’efficacité quantique et la sensibilité, et diminue la diaphonie optique2 en rédui- sant la lumière parasite réfléchie sur les couches métalliques du capteur. Cette architecture permet également Sur les caméras mono capteur la séparation des primaires est obtenue par une matrice de filtres colorés placée de créer des composants plus minces, d’utiliser des objectifs à plus grande ouverture et présentant un angle de devant les photosites. Divers systèmes de matrices colorées existent [figure 11], avec parfois plus de 3 primaires, champ plus large (CRA = Chief Ray Angle). la plus utilisée étant celle de Bayer. Ces systèmes ne permettent pas d’obtenir directement une image RGB : il faut dématricer le signal issu des photosites. Par ailleurs, d’autres technologies dével- oppées par Sony et réservées pour le mo- ment à des applications industrielles, Starvi- us™ [figure 10] et Pregius™, constituent des améliorations notables des capteurs CMOS. La technologie Pregius, dite “global shutter Figure 11 pixel technology”, apporte un obturateur FSI BSI Quelques exemples de global d’une façon similaire à une structure matrices. Filtre colonne Filtre Rockwell Filtre de Bayer CCD, annulant ainsi l’effet de rolling shutter, mais pour une définition pour le moment in- férieure au 4K. Autre intérêt, la 3ème généra- 3 Importance du dématriçage tion de cette technologie décompose l’im- Les technologies à mono capteur imposent, lors du développement numérique, un dématriçage, aussi connu age en 64 zones pouvant disposer chacune Figure 9 sous le néologisme de débayerisation. Cette étape constitue une interpolation des valeurs issues des photo- d’un temps d’exposition différent. Architecture FSI et BSI. sites permettant de les convertir en pixels vrais (voir annexe D. Pixel) et d’obtenir ainsi les valeurs numériques La technologie Starvius décompose, elle, chaque élément d’image en 4 sous-photosites, à 2 temps d’intégra- R, G, B caractérisant chaque pixel. Le résultat global dépend beaucoup des algorithmes utilisés lors de cette tion différents, l’un rapide et l’autre long, selon une matrice Quad Bayer, ce qui permet d’enregistrer des im- phase clef. C’est pour cette raison que, dans la mesure du possible, il est important pour cette étude de pou- ages HDR en vidéo 4K. Ce sont des axes de progrès qui apparaîtront tôt ou tard sur les caméras grand public voir accéder directement aux valeurs numériques du fichier RAW pour s’affranchir de tout type d’interpolation et sur les caméras de cinéma numérique. [figure 12]. L : Long-time integration S : Short-time integration Figure 10. Technologie STARVIUS™ Mode normal Mode HDR Ce qu’enregistre le capteur. Image interpolée. C Séparation des primaires Figure 12 Interpolation d’un fichier RAW. 1 Séparation à prismes (tri CCD ou tri CMOS) L’étape de dématriçage est une étape cruciale qui peut être faite dans la caméra ou, en mode RAW, a poste- riori, avec des moyens beaucoup plus puissants et des algorithmes plus performants. La séparation des primaires par des prismes associés à des filtres est la plus ancienne : c’était la seule technol- ogie utilisable avec des tubes pour obtenir une image couleur. Ces derniers ont ensuite été remplacés par des L’interpolation la plus simple est une interpolation bilinéaire mais elle ne tient pas compte de la forme des objets CCD. L’avènement des caméras tri-CCD a marqué toute une époque et continue d’opérer sur nombre de et peut provoquer des artefacts couleur en particulier des moirages. Des interpolations plus évoluées existent caméras broadcast HD et même UHDTV, cette technologie présentant une grande rapidité de traitement (pas comme l’interpolation par constante de teinte, pondérée adaptative, par filtrage dans l’espace de Fourier, ou de dématriçage) et une excellente séparation des primaires. Les prismes présentent cependant de nombreux encore l’interpolation GEDI (Green Edge Directed Interpolation), cette dernière étant considérée par les experts inconvénients physiques et optiques : comme l’une des meilleures, mais ce traitement peut demander des dizaines d’opérations pour créer chaque Encombrement pixel ce qui reste un problème pour opérer dans la caméra, en temps réel, sur une image animée. Vignettage Aberrations chromatiques Lien Wikipedia sur Thèse d'Harold Fellipeau Nécessité de formules optiques rétrofocus pour les courtes focales le dématriçage ici. sur le dématriçage ici. Incompatibilité avec les optiques de cinéma traditionnelles 14 15
3 MIRES DE CONTRASTE, TYPES DE FICHIER 1 Les fichiers DNG Le type de fichier DNG, Digital Negatif, a été développé par Adobe à partir de la structure des fichiers TIFF, ET OUTILS D’ANALYSE Tagged Image File Format, dans le but de créer un espéranto des fichiers RAW à la fois pour la prise de vue et pour l’archivage. C’est un format ouvert encodé de 8 à 32 bits pouvant contenir une image RAW matricée ou 3 une image déjà développée, c’est-à-dire dématricée. A Les mires de contraste Un fichier DNG peut, en théorie, être codé en log ou en linéaire sur 8, 16 ou 32 bits avec ou sans compression et intégrer de nombreuses métadonnées comme un profil (LUT), voire une géolocalisation. Les mires présentant une étendue utile suffisante ne peuvent être que du type rétro-éclairées. Un certain nombre de caméras (Varicam LT, BlackMagic) ou encore d’enre-gistreurs externes (Atomos Shogun ou 1 Les mires Xyla un Odyssei 7 Q+) permettent d’utiliser ce mode d’enregistrement. On peut regretter qu’un plus grand nombre de Les mires Xyla, d’un prix relativement élevé, couvrent jusqu’à 26 EV/IL et ont une forme particulière constructeurs n’offre pas cette option. Cependant, les vidéos DNG se présentent sous forme d’un dossier conte- en xylophone pour minimiser le flare dans les hautes lumières. Elles incorporent une source et un sys- nant des milliers d’images DNG ce qui n’est pas forcément commode à manipuler : on a plus l’habi- tème d’obturateur-masque permettant d’isoler une plage précise. tude, en vidéo, de considérer un plan comme un seul fichier encapsulant toutes les images, un code temporel et même le son. 2 Arri Dynamic Range Test Chart DRTC-1 Une description très complète peut se trouver ici. Cette mire est constituée de filtres rotatifs et permet de couvrir 15,5 EV/IL. La boîte à lumière n’est pas fournie. Le logiciel d’analyse ARRI Aquamat Universal DRTC est fourni et tourne sous Windows. 2 Les fichiers Arri RAW 3 TE264 Le système ARRI RAW se base sur un log C dont la formule, et donc la courbe, change selon la sensibilité affichée Cette mire par transparence de 20 zones suivant la norme ISO 14524/15739 présente un contraste sur la caméra [figure 13]. Le traitement se fait en 16 bits linéaires dans la caméra puis est converti en log C sur de 1 : 1 000 000 soit un écart d’environ 20 EV. Elle est commercialisée par Image Engineering à moins 10 bits ou 12 bits avant écriture dans le fichier. de 900 F. Ce site commercialise également de nombreuses autres mires. C’est donc un fichier RAW en 10 bits ou 12 bits log qui est enregistré. La courbe log dépend de la sensibilité af- fichée sur la caméra ; la sensibilité n’est donc pas une métadonnée. 4 La mire réalisée par Alain Sarlat L’intérêt de ce système est de pouvoir quantifier différemment les basses lumières ou les hautes lumières selon le à l’École Nationale Louis Lumière réglage de la sensibilité sur la caméra. Une sensibilité faible privilégiera le rendu des hautes lumières et à l’inverse une sensibilité haute celui des basses lumières [figure 14]. Cette mire est constituée de deux coins issus d’un sensitographe “type 6”. La première comporte 21 plages par pas de 2/3 ∅ et la seconde 21 plages par pas de 1/3 ∅ qui ne couvre que les 7 premiers EV de la gamme supérieure. Ces plages, composées de dépôts de carbone, sont parfaitement neutres ; leur étal et leur col- orimétrie ont été contrôlées par un spectroradiomètre Minolta CS‑2000. Les 3 plages les plus claires sont pourvues sur la moitié d’un filtre neutre 0.10 dans le but de cerner de façon plus précise le point de saturation. Cette mire offre au total un écart de 14 EV. Elle est positionnée devant une sphère intégrante d’Ulbricht-Blondel ESSERT offrant un étal suffisant pour la plage testée et une température de couleur de 3200K. Au centre de la mire, un cercle vide muni d’un bouchon d’obturation permet de mesurer au préal- able la luminance de la source et de régler ainsi diaphragme et obturateur de la caméra. B Les différents types de fichier raw L’intérêt du mode RAW est de chercher à préserver le maximum d’information et de dynamique.C’est à tort que le RAW est souvent appelé Négatif Numérique puisque,comme énoncé précédemment,une partie du développement est effectué dans la caméra et que, par ailleurs, sa progression est positive. L’inconvénient d’un fichier RAW est, certes, d’être plus volumineux mais il faut rappeler qu’un fichier RAW non dématricé ne contient que le tiers des informations que contiendrait un fichier RGB extrapolé ou même un fichier composantes vidéo Y’CbCr non compressé avec la même profondeur de quantification. Tous les photographes savent qu’avec la même profondeur de quantification et la même résolution, un fichier RAW est toujours moins volumineux qu’un fichier Photoshop dématricé et cela dans un rapport de 1 à 3 (sans tenir compte des calques éventuels). Chaque fabricant a développé son propre type d’encodage RAW. En cas d’impossibilité de lecture directe des valeurs inscrites dans le fichier RAW (du fait de l’absence de communication de la part des fabricants), Adobe DNG Converter sera utilisé pour transformer le RAW en DNG mais sans certitude d’une transpa- rence absolue dans la conversion. Il est indispensable de connaître les différents types de solutions dites RAW, les courbes de transfert et les profon- deurs de quantification pour comprendre les limites, les avantages et les inconvénients de tel ou tel système. Figure 13. Fonctions de conversion linéaire/log selon le réglage de la sensibilité 16 17
C Les outils logiciels d’analyse utilisables Ces outils permettent de lire directement les valeurs à l’intérieur de beaucoup de fichiers RAW donc sans altéra- tion due à une interprétation, ou dématriçage, souvent appelée développement. 3 1 Matlab Matlab est un environnement de développement par scripts orienté mathématiques, mais aussi trait- ement de l’image et traitement du signal. 2 GNU Octave Disponible pour Linux, Max OS ou Windows, GNU Octave est une alternative libre et gratuite à Matlab. Octave est compatible avec de nombreux scripts Matlab ce qui évite d’avoir à réécrire les scripts dans un nouveau langage. 3 RAW Digger Raw Digger est un outil d’analyse des fichiers RAW. Ce n’est pas un outil de « développement » RAW. La version complète permet de créer des grilles d’analyse de l’image et d’exporter les valeurs issues du fichier RAW dans un fichier de type tableau de données CSV. Cette version permet également de créer des profils (LUT). Figure 14. Courbe de rendu résultante EV/log selon la sensibilité 3 Les fichiers RAW Panasonic La Varicam Pure est une version de la Varicam 35 équipée d’un module partenaire,Codex,permettant d’enregistrer en RAW 4096x2160 non compressé 12 bits en V-Log jusqu’à 120 i/s (10 bits au-delà) et s’appuyant sur le standard DNG. À noter que la balance des blancs est faite préalablement et n’est donc pas une métadonnée. Cette gamme de caméras présente également la particularité de posséder deux sensibilités ISO nominales, 800 ISO et 5000 ISO. La Varicam LT peut également, via une double liaison SDI 3G, enregistrer en RAW sur un Atomos Shogun ou un Odyssei 7 Q+ en DNG. Le V-RAW a les mêmes caractéristiques que sur la Varicam Pure : 4K 12 bits non compressé, mais jusqu’à 60 i/s maximum. 4 Les fichiers RAW SONY Sony propose, via les interfaces idoines, des fichiers RAW X-OCN (X–Original Camera Negative) 16 bits en mode linéaire. X-OCN ST est la version standard ; X-OCN LT est la version allégée, compressée sans pertes visibles. Sur la Venice, Sony propose également deux modes de sensibilité (500 ISO et 2500 ISO). Sur la F65, la température de couleur n’est pas une métadonnée. Plus d’informations ici 5 Les fichiers RAW RED RED a fait du mystère un outil marketing. RED propose un fichier RED RAW compressé R3D. L’espace couleur proposé est un espace REDWideGamutRGB (RWG) basé sur un blanc D65 et un log sur 10 bits Log3G10 pour lequel le gris à 18 % se retrouve à 30 % de la valeur numérique de sortie. Un SDK (Software Development Kit) est disponible en téléchar- gement. Workflow White paper SDK 18 19
4 MÉTHODOLOGIE 2 Méthode basée sur la moyenne arithmétique de la luminance de la scène Cette méthode utilise un objectif, et est donc particulièrement adaptée aux appareils photo compacts. A Méthodes de la norme iso 12232 Elle consiste, dans un premier temps, à calculer la luminance moyenne de la scène en cd/m². Le plus simple est Quelles sont les causes de dégradation de l’image de part et d’autre de l’exposition optimale ? de filmer une charte de gris neutre à 18 % uniformément éclairée remplissant totalement l’image, le point étant 4 fait sur l’infini pour ne pas introduire de coefficient de tirage. La sous-exposition (signal trop faible) donne une image avec du bruit, en particulier dans les basses lumières. Dans ce cas, l’exposition minimale dépend du niveau de bruit que l’on peut tolérer, notion subjective ; La sensibilité basée sur le rapport signal sur bruit est déterminée de la manière suivante : La sur-exposition (signal saturé) conduit à un écrêtage de toutes les hautes lumières au delà du point de satura- Pour mesurer la luminance de la scène, l’éclairage est gradué jusqu’à ce que l’image de la charte à 18 % pro- tion, valeur déterminable de manière objective. duise une valeur de sortie moyenne égale à 18/106 de l’échelle entière. Pendant ce réglage, le temps d’expo- sition est maintenu constant. L’échelle entière est atteinte, soit dès que l’imageur sature, soit dès que le conver- Publiée pour la première fois en 1998 et réactualisée depuis, la norme ISO 12232:2006(E), destinée aux appareils tisseur AN (analogique-numérique) de la caméra atteint sa valeur maximale. La sensibilité ISO est alors donnée photo numériques (Digital Still Cameras) définit l’indice d’exposition recommandé et la sensibilité ISO. par la formule : La norme propose deux méthodes de calcul, qui donnent des valeurs de sensibilité différentes : une méthode basée sur la saturation du signal donc calée sur les hautes lumières ; une méthode basée sur le bruit donc calée sur les basses lumières. N ouverture photométrique de l’objectif utilisé pour la mesure Ces deux méthodes aboutissent à des indices d’exposition différents pour une même OETF3. LS/N x luminance en cd/m² de la charte de gris à 18 % engendrant les rapports SNR = 10 ou SNR = 40 Pour chacune de ces méthodes, la norme considère deux approches : t temps d’exposition en secondes sans objectif — mesure photométrique dans le plan focal ; 15.4 constante déterminée pour un objectif à 90 % de transmission, un facteur de vignettage de 0.98 et avec objectif — mesure photométrique sur charte de gris. moins de 10° d’écart par rapport à l’axe de la scène. Elle peut être calculée en tenant compte de la formule de transfert : L’intérêt de chaque mode de calcul ISO dépend du type d’application : Lorsque les conditions d’éclairage sont contrôlées, comme lors d’une prise de vues en studio, les indices d’ex- position sont sélectionnés pour donner la meilleure image possible, avec les hautes lumières de l’image tombant juste en dessous du point de saturation. Ce type de situation d’exposition est décrit par l’indice ISO basé sur la La sensibilité basée sur le point de saturation est déterminée de la manière suivante : saturation ; Lorsque les conditions d’éclairage sont inférieures aux conditions idéales, un indice ISO basé sur le bruit est plus utile. Dans ce calcul, le rapport signal sur bruit (SNR : Signal to Noise Ratio) est utilisé pour calculer l’indice ISO. Cet indice ISO (S) correspond au réglage maximal de l’indice d’exposition pour atteindre le rapport SNR =10 Ou encore, en appliquant la formule de transfert : (première image acceptable) et SNR = 40 (première image excellente). 1 Méthode du plan focal Le capteur est éclairé sans objectif par une source tungstène basse tension, régulée, de façon que la distance Lsat luminance en cd/m² de la charte de gris à 18 % au point de saturation entre le capteur et la source soit telle que les plus larges dimensions de la source ou du capteur ne soient pas plus grandes que 1/20ème de la distance source capteur pour qu’ainsi l’éclairement soit uniforme. L’éclairement est pris au luxmètre au niveau du plan focal donc en reculant l’appareil pour la mesure. Le temps de pose ne doit pas excéder 1/30ème de seconde. La sensibilité basée sur le rapport signal sur bruit (SNR) est déterminée par : Snoise10 = 10 / H S/N10 pour SNR = 10 (Première image acceptable) B Méthode développée par alain sarlat Snoise40 = 10 / H S/N40 pour SNR = 40 (Première image excellente) H est la lumination en lux.secondes, avec H = E.t pour chacune des deux conditions (E est l’éclairement en lux, t Alain Sarlat, enseignant à l’École Louis Lumière, a développé une méthode originale. La solution retenue est est le temps d’exposition en secondes). une solution avec objectif. Elle consiste à filmer une mire composée de deux gammes de gris rétro-éclairées à l’aide d’une seule et même optique dite de référence (voir partie 2.B.3). L’optique retenue est un 50 mm Zeiss La sensibilité basée sur le point de saturation est déterminée par : Planar en monture PL qui sera adapté sur toutes les caméras. Cette optique sera aussi utilisée pour les mesures Ssat = 78 / HSAT de réponses spectrales. Elle est caractérisée en terme de transmission spectrale, les courbes OETF obtenues HSAT est la lumination qui produit le signal valide maximal (non écrêté et sans artefact d’éblouissement de type sont pondérées par ce facteur (voir partie 4.F). bloom ou smear), appelée aussi point de saturation. L’idée centrale de cette méthode repose sur le principe d’exposition pour les hautes lumières, comme en posi- 3. OETF : Opto-Electronic Transfer Function, c’est la courbe de transfert lumination/valeurs numériques encodées. En numérique ce terme est tif. On lit les valeurs numériques RGB du fichier RAW et on trace la courbe OETF (lumination/valeurs numériques). impropre car nous ne mesurons pas des tensions en sortie de capteur, mais des valeurs numériques après conversion analogique/numérique avec parfois des modifications effectuées dans la caméra avant même cette étape. Cependant OETF est le terme utilisé internationalement Les valeurs de chaque plage de la mire sont lues directement dans le fichier RAW via un script MATLAB sur une par les différents instituts de normalisation. Nous l’utiliserons donc dans cette étude. moyenne de 30 images pour minimiser l’incidence du bruit inter-image. 20 21
Ls : luminance de la plage de saturation sur la mire en cd/m² N : ouverture photométrique t : temps d’exposition en secondes Nous en déduisons : 2 –1n 4 Par ailleurs, comme EV = 2 log2(N) – log2(t) et EV = log2 (Lm) + log2(S) – log2(k) nous obtenons : Lm : luminance de la plage de gris moyen (18 %) diffus. S : indice d’exposition k : facteur dépendant de l’étalonnage du posemètre D’où nous obtenons : Avec un facteur k de 12.5, nous trouvons Ls / Lm exprime le rapport de contraste linéaire entre le point de saturation et le point 18 % diffus. Si nous considérons que nous avons 2 EV d’écart entre le point 18 % et le point 80 %, 1/3 d’EV entre le point 80 % et le point 100 % diffus, et qu’un 100 % spéculaire serait ∏ (Pi) fois plus grand5, ce qui correspond à 1 EV + 2/3, nous avons au total un écart de 4 EV entre le 18 % diffus et le 100 % spéculaire, soit 2…4…8…16, donc un écart de 16 en linéaire. Figure 15. Courbe OETF d’une caméra numérique. Cela permet de tracer la courbe OETF [figure 15] avec : Nous obtenons : En abscisse le log binaire des luminations (log2(H)) pour revenir à une échelle pseudo-psychométrique ou un écart d’une unité représente 1 EV. Cette méthode ne prétend pas proposer une norme. C’est plus une stratégie d’exposition : en fonction de En ordonnée le log binaire des valeurs numériques relatives : log2(Vnr) l’indice d’exposition choisi, on se placera dans une partie ou l’autre de la courbe. 1 Estimation de la sensibilité 2 Estimation de l’étendue utile Alors qu’en argentique les calculs de la sensibilité et de l’étendue utile se calent sur le pied de courbe et les basses lumières, ce calage se fera ici sur les hautes lumières à partir du point de saturation à l’instar d’un film L’étendue utile (en anglais dynamic range) est la plage de modulation entre le niveau de bruit acceptable et le seuil inversible, ce point étant la limite absolue de la lumination au-delà de laquelle le capteur ne module plus. de « saturation » du capteur. C’est le nombre d’EV/IL (Exposure Value ou Indice de Lumination) que la caméra est On considère la lumination H exprimée en lux.secondes comme réciproque, donc : capable de traduire. La latitude d’exposition, à ne pas confondre, est, elle, le droit à l’erreur. H = E × t Par rapport à notre échelle EV/IL qui est un log en base 2, ou log binaire, la décharge du capteur dans la caméra H : lumination en lux.secondes est linéaire quoiqu’une recherche et des applications industrielles existent pour des capteurs log. Cela veut E : éclairement du capteur en lux donc dire que la première plage EV/IL, celle correspondant à la zone la plus claire enregistrable sous le point de saturation, occupera la moitié de l’espace de quantification, la seconde plage la moitié restante donc le quart t : temps d’exposition en secondes de l’espace de quantification, la plage suivante le 1/8 de l’espace de quantification etc. En négligeant le flare, la formule de transfert photométrique nous donne la lumination reçue par le capteur pour le point de saturation Hs4 : Ceci explique pourquoi il est nécessaire de poser au plus juste en numérique et qu’une sous-exposition systéma- tique provoquera du bruit, pourquoi également les caméras doivent travailler en interne sur un nombre de bits 4. La simplification de l’équation de transfert photométrique aux conditions générales de prise de vue aboutit à un coefficient de 0,65. Alain 5. Dans le cas d’une réflexion diffuse nous avons : luminance = (éclairement × albédo)/∏ Sarlat propose d’approximer à une puissance de 2 pour simplifier les calculs. Si la réflexion est spectrale, on a : luminance = éclairement × albédo. 22 23
Vous pouvez aussi lire