mercredi 28 octobre 2009

Atelier photo (post 6)

L'autofocus, fonctionnement et limites (Lien)
Sources: Wikipedia, Photozone, Broadcastengineering, Digital Camera Resource Page
On l'a vu dans le post 4 de cet atelier, placer correctement la surface sensible par rapport à l'objectif est capital pour produire une image nette. Autrefois, cette tâche était l'affaire du photographe, mais depuis les années 70, une grande variété de systèmes a été mise au point pour libérer l'utilisateur de ce réglage.

On classe généralement ces systèmes en deux catégories : les autofocus actifs, et les autofocus passifs.

Autofocus actifs (Lien)
Comme pour les radars utilisés par les militaires pour localiser leurs ennemis, le qualificatif "actif" signifie qu'il émet un rayonnement pour mesurer la distance avec le sujet. Ce rayonnement peut être infrarouge, ultra-sonore ou même laser.

Leica C11Polaroid 660
Leica C11 à autofocus InfrarougePolaroid 660 à autofocus ultrasons
(l'émetteur-récepteur est la pastille dorée)
Sony DSC-F707Sony DSC-F707 laser grid
Sony DSC-F707 à autofocus LaserGrille laser crée par l'autofocus du Sony DSC-F707

On ne va pas entrer ici dans les détails techniques du fonctionnement des autofocus actifs, il faut juste savoir qu'ils ont pratiquement disparu avec le numérique, même si certains Bridges comme le F828 de Sony l'ont utilisé.
Leur principal avantage est qu'ils produisent ce qu'ils utilisent pour effectuer leur mesure, ils peuvent donc fonctionner dans le noir complet, et même si le sujet est totalement sombre.
Leur inconvénient est qu'ils sont soit peu discrets (laser), soit la zone sur laquelle est faite la mesure est difficile à déterminer, comme le faisceau infrarouge ou ultrasons est invisible. Enfin, si un objet s'interpose, comme une vitre par exemple, il est fort probable que la mesure se fasse sur cet objet, et non sur le sujet voulu.
Pour ces différentes raisons (et quelques autres), les autofocus actifs ont aujourd'hui presque totalement disparu.

Autofocus passifs (Lien)
Dans l'immense majorité des appareils photo d'aujourd'hui, les systèmes de mise au point sont "passif", c'est à dire qu'ils se contentent de la lumière qu'ils reçoivent pour régler correctement la position de la surface sensible afin de former une image nette.

On peut se demander tout d'abord pour quelle raison, et si ce que l'on pense au prime abord est juste : les autofocus passif sont-ils meilleurs que les actifs?

La réponse, vous vous en doutez peut-être, n'est pas si simple.
Si les autofocus passif équipent l'immense majorité des appareils photo d'aujourd'hui, c'est parce qu'ils sont simples, pas cher, et assez efficaces pour ne pas justifier l'ajout d'un système supplémentaire.
Tiens? Et comment ce fait-t-il qu'en se contentant de la lumière reçue, il soit plus simple de faire la mise au point qu'en effectuant une mesure de distance directe?
Pour répondre à cette question, examinons deux images, une flou et une nette.


Si on prend les pixels d'une ligne de ces deux images, et que l'on trace une courbe représentant la luminosité de ces pixels tout au long de la ligne, voilà ce qu'on obtient:

On constate que sur l'image floue, la luminosité varie de façon graduelle, alors que sur l'image nette, cette variation est brutale.
Ainsi, faire la mise au point peut se résumer à essayer de maximiser le contraste de l'image en agissant sur la position de la surface sensible.
À l'époque de l'argentique, il était bien sûr impossible d'examiner l'image qui se formait sur la surface sensible pour en améliorer le contraste, c'est pour cette raison qu'on été mis au point les autofocus dit TTL. L'idée était d'utiliser l'image redirigée vers le viseur par le miroir mobile pour en analyser le contraste.

Système d'autofocus TTL d'un Réflex NikonStructure d'un réflex Canon EOS 450D

Sur l'image de gauche ci-dessus, on peut voir le miroir ainsi que le viseur d'un appareil réflex (comme celui de l'image de droite).
Le rayon violet arrivant sur la gauche de l'image de droite est la lumière qui traverse l'objectif. Elle frappe le miroir oblique du réflex pour être ensuite redirigée par le prisme qui la fait ressortir par le viseur dans lequel le photographe a son oeil (rayon jaune). Comme vous le savez sans doute, le propre des "réflexes" est que la visée se fait à travers l'objectif, grâce à un miroir qui se lève au moment où la photo est prise. Et bien c'est le prisme qui redirige la lumière après ce miroir qui va également en envoyer une partie vers le capteur de mise au point TTL (rayon rouge sur l'image de droite). Il pourra ainsi faire son optimisation de contraste à partir d'une partie précise de l'image, déterminée par construction et généralement située au centre de l'image. Comme la lumière utilisé est celle qui sera dirigée vers la surface sensible au moment où sera prise la photo, ce système de mise au point a été appellé "Through The Lens", "à travers l'objectif", par opposition aux autofocus actifs qui sont indépendants de l'optique de l'appareil.

Puis sont apparus les appareils photo numériques, et là tout est devenu plus simple.
Dans les appareils photo numériques, l'image se forme en permanence sur la surface sensible, donc il est possible à n'importe quel moment de l'examiner avec un logiciel. C'est ce que font les autofocus actuels. Ils traitent l'image avec un programme qui va rechercher les ruptures de luminosité comme sur le graphique que l'on vient de voir, et qui vont ensuite essayer de les maximiser en agissant électriquement sur les lentilles de l'objectif (ou la position de la surface sensible).
Cependant, que ce soit par traitement d'image numérique ou capteur TTL, la capacité de l'appareil à faire la mise au point va dépendre du contraste. Les systèmes TTL y seront plus sensible dans la mesure où, du fait de leur construction, ils n'analysent qu'une toute petite partie de l'image, alors que le traitement numérique va porter sur toute la surface. Cependant, dans les deux cas, si l'image a très peu de contraste (souvent le cas en faible lumière où si l'on prend un sujet de couleur parfaitement unie), l'autofocus va "pomper", il cherchera à créer du contraste sans y parvenir. On s'en rend compte car on voit l'appareil parcourir la totalité de la latitude de mise au point sans se fixer. Ceci signifie qu'il faut débrayer l'autofocus et faire le travail soit même...

Dernière remarque sur les systèmes TTL.
On voit sur les réflex numériques actuels que leur technologie est appellée "TTL-CT-SIR", mais qu'est-ce que cela signifie?

Littéralement, TTL-CT-SIR signifie Through The Lens Cross Type Secondary Image Registration. Une telle dénomination suppose une longue suite d'améliorations depuis les premiers TTL, mais ce qui est intéressant de comprendre à leur sujet découle de leur fonctionnement. Celui-ci est décrit ci-dessous:
Deux optiques disposées après la surface sensible (dans le prisme du viseur) récupèrent et focalisent les rayons issus d'une même zone de l'image, mais ayant traversé l'objectif à deux extrémités. Ces deux optiques crée donc deux images identiques, mais plus ou moins floues et surtout plus ou moins décalées, en fonction de la position des lentilles de l'objectif principal (qui crée l'image pour la surface sensible). Ce décalage est proportionnel et de même sens que la défocalisation de l'image. Ainsi, par la mesure de ce décalage, il est possible de déterminer de combien et dans quel sens déplacer les lentilles de l'objectif pour obtenir la mise au point sur cette partie de l'image. De ce fait, le système d'autofocus n'aura pas à "chercher" la zone de netteté maximum, il pourra déterminer de façon immédiate cette zone, et sera donc d'autant plus rapide. En revanche, même si la rapidité sera optimale, la détermination même du point dépendra de la détection du décalage entre les deux images, et donc de leur contraste.
Aussi, même si les systèmes TTL-CT-SIR sont les plus rapides, ils sont néanmoins dépendant du niveau de contraste de la scène sur laquelle ils doivent faire le point.
Enfin, comme les systèmes de mise au point TTL utilisent deux images issues de deux extrémités de l'optique, plus celle-ci sera grande, plus leur fonctionnement sera efficace. Cependant, comme tout système de mesure, il y a une limite au delà de laquelle la mise au point n'est plus possible, à cause de la taille trop réduite de la lentille principale. Cette limite est proportionnelle à la focale (car la focale ainsi que le système TTL sont dimensionnés en rapport avec la taille de la surface sensible). De fait, on peut exprimer la limite de fonctionnement de l'autofocus TTL comme un nombre d'ouverture. Lorsqu'on regarde dans les documentations des boîtiers réflex, on constate généralement que le fonctionnement des autofocus TTL est garanti jusqu'à f/5.6, même si certains fonctionnent encore jusqu'à f/8. Bien évidemment, aucun objectif n'est incompatible avec cette limite, car il serait alors pratiquement invendable, mais il faut y prêter attention si l'on utilise un doubleur (ou "teleconverter"). Comme ces équipements font diverger les rayons sortant de l'objectif, ils reproduisent l'effet d'une diminution du nombre d'ouverture. Par conséquent, leur utilisation peut mettre hors d'usage un autofocus. Si vous monter par exemple un doubleur de focale sur un zoom qui ouvre à f/5.6 à sa plus longue focale, cela donnera un f/11 avec le doubleur, et dans ces conditions aucun autofocus TTL ne pourra faire la mise au point, et vous devrez alors la faire manuellement.


La perception des couleurs (Lien)
Sources: Colorimétrie, étude de la couleur, Wikipédia, profil-couleur.com

La question de la nature de la couleur est bien plus ancienne que l'invention de l'autochrome, le premier procédé industriel de photographie couleur, par Louis Lumière au début du XXème siècle.
Presque philosophiquement, les Hommes, depuis Aristote, se sont demandés si les couleurs étaient des réalités objectives, ou des créations de notre esprit. Celui-ci faisait même la distinction entre les concepts de "couleur-lumière" et "couleur-matière", supposant ainsi que les lumières colorées (comme celles d'un coucher de soleil), et les objets colorés ne mettaient pas en oeuvre les mêmes phénomènes.
Il faudra attendre les théories de Newton au XVIIème puis celles de Young au XVIIIème pour arriver à la conception que l'on a encore aujourd'hui de la nature de la couleur.

La couleur est une information électrique provenant des cônes qui tapissent la fovéa de notre oeil. Cette information est créée à partir de l'interaction entre les ondes électro-magnétiques qui forment la lumière et les trois types de cônes que nous possédons. La fovéa, comme on en a déjà parlé au début de la partie 2, est la partie du fond de l'oeil qui contient les récepteurs nous fournissant notre acuité visuelle et la distinction des couleurs.
La lumière, comme le son, est une onde.
Cependant, une onde, comme une vague à la surface de l'eau, ne peut être entièrement appréhendée que si on perçoit son aspect de profil sur toute sa longueur. Pour les sons, les cils situés à l'intérieur de notre oreille vibrent avec l'onde sonore, nous transmettant ainsi toute sa forme au fur et à mesure qu'elle nous parvient. Pour la lumière, les cônes ne sont pas capables d'une telle résolution, ils se comportent comme un flotteur à la surface de l'eau dont on ne verrait que l'amplitude de l'oscillation sous l'effet de l'onde qui l'agite. Un tel mécanisme de perception nous fait perdre une grande partie de l'information que contient l'onde, mais la nature l'a conservé car il était suffisant à la survie de notre espèce.
Ainsi, les couleurs que l'on perçoit sont issues de l'amplitude de l'oscillation des trois types de cônes que contiennent nos yeux, les rouges, les verts, et les bleus. Ces cônes sont nommés ainsi car leur amplitude d'oscillation est maximum pour les ondes électro-magnétiques correspondantes aux lumières de couleurs pures rouge, vert et bleu.

Très bien. Mais alors, que se passe-t-il lorsque je regarde un objet qui m'apparaît jaune?


L'objet en question est éclairé par une source lumineuse, comme le soleil par exemple. Il émet une onde électro-magnétique irrégulière et complexe, contenant entre autres de la lumière blanche. Au contact de l'objet jaune (une banane par exemple), une partie de ce rayonnement va être absorbé, et une partie va être renvoyé, un peu comme une onde à la surface d'une piscine qui rebondit sur le rebord pour continuer à se propager vers le milieu du bassin. L'onde réfléchit va être différente de celle reçue, car la façon dont l'objet va la modifier variera en fonction de celui-ci mais aussi de la forme de l'onde qui l'a atteint. Ainsi, si l'objet est jaune, l'onde réfléchit sera beaucoup plus simple que celle reçue et sa forme aura pour effet de ne faire osciller que les cônes rouge et vert de notre oeil.

Les courbes rouge et vert représentent les ondes électo-magnétiques qui créeront le maximum d'amplitude d'oscillation des cônes rouges et verts de la fovéa. L'onde jaune réfléchie par la banane aura pour effet de ne faire osciller que les cônes rouges et verts, produisant ainsi l'impression de jaune. Cependant, plusieurs ondes de formes différentes pourront avoir le même effet sur les trois types de cônes de l'oeil, c'est ce que montre la figure ci-dessus. On appelle ce phénomène le métamérisme, il s'explique par la mécanique vibratoire.
Si vous voulez faire rebondir un ballon de basket immobile sur le sol en tapant dessus, vous devrez le frapper à la bonne fréquence, sinon le ballon ne s'élèvera pas. C'est la même chose pour les cônes de l'oeil. Ils n'enregistrent que l'amplitude du rebond, mais pas le mouvement de la main qui frappe le ballon. Pour cette raison, que l'onde soit une sinusoïde de 570nm de longueur d'onde ou la somme de deux sinusoïdes de 650 et 510nm, l'impression sera la même pour l'oeil car les amplitudes des signaux électriques créés par les cônes seront les mêmes.

Notions de colorimétrie (Lien)
Sources: L'infographie, un métier, une passion, Collège National des Enseignants de Biophysique et de Médecine Nucléaire, Wikipedia

Comme on vient de le voir, il n'est pas aisé de définir le rapport entre une onde électro-magnétique clairement définissable, et l'impression que notre oeil aura lors de sa perception.
Comme il était nécessaire pour communiquer de standardiser la représentation des couleurs en dehors de toute perception subjective, plusieurs modèles, aussi appelés espaces colorimétriques, ont été mis au point.
Voici le plus connu et le plus utilisé de ces modèles, la référence en quelque sorte, le CIE xyY de 1931 (hé oui, on a pas fait mieux depuis).

Pour bâtir ce modèle, la Commission Internationale de l'Eclairage (d'où le nom CIE) a défini trois modèles pour les trois cônes de l'oeil. Ce sont des formules mathématiques permettant de calculer l'amplitude d'oscillation de ceux-ci lorsqu'on connaît la forme de l'onde qui les atteint. À partir de ces formules, les scientifiques de la commission ont déterminé dans quelles plages d'amplitude d'oscillation de chacun des trois cônes l'oeil percevait une couleur. Comme il n'est pas possible de représenter les effets de trois paramètres dans un plan (un volume en trois dimensions est indispensable pour cela), la CIE a créé une représentation de ces résultats en ne montrant que les rapport entre ces trois paramètres, et non leur valeur absolue, un peu comme on peut représenter la valeur de trois masses en prenant leur somme comme référence égale à 1.
Voici ce que donne cette représentation:

L'axe y représente l'amplitude de l'oscillation du cône vert par rapport à la somme des trois amplitudes. Autrement dit, 0,3 sur l'axe y représente toutes les couleurs pour lesquelles le cône vert fournira 30% de l'amplitude totale du signal électrique issu des trois cônes.
L'axe x représente l'amplitude de l'oscillation du cône rouge par rapport à la somme des trois amplitudes.
Le cône bleu, lui, fournira l'amplitude restante. Par exemple, le point de ce diagramme qui a pour coordonnées y=0,3 et x=0,6 aura 30% du signal fourni par le cône vert, 60% par le rouge et 100-30-60=10% par le bleu. Comme on peut le voir sur ce diagramme, ce point est dans la zone de couleur rouge, on dira donc que cette onde aura une chrominance rouge.

D'accord, on a donc une figure qui nous donne la couleur en fonction du rapport des amplitudes d'oscillation des trois cônes, mais pourquoi toutes les valeurs ne sont pas possible, que se passe-t-il si il n'y a que le cône bleu qui produit un signal par exemple? On devrait être à x=y=0, et dans cette zone du graphique on est en dehors de la figure colorée, comment cela se fait-t-il?

La réponse à cette question se trouve dans ce graphique:

Ces courbes représentent l'amplitude d'oscillation des cônes en fonction de la longueur d'onde du rayonnement qui les atteignent. Ce sont les fameux modèles des trois cônes de l'oeil que la CIE a bâti. Que voit-on grâce à eux? On voit qu'il est impossible de faire osciller un seul des trois cônes. Pour toutes les longueurs d'ondes de la lumière visible (celles qui font osciller au moins un des trois cônes), au moins deux cônes oscillent, à des amplitudes différentes certes, mais ils oscillent tout de même.
Pour cette raison, le digramme coloré du CIE qui figure plus haut possède des zones qui ne correspondent à rien. Tout simplement parce qu'il est impossible de générer une onde, si complexe soit-elle, qui fera osciller les trois cônes selon le rapport correspondant à ce point du diagramme (x=y=0 ne correspond à rien car aucune onde ne pourra faire osciller le cône bleu tout seul).

Autre particularité de ce diagramme: Quelle est cette bordure qui fait le tour de la zone colorée par le haut et qui est graduée avec des nombres allant de 460 à 620?
C'est la limite du rapport d'oscillation des trois cônes correspondant aux fréquences purs (les ondes à forme sinusoïdale). La graduation représente quand à elle la longueur de ces ondes en nanomètre (le milliardième de mètre).
Autre curiosité, la limite basse de cette zone colorée n'est pas graduée. Ceci vient du fait que ces rapports d'amplitudes d'oscillation des cônes ne peuvent être obtenu, contrairement à la limite haute graduée, avec des ondes de forme sinusoïdale. Un peu comme l'onde de forme irrégulière donnant une sensation de jaune qu'on a vu à propos de la couleur de la banane. La ligne des pourpres, comme on l'appelle, ne contient que des couleurs qu'on ne peut créer avec de simples sinusoïdes, mais uniquement avec des formes d'onde plus complexes.

Maintenant que l'on a compris à quoi correspond l'espace colorimétrique CIE xyY de 1931, on va pouvoir voir à quoi il sert.
Cet espace contient toutes les chrominances que l'oeil humain est capable de percevoir (on dit chrominance car on ne s'intéresse pas à l'intensité de la lumière, uniquement à sa couleur). Il peut donc servir à mettre en évidence les limitations des systèmes représentant des couleurs.
Voici quelques-uns de ces systèmes:

On retrouve ici le CIE xyY sous le nom de "Horseshoes Shape of Visible Color", en français: "sabot de cheval des couleurs visibles", à cause de sa forme. Les quatre autres zone, triangulaires pour trois d'entre elles, représentent d'autres espaces colorimétriques.
ProPhoto RGB, Adobe RGB et sRGB sont des systèmes de codages de la couleur utilisés en informatique. Nous en reparlerons plus en détails dans le post suivant au sujet du stockage numérique des images. Vous les avez peut-être aperçu comme paramètres de réglage si vous utilisez Photoshop. Ce diagramme permet de mettre en évidence leur limitations respectives. Par exemple, il est des couleurs qui seront codables en ProPhoto RBG, mais qu'il sera impossible de représenter en sRGB, un peu comme lorsque vous devez vous contenter d'une couleur approchante lorsque vous ne trouvez pas la teinte déjà passée dans un appartement dont vous voulez ne refaire qu'un seul mur.
La zone "2200 Matt Paper" est très intéressante car, contrairement aux trois autres qui correspondent à des systèmes de codage des couleurs, elle correspond à un phénomène physique tangible.
Savez-vous comment on fait pour donner une couleur à un objet? On y passe de la peinture bien sûr, mais on y dépose surtout des pigments qui vont absorber certaines longueurs d'ondes et en renvoyer d'autres. Comme la banane dont on a déjà parlé, les pigments de peinture modifient l'onde reçue pour en renvoyer une différente. Comme tous les rayonnements électro-magnétiques, les ondes sont périodiques et on peut les décomposer mathématiquement en une somme de sinusoïdes de différentes périodes (comme l'onde jaune bizarre qu'on a vu plus haut comme étant la somme des sinusoïdes verte et rouge). L'onde renvoyée par une surface sur laquelle on a appliqué des pigments peut donc être vue comme la somme d'un ensemble de sinusoïdes. Le phénomène physique de l'absorption fait que les pigments ne pourront que diminuer le nombre de sinusoïdes qui composent le rayonnement qu'ils vont réfléchir. De ce fait, on parle de synthèse soustractive de la couleur, car les pigments enlèvent des fréquences et ne peuvent en ajouter dans le rayonnement qu'ils renvoient.
Ainsi, en choisissant les pigments que l'on va déposer sur un objet ou une feuille, on peut produire différentes couleurs, mais pas autant que ce que l'oeil peut en percevoir. C'est ce que montre la zone appelée "2200 Matt Paper". Avec une impression sur papier glacé, il ne sera pas possible de reproduire toutes les couleurs que l'appareil photo aura pu saisir avec son capteur, car les couleurs obtenues sur le papier le sont par synthèse soustractive.

Autre remarque et pas des moindre à propos de ce diagramme CIE xyY coloré : l'écran de votre ordinateur, tout comme l'impression papier, possède ses propres limites dans l'affichage des couleurs. Elles sont d'ailleurs assez proche du système sRVB. Aussi, les couleurs que vous voyez dans ce diagramme en dehors de la zone sRVB ne sont que purement illustratives. Votre moniteur d'ordinateur, et les images JPG représentant ce diagramme, utilisent le système sRGB, il leur est par conséquent impossible de représenter les couleurs hors de cette zone. Pour cette raison, celles qui y sont affichées ne correspondent pas aux couleurs qui se trouvent réellement à cet endroit dans l'espace CIE xyY.
Si vous voulez constater vous même à quoi correspondent les limitations des appareils photo et des écrans LCD en matière de rendu des couleurs, il existe une expérience simple. Photographiez un coucher de soleil avec un appareil photo numérique, puis affichez immédiatement cette photo sur l'écran de de l'appareil et comparez les couleurs à celles du vrai coucher de soleil que vous avez encore devant vos yeux. Le résultat est saisissant. Si la plupart des couleurs que nous voyons tous les jours sont le fruit de la synthèse soustractive de la lumière (car tous les objets produisent leur couleur par synthèse soustractive), ce n'est pas le cas d'un coucher de soleil, qui nous envoi la lumière de notre étoile modifiée et filtrée par l'atmosphère terrestre. De ce fait, la plage des couleurs possible est incroyablement plus étendue, et les appareils photo, mais surtout les écrans LCD, sont alors incapables de restituer une telle gamme de couleurs.

Enfin, si vous voulez savoir si votre navigateur web gère correctement ces différents espaces colorimétriques, il y a cette page qui permet de faire un test très efficace pour le vérifier. L'image de droite est un repère, lorsque vous passez la souris dessus, quel que soit votre navigateur, les couleurs changent car l'espace colorimétrique utilisé change. La photo de gauche est le test : si ses couleurs changent lors vous passez la souris dessus (comme pour l'image de droite), c'est que votre navigateur ne gère pas correctement les espaces colorimétriques. Si c'est le cas, vous ne vous en êtes sans doute jamais rendu compte, mais cela veux dire que vous courez le risque d'avoir de fausses couleurs pour certaines photos des pages web, toutes celles qui ne sont pas codées dans l'espace sRGB en fait, car c'est celui utilisé par défaut par les navigateurs.

Luminosité, teinte et saturation (Lien)

Comme on vient de le voir, la représentation des couleurs est basée sur la réponse des cônes rouge, vert et bleu aux ondes électro-magnétiques. Ce modèle fonctionne, mais il présente le désavantage de ne pas mettre en évidence un paramètre fondamental de la lumière visible : la luminosité, ou plus exactement l'intensité du rayonnement.
Pour cette raison, un autre modèle de représentation des couleur est également très utilisé, le modèle HSL:

Comme le modèle CIE xyY, le modèle HSL se base sur trois coordonnées (à cause des trois types de cônes, c'est inévitable). Cependant, au lieu d'associer chacune de ces coordonnées à la réponse en amplitude de chacun des cônes, une transformation mathématique est appliquée à chacune de ces trois amplitudes pour obtenir la luminosité (ou intensité lumineuse) comme l'une des trois coordonnées. Après cela, les deux autres coordonnées se déduisent logiquement car on a plus le choix si l'on veut pouvoir représenter toutes les couleurs visibles. À cause de l'effet de ces deux dernières coordonnées sur les couleurs, elles seront nommées Teinte (Hue en anglais) et Saturation.
La figure ci-dessus tente de représenter les couleurs dans ce modèle à trois dimensions. Notez cependant que dans l'espace CIE xyY en sabot de cheval que l'on a déjà vu, le fait d'avoir représenté les couleurs après division par la somme des trois composantes nous donnait en fait une vue de l'espace colorimétrique sans la luminosité. Ce sabot de cheval nous montrait un plan à luminosité fixe dans lequel les couleurs étaient réparties selon leur teinte et leur saturation. La saturation s'étendant du centre de couleur blanche (insaturée) vers l'extérieur, et la teinte variant sur tout le tour du sabot (selon les graduations de longueurs d'onde). C'est donc pour cette raison que l'on dit que l'impression papier (l'air "2200 Matt Paper") ne peut rendre les couleurs très saturées (celles se trouvant les bords du sabot).

Autre avantage historique de l'utilisation du système HSL, la compatibilité de la télévision couleur avec la télévision noir et blanc. Contrairement au passage de la télévision analogique à la télévision numérique qui crée une rupture totale dans la compatibilité des signaux, lorsque la télévision couleur a été introduite, le modèle HSL a été utilisé pour pouvoir "ajouter" la couleur par dessus le signal noir et blanc déjà émit (qui codait la luminosité). Ce deuxième signal a été modulé sur une autre onde porteuse et contenait la saturation et la teinte des pixels de chaque ligne de l'image. Ce couple de nouvelles coordonnées étaient alors appelé chominance. Ainsi, les signaux vidéo sont généralement codés de trois façons : composite, S-vidéo, ou RGB.

La balance des blancs (Lien)
Sources: Température de couleur, Pourpre.com, Wikipedia, Understanding White Balance

Avez-vous déjà essayé d'aller acheter un pot de peinture de la même couleur que celle qui couvre les trois autres murs de la pièce dont vous voulez refaire le quatrième?

Si ce n'est pas le cas, voici un bon exemple de la complexité de la perception de l'on a des couleurs:

Les carrés centraux des figures
de gauche et droite ont la même teinte de gris
Les carrés centraux des figures
de gauche et droite ont la même teinte de vert
Les V des figures de gauche et droite
ont la même teinte de bleu

Comme vous le constatez, l'impression que l'on a d'une couleur dépend d'un grand nombre de paramètres : nature et intensité de la lumière qui éclaire l'objet, couleurs environnant cet objet, et même parfois culture de l'observateur.

Voici deux autres exemples montant de façon spectaculaire la manière dont notre cerveau arrive à corriger notre perception des couleurs en fonction de l'environnement.

À votre avis, quelle est la couleur de la robe que l'on voit sur cette photo?


Blanche et or?
Certains diront bleu et noir.

Et bien ces derniers ont raison, leur cerveau a correctement corrigé les couleurs de cette photo. Car la lumière éclairant cette robe n'est pas blanche, ce qui fait que les couleurs sont faussées sur cette image. Vous pouvez le vérifier en téléchargeant l'image ci-dessus, puis en corrigeant le contraste et le luminosité. Vous verrez que le blanc est en fait un bleu très clair. Voici cette même robe photographiée avec une lumière blanche:


Bluffant n'est-ce pas?

Plus étonnant encore. Voici une image faite sur mesure pour tromper notre oeil. Croyez-le ou non, mais aucun des pixels de cette image, n'est rouge, tous sont de teinte cyan (sorte de bleu ciel) en représentation HSL.


Notre oeil voit du rouge là où il n'y en a pas car il corrige cette image, dans la mesure où il constate que tous les pixels sont de la même teinte (cyan), il interprète les différences de saturation et de luminosité en termes de couleurs des objets visibles.

Ainsi, la lumière reçue d'un objet ne permet pas de connaître la couleur de celui-ci. Les deux exemples ci-dessus illustre bien ce phénomène : sans information sur la lumière éclairant une scène, il est impossible de connaître la couleur des objets qui s'y trouvent. Le cerveau arrive à deviner cette couleur dans beaucoup de situation, mais pas toutes.

C'est pour qualifier la couleur des objets que l'on doit parler de la notion de balance des blancs.

L'exemple des carrés de couleur ci-dessus montre bien à quel point le cerveau interprète les couleurs en fonction de leur environnement. Regardez le T-shirt blanc de quelqu'un la nuit, à la lumière d'un réverbère. Vous le verrez blanc, alors qu'il vous renvoie la lumière du réverbère, qui est jaune orangée.

Comme les appareils numériques (hors mode automatique plus ou moins performant), ne sont pas capables d'une telle adaptation, il est nécessaire de les "calibrer" pour leur indiquer quelle est la couleur (au sens d'un point de l'espace CIE xyY) qui doit être considérée comme blanc. Le T-shirt sous le réverbère doit être considéré comme blanc malgrès la couleur jaune orangée qu'il renvoi, parce que notre cerveau s'adapte pour le voir blanc, l'appareil numérique (caméra ou appareil photo), devra lui aussi considérer "blanc" ce jaune orangé lorsqu'il codera sa couleur.
Dans le cas du réverbère la différence est flagrante, même à l'oeil nu, mais entre un soleil direct et un soleil voilé par des nuages, la couleur de la lumière ne sera pas la même, et il faudra là aussi re-calibrer l'appareil numérique, autrement dit corriger sa balance des blancs.

Dans les faits, ce calibrage consiste à indiquer à l'appareil photo quelle lumière doit être considérée comme blanche. En pratique, jusqu'à trois méthodes sont possibles. Elles sont généralement illustrées par une liste de pictogrammes semblable à celle-ci:

AWB signifie "Automatic White Balance", ou "Balance des Blancs Automatique" en français. Cette option existe pour simplifier l'usage de l'appareil photo pour un utilisateur non expérimenté. La méthode utilisée pour déterminer le point de l'espace colorimétrique qui doit être considéré comme blanc dépend de l'appareil. Il semble que chaque constructeur ait ses propres méthodes, plus ou moins élaborées en fonction de la puissance de calcul du processeur qui a été mis dans l'appareil. Ce qui est certain cependant, c'est que ces méthodes, si performantes soient-elles, ne pourront donner de bons résultats dans toutes les situations, et l'expertise du photographe sera toujours préférable.

La dernière option de cette liste n'est disponible que sur certains appareils, tels que les réflexes (SLR en anglais pour Single Lens Reflex). C'est la meilleure option, mais aussi la plus lourde à utiliser. Elle consiste à montrer à l'appareil quelle zone d'une image il doit considérer comme de couleur blanche. Selon les appareils, il faut soit photographier directement un objet blanc d'une taille suffisante pour occuper tout le centre de l'image, soit aller chercher dans la carte mémoire une photo ayant un objet blanc sur toute sa partie centrale. Cet objet blanc (une simple feuille par exemple) doit avoir été éclairé par la même source lumineuse que toutes les scènes que l'on va prendre en photo avec cette balance des blancs personnalisée. Ceci est parfois loin d'être évident. Comme je viens d'en parler, il suffit que le soleil se voile de nuages pour que la nature de la lumière change. La balance des blancs manuelle n'est donc intéressante que lorsqu'on prend des photos dans des conditions d'éclairement très stables (en intérieur avec la lumière artificielle fixe d'un théâtre ou d'une salle des fêtes par exemple).

Les autres options correspondent au modèle physique théorique des corps noirs. Ce modèle est utilisé car il correspond au phénomène physique à l'origine de l'émission lumineuse de la plupart des sources que l'on trouve dans la nature. L'idée à l'origine de ce modèle est que la matière, en fonction de sa température, émet un rayonnement électro-magnétique dont la longueur d'onde (la couleur), dépend de cette température. Il n'existe pas de matière réelle correspondant exactement au modèle théorique du corps noir, mais les parois intérieures d'un four s'en approchent. Plus le four sera chaud, plus le rayonnement qu'il va émettre sera énergétique et plus sa couleur sera décalée vers le bleu. Ce modèle permet donc d'associer une couleur à une température selon cette équivalence:



L'échelle en bas de ce diagramme est en degrés Kelvin (identiques aux Celsius à part le 0°K qui est situé à -273,15°C).
Comme vous le constatez, la couleur verte n'est pas présente sur cette échelle. C'est pour cette raison que le modèle des corps noirs n'est pas utilisable pour toutes les sources lumineuses, notamment pour les sources artificielles colorées ou pour une lumière indirecte reçue après réflexion sur un mur peint.
Pour cette raison, les options de balance des blancs "Lumière du jour", "Nuageux", "Ombre", "Incandescent", "Fluorescent" et "Flash" ne seront utilisables que dans les cas précis qu'elles décrivent. Cela représente cependant la majorité des situations de prise de vue.

Une remarque importante à propos de la balance des blancs : Et si la scène photographiée a plusieurs sources lumineuses de couleurs différentes?

Dans ce cas c'est plutôt compliqué.

MoonStone
Balance des blanc sur
la lumière de la lune
Balance des blanc sur
la lumière de l'éclairage artificiel de la façade

Vous n'aurez pas cinquante solutions pour faire face à une telle situation :
Soit vous faites la photo au format RAW (on verra pourquoi dans le prochain post) et vous utilisez un logiciel pour traiter l'image afin d'avoir la bonne balance aux bons endroits. Ceci est faisable avec le couple Adobe Lightroom et Adobe Photoshop.
Soit vous choisissez une seule balance des blancs pour toute l'image sachant que certaines couleurs seront forcément différentes de la réalité, mais le résultat peut tout de même être artistiquement bon.

Dernière remarque enfin à propos de la balance des blancs : Pourquoi n'en était-il pas question en argentique?
En argentique, prendre une photo revient à rendre plus ou moins opaque aux différentes longueurs d'onde les différentes parties de la surface sensible. Cette réaction d'opacité va varier d'un film à l'autre, et le choix de la pellicule constituera un premier paramètre sur lequel le photographe pourra influer. Ensuite, la lumière utilisée lors de la reproduction de l'image, que ce soit une pellicule pour diapositives ou tirage papier (on dit réversible ou négatif), constituera elle aussi un paramètre influant sur le rendu des couleurs.
Voilà pourquoi on ne parlait pas de balance des blancs en argentique, car elle faisait partie du choix de la pellicule ainsi que de celui de l'appareil de projection pour écran ou tirage papier.

Le prochain post (et le dernier de cet atelier) parlera du stockage numérique des images et dira quelques mots sur les caractéristiques techniques d'un appareil photo numérique (nombre guide de flash, rôle du filtre passe bas du capteur...).




samedi 5 septembre 2009

Atelier photo (post 5)

Aspects non linaires des lentilles (Lien)
Sources: Distorsion (optique), from Wikipedia, Aberration géométrique, from Wikipedia

Aussi pédagogique et simple que soit l'optique géométrique, elle n'est pas en mesure de fournir une explication à certains phénomènes et certains défauts des lentilles optiques. Comme on a l'a vu, elle se limite à l'approximation de Gauss, il est donc intéressant de se pencher sur ce qui se passe lorsque celle-ci n'est plus valable.

Les différences entre le comportement des rayons lumineux en optique géométrique et dans la réalité peuvent être classées en différentes aberrations.

Aberration sphérique (Lien)

L'aberration sphérique est le premier aspect de la première des deux conséquences de l'erreur crée par l'approximation de Gauss. Cet aspect concerne les rayons incidents parallèles à l'axe optique.
Il est caractérisé par le fait que le point de convergence de rayons incidents parallèles n'est pas le même en fonction de l'endroit auquel ils traversent la lentille:
Cette disparition du foyer (disparition par rapport à l'optique géométrique), crée un flou de l'image.

Aberration de coma (Lien)

L'aberration de coma est, avec l'aberration sphérique, le second aspect de la première conséquence de l'approximation de Gauss. L'appellation "aberration sphérique" était d'ailleurs autrefois utilisée pour qualifier ces deux aspects, on ne parlais pas alors d'aberration de coma.
C'est tout simplement la conséquence de la cause de l'aberration sphérique pour des rayons incidents non parallèles à l'axe optique.
Comme pour l'aberration sphérique, la conséquence est la disparition du foyer et la création d'un flou de l'image.

Distorsion barillet, coussinet et vignetage (Lien)

Ces trois distorsions constituent la seconde conséquence de l'erreur crée par l'approximation de Gauss. Autrefois regroupés sous le nom de "courbure de champ", elles s'appliquent aux rayons incidents non parallèles (et se rejoignant pas au même point foyer en optique géométrique). De ce fait, ce ne sont pas des aberrations, mais des distorsions, car elles ne produisent pas de flou.
On l'a vu, plus l'angle d'incidence est grand, plus l'approximation de Gauss est fausse. La déviation des rayons incidents prévue par l'optique géométrique sera également de plus en plus fausse avec l'augmentation de l'angle de ces rayons. La conséquence est alors une déformation de l'image.
Comme on peut le voir sur la figure ci-dessous, cette déformation dépend de l'emplacement du diaphragme, cette paroi percée qui sert à limiter la quantité de lumière traversant la lentille (et par là même à augmenter la profondeur de champ).


Barillet avec vignettageCoussinet
Source: DxO Labs

Si le diaphragme est placé avant la lentille, on obtient la distorsion de coussinet.
Si le diaphragme est placé après la lentille, on obtient la distorsion de barillet (souvent associé à du vignettage).
Comme on peut le voir sur le troisième schéma de l'illustration ci-dessus, l'utilisation d'une lentille supplémentaire permet d'annuler les distorsions de barillet et coussinet.

Alors que les distorsions de barillet et coussinet ne peuvent s'expliquer complètement qu'avec des calculs complexes, on peut avoir un aperçu de la cause du vignettage grâce au schéma ci-dessous:

La zone de l'image située dans l'axe du de l'ouverture du diaphragme reçoit le flux lumineux perpendiculairement à la surface sensible. De ce fait, un flux lumineux d'une section égale à la surface de l'ouverture du diaphragme illumine une zone la la surface sensible de la même surface.
En revanche, une zone de la même surface située sur le bord de l'image, plus loin de l'ouverture du diaphragme donc, recevra de celui-ci un flux lumineux moins large, et donc moins de lumière.
C'est pour cette simple raison géométrique que les bord d'un image sont vignettés. Sans optique corrective appropriée, ils reçoivent moins de lumière et sont donc plus sombre.

Petite anecdote enfin : si l'ancien terme donné à ces trois distorsions est "courbure de champ", c'est tout simplement parce que si la surface sensible sur laquelle se forme l'image était une portion de sphère, aucune de ces trois distorsions ne serait visible (mais les photos ne serait alors plus imprimées sur une surface plane mais sur un papier en forme de portion de sphère):


L'aberration sphérique ainsi que la courbure de champ peuvent être considérablement réduite par l'emploi de lentilles asphériques. Comme leur nom l'indique, elles n'ont pas la forme d'un portion de sphère mais comme génératrice une parabole. Ceci n'a malheureusement pas d'effet sur l'aberration chromatique.

Aberration chromatique (Lien)
Source: DxO Labs

L'aberration chromatique concerne, comme son nom l'indique, un comportement différent en fonction de la couleur de la lumière (sa longueur d'onde). C'est en quelque sorte une surcouche aux deux aberrations déjà vu car son origine vient de la déviation différente que la lentille fait subir aux rayons lumineux en fonction de leur longueur d'onde.
Au regard de la figure ci-dessous, on aurait put croire que ni l'aberration sphérique, ni l'aberration de coma n'aurai pu empêcher ces deux rayons parallèles à l'axe optique et traversant la lentille à la même distance du foyer de converger en un même point, mais il n'en est rien. Chaque longueur d'onde du rayon lumineux est dévié de façon légèrement différente.


La conséquence de cette aberration est également un flou, mais avec cette fois une variation de la couleur (l'intérieur du C ci-dessus est plutôt bleu, et l'extérieur jaune).

Astigmatisme (Lien)

L'astigmatisme, contrairement aux quatre autres aberrations dont on vient de parler, ne provient pas de l'approximation de Gauss, mais de la limitation de notre connaissance des conditions réelles.
Dans tous les modèles mathématiques des lentilles, celles-ci sont considérées comme ayant une symétrie axiale. Dans la réalité, ils est impossible de fabriquer une lentille avec une symétrie parfaite. Les défauts de fabrication sont ainsi à l'origine d'un comportement des rayons lumineux différent du modèle mathématique, et cela crée une source de flou supplémentaire.

L'expostion, paramètre clé de la photographie (Lien)
On l'a vu au début de la partie 3, photographier c'est écrire avec la lumière. Comme on choisi ses crayons et son papier lorsqu'on fait un dessin, on va choisir sa lumière et sa surface sensible lorsqu'on photographie.
C'était vrai avec le surfaces argentiques et ça l'est encore avec les capteurs électroniques : l'image fixée va dépendre de la quantité de lumière reçue et de la surface qui le fixe. Avec l'argentique, en fonction de la taille des gains de l'émulsion d'agent, ceux-ci pouvait noircir plus ou moins vite pour une même quantité de lumière. Pour les capteurs électroniques, la tension qu'ils délivre pourra être différent avec la même quantité de lumière en fonction du circuit électronique qui conditionnera son signal et son alimentation.

Si l'on ne maîtrise pas la façon dont la lumière va modifier la surface sensible, on obtiendra soit des images toute blanches, soit des images toutes noires. Pour cette raison, différentes techniques et systèmes on été mis au point pour maîtriser au mieux l'effet de la lumière sur la surface sensible.

La sensibilité ISO (Lien)
Source: Wikipedia
La sensibilité ISO est la caractérisation de la sensibilité à la lumière d'une surface sensible. Historiquement, trois échelles sont utilisées : ISO, ASA et DIN, mais elles sont équivalentes dans la mesure où la conversion d'une échelle à une autre est simple.

Les nombre ISO et ASA sont égaux, et l'échelle DIN peut se convertir en ISO de la façon suivante : DIN = 10 log ISO + 1, et par conséquent ISO = 10 ^ ( (DIN - 1)/10 ).
Par exemple : 100ISO = 10 log 100 + 1 = 10 * 2 + 1 = 21°DIN.

Même si la méthode de détermination du nombre ISO change radicalement entre argentique et numérique, son utilisation par le photographe est identique.

L'échelle de sensibilité DIN est une échelle logarithmique.

La bonne compréhension de ce qu'est une échelle logarithmique est capitale pour tout ce qui va suivre, donc nous allons nous y attarder.

Pour étudier certains phénomènes physiques, il est nécessaire de s'intéresser aux variations et non aux grandeurs absolues.
Pour prendre un exemple qui parlera à tout le monde, imaginez que vous deviez parcourir 1km à pied. Cela ne pose pas de problème. Si en arrivant vous vous apercevez que vous vous êtes trompé et que votre destination est en fait à 2km, vous risque d'être contrarié.
Imaginez maintenant que vous deviez parcourir 100km en voiture. Si en arrivant vous vous apercevez que votre point d'arrivé est en fait à 101km, c'est tout juste si vous vous en rendrez compte.

L'échelle logarithmique est faite pour illustrer de façon la plus évidente possible cette notion de relativité. Un kilomètre peut représenter beaucoup ou très peu, tout dépend du contexte. Cependant, si on vous avait dit que votre trajet à pied serait prolongé de 100% et que votre trajet en voiture le serait de 1%, la différence aurait été évidente, bien que dans les deux cas il s'agisse d'un seul kilomètre de chemin supplémentaire.
De la même façon, si vous avez à parcourir 1km, 10km, 100km ou 10 000km, vous n'utiliserez pas le même moyen de transport. Peu importe la distance exacte, ce qui vous importe réellement c'est le nombre de zéros (un peu comme un gagnant du loto).

L'échelle logarithmique est justement faite pour représenter le nombre de zéro d'une grandeur, sans se soucier des chiffres peu significatifs.
Pour passer une grandeur de l'échelle normale (dite linéaire) à l'échelle logarithmique, il faut transformer chaque valeur d'abscisse (les distances en kilomètres par exemple) en une puissance de dix. Ainsi, on pourra visualiser au niveau du chiffre 3 ce qui se passe autour de 1000 (trois zéros), au niveau de 4 se qui se passe autour de 10000 (quatre zéros), et ainsi de suite.

Avec la lumière (et, soit dit en passant, les sons), les phénomènes se passent sur le même type d'échelle que notre parcours en kilomètres. Comme on l'a vu dans un post précédent, notre oeil est capable de voir la nuit comme en plein soleil, lorsque la quantité de lumière est mille milliards de fois supérieure (12 zéros, soit la différence entre l'étoile de plus faible magnitude visible à l'oeil nu et une plage de sable blanc en plein soleil un jour d'été à midi). (Sources: Magnitude apparente, from Wikipedia, Lux unit, from Wikipedia)
À cause de ce rapport colossal, certaines grandeurs utilisées en photographie se mesurent sur une échelle logarithmique. Peu importe les valeurs absolues, seules comptent les variations.
Ainsi, l'échelle ISO (bien que non logarithmique) est purement arbitraire. On n'essayera pas de montrer le rapport entre le nombre ISO et la mesure de luminosité, on va en revanche apprendre à appréhender les effets d'un changement de ce nombre.

Par convention, le point de repère est la valeur 100ISO, un peu comme celui de l'échelle de température Celsius est 100°C pour l'ébullition de l'eau pure à pression atmosphérique. Pour l'argentique, 100ISO était l'une des sensibilités les plus utilisées, et pour le numérique il se trouve que c'est celle à laquelle les capteurs procurent la meilleure qualité d'image (voir liens au début de la partie 2 de cet atelier).
L'échelle logarithmique dont on vient de parler intervient sur la sensibilité lorsqu'on utilise l'échelle DIN, ce qui est cependant assez rare. Multiplier par 10 la sensibilité d'une surface reviendra à multiplier par 10 l'ISO, de 100 à 1000 par exemple, mais ajouter 10 au DIN, de 21° à 31°.

Ce qui est le plus important à savoir pour choisir sa sensibilité ISO est l'influence sur la qualité de l'image.
En argentique, les grains captant la lumière étaient plus gros lorsque la sensibilité augmentait (lorsque l'ISO augmentait). Ainsi, les pellicules noir et blanc 3200ISO étaient connues pour leur grain particulier:

Source: Wikipedia

En numérique, l'augmentation de l'ISO améliore la sensibilité en même temps que le bruit. Le bruit? En photographie?
Oui, comme le capteur de l'appareil photo transforme la lumière en signal électrique, celui-ci peut contenir du bruit, comme le son d'un violon peut être mélangé au bruit ambiant lorsqu'il arrive à vos oreilles.
Sur l'image, cela se traduit par des pixels qui n'ont pas la bonne couleur.


Mis à part le bruit, quel est l'influence du changement de la sensibilité?
Pas grand chose, si ce n'est l'exposition du cliché bien sûr. Pour bien comprendre cela, nous allons d'abord parler des autres paramètres qui peuvent influer sur l'exposition, et nous reviendrons à l'ISO ensuite.

Le nombre d'ouverture (Lien)
Source: Wikipedia

On l'a vu avec la chambre noire, si on souhaite plus de lumière, il faut augmenter la taille du trou. Et quand on utilise une lentille, il faut augmenter sa taille (ou le trou de la paroi qu'on a placé devant ou derrière elle).
On vient de voir que l'ISO est une échelle arbitraire, qu'en est-il pour la taille du trou laissant passer la lumière?

Avec une lentille, l'image produite bénéficie d'un grossissement qui dépend de la focale de cette lentille (on l'a vu dans un post précédent). Ainsi, pour un trou de taille fixe, on aura moins de lumière si la focale augmente, puisque la taille de la surface sensible, elle, ne changera pas. C'est logique, si j'essaie d'éclairer la page d'un livre avec une lampe de poche, ça sera efficace, mais si j'essaie d'éclairer une pièce entière, j'y verrai beaucoup moins bien. C'est le même principe avec la focale et la taille du trou.

Afin de définir une échelle qui ne dépende pas de la focale, on ne parlera pas de taille de trou mais de nombre d'ouverture. Comment créer une valeur indépendante de la focale tout en dépendant de la taille du trou laissant la lumière traverser la lentille? En divisant tout simplement la taille de ce trou par la distance focale de la lentille qui lui est associée.
Ainsi le nombre d'ouverture correspond tout simplement à la focale divisée par le diamètre de ce qu'on appelle la "pupille d'entrée". La pupille d'entrée correspond à la zone circulaire maximum au travers de laquelle la lumière peut traverser la totalité de la lentille (ou de l'objectif) pour atteindre la surface sensible. Sa taille dépend de la taille des lentilles mais aussi, lorsque l'on veut moins de lumière, de la taille du trou qui leur est associé. Ce trou est de taille variable dans la plupart des objectifs (car il n'est pas modifiable sur les appareils jetables et les téléphones portables). Un mécanisme ingénieux basé sur des lamelles glissant les unes sur les autres permet d'obtenir un trou de taille variable dont le diamètre peut être commandé électriquement. Voici une vue de détail de cette mécanique:


Pour un objectif de 50mm de focale avec une pupille d'entrée de 35mm de diamètre, le nombre d'ouverture sera de 50 / 35 = 1,43. Ce nombre ne correspond pas au diamètre de la pupille divisée par la focale pour une simple raison de commodité. En inversant le sens de la division, on obtient une échelle qui va des environs de 1 aux alentours de 32 au lieu d'aller de 1 vers 0,031.

Le nombre d'ouverture représente donc, indépendamment de la focale, la quantité de lumière que laisser passer l'objectif. On le note généralement F/x ou 1/x, x étant le nombre lui même. Cela donne habituellement des ouvertures notées par exemple f/5.6, f1.4...

Afin d'être tout à fait complet (et le plus exact possible), il faut apporter une petite précision à la phrase précédente. Le nombre d'ouverture ne donne pas exactement la quantité de lumière que laisse passer l'objectif. En effet, si les lentilles sont toutes sales, le nombre d'ouverture n'aura pas changé, mais beaucoup moins de lumière pourra traverser l'objectif. Pour cette raison, il peut être intéressant de se renseigner également sur le "Transmittance" de l'objectif. Les lentilles d'un objectif, comme tout objet en verre, laissent une partie de la lumière les traverser, et en réfléchissent une autre (il y a toujours des reflets sur une vitre, même si on peut voir à travers). Ainsi, chaque lentille d'un objectif va renvoyer une partie de la lumière au lieu de la laisser la traverser, et celle-ci sera perdu pour la surface sensible. C'est pour cette raison que les lentilles sont traitées avec un anti-reflet qui leur donne ces couleurs particulières, mais en fonction du nombre qu'en compte un objectif, celui-ci, malgré son nombre d'ouverture, pourra laisser passer plus ou moins de lumière qu'un autre modèle avec la même focale et le même nombre d'ouverture. Typiquement, les zooms ont une transmittance moindre que les focales fixes car ils comportent plus de lentilles.

Mise à part l'exposition du cliché, quels sont les effets des grandes et faibles ouvertures du diaphragme?
Si vous vous souvenez de la partie sur les aberrations, vous aurez compris que les grandes ouvertures (proche de f1) font entrer des rayons à des angles d'incidence qui les éloignent des conditions de Gauss, ce qui augmente l'effet des aberrations sphériques, chromatiques ainsi que la courbure de champ.
Dans ce cas on doit toujours utiliser la plus petite ouverture possible?
Non plus. La lumière se comportant comme une onde, elle se diffracte lorsqu'elle traverse une ouverture. (Source: Diffraction, from Wikipedia)

Un peu à la manière de ces vagues qui arrivent parallèles et se mettent à former des cercles après avoir traversé le chenal.


Le phénomène de diffraction de la lumière à travers un trou circulaire (comme le diaphragme) crée l'image d'un tâche entourée de cercles concentrique au lieu de donner l'image d'un point net.
Le taille de cette tâche a été caractérisée par Joseph von Fraunhofer, elle est égale à 1,22λf/ d. (Sources: Théorie de la diffraction, from Wikipedia, Joseph von Fraunhofer, from Wikipedia)

Le terme λ est le longueur d'onde de la lumière qui traverse le trou.
Le terme f est la focale de l'optique qui crée l'image du trou (car la diffraction de Fraunhofer caractérise la limite de résolution des instruments optiques, bien qu'il n'est pas nécessaire d'associer une lentille à un trou pour obtenir un phénomène de diffraction).
Le terme d est le diamètre du trou.
Cette formule nous montre que plus le trou sera grand, moins la tâche de diffraction sera grande. On constate aussi que le phénomène de diffraction augmente avec la focale et la longueur d'onde (le rouge est plus diffractés que le bleu).

Pour toutes ces raisons, on évitera d'utiliser des trop grandes et de de trop petites ouvertures. Par exemple, dans le cas de mes objectifs (17-55mm f/2.8, 70-200mm f/2.8 et 10mm f/2.8), les tests de résolution réalisés par le laboratoire DxO montrent qu'il est préférable d'utiliser les ouvertures entre f/5.6 et f/8 pour une meilleure qualité d'image.
En règle générale, les meilleures résolutions des objectifs sont obtenues avec des ouvertures entre f/4 et f/11 selon les modèles.

Indice de lumination (Lien)
Sources: Indice de lumination, from Wikipedia, Candela, from Wikipedia, Cours de Sandra Fiori, université de Montpellier

Faire de la photographie c'est écrire avec de la lumière, il semble donc naturel de pouvoir quantifier cette lumière. Pour cela, il est d'abord nécessaire de comprendre les différents concepts mis en jeux. Pour cela nous allons utiliser l'analogie hydraulique (encore elle).
Une source lumineuse émet de la lumière un peu comme un système d'arrosage émet de l'eau. On peut donc caractériser cette source par la quantité d'eau qu'elle émet, son intensité. Pour l'arrosage ça sera des litres par seconde, et pour la lumière des candela. Mais pourquoi n'utilise-t-on pas des truc par seconde dans le cas de la lumière? Parce que la lumière se comporte un peu comme une onde (comme des vagues ou un son) et un peu comme des particules (comme un jet d'eau). Donc il est impossible de la quantifier de la même façon que de l'eau. Il a donc été décidé de caractériser les sources lumineuses par analogie, une source de 1 candela produit la lumière d'une bougie. Cette valeur a bien sûr été normalisée pour pouvoir servir de référence. Elle est basée sur la puissance en watt émise sur une longueur d'onde précise au centre du spectre visible.
La lumière est émise dans plusieurs directions (voir toutes), donc il est nécessaire de tenir compte de cet aspect spatial pour quantifier l'émission lumineuse. Pour cette raison, le lumen a été créé. Un lumen représente la quantité de lumière qu'une bougie émettrait si tout ce qu'elle produit était concentré dans un cône d'un angle de base égal à environ 57,3° (un angle de 1 radian en fait).
Cet notion de quantification dans un cône n'est pas très pratique, on a donc défini la notion d'éclairement, mesuré en lux. L'éclairement est en quelque sorte la quantité d'eau que recevrait une feuille situé à un endroit précis par rapport à l'arrosage. Cet éclairement est reporté à la surface de la feuille, donc pour la lumière cela donne des lumens par mètre carré, qui représentent justement des lux.
Le lux est relatif à la lumière reçu, mais si on se place du point de vu de la source, une autre grandeur a été crée : la luminance (Brightness). Cette grandeur est un peu plus difficile à appréhender, donc nous allons utiliser pour cela un schéma:



L'aire verte n'est pas vue depuis le même endroit par les deux observateurs.
Celui placé au dessus voit cette zone sous sa forme réelle (sans l'effet de la perspective), et son aire apparente correspond à son aire réelle.
Celui placé de coté la voit avec une perspective qui lui donne un aspect plus ramassé et une aire apparente plus petite.
Alors que l'éclairement considère la quantité de lumière reçue par unité de surface au sens des aires jaune et bleue, la luminance détermine la quantité de lumière émise par unité de surface au sens de l'aire verte. De ce fait, en fonction de la forme de la source émettrice, l'éclairement reçu sera différent même si la distance entre la source et l'observateur reste identique. En effet, un carré plat se voir de plus en plus fin au fur et à mesure que notre point de vu se rapproche de sa tranche, alors qu'une boule aura toujours le même aspect (et donc la même surface apparente).

Si la distance entre le source et l'observateur varie, l'éclairement diminuera proportionnellement au carré de du rapport de distance. En effet, que l'on considère la lumière émise dans un cône ou une sphère (uni ou multi-directionnellement), la surface éclairée (base du cône ou aire de la sphère) sera toujours proportionnelle au carré de ses dimensions (hauteur ou diamètre). Pour comprendre cela il suffit de penser à un cube : il est constitué de 6 faces avec chacune une aire égale au produit de son coté par lui même, à son carré donc. Si on change la dimension de ce coté (en le multipliant par 2 par exemple), l'aire d'une face sera multipliée par le carré de ce facteur (2 fois 2). C'est la même chose pour le cône (πR²), la sphère (4πR²) et tout autre volume. Une conséquence de ce phénomène est que l'éclairement reçu à 1m d'une source de 1 candela (une bougie) est de 1 lux.

En photographie, il est capital de ne pas confondre l'éclairement et la luminance. Le premier est un flux reçu (quantité d'eau reçue depuis un point d'observation donné), et la seconde une quantité émise (débit de la source). L'analogie hydraulique n'aide plus vraiment la compréhension pour ces deux grandeurs car leur expression est surtout liée à la géométrie spatiale (les deux sont en fonction de m² mais sans que cela fasse référence à la même surface).
Le meilleur moyen de bien voir cette différence (et aussi de comprendre ce qui va suivre au sujet des photomètres) c'est d'essayer de comprendre la réponse à la question suivante : Quelle est la luminance d'un feuille de papier reçevant perpendiculairement à sa surface un éclairement de 100000 lux? (Cette feuille étant considérée comme réfléchissant toute la lumière reçue et ce de façon homogène dans toutes les directions)
Tous les détails de cette réponse sont sur dans cet article de Wikibook sur les sources orthotropes : http://fr.wikibooks.org/wiki/Photographie/Photom%C3%A9trie/Sources_orthotropes

La réponse à ce problème revient à calculer à quelle luminance correspond une source qui répartirait 100000 lux sur une demi-sphère selon le principe des aires apparentes décrit par la figure précédente.
La conclusion est que la luminance de la source est Pi (π) fois moins que l'éclairement reçu. Le facteur vient du fait que la feuille et plane, et que son aire apparente dépend du point de vu. Si cet objet réfléchissant avait la forme d'une sphère et réfléchissait de façon homogène dans toutes les directions un rayonnement incident de 100000 lux, sa luminance serait de 100000 candelas/m².

Pour résumer, nous avons vu les grandeurs suivantes: (Source: Lumière sur la lumière!)
Intensité d'une source lumineuse : Candela (une bougie ou 1/683 Watt par stéradian d'une radiation à 555nm)
Flux lumineux M : Lumen (1 lumen = 1 candela / stéradian)
Éclairement E : Lux (1 lux = 1 lumen / m²)
Luminance L : Candela / m²

Si la source a la même surface apparente et renvoie la même quantité de lumière dans toutes les directions, on a alors : L = E
Si la source renvoie la même quantité de lumière dans toutes les direction mais que c'est une surface plane : L = E / π

Et voici quelques repères en matière de valeurs d'éclairement:
  • à 1m d'une bougie comme seule source lumineuse : 1 lux
  • local de vie : 100 à 200 lux
  • local de travail : 200 à 3 000 lux
  • stade de nuit : 1 500 lux
  • journée ensoleillée : 50 000 à 100 000 lux
Maintenant les notions d'éclairement et de luminance exposées, on peut en arriver à l'indice de lumination.
L'indice de lumination (noté IL en français et EV en anglais) sert à caractériser la quantité de lumière issue d'une scène. Il peut se déterminer de deux manières : soit en mesurant la quantité de lumière incidente (qui éclaire le sujet), soit en mesurant la quantité de lumière réfléchie (qui repart en direction de l'appareil photo).
Dans les deux cas la formule est la même, excepté une constante, et elle permet de placer l'indice de lumination sur une échelle logarithmique.

Cette échelle, dont on a déjà parlé, revenait en quelque sorte à transformer un nombre en un autre représentant son nombre de zéros. Mille correspondait à 3, cent à 2 et ainsi de suite. Ceci était l'échelle logarithmique de base 10. Dix car ajouter 1 correspondait à multiplier par 10.
L'indice de lumination est représenté sur une échelle logarithmique de base 2. Donc ajouter 1 correspond à multiplier par 2.
Lorsqu'on dit qu'une image est exposée à +1IL par rapport à une autre, cela signifie qu'elle a reçu deux fois plus de lumière (ou que la surface fixatrice était deux fois plus sensible). Et lorsqu'on dit qu'une image est exposée à -1IL, c'est qu'elle a reçu deux fois moins de lumière.
Il existe également des demi et tiers d'IL, ils correspondent respectivement au facteurs racine carré de 2 environ égal à 1,44 et racine cubique de 2 environ égal à 1,26.

Pour obtenir cette échelle à partir de la luminance perçue (mesurée au niveau de l'appareil photo donc), on applique la formule suivante : IL = log2(L/0,3K)
Le terme L représente la luminance en candela/m², et le terme K est une constante qui dépend de la référence que l'on adopte (hé oui, dire qu'une photo est exposée à +0 IL est très subjectif!). Une valeur adoptée par certains photomètres est 11,4.

Pour obtenir l'indice de lumination à partir de l'éclairement (relatif à la lumière incidente au sujet et donc mesuré au niveau de celui-ci), on applique la formule suivante : IL = log2(E/0,3C)
Le terme E représente l'éclairement en lux et le terme C la constante de calibration du photomètre. Tout comme K, cette constante est subjective et dépend beaucoup de la nature du sujet car on a mesuré ici la lumière qui éclaire notre sujet, et pas celle qui atteint l'appareil photo. Une valeur de C adoptée par certains photomètre est 224.

Les deux formules de calcul de l'indice de lumination données ci-dessus sont presque identiques. On peut alors se demande à quoi corresponde le rapport C/K. (Source: Light meter, From Wikipedia)

Si on se souvient du calcul de la luminance de la feuille de papier exposée au soleil, on comprend que ce rapport doit avoir un lien avec le nombre Pi. Cependant 224/11,4 est égal à 6,25 fois le nombre Pi. Pourquoi?
C'est ici qu'intervient l'objectivité du réglage du photomètre. Ce facteur signifie que l'on considère que notre sujet renvoi 6,25 fois moins de lumière qu'il n'en a reçu, soit 16%. Cette valeur a été retenue car elle est proche de la moyenne des sujets que les photographes prennent en photo, mais elle sera trop forte dans le cas du portrait d'une personne noir et trop faibles si c'est une mariée en robe blanche.

Méthode de calcul du temps d'exposition (Lien)
Source: The Pumpkin, a library of selected writings of Douglas A. Kerr
La méthode APEX tient son nom de "Additive System for Photographic Exposure" car elle repose sur une formule toute simple mais incroyablement utile:

Av + Tv = Bv + Sv

Mais que veulent dire ces quatre termes?
Vous vous en doutez peut-être, mais ce sont toutes des grandeur logarithmiques (par rapport aux grandeurs physiques).

Av est l'"Aperture value", ou valeur d'ouverture. On a vu que le nombre d'ouverture était une surface reportée à une unité de longueur focale : f/D, Av est cette même valeur reportée sur une échelle logarithmique, soit : Av = 2 log2(f/D)
f/D c'est le nombre d'ouverture, ok. Log2 c'est pour avoir une échelle logarithmique en base 2, d'accord. Mais pourquoi on multiplie par 2? Parce que f/D est homogène à une longueur, et que lorsqu'on double une longueur, la surface (et donc le flux lumineux) est multiplié par 4 (le carré de 2).
Prenez un carré de 1m de coté. Son aire est de 1m².
Agrandissez votre carré pour qu'il fasse 2m de coté. Son aire est maintenant de 2x2=4m².
Comme la quantité de lumière qui passe au travers du trou du diaphragme est proportionnel à l'air de celui-ci (c'est du pur bon sens), alors doubler son diamètre (donc le nombre d'ouverture) reviens à multiplier par 4 la quantité de lumière, d'où le facteur 2 devant le logarithme.
Dernier détail avant de passer au terme suivant : Où est la touche log2 sur la calculatrice? Nulle part. Le logarithme de base N se calcul de la façon suivante à partir du logarithme de base e (noté ln) : LogN x = ln x / ln N.
Par exemple : pour f/2.8, on a Av = 2 Log2(f/D) = 2 Log2(2,8) = 2 * 1,485 = 2,97

Tv est la "Time value", ou temps d'exposition. Lui aussi sur une échelle logarithmique de base 2.
Sa valeur est l'opposé sur logarithme de la durée d'exposition.
Par exemple : pour 1/8s, on a Tv = -Log2(1/8) = -Log2(0,125) = -(-3) = 3

Sv est la "Speed value", ou sensibilité de la surface fixatrice. Également sur une échelle logarithmique de base 2, Sv est égal à Log2(S/3,125) où S est la sensibilité en nombre ISO.
Par exemple : pour 100ISO, on a Sv = Log2(100/3,125) = Log2(32) = 5

Bv est la "Brightness value", ou valeur de luminosité. Elle correspond à l'indice de lumination dont on a parlé dans la partie précédente. Pour rappel, on peut la calculer à partir de la luminance:
Bv=log2(L/0,3K) avec L en candela/m² et K=11,4 (pour certains photomètres)
Ou de l'éclairement incident du sujet. Dans ce cas le terme de la formule APEX n'est plus noté Bv mais Iv pour "Incident value":
Iv=log2(E/0,3C) avec E en lux et C=224 (pour certains photomètres)

De nos jours, la formule APEX n'est plus utile du fait de la performance des mesures automatiques d'exposition faite par les appareils photos, ainsi que de la possibilité qu'offre le numérique de voir et de refaire le cliché immédiatement.
Cependant, une information importante est à retenir de cette formule : Av possède, contrairement à Tv et Sv un facteur 2 devant le Log. Ceci signifie que si on double le temps de pause ou la sensibilité, on gagnera +1IL, mais si on double l'ouverture, on en gagnera 2.
C'est pour cette raison que l'ouverture maximum qu'un objectif peut atteindre est si important pour pouvoir photographier en faible lumière. Ces 2IL sont tout spécialement important quand on doit faire le choix entre un objectif à focale fixe qui ouvre jusqu'à f1.4 et un zoom qui ne peut atteindre que f2.8, d'autant plus que le premier et généralement moins cher que le second.

Pour terminer, je vais lever le voile sur quelque chose qui est peut-être un mystère pour certains : 1, 1.1, 1.2, 1.4, 1.6, 1.8, 2, 2.2, 2.5, 2.8, 3.2, 3.5, 4, 4.5, 5, 5.6, 6.3, 7.1, 8... ça vous dit quelque chose? Certes, mais pourquoi ces nombres?
La réponse se trouve dans les puissances de 2. On vient de voir que doubler la quantité de lumière c'est gagner 1IL, et que doubler l'ouverture permet de gagner 2IL. Les nombres d'ouverture ont donc été choisis en tenant compte de ce phénomène. Arbitrairement, et sûrement parce que l'on s'est rendu compte que cela suffisait, les IL on été divisés en trois, donc les nombres d'ouverture en 6. Ainsi, on aura 6 crans de réglage pour passer d'un nombre d'ouverture à son double. Mais comment faire pour que cette échelle soit homogène sur ces six crans? On multiplie par 2/6 à chaque fois? Non, parce que (2/6)^6 ça ne fait pas 2, or on a vu que tout était question de rapport de multiplication en ce qui concerne la lumière. En revanche (2^(1/6))^6 ça fait bien 2. L'échelle des nombres d'ouverture est donc une progression de facteur 2^(1/6)=1.122462...
Pour construire cette échelle, on part donc de 1 et on multiplie à chaque fois par ce nombre. On trouve alors, à un arrondi près, la suite des nombres d'ouverture.
Fidèle à la méthode APEX, les temps de pause et les ISO suivent (presque) cette même progression. Je dis presque parce que dans le cas des ISO, l'argentique héritant l'ISO de la pellicule, pas besoin d'avoir des tiers d'IL, donc les valeurs ISO vont simplement de double en double en partant de 100 : 200, 400, 800, 1600, 3200.
Pour les temps de pause en revanche, on a bien les tiers d'IL à partir de 1 seconde, soit 1 seconde, 1/2^(1/3)=0.8, 1/(2^(1/3)^2)=0.6 seconde, 1/(2^(1/3)^3)=0.5 seconde et ainsi de suite.
En fait, les valeurs de diaphragme et de temps de pause se compensent, si on augmente d'un cran la valeur d'ouverture, on peut le compenser en réduisant d'un cran le temps de pause. Pour cette raison, les photographes parlent souvent de "diaph" en parlant d'exposition. Par exemple: "entre le visage et le décor j'ai deux diaph". Ceci veut dire que la différence de quantité de lumière entre celle provenant du visage et celle du décor est de deux fois un tiers d'IL, soit un rapport de (2^(1/3))^2=1.5874. Avec l'expérience, on peut alors mettre en place les éclairages de la scène qu'on photographie et avoir une idée du résultat uniquement en mesurant le nombre de "diaph" de différence que l'on a entre toutes les parties de la future image, un peu comme un musicien a une idée d'une mélodie en lisant des notes sur une portée.