Mots d'images

ma non tropo


Attention, ce jeu (est-ce un jeu ?) n’est pas forcément drôle, car il peut vous révéler de piètres performances visuelles... et si vous vous occupez d’images cela pourrait vous déstabiliser. C’est donc non sans une légère appréhension que je m’y suis attaqué : 0 faute, ouf ! Je ne suis pas condamné au noir/blanc pour le restant de mes jours ;-) Il s’agit de déplacer les carrés de couleurs, dans chaque bandeau, pour les ranger en dégradé entre les deux couleurs de référence qui sont fixées à chaque extrémité des bandeaux. Allez-y... mais ne venez pas pleurer après en disant que votre écran est tout pourri et qu’il était mal réglé ;-)
(Via The Online Photographer)

Pour en savoir plus, on lira utilement :
Notions de base sur la couleur, dont la conclusion est : « ...Tout ce processus naturel, massivement parallèle est difficilement reproductible par des moyens artificiels. Ceci fait donc la différence entre les hommes et les ordinateurs. Pourtant, l’avantage des systèmes automatique d’analyse de la couleur est la reproductibilité et l’objectivité des mesures. En effet, chaque individu étant unique, son interprétation de la couleur est également unique. De plus, le système visuel n’est pas exempt d’erreur : le daltonisme, résultat d’une mutation, montre la vulnérabilité de la physiologie humaine. Mais finalement, ce que nous définissons comme "voir" est en fait une construction du cerveau : la mémoire et "l’apprentissage" jouent un rôle majeur dans la vision. Ceci suscite une question importante d’ordre philosophique : qu’est-ce vraiment que la couleur ? »
• Le toujours excellent site dédié à la couleur : pourpre.com

Béat Brüsch, le 6 octobre 2008 à 13.00 h
Mots-clés: formation , technologie
Commentaires: 0

Je reprends une illusion d’optique, bien connue, due à Edward H. Adelson, car elle met en lumière certains effets du contraste local. Cette illusion illustre parfaitement le fait que notre système visuel est bien plus sensible à la valeur relative de la luminosité qu’à sa valeur absolue, comme je l’expliquais dans mon précédent article sur le contraste local. Autrement dit - et c’est E.H. Adelson qui le relève - notre oeil serait un bien mauvais posemètre ! En effet, pour bien comprendre la nature des objets qui nous entourent, notre système visuel doit pouvoir interpréter subtilement les différences de luminosité, même si cela doit se faire au détriment d’une mesure correcte de la luminosité absolue.
Dans l’image ci-dessous, les 2 carrés A et B nous apparaissent chacun d’un gris bien différencié de l’autre...

En réalité, ils sont exactement du même gris !!
Tout le monde est surpris et reste sceptique à cet énoncé. Passez la souris sur l’image pour voir l’évidence : les 2 bandes verticales ajoutées sont du même gris que les 2 carrés et prouvent qu’ils sont bien de la même couleur. Mais comment cela se fait-ce ? E.H. Adelson nous fournit des explications (que j’adapte librement) :
Pour déterminer la nature des objets observés, notre système visuel ne peut se contenter de mesurer leur luminance. Dans notre exemple, une ombre portée modifie la valeur de gris réfléchie par certains carrés du damier. Le système visuel utilise plusieurs stratégies pour compenser cet effet :
• Une première approche est basée sur le contraste local (le revoilà). Chaque carré est comparé à ses voisins immédiats. Un carré entouré d’autres plus foncés est jugé « blanc », alors qu’un autre, entouré de carrés clairs est jugé « noir ». Et cela qu’il y ait une ombre portée ou pas.
• Le système visuel tend à ignorer les changements graduels de luminosité (celle de l’ombre portée), lui préférant les limites nettes (celle des carrés). Les ombres ayant souvent des bords flous, leur perception est de ce fait diminuée au profit du dessin précis des carrés. Ici, l’effet d’ombre portée est d’autant mieux perçu que l’objet qui le produit est visible dans l’image.
• Le damier est reconnu comme un ensemble géométrique où 2 tons différents alternent régulièrement. La couleur de chaque carré est prévisible et ne saurait donc « mentir ».

Cela doit nous rendre attentifs à la construction des images et à leur fonctionnement qui peut parfois nous échapper. Je ne parle évidemment pas, ici, de la portée conceptuelle ou métaphorique des images, mais de la perception primaire des « objets » qu’elles sont sensées représenter. Une représentation dénuée d’ambiguïtés dans la forme me semble un prérequis nécessaire pour qu’une image puisse délivrer son fond. (À moins que l’ambiguïté ne soit expressément recherchée ! Mais cela ne me semble pas toujours être le cas ;-)

Edward H. Adelson est Professor of Vision Science - Dept. of Brain and Cognitive Sciences - Massachusetts Institute of Technology (MIT). Il présente ici son illusion d’optique. Sur ce document (Lightness Perception and Lightness Illusions) il nous expose en détail et à l’aide de nombreuses illusions d’optique sa théorie de la perception de la luminance. Si vous avez aimé cela, vous trouverez d’autres illusions d’optique ici. Et si décidément l’été se fait pluvieux, en voici d’autres encore.

PS 1 : Les sceptiques qui n’en croient toujours pas leurs yeux - il en reste, je le sais ! - sont en général les mêmes qui ne croient pas que la lune a le même diamètre à son lever qu’au plus haut dans le ciel... (Tentative de) persuasion ici.

PS 2 : Dans ce billet, je vous ai parlé de 2 carrés et vous avez très bien compris que je désignais en réalité des parallélogrammes qu’on peut voir sur l’image... Autre exemple de l’interprétation que nous faisons de ce que nous voyons ;-)

Béat Brüsch, le 6 juillet 2008 à 16.30 h
Mots-clés: archétype , numérique , technologie
Commentaires: 0
et son influence sur nos archétypes esthétiques

La technique façonne le média. En photo argentique, de nombreux artefacts provoqués par des caractéristiques ou des limitations techniques sont devenus des archétypes esthétiques (grain, flou, déformations optiques, etc). Avec les techniques numériques - en grande rupture par rapport aux argentiques - nos canons esthétiques seront immanquablement modifiés, poussés par des particularités techniques jamais encore appliquées. Parmi celles qui ont déjà un impact, il faut relever les techniques qui sont liées au contraste local.

Le contraste local est une notion utilisée depuis longtemps par les chercheurs en perception visuelle. Ses données sont analysées et prises en compte en tant que paramètres dans l’élaboration de différentes théories scientifiques ayant trait à la vision. [1]

Ici, cette notion nous permettra surtout de mieux comprendre certaines différences entre nos perceptions visuelles et ce que peut recueillir un capteur photographique, que celui-ci soit argentique ou numérique. Avant les traitements numériques, elle n’avait jamais trouvé de réelle application pour l’élaboration des images. Chez les photographes, ce n’est que fortuitement que son principe a été appelé en renfort pour expliciter le résultat de quelques bidouillages ! Mais, commençons par le début...

Tout le monde sait ce qu’est un contraste : dans le monde visuel, c’est le rapport entre des zones claires et des zones sombres. La juxtaposition de noir et de blanc provoque, par exemple un fort contraste, alors que celle de deux gris moyens offre plutôt un faible contraste. Notre oeil distingue bien évidemment ces contrastes, mais il a une manière particulière de les appréhender. Faut-il redire qu’à la différence d’un appareil photo, notre oeil (et le cerveau qui lui est lié) opère des interprétations de ce qu’il voit ? L’appareil photo, lui, capture des images, d’une manière qu’on peut qualifier de « mécaniquement objective », ne seraient ses défauts techniques inhérents, par ailleurs connus et prévisibles.

L’étendue des tons - du plus sombre au plus clair - visibles dans la nature est très large. Notre oeil peut capter cette gamme dans son intégralité, mais dans certaines conditions seulement : il ne peut la couvrir de façon détaillée en un seul regard. Par contre, en fixant des zones différentes, la pupille s’adapte à la luminosité de ces zones et laisse passer des informations spécifiques. Par exemple, éblouis par un ciel clair nous ne percevons pas les détails dans les ombres. Mais si nous dirigeons notre regard vers ces ombres nous pouvons en distinguer certains. Pour bien le constater, exagérons cet effet en tenant devant nous un carton noir percé d’un trou (voir simulation ci-dessous en passant la souris sur l’image). Le carton, en occultant la forte luminosité du ciel, permet à l’oeil (à l’iris) de s’adapter à la luminosité plus faible des ombres.

Le phénomène se produit également dans des conditions normales (sans utiliser ce carton noir), mais dans des proportions moindres, car la vision périphérique prend en compte la luminosité de tout notre champ de vision. Notre oeil, en déplaçant son regard, non content d’adapter constamment sa focale, s’adapte aussi à la luminosité de la zone qu’il fixe, nous permettant ainsi de discerner des détails (voir simulation dans l’image ci-dessous en passant la souris sur l’image). L’effet n’est évidemment pas ressenti comme sur cet exemple, car notre cerveau - merveille de la nature - retraite ces informations morcelées et nous fait croire à la continuité de ce que nous voyons. Mais si nous avions un cerveau moins perfectionné, nous pourrions bien le ressentir comme cela ;-)

La grande gamme dynamique disponible est donc constituée d’une infinité de tons intermédiaires que nous ne discernons pas immédiatement. Quand notre regard se déplace, notre oeil ne fait rien d’autre que de tenter d’isoler une zone du reste du champ de vision. En faisant cela, il sélectionne une partie seulement de la gamme des tons disponibles. Mais dans cette gamme réduite, qui occupe ainsi tout son champ d’analyse, et cela grâce à de nouvelles conditions de luminosité, des tons intermédiaires se révèlent. De nouvelles conditions de contrastes, différentes de celles qui affectent l’ensemble du champ de vision, sont ressenties par notre système de vision. On les appelle des « contrastes locaux », par opposition au contraste « global », que nous connaissons tous. L’ensemble de ces mesures ponctuelles nous permet ainsi d’appréhender, au fur et à mesure, toute l’étendue et tous les détails de la gamme dynamique.

Le graphique ci-dessus montre à sa manière le phénomène d’augmentation du nombre de tons intermédiaires - Attention : ce dessin n’a rien de scientifique, il tente juste de traduire un « ressenti ».
• 1 : gamme de 26 niveaux de gris (remarquez au passage combien votre écran a déjà du mal à les afficher tous !).
• 2 : augmentation du nombre de tons intermédiaires par rapport à une certaine partie de la gamme dynamique (dans les tons foncés et dans les tons clairs). On remarque que, dans la direction des tons moyens (vers le milieu de la gamme), il y a une « création exagérée » de nouvelles nuances.

En photo, les choses se présentent d’une manière fort différente. Un capteur numérique n’est pas capable d’enregistrer toute l’étendue de la gamme dynamique [2] !. Pire, nos dispositifs de visionnage sont très limités et ne permettent souvent pas de voir l’intégralité de la gamme enregistrée par le capteur. Un bon écran d’ordinateur n’est capable, en théorie, d’afficher que 256 niveaux de gris. (Les blancs de la nature sont infiniment plus blancs que ceux de vos écrans ! - même remarque pour les noirs.) Et cela se gâte sérieusement si nous voulons imprimer une image : pour l’offset, environ 90 niveaux de gris. Comme nous voulons tout de même voir les extrêmes (les noirs et les blancs) la gamme affichée entre ces deux pôles manque de nuances : beaucoup de valeurs intermédiaires sont tout bonnement absentes. Sans autre intervention, les images présentent alors souvent des noirs « bouchés » et des blancs « brûlés ». On peut certes corriger sommairement ces défauts à la prise de vue en privilégiant, par exemple, les tons foncés, mais c’est alors les tons clairs qui en pâtissent et vice versa. Dans nos logiciels, on peut aussi, dans certaines limites, reproduire les vieilles recettes du labo argentique en jouant de la « maquillette »... C’est à dire, en sur-exposant certaines zones et en sous-exposant d’autres. Mais ces effets sont limités.

La grande différence entre une reproduction photographique et la vision directe de la même scène est que, sur la photo, toutes les informations sont figées (vous vous en doutiez, mais à ce point de l’exercice il est important de le souligner !). Notre oeil a donc beau chercher, même en s’y arrêtant avec insistance, il ne trouvera rien de plus dans les différentes zones de l’image que ce que montre l’écran ou l’imprimé.

Nous savons que le capteur a enregistré plus de niveaux de gris que les 256 que nous pouvons afficher (au mieux). De nombreuses techniques numériques, de plus en plus sophistiquées, ont été développées pour faire « remonter » ces informations et les rendre visibles tout en tenant compte des piètres performances de nos dispositifs de visionnage. L’une des premières, très simple et très efficace, a été « découverte » -comme le relate Michael H. Reichmann (en 2003) sur son site Luminous Landscape - par Thomas Knoll (qui n’est autre que l’inventeur de Photoshop). Le plus étonnant est que la technique est basée sur l’utilisation détournée d’un filtre « classique » du logiciel !

Dans mon billet sur la netteté des images je montrais comment on leurrait notre regard en augmentant le contraste des pixels sur les contours des objets. Cela se fait (sur Photoshop) à l’aide du filtre Accentuation [3]. Ce filtre détecte les contours et leur ajoute du contraste sur une zone (un halo) qui peut s’étendre, de chaque côté du contour, de 1 à ... disons 3 pixels. (On peut évidemment y régler d’autres paramètres que je n’aborderai pas ici, c’est déjà assez pénible pour les technophobes ;-). Certains bidouilleurs (au rang desquels je n’oserais ranger Thomas Knoll - mais pour moi le terme n’est pas infamant) ont remarqué que ce petit halo, utile pour améliorer la netteté, pouvait être élargi jusqu’à des valeurs de 50 ou 100 pixels et produire des effets spectaculaires. [4] Quand l’augmentation du contraste est appliquée sur une si large étendue, le logiciel « remonte » des informations sur les tons intermédiaires qui n’étaient pas affichés avant. Ci-dessous : l’image entière à laquelle a été appliqué ce procédé (passer la souris...)

De fait, une photo traitée de cette manière, présente en continu et en permanence, tous les détails que l’oeil devrait « fabriquer » s’il était en condition de vision directe de la même scène. Ce n’est donc qu’une tentative d’« imitation de la réalité » de plus ! Une image, quoi ;-) L’effet obtenu, si la correction est appliquée modérément, nous fait ressentir l’image comme nettoyée, désembuée. Un peu comme nous pouvons le voir dans un ciel de traine, après que l’atmosphère ait été nettoyée par d’abondantes pluies. Notre cerveau, cherchant dans sa panoplie des possibles, trouve là probablement, un élément d’explication...

Précisons qu’il n’y a pas plus de niveaux de gris sur une image de ce type. On « se débrouille » avec ceux que l’on a, mais on les redispose d’une manière « plus profitable ». Et ça marche, car notre oeil est plus sensible à la valeur relative de la luminosité qu’à sa valeur absolue. Remarquons que sur les images, le contraste « local » n’est pas plus une vision idéalisée que le contraste « global ». Aucune de ces visions des contrastes ne correspond vraiment au monde tel qu’on peut le voir en direct. Tout au plus, peut-on affirmer que le contraste « local » tend à nous rapprocher un peu plus d’une bonne description de la « réalité » (et encore !).

Les images ci-dessous (oui, avec la souris...) permettent de comparer les différences entre le contraste « global » et le contraste « local »...

Comparaison original > contraste global

Comparaison original > contraste local

Comparaison contraste global > contraste local

Il est clair que pour obtenir une bonne image il conviendrait de jouer des 2 effets, mais ce n’est pas le but de cet exercice ;-)

Ces résultats ont (probablement) motivé la recherche d’autres possibilités logicielles permettant d’exploiter une plus grande dynamique des tons. Plusieurs nouvelles fonctionnalités allant dans ce sens ont ainsi vu le jour dans nos programmes d’imagerie en proposant des réglages à la fois plus ciblés, plus intuitifs et plus puissants. [5]

Sur cette image (oui la souris...) on observe bien ce fonctionnement de « révélation » de nouveaux contrastes locaux. Remarquez que les bords de l’ombre de l’arbre (p. ex. sur le chemin) ne changent pratiquement pas. Tout se passe à l’intérieur de la partie ombrée.

Voilà pour les prodiges de la technique. Si je vous impose ces laborieuses explications, ce n’est pas juste pour nous émerveiller des beautés de la nature et du génie humain ! Mais c’est que ces nouvelles possibilités vont avoir (et ont déjà) des influences sur l’apparence des images. À cet instant, il n’est pas possible de préjuger de l’étendue des modifications que vont engendrer ces technologies. Mais il me parait utile de pouvoir déjà noter le phénomène, l’identifier, le reconnaitre. Il faut souligner ici, que les modifications qu’opèrent ces technologies sur les images sont véritablement innovantes, en ce sens qu’elles n’avaient jamais pu être réalisées auparavant en argentique.

Nous avons tous, peu ou prou, une culture imagière basée sur la somme des images que nous avons vues. Par exemple, nous nous sommes tous habitués à ces clairs-obscurs - chers aux peintres de la renaissance - que la photo s’est en quelque sorte réappropriés, aidée en cela par des contraintes techniques intrinsèques. Ces noirs profonds dessinant de belles compositions graphiques et masquant les détails à notre regard - les transformant en autant de mystères - sont devenus des éléments constitutifs de nos canons esthétiques. Va-t-on, parce que la technique le permet, remplir ces ombres de détails ? Allons-nous compter toutes les feuilles des arbres ? Les ciels sereins de nos photos, vont-ils systématiquement présenter des visions d’orages apocalyptiques ? Bref, comment notre culture visuelle va-t-elle intégrer ces changements ?

Dans une vision optimiste, on peut penser que pour les domaines de l’expression personnelle (de l’art !) ces nouvelles perspectives apportent un plus riche potentiel de créativité. Mais en parallèle, il faut s’attendre aussi à tout autant d’excès mal venus (selon Audiard, il y en a « qui osent tout » ;-) Cela reste évidemment très subjectif, car, sous l’empire des archétypes esthétiques d’aujourd’hui, nous ne pouvons préjuger de ceux de demain.

Dans une perspective utilitariste, il faut reconnaitre qu’appliquées avec mesure, ces techniques peuvent apporter leur lot d’enrichissements visuels en révélant sur une image bien plus de détails qu’on pouvait en espérer avant. Les documentaristes apprécieront. Mais gare aux illusions : trop d’informations noient l’information ! La multiplication d’éléments anecdotiques peut agir comme un élément perturbateur de l’expressivité des images. La profusion de détails va-t-elle devenir un artefact constitutif de l’esthétique de nos photos ? Je vous laisse imaginer ce que ces techniques, appliquées sans discernement à des visages, peuvent y révéler de détails qu’on cherche d’ordinaire à cacher...

Dans l’image ci-dessous (la souris... pfhh), on peut se demander ce qu’apporte le débouchage des noirs... Les botanistes y verront peut-être des éléments dignes d’intérêt, mais je ne suis pas sûr que tout le monde y trouve son compte...

Ma vraie crainte est la généralisation de ces technologies dans des processus automatiques ignorés et ingérables par les utilisateurs (dans des appareils compacts, imprimantes, labos de tirages papier, etc). Après avoir vu débarquer des fonctions telles que la reconnaissance des visages ou la détection des sourires, il ne faut plus s’étonner de rien : la standardisation est en marche ! En vieux con pessimiste - ayant connu la vie ante-digitale - je constate que sur le fond, la standardisation (celle qui nivelle toujours par le bas !) intervient quasi automatiquement dans les réalisations résultant des activités « d’avant » dont s’empare l’informatique. C’est un de ses effets collatéraux majeurs qui est souvent masqué par la brillance des technologies et leur démocratisation. Mais peut-être que cette standardisation permettra justement à des auteurs intelligents, cultivés, habiles et créatifs d’en émerger... Que ces derniers utilisent alors, ou non, ces nouvelles technologies est une question secondaire.

Notes:

[1] Quelques éléments d’intérêt :
Contrast and visibility / Rapport CIE 95, 1992 / Roland Brémond : « La première étape de traitement de l’information visuelle a lieu avant les récepteurs photosensibles de la rétine : la lumière incidente traverse une couche de cellules, de taille importante par rapport à l’espacement entre les cônes de la rétine, et qui participent à l’extraction de détails fins. Ce processus reste mystérieux. »
Nous voilà bien avancés ;-)
Quelques traitements bas niveau basés sur une analyse du contraste local / A. Le Negrate, A. Beghadi, K. Boussaïd-Belkacem : « Ce traitement a pour effet de déplacer le niveau de gris du pixel d’une quantité proportionnelle à l’écart par rapport au niveau de gris moyen des contours. Notons qu’un pixel appartenant au contour n’est pas modifié. Il s’agit donc d’une transformation bidirectionnelle. Ceci a pour conséquence immédiate de renforcer le contraste tout en préservant la position des pixels des contours. »
On voit ici que bien avant que la pratique ne se répande chez les photographes, des chercheurs s’étaient penchés (1989) sur ce type de traitement...
Wikibooks : Photographie / 14 - Netteté des images photographiques / L’œil et la perception de la netteté : « La perception d’un fin détail dépend en fait au moins autant, sinon plus, du contraste local et de la netteté de ses bords que de ses dimensions. Placé à 1 m d’une surface blanche bien éclairée, l’œil « normal » y distinguera sûrement un point noir de 0,25 mm de diamètre mais pas une chiure de mouche jaune pâle de 1 mm de diamètre, pourtant beaucoup plus grande. »

[2] Pour un écran standard, la gamme dynamique a un rapport de 256:1 (en 8 bits, donc en noir/blanc). En couleurs, chaque canal étant codé sur 8 bits nous obtenons 256 x 256 x 256 = 16 millions de couleurs. Mais cela ne change rien au problème de fond : la luminosité n’a toujours que 256 niveaux. (Nous pouvons le constater si nous passons en mode Lab.) Certains APN, en format Raw, codent les informations jusqu’à 14 bits et peuvent théoriquement capter une gamme dynamique allant jusqu’à 16364:1. Mais la gamme dynamique des scènes réelles est encore beaucoup plus étendue : un paysage ensoleillé peut offrir un rapport de 100’000:1, voire plus

[3] Mal nommé en anglais : Unsharp Filter

[4] Il semblerait donc qu’une fois de plus, la sérendipité - qui aurait déjà valu à Daguerre une découverte importante dans la mise au point du daguerréotype - soit à l’origine de nouvelles percées techniques dans le monde de la photographie...

[5] La commande « Tons foncés/Tons clairs » de Photoshop (utilisée dans la plupart des exemples de cette page) va dans ce sens et exige déjà un certain doigté pour ne pas tomber dans l’excès, comme je l’ai fait pour bien le montrer. DxO Optics Pro, de son côté, propose des traitements pouvant avoir des effets pour le moins spectaculaires, avec le défaut - à mon avis - qu’ils font partie des réglages standards que peu de gens vont désactiver, ou du moins tempérer. D’autres techniques, par exemple la HDR (High Dynamic Range), sur laquelle nous reviendrons, peuvent produire des résultats proprement hallucinants, capables de bousculer gravement nos habitudes visuelles.
NB : Sur tous les exemples de ce billet, les procédés ont été appliqués sur l’image entière. Il est bien évident que, pour obtenir des résultats optimaux, on peut les appliquer (ou pas, ou de manière différenciée) sur des zones choisies. Certains logiciels (Nikon Capture) sont d’ailleurs axés sur cette particularité.

Béat Brüsch, le 24 juin 2008 à 01.35 h
Mots-clés: archétype , esthétique , numérique , technologie
Commentaires: 8

Note à l’attention des pros : ne vous attardez pas sur ce billet, il s’adresse à un public pas forcément pratiquant et se cantonne donc à des généralités forcément réductrices. Le but n’est pas ici de donner des modes d’emploi (de nombreux sites font cela très bien) mais de tenter d’expliquer quelques principes de base.


Avec le numérique, on croit souvent que la netteté des photos ne dépend que des conditions de prise de vue. Une bonne mise au point sur un sujet immobile, avec une vitesse d’obturation élevée et une profondeur de champ confortable ne sont malheureusement pas suffisants pour garantir la parfaite netteté d’une photo en toute circonstance.
Nos yeux nous font voir les différences de tons et les variations de couleurs en « tons continus ». Lorsque des photons arrivent sur un capteur numérique, ils sont analysés (par un logiciel) et transformés en une grille de pixels. Chaque pixel n’affiche qu’une seule couleur représentant la moyenne de la petite partie de réel qu’il est chargé de représenter. Il s’ensuit que cette belle continuité des tons est brisée. Ce n’est qu’avec des pixels très petits que nous pouvons voir des tons continus, mais c’est une illusion. En réalité, une (petite) partie de l’information a déjà été perdue et ce n’est que la première cause de perte de netteté. D’autres suivront à chaque fois que l’image est recalculée, par exemple, pour un changement de dimensions (rééchantillonnage) ou lors d’une préparation à l’impression. Chaque fois qu’un pixel est « créé » (par un logiciel) il est le résultat d’une moyenne de ce qui était visible précédemment.

Passer la souris sur l’image

Comme on peut le voir dans l’exemple exagéré ci-dessus, de faire des moyennes provoque fatalement une certaine dilution des valeurs de couleurs (dans les cas graves, on parle même de bouillie de pixels ;-) Si cet « appauvrissement » ne se voit pas trop dans les tons à peu près similaires, il est par contre très visible là où les contrastes sont plus marqués. Très concrètement, une image se compose essentiellement de surfaces, plus ou moins bien délimitées par leurs contours. Ce sont surtout ces contours qui permettent à nos yeux de discerner les objets. Les contours sont les zones les plus contrastées d’une image, c’est à dire, les endroits de l’image où on trouve des pixels voisins très différents les uns des autres. (Bonjour M. de La Palice ;-) Dès lors, si ces contrastes s’atténuent, nous obtenons une impression de flou et notre perception de la présence des objets en est diminuée (Re-bonjour ;-) pouvant aller jusqu’à un déficit du crédit accordé à l’image.
Pour compenser ces effets indésirables, il faut mettre en oeuvre des techniques dites d’accentuation.
Les amateurs utilisant des appareils compacts ne s’aperçoivent pratiquement pas de ces phénomènes, car l’accentuation est intégrée aux automatismes de leur appareil. Ultérieurement, en procédant à des tirages papier, de nouvelles accentuations spécifiques sont appliquées automatiquement, soit par l’imprimante, soit par les labos. Ces corrections sont en général proprement réalisées et servent tout autant à compenser les défauts inhérents au procédé utilisé qu’à produire des images techniquement flatteuses. (Le petit problème est que, à moins d’une extrême sophistication logicielle, ces corrections s’appliquent de façon uniforme à toutes les sortes d’images.) Il en va tout autrement pour les professionnels et pour les amateurs avertis. Sur les appareils reflex, le logiciel interne permet de choisir différents types de corrections (dont l’accentuation) voire même de les désactiver. Certains reporters photographes (actualités, sports, etc) opérant avec la contrainte de délais urgents choisissent d’activer de nombreux réglages internes pour pouvoir livrer rapidement des photos d’une qualité très satisfaisante. Ces réglages sont calculés par le processeur de l’APN et appliqués avant l’enregistrement de l’image. Pour qui entend optimiser plus finement son travail, il existe de nombreuses autres possibilités, à commencer par la désactivation des réglages internes de l’appareil. Cela autorise un contrôle très fin, en postproduction, sur de nombreux paramètres de l’image, dont la netteté.
Comment fait-on des images plus nettes ? (Précisons d’emblée que la question est mal posée. On ne peut pas créer des détails qui ne figurent pas dans l’image. Il n’est possible que de compenser les pertes de netteté évoquées plus haut en jouant sur des illusions.) Quelle que soit la manière, automatique ou « à la main », le principe est le même. Nous avons vu que la cause du flou est le fait d’une diminution du contraste des pixels délimitant les surfaces des objets. C’est donc là qu’il faut agir. Il est aisé pour un logiciel d’imagerie de détecter ces contours « fautifs », même si leur contraste s’est un peu dilué. Ces zones étant repérées, il ne reste alors plus qu’à en renforcer (accentuer) le contraste.

Passer la souris sur l’image

On peut constater sur l’agrandissement ci-dessus que ce contraste est même exagéré : on voit non seulement un renforcement des tons foncés autour des objets foncés, mais aussi un liseré blanc au bord des surfaces claires. Rien de cela n’existe dans la nature ! Mais sur l’image ramenée à la bonne échelle (voir plus bas), l’effet fonctionne parfaitement. Nous voici donc pris en flagrant délit d’altération des pixels... et cela juste pour rendre l’image plus lisible !
Voilà pour le principe, car il faut évidemment doser ces effets - il y a plusieurs paramètres disponibles pour cela. Les différents choix sont tributaires des dimensions de la photo et du média destiné à l’afficher. On n’appliquera pas les mêmes réglages à une image paraissant sur le web qu’à une autre destinée à être imprimée. (Ici interviennent également des questions de résolution que nous aborderons une autre fois...) De plus, il y a un facteur humain qu’aucun automatisme ne pourra remplacer, consistant à faire des choix créatifs dépendant du contenu de l’image et de ce qu’on veut exprimer. Ajoutons que pour une préparation à l’impression, l’écran ne permet pas de voir l’effet final. Pour réussir cela, il faut du feeling et de l’expérience.
Comme rien n’est simple, il faut encore compter avec différents effets indésirables qui peuvent survenir durant ces procédés. Le plus ennuyeux est que le logiciel risque bien de prendre pour des contours (à renforcer) d’autres ensembles de pixels contrastés. En première ligne de ces artefacts, nous trouvons le bruit (grain numérique) qui, s’il est présent, n’en deviendra que plus accentué, provoquant un effet désastreux. On mentionnera aussi les rides et petits défauts des visages, qu’on ne souhaite, en général, pas souligner outre mesure !
Il existe heureusement différentes techniques pour limiter cet effet pervers. Certaines sont appliquées automatiquement par les logiciels d’imagerie alors que d’autres peuvent être plus complexes à mettre en oeuvre, allant jusqu’à devoir être réalisées « à la main » !

Effet d'accentuation en ménageant ou non le bruit
Effet d’accentuation en ménageant ou non le bruit

Passer la souris sur l’image

Ces techniques sont souvent inspirées de celle du masque flou, déjà utilisée en photo argentique. (Signalons qu’en argentique les problèmes ne se posent pas dans les mêmes termes. De plus, chaque tirage papier étant réalisé à partir du même film, les défauts résultant de l’addition de traitements successifs ne surviennent pas. Mais dès que l’image est scannée, elle devient numérique (!) et répond à ces normes là. Les images scannées destinées à l’imprimerie subissaient déjà des traitements d’accentuation bien avant l’arrivée des premiers appareils numériques.)

Image dont sont tirés les exemples de ce billet
Image dont sont tirés les exemples de ce billet

Passer la souris sur l’image - © Béat Brüsch

Une bonne accentuation ne devrait pas se voir ! Ici, elle est un peu exagérée pour la démonstration ;-) (le détail agrandi de l’échafaudage vu plus haut provient de ce jeu de photos, sans autre modification que l’agrandissement)

Si la netteté est souvent une qualité première pour l’expressivité des photos, il faut bien admettre aussi que le flou peut en être une autre. On pensera avant tout aux zones floues induites par la profondeur de champ qui, souvent, nous font paraitre plus nets qu’ils ne le sont, les objets qui s’en détachent. Mais nous touchons là encore à un autre chapitre...

Les pros, en particulier ceux chargés de la publication, connaissent le livre de référence qui consacre pas moins de 277 pages au sujet de ce billet : « Netteté et accentuation avec Photoshop CS2 » - Bruce Fraser - Eyrolles

Béat Brüsch, le 30 avril 2008 à 15.15 h
Mots-clés: impression , technologie
Commentaires: 0

Les amateurs de beaux livres de photos noir/blanc ignorent parfois qu’il faut plusieurs couleurs pour faire du noir. Alors que nos écrans permettent d’afficher jusqu’à 256 niveaux de gris pour une photo en noir/blanc, une presse offset ne peut rendre qu’environ 50 niveaux de gris. Les photos reproduites avec cette seule couleur noire paraissent donc un peu grossières par rapport à l’original. Cette gamme de tons réduite ne laisse guère de choix à l’imprimeur : soit il privilégie de beaux noirs, soit il opte pour de beaux gris moyens ou encore de beaux blancs, chaque option se faisant au détriment des autres. Pour mieux rendre justice à l’infinité des tons de gris présents à l’origine, on a recours au procédé duotone (bichromie, en français).
L’astuce consiste à imprimer la photo en 2 couleurs, en répartissant judicieusement les niveaux de gris entre les 2 couleurs utilisées. La photo noir/blanc de départ est décomposée en 2 documents traités de manière différente :
• Pour le premier, on privilégie toutes les nuances des tons clairs en laissant les tons foncés peu différenciés. On imprime cette version avec une encre de couleur grise [1], généralement un gris « chaud ».
• Pour le deuxième, on ne garde que de légères nuances dans les tons clairs, alors que les tons foncés sont bien détaillés. Et c’est, bien sûr, la couleur noire qu’on imprime avec cette version. On obtient ainsi une image avec une étendue de gris bien plus grande. Du fait de l’utilisation d’un gris teinté, il se produit de subtiles différences de couleurs entre les gris clairs et les gris foncés. Le passage en couleur grise permet de retrouver des gris très clairs, qui ne seraient pratiquement pas reproductibles en dessous de 10% avec du noir seul. Le chevauchement des 2 couleurs donne quant à lui, une belle densité aux tons sombres. Mais regardons un exemple... (on peut cliquer sur chaque photo pour l’agrandir dans un popup.)

JPEG - 202.6 ko
Ci-dessus, la photo originale en noir/blanc.

Je n’ai malheureusement pas réussi à simuler de façon crédible, une image en 50 niveaux de gris, telle qu’elle serait reproduite sur du papier. Cette image est donc mieux rendue, du point de vue du nombre de niveaux de gris, qu’elle le serait sur papier.

JPEG - 104.6 ko
Le document pour le gris.

Les tons clairs sont privilégiés. On garde la couleur dans les tons foncés pour « soutenir » le noir.

JPEG - 223.1 ko
Le document pour le noir.

Les tons foncés servent surtout à souligner les détails, même dans les tons relativement clairs. Il y a, quantitativement, moins de noir que sur le document original.

JPEG - 204.4 ko
La superposition des 2 documents précédents donne une photo en duotone.

(Comme dit plus haut, la différence n’est pas criante sur un écran. Mais si vous ne voyez pas de différences, réglez votre écran ou changez-le ;-)

Le même duotone...
Le même duotone...

...passez la souris sur l’image pour comparer avec le document noir/blanc original.

Le mieux serait évidemment de (re)voir cela sur vos livres de photo. Par exemple, vous possédez sûrement des livres de la collection PhotoPoche•ActeSud. Les volumes imprimés en duotone y sont signalés en 4e de couverture. Vous constaterez que certains (probablement les plus anciens) ne sont pas en duotone. Comparez. Une manière de détecter le procédé est d’utiliser un compte-fil, ou une loupe à très fort grossissement, qui vous aident à distinguer les points de trame de 2 couleurs différentes. On peut évidemment étendre le procédé en réalisant des tritones et quadtones (trichromies et quadrichromies). C’est très raffiné, plus rare et ... plus cher ! De nombreux livres de photos noir/blanc sont réalisés en duotones. Le procédé s’applique aussi bien aux photos de provenance numérique qu’argentique (les argentiques sont de toute façon numérisées pour être imprimées).

On peut évidemment, pour d’autres besoins éditoriaux, réaliser des assemblages de couleurs plus « violents » dont les effets recherchés seront autres que d’augmenter le nombre de niveaux de gris.

Notes:

[1] La couleur du gris. Certains se demandent pourquoi on choisit généralement un gris chaud comme 2e couleur au lieu d’un gris neutre... Il existe bien une définition scientifique du gris neutre, mais celle-ci ne reste valable que dans des conditions précises d’éclairage. La couleur semble différente, dès que ces conditions changent. Ajoutez à cela les subjectivités de nos regards respectifs et vous comprendrez que la définition d’un gris neutre reste une gageure. Dès lors, puisqu’il faut faire des choix, c’est un gris chaud qui est souvent retenu, non seulement parce qu’il est plus flatteur pour l’oeil, mais surtout, parce qu’il correspond bien aux tons des tirages papier argentiques dont nous avons l’habitude.

Béat Brüsch, le 28 janvier 2008 à 16.20 h
Mots-clés: graphisme , impression , technologie
Commentaires: 3
0 | 5