Gérer les hautes sensibilités n’est pas la chose la plus facile à réaliser en photo ! Pour y parvenir, il est utile, voire nécessaire, de procéder à quelques rappels.

Nota : le terme « sensibilité » doit s’entendre par « sensibilité à la lumière ».

 

 

Les hautes sensibilités en photo argentique

À l’époque argentique, les pellicules les plus utilisées, en négatif couleur, avaient une sensibilité nominale comprise entre 100 et 400 ASA (voir ci-après pour ce qui est des normes). On trouvait aussi d’autres valeurs (800 ASA).

Pour ce qui est du noir et blanc, cela différait un peu : 125 ASA par exemple. Ilford plafonnait à 400. Jusqu’à ce que Kodak sorte la TMAX 1000 à grain ultra fin. On pouvait trouver aussi des pellicules allant jusqu’à 6400 ASA. Mais elles étaient rarissimes et chères, et, de ce fait, réservées aux professionnels.

Ce ne sont là que des exemples, d’autres valeurs intermédiaires ayant pu exister.

En film inversible (diapositives), les sensibilités courantes allaient de 25 ASA (Kodachrome25), à 50 à 100 ASA (Fuij Velvia). Plus tard elles ont monté jusqu’à 400 ASA. C’est ainsi qu’on trouvait des émulsions, comme on disait, de sensibilité 64 ASA et 160 en Tungstène, pour lumière artificielle (Ektachrome). Mais les premiers Kodachrome, en 1935, avaient une sensibilité de… 10 ASA seulement !

 

 

Les normes de sensibilité

Rappelons, pour la clarté du sujet qu’il a existé 3 normes principales pour estimer la sensibilité des films, chronologiquement :

  • La norme DIN, d’origine allemande (Deutsches Institut für Normung)
  • La norme ASA, édictée par l’American Standard Association
  • Enfin la norme ISO (International Standard Organisation) devenue universelle et désormais reconnue de tous.

 

 

La gestion des hautes sensibilités en argentique

En pratique, on considérait que les hautes sensibilités commençaient à 400 ASA.

Quand on avait besoin de plus de sensibilité, c’était délicat, car on ne pouvait pas changer de film facilement ! Donc on « poussait » la pellicule lors du développement, pour simuler une montée en sensibilité. Avec un résultat très lié au savoir-faire de l’opérateur et… à la tolérance des films et aux possibilités des produits chimiques utilisés ! Mais cela se traduisait souvent par ce que l’on appelait « le grain », cette sorte de granulation bien visible sur les épreuves papier notamment. Ou alors, on « simulait » une sensibilité différente par affichage sur l’appareil photo.

Ainsi, si l’on avait une pellicule de 100 ASA, on pouvait « dire » à l’appareil qu’elle était de 200 ASA, ce qui conduisait la cellule à calculer une exposition pour 200 ASA, donc avec une sous-exposition d’un diaphragme. Mais il fallait alors, sur les appareils qui en étaient dotés, inhiber le réglage automatique lié au « codage DX » (ces appareils « lisaient » la sensibilité de la pellicule grâce au code graphique indiqué sur la bobine). Pour en savoir plus sur le codage DX, ce site vous donnera des indications utiles.

 

Pellicules Kodak
Par Daniel* D — Travail personnel, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=48159461

 

 

 

Les hautes sensibilités en photo numérique

En numérique, pas de pellicule ! À la place, un capteur. Pourtant, on retrouve le fameux triptyque de l’exposition : vitesse/ouverture/sensibilité. Avec cependant un énorme avantage : on peut changer la sensibilité à chaque vue si on le juge utile, sauf bien entendu en mode rafale. De plus, chez Pentax, certains modes de prise de vue (Sv, TAv) font la part belle à la sensibilité !

Au début de l’ère numérique, le « progrès » était matérialisé par une augmentation continue du nombre de pixels sur les capteurs. Cette « course » à la définition s’est considérablement ralentie. Ce ralentissement est dû en grande partie à la difficulté à gérer des pixels trop nombreux, en tous cas pour les applications photographiques des amateurs. Chacun sait en effet que ce n’est pas le nombre de mégapixels qui fait à lui seul la qualité et/ou l’intérêt d’une photo.

Avec les derniers APN, la course semble se faire sur les ISO, la sensibilité, donc ! Certains constructeurs annoncent des sensibilités dépassant largement le million d’unités d’ISO.

 

 

Quelques boîtiers Pentax

Nous ne nous attacherons, dans cet article, qu’à ce que Pentax propose dans ce domaine. Qu’on en juge par ce tableau.

APNAnnée de lancementSensibilité maximaleMegapixels
*IstD20033 2006,1
K10D20071 60010,2
K20D20086 40014,6
K-5 (K-5II, K-5IIs)2010 (2012)51 20016,3
K-3 (K-3II)2013 (2015)51 20024,3
K-702016102 40024,2
K-12016204 80036,4
KP2017819 20024,3

 

Est-il vraiment utile de préciser que ces valeurs de sensibilité sont des valeurs extrêmes et qu’en pratique on ne les utilise jamais ? Ou, si on les utilise, c’est alors parce que l’on veut vraiment faire la photo sans trop se soucier du résultat. Car il est clair qu’à ces valeurs – et même si l’appareil est réputé bon en montée ISO – le résultat sera franchement peu montrable. Même après avoir passé l’image dans un logiciel de débruitage.

 

 

Qu’appelle-t-on « hautes sensibilités » en photo numérique ?

Tout d’abord, chacun sait que si l’on photographie en hautes sensibilités, on gagne en vitesse d’obturation pour une ouverture donnée, ce qui limitera les risques de flou de bougé. À condition d’accepter le bruit, « pendant » numérique du grain argentique (voir ci-après).

Dès lors que les valeurs extrêmes ci-dessus sont « hors usage » (et non hors d’usage !), la haute sensibilité différera selon les capteurs et les APN.

Globalement, en numérique, on peut considérer que les hautes sensibilités débutent à 800 ISO. C’est déjà deux fois plus important qu’en argentique.

A ces sensibilités, les images sont souvent affectées de ce que l’on appelle « le bruit numérique ». En argentique, on appelait cela « le grain ».

 

 

« Grain », « bruit » : même combat ?

En argentique, le grain – et sa visibilité sur les tirages – est étroitement lié à la pellicule utilisée. S’il est très fin sur les pellicules peu ou moyennement sensibles (jusqu’à 100/200 ASA), il devient plus grossier et donc nettement plus visible sur les pellicules plus sensibles (400 ASA et au delà). Lors du traitement chimique, le révélateur – qui porte bien son nom – révèle les amas d’halogénures d’argent du film utilisé. C’est cela qui est appelé « le grain », ces amas, et non les grains d’argent eux-mêmes.

En numérique, il en va différemment, mais pour des résultats sinon identiques, du moins visuellement comparables.

Le bruit numérique est la conséquence d’informations parasites qui sont dues à un déficit de lumière dans certaines zones de l’image, plus particulièrement dans les à-plats de couleur. Il peut tout aussi bien s’agir de couleurs sombres comme le ciel la nuit, ou de couleurs claires comme ce même ciel de jour. Cela se traduit par la présence – plus ou moins importante – de pixels colorés (souvent en rouge – bruit de chrominance -) parmi les pixels qui composent normalement l’image. Parfois, lorsque l’image présente un aspect granuleux mais sans couleur dominante , on dit alors qu’elle présente un « bruit de luminance ». Ce « bruit numérique » s’amplifie au fur et à mesure que l’on utilise une sensibilité élevée, justement à cause du manque de lumière.

L’un comme l’autre peuvent être corrigés en post-traitement, dans des proportions variables.

 

 

Conditions de la prise de vue

Le tableau ci-après montre l’évolution du grain au fur et à mesure de l’élévation de la sensibilité.

La « scène » a été prise en intérieur, en conditions de lumière naturelle (sans précaution particulière). Le matériel utilisé est un Pentax K-1 avec un zoom Pentax D FA 24-70mm f/2.8, sur trépied. Le déclenchement a été opéré avec un smartphone, en mode wifi, au moyen de l’application Image Sync. Ainsi, seule la sensibilité a été changée (au moyen du logiciel) d’une image à l’autre. La mise au point (AF-S) n’a pas été modifiée.

Ces images n’ont subi aucun post-traitement : elles ont seulement été exportées en Jpeg, redimensionnées et un filigrane et des commentaires y ont été apposés.

On constate une montée progressive du bruit de 400 à 12800 ISO, beaucoup plus nette et brutale à partir de 25600 ISO. Convenons, cependant, qu’aucune pellicule argentique n’aurait donné d’aussi bons résultats à ces sensibilités, même avec un travail de laboratoire soigné.

Sensibilité ISOImages entièresExtraits 100%
400
800
1600
3200
6400
12800
25600
51200
102400
204800

 

 

Les sensibilités dans les boîtiers numériques Pentax
Sur les anciens boîtiers

Notre tableau ci-dessus fait apparaître une « curiosité » : la sensibilité maximale de l’*IstD est deux fois supérieure à celle de son illustre successeur, le K10D. Cela ne signifie pas qu’il présentait de ce point de vue un avantage sur le K10 ! Les images prises à ces sensibilités étaient difficilement exploitables ! Du reste, le K10D avait la réputation, malgré ses qualités, de mal accepter les valeurs supérieures à 400 ISO.

Pentax K-10D, 1/15s à f/6.3, ISO 800

Pentax K-10D, 1/15s à f/6.3, ISO 800 (© fyve)

 

De la même manière, Le K20D puis le K-7 offraient une sensibilité maximale de 6 400 ISO : tous les observateurs s’accordaient à dire que la qualité des images produites à ces sensibilités élevées constituait le point faible de ces boîtiers.

De fait, c’est avec le Kx, puis le K-5 que les choses se sont très nettement améliorées. En effet, si la sensibilité maximale (51 200 ISO) est assez irréaliste, les images produites à 3 200 ISO voire, dans certaines situations à 6 400 ISO, sont tout à fait acceptables. Un très gros travail effectué dans l’électronique et le changement de capteur (passage d’un Samsung à un Sony, plus réputé) ont considérablement changé la donne.

Pentax K-5, 1/45s à f/3.5, ISO 3200

Pentax K-5, 1/45s à f/3.5, ISO 3200 (© fyve)

 

 

Sur les boîtiers les plus récents

Exception faite du K-3, dont beaucoup affirment qu’il gère moins bien les hautes sensibilités que le K-5, les boîtiers les plus récents ont placé la barre encore plus haut.

Que ce soit le K-70, le KP ou le K-1, ces boîtiers – et surtout les deux derniers – offrent de bien meilleurs résultats ! Les photos à 6 400 ISO deviennent tout à fait possibles, tant que l’on n’agrandit pas trop les images. Nos tests, à cet égard, illustrent assez bien cet état de choses :

  • S’agissant du KP, les images proposées (jusqu’à 25 600 ISO) parlent d’elles-mêmes !
  • Pour le K-1, plus raisonnable en termes de sensibilité maximale (mais n’oublions pas que c’est un capteur FF et non un APS-C comme le KP), on obtient des images très regardables à 40 000 ISO

 

Et il ne faut pas perdre de vue que ces images n’ont subi aucun Post-Traitement autre que l’enregistrement en JPEG et un redimensionnement.

La norme internationale ISO 12232 : 2006 spécifie la définition de la sensibilité en matière photographique. Nos lecteurs peuvent s’y reporter. Notons cependant que seule est accessible gratuitement la partie « informative ». La partie technique, quant à elle, est payante et c’est elle qui, bien sûr, comporte les informations les plus intéressantes.

 

 

Images et sensibilité

On sait que lorsque la lumière est faible et, par nature, insuffisante pour une exposition correcte, le photographe n’a que 3 solutions :

  • Augmenter l’ouverture de diaphragme pour laisser entrer davantage de photons
  • Augmenter le temps de pose de manière à laisser entrer la lumière plus longtemps
  • Modifier le réglage de la sensibilité afin de rendre le capteur plus sensible à la lumière qu’il reçoit.

Il ne faut pas perdre de vue que, lorsque l’on double le chiffre de la sensibilité (par exemple passer de 100 ISO à 200 ISO), on obtient le même résultat, en termes d’exposition, que si l’on ouvrait le diaphragme d’une valeur entière (par exemple en passant de f/5.6 à f/4) ou qu’on multipliait par deux le temps de pose (en passant par exemple de 1/125s à 1/60s). Nous disons bien « en termes d’exposition », car bien sûr, le résultat final peut être très différent selon la solution retenue. Ce sont là les fondamentaux de la photo, nous n’y reviendrons pas dans ce dossier.

 

 

Comment gérer la sensibilité ?

Ce que font les fabricants

S’il existait une réponse unique, les fabricants l’auraient sans doute déjà automatisée, par conséquent la question ne se poserait pas. Sauf pour parfaire sa culture photographique. Ils ont déjà fait un travail considérable dans l’atténuation du bruit numérique. Après un renforcement du traitement du signal analogique, d’autres voies possibles ont été explorées avec un certain succès.

Ce sont tout d’abord (aucune chronologie dans nos propos) les fabricants de capteurs qui ont amélioré les choses : en diminuant la consommation électrique du capteur, on réduit aussi son échauffement. Or c’est précisément cet échauffement qui est à l’origine d’une grande partie du bruit numérique.

Les fabricants d’APN, quant à eux, ont très largement amélioré les algorithmes de traitement du signal. Ceci vous explique (parfois) la parution de nouveaux firmwares dont le but n’est pas de seulement corriger des dysfonctionnements éventuels. On peut penser que lorsque ces fabricants indiquent « improved stability for general performances » (amélioration des performances générales), la qualité d’image n’est pas étrangère à leurs préoccupations ! Ce n’est pas toujours flagrant, certes, mais les progrès s’obtiennent en multipliant les « petits pas ».

D’autres moyens sont également de nature à diminuer le bruit, notamment en abaissant le microcontraste des pixels « bruités ». Sur certains boîtiers (K-70 chez Pentax, mais pas seulement), l’adjonction de puces dédiées au traitement du bruit permet aussi des progrès dans les JPEG produits par le boîtier.

 

 

Ce que doit faire le photographe

Plus on agrandit une image, plus le bruit est visible. Si vous avez la curiosité de regarder une image prise à 12800 ISO sur l’écran de votre reflex, sans l’agrandir, il y a peu de chance qu’apparaisse du bruit. Normal : l’image n’a que de faibles dimensions. En revanche, si vous la regardez à sa taille 100 % sur l’écran de votre ordinateur, le bruit sera bien visible. Et ce sera aussi le cas si vous imprimez votre image en grand format (au-delà du A3 notamment).

Dès lors, plutôt que d’attendre d’hypothétiques miracles de votre logiciel de débruitage, préférez agir dès la prise de vue, si c’est possible, bien entendu !

 

 

À la prise de vue

Chacun sait que les meilleurs résultats en termes de qualité d’image (toutes choses égales par ailleurs !) sont obtenus aux plus basses sensibilités. Même si les capteurs sont généralement conçus pour offrir leurs meilleures performances à 200 ISO, les images prises à 100 ISO (voire moins pour les boîtiers qui le permettent) apparaissent légèrement meilleures. Regrettons, à cet égard, que les sensibilités inférieures à 100 ISO n’existent plus chez Pentax : la série des K-5 est la dernière à proposer une sensibilité de 80 ISO. Dans d’autres marques, on trouve parfois, mais rarement, 50 ISO.

Dès lors, prendre ses photos à la plus basse sensibilité admissible compte tenu des conditions de lumière est une bonne solution.

À défaut, nous conseillons de monter progressivement l’échelle des ISO jusqu’à trouver « l’équilibre » ouverture/vitesse/sensibilité adapté au sujet et… aux capacités du photographe. C’est assez rapide quand on se connaît un peu !

 

 

Au-delà de 800 ISO

Nous avons dit plus haut que, globalement, les hautes sensibilités en numérique commencent à 800 ISO. Cette sensibilité est généralement bien gérée par les boîtiers actuels. De toute manière, si vous développez » vous-même vos images prises en RAW, vous pourrez intervenir sur le traitement du bruit éventuel.

Au-delà de 1600 ISO, les choses peuvent se compliquer très rapidement, malgré les progrès des capteurs, selon les conditions de prise de vue.

Autant que possible, évitez de shooter si les conditions de lumière sont trop mauvaises : la montée en ISO amènera inéluctablement, à un degré ou à un autre, une montée du bruit, surtout dans les zones les plus sombres. C’est à vous, photographe, de savoir ce que vous êtes prêt à admettre comme quantité de bruit. Étant précisé, bien sûr, qu’une image est destinée en principe à être montrée à des personnes n’ayant pas obligatoirement les mêmes critères.

Agrandissement à 100% d'une image à fort contraste

Agrandissement à 100% d’une image à fort contraste – Pentax K-1, 1/125s à f/2.8, ISO 12800 (©fyve)

 

Évitez aussi, si c’est possible, les forts contrastes. Une source de lumière relativement importante dans un environnement globalement sombre générera un bruit non négligeable.

 

 

Quelques solutions

Si, malgré tout, vous tenez à faire la photo, n’oubliez pas que diverses solutions vous permettront de limiter la montée du bruit :

  • Augmentez le temps de pose (par exemple passer de 1/125s à 1s), mais cela impose des précautions pour éviter le flou de bougé (trépied, par exemple). Cependant, cela ne vous garantit pas contre le flou de mouvement du sujet. À utiliser, donc, selon le cas de figure.
  • Diminuer la valeur de diaphragme (donc augmenter l’ouverture) en passant, par exemple de f/8 à f/2.8 : attention aux effets sur la profondeur de champ.
  • Éclairer davantage le sujet ou la scène photographiée. Ce n’est pas toujours possible, mais si vous pouvez maîtriser cet aspect de la prise de vue, ne vous en privez pas !
  • Dans certains cas, vous pourrez aussi peut-être jouer sur la surexposition, qui pourra être corrigée en Post-Traitement si vous êtes resté raisonnable. Cela signifie « exposer à droite » : l’histogramme montre les plus grandes valeurs d’intensité lumineuse à droite où se situent les pixels les plus clairs. Mais cela demande du doigté, car si vous surexposez trop, le Post-Traitement ne pourra rien faire pour améliorer l’image.

 

Toutes ces solutions ont en commun le fait qu’il s’agit d’augmenter la quantité de lumière qui atteindra le capteur

N’oubliez pas qu’il n’existe pas de solution universelle et/ou idéale : chacune a ses avantages et ses inconvénients. Gérer les hautes sensibilités présente encore des difficultés. L’important est de savoir les utiliser à bon escient et de savoir les post-traiter dans le cas où elles auront généré du bruit numérique.

 

Les actions en Post-Traitement

Ce sont celles que l’on utilise quand la prise de vue a généré plus de bruit qu’escompté.

 

Celles qui sont à éviter

Par principe, supposons que vous partez d’un fichier RAW.

S’il est bruité, soyez particulièrement vigilant et, surtout, « léger » sur les curseurs de votre logiciel favori de Post-Traitement.

  • Le curseur « clarté » : son but est d’apporter du micro contraste (et donc de la netteté), mais si vous poussez trop les curseurs, vous allez accentuer le bruit.
  • Avec le curseur « netteté » : c’est encore pire !
  • Même punition avec le curseur « contraste ».

 

 

Ce que vous pouvez faire

Dès lors, quelle est la solution ? Il vous reste, en pareil cas, à espérer diminuer le bruit au moyen du curseur correspondant. Mais attention aussi à ne pas aller trop loin, vous risqueriez de donner à votre image un aspect « plastique » du plus mauvais effet.

Si votre image ne présente pas (ou pas trop) de bruit, n’en ajoutez surtout pas ! Pour cela, évitez les actions sur les curseurs cités plus haut, ou alors agissez avec beaucoup de prudence en ayant « la main légère ».

Cet article n’étant pas consacré au traitement du bruit, nous n’irons pas plus avant dans le Post-Traitement d’images à hautes sensibilités.

 

Pour rappel, voici quelques-uns de nos articles ayant évoqué les hautes sensibilités sur les derniers boîtiers Pentax :

 

Nota : L’image de titre est issue d’un fichier RAW pris au K-1 à 51200 ISO, simplement exporté en JPEG et redimensionné, sans Post-Traitement.