Nous utilisons des cookies sur nos sites web. Des informations sur les cookies et sur la manière dont vous pouvez vous opposer à leur utilisation à tout moment ou mettre fin à leur utilisation sont disponibles dans notre Déclaration de protection des données.

Exmor, Isocell: Tout savoir des types de capteurs photo sur smartphone

Exmor, Isocell: Tout savoir des types de capteurs photo sur smartphone

Alors que les fabricants de smartphones s'empressent d'augmenter le nombre de mégapixels dans leurs appareils photo, en vantant des niveaux de zoom fantaisistes, une fonctionnalité bien plus importante des appareils photo reste pourtant trop méconnue: la taille du capteur.

Pourquoi est-ce si important pour la qualité de l'image d'un smartphone photo? La réponse dans cet article, un nouvel épisode de ma série de guides autour de la photo sur smartphone dont vous pouvez retrouver les épisodes précédents ci-dessous.

Accès rapide:

AndroidPIT samsung galaxy s20 ultra review 14
 La tendance des smartphones actuels est à l'augmentation du nombre d'appareils photo, mais aussi à l'utilisation de capteurs d'images de plus en plus grands, ce qui passe relativement inaperçu. / © NextPit

Taille du capteur en pouces: Des tubes analogiques aux puces CMOS

Commençons par quelques informations de base. Dans la plupart des fiches techniques des smartphones, la taille du capteur de l'appareil photo est généralement indiquée en 1/pouce: par exemple 1/1,72 pouce ou 1/2 pouce. Malheureusement, cette taille ne correspond pas à la taille réelle du capteur de votre smartphone.

Jetons un coup d'œil à la fiche technique de l'IMX586 de Sony: un demi-pouce de ce capteur correspondrait en fait à 1,27 centimètre. La taille réelle de l'IMX586 de Sony n'a pas grand chose à voir avec cela, cependant.

Si nous multiplions la taille de 0,8 micron de pixels par la résolution horizontale de 8000 pixels, nous obtenons seulement 6,4 millimètres, soit environ la moitié du nombre. Si nous mesurons d'abord l'horizontale et que nous appliquons ensuite le théorème de Pythagore pour obtenir la mesure diagonale, nous obtenons 8,0 millimètres. Même cela est loin d'être suffisant.

Et voici le nœud du problème: Les personnalisations ont été introduites il y a environ un demi-siècle, lorsque les caméras vidéo utilisaient encore des tubes à vide comme convertisseurs d'images. Les services marketing conservent encore avec beaucoup de vigueur le rapport approximatif entre la surface photosensible et le diamètre du tube de l'époque.

Vladimir Zworykin and historic TV tubes
Les désignations en pouces des capteurs d'images d'aujourd'hui sont issues d'une époque comme celle-ci. Sur l'image: L'inventeur de l'ionoscope, Vladimir K. Zworykin, vers 1954, avec quelques tubes convertisseurs d'images. / © Domaine public

Si vous voulez connaître la taille réelle d'un capteur d'images, consultez la fiche technique du fabricant ou la page détaillée de Wikipedia sur les tailles des capteurs d'images. Vous pouvez aussi suivre l'exemple ci-dessus et multiplier la taille en pixels par la résolution horizontale ou verticale.

Zone effective du capteur: Plus c'est grand, mieux c'est

Pourquoi la taille du capteur est-elle si importante? Imaginez la quantité de lumière qui traverse l'objectif et arrive sur le capteur comme si la pluie tombait du ciel. Vous avez maintenant un dixième de seconde pour estimer la quantité d'eau qui tombe actuellement.

  • Avec un verre à shooter, ce sera relativement difficile pour vous, mais en un dixième de seconde, sous une forte pluie, peut-être que quelques gouttes tomberont dans le verre - avec peu de pluie ou avec un peu de malchance, peut-être pas du tout. Votre estimation sera très imprécise dans un cas comme dans l'autre.
  • Imaginez maintenant que vous avez une pataugeoire pour effectuer la même tâche. Vous pouvez ainsi facilement attraper quelques centaines à quelques milliers de gouttes de pluie, et grâce à la surface, vous pouvez faire une estimation plus précise de la quantité de pluie.

Tout comme pour le verre à shooter, la pataugeoire et la pluie, il en va de même pour la taille des capteurs et la quantité de lumière, qu'elle soit forte ou faible. Plus il fait sombre, moins les convertisseurs de lumière captent de photons - et moins le résultat de la mesure est précis. Ces imprécisions se manifestent ensuite par des erreurs telles que le bruit de l'image, les couleurs, etc.

image sensor sizes
Ce graphique montre certains des formats de capteurs actuellement utilisés dans les smartphones dans une comparaison à l'échelle réelle. / © NextPit

Certes, la différence entre les capteurs d'images des smartphones n'est pas aussi grande que celle qui existe entre un verre à shooter et une pataugeoire. Mais l'IMX586 de Sony mentionné ci-dessus dans le téléobjectif du Samsung Galaxy S20 Ultra est environ quatre fois plus grand en termes de taille de surface que le capteur de 1/4,4 pouces du téléobjectif du Xiaomi Mi Note 10.

Quand il s'agit de zoomer: Le fait que le constructeur inscrive "x100" ou "x10" équivaut en quelque sorte aux chiffres indiqués par le compteur de vitesse d'une voiture. Une VW Golf avec un compteur de vitesse qui atteint 360 km/h n'ira toujours pas plus vite qu'une Ferrari. Toutefois, c'est un sujet qui devrait être abordé dans un autre article.

golf kmh back
Et si la vitesse maximale de la voiture était indiquée à l'arrière? / © Volkswagen, AndroidPIT

Bayer Mask & Co: on prend des couleurs

Revenons sur l'analogie de l'eau vue d'en haut. Si nous placions maintenant une grille de 4000 par 3000 seaux sur une prairie, nous pourrions déterminer avec une résolution de 12 mégapixels la quantité de pluie et probablement prendre une sorte d'image de la saturation en eau du nuage de pluie aérien.

Cependant, si un capteur d'images de 12 mégapixels devait capturer la quantité de lumière avec ses pièges à photons de 4000 sur 3000, la photo résultante serait en noir et blanc - car nous n'avons mesuré que la quantité absolue de lumière. Nous ne pouvons distinguer ni les couleurs ni la taille des gouttes de pluie qui tombent. Comment le noir et blanc finit-il par devenir une photo couleur?

L'astuce consiste à placer un masque de couleur sur le capteur, ce qu'on appelle la matrice Bayer. Cela permet de s'assurer que seule la lumière rouge, bleue ou verte atteint les pixels. Avec la matrice Bayer classique qui a une disposition RGGB, un capteur de 12 mégapixels possède alors six millions de pixels verts et trois millions de pixels rouges et bleus chacun.

bayer pattern rggb ryyb
L'œil humain peut mieux distinguer les tons verts. Il est intéressant de noter que les capteurs d'images des caméras sont également mieux positionnés à cet égard et possèdent deux fois plus de pixels verts que de pixels bleus ou rouges. À droite, vous pouvez voir une matrice RYYB - ici, les pixels verts sont remplacés par des pixels jaunes. / © NextPit

Afin de générer une image de douze millions de pixels RVB à partir de ces données, le traitement de l'image utilise généralement les pixels verts pour le démosaïquage. En utilisant les pixels rouges et bleus environnants, l'algorithme calcule ensuite la valeur RVB de ces pixels - ce qui est une explication très simplifiée.

En pratique, les algorithmes de démosaïquage sont beaucoup plus intelligents, par exemple, pour éviter les franges de couleur sur les bords nets, puis le même principe s'applique aux pixels rouges et bleus, où une photo colorée finit par se retrouver dans la mémoire interne de votre smartphone.

Quadruple Bayer et Tetracell: le pixel binning

Qu'il s'agisse de 48, 64 ou 108 mégapixels, la plupart des capteurs actuels à très haute résolution des smartphones ont une chose en commun: le pixel binning. Alors que le capteur lui-même possède 108 millions de seaux d'eau ou de capteurs de lumière, le masque de Bayer qui se trouve au-dessus a une résolution quatre fois plus faible. Il y a donc quatre pixels sous chaque filtre de couleur.

image sensor pixel sizes quad bayer
Qu'il s'agisse des capteurs Quad-Bayer ou des capteurs Tetracell de Samsung: de plus en plus de capteurs d'images ont quatre pixels partageant un filtre couleur. D'ailleurs, la taille des pixels est relativement insignifiante pour la qualité de l'image. Un capteur minuscule avec quelques pixels mais de grande taille ne prend pas de belles photos. Et un grand capteur peut se permettre de nombreux petits pixels à une résolution gigantesque. / © NextPit

Bien sûr, cela a l'air incroyablement bien quand c'est spécifié sur la fiche technique. Un capteur de 48 mégapixels! 108 mégapixels! Ce ne sont que des chiffres gonflés pour titiller l'imagination. Et quand il fait nuit, les minuscules pixels peuvent être combinés pour former de grands superpixels tout en offrant de superbes photos de nuit.

Paradoxalement, cependant, de nombreux smartphones bon marché n'offrent pas du tout la possibilité de prendre des photos de 48 mégapixels - ou même de fournir une qualité d'image inférieure en comparaison directe lorsqu'ils sont en mode 12 mégapixels.

Dans tous les cas que je connais, les smartphones sont tellement plus lents lorsqu'ils prennent des photos avec une résolution maximale que la légère amélioration de la qualité du cliché ne vaut tout simplement pas le temps passé à le prendre. D'autant plus que 12, 16 ou 27 mégapixels sont tout à fait suffisants pour un usage quotidien et n'épuisent pas la mémoire de votre appareil aussi rapidement.

La plupart de la propagande marketing qui pousse des dizaines de mégapixels peut être ignorée. Mais dans la pratique, les capteurs haute résolution sont en fait plus grands - et la qualité de l'image finit par en tirer des avantages notables.

Le capteur SuperSpectrum de Huawei: le même en jaune

Il existe également quelques dérivés de la matrice de Bayer, l'exemple le plus marquant étant la matrice RYYB de Huawei (voir le graphique ci-dessus), dans laquelle le spectre d'absorption des pixels verts est décalé vers le jaune. Cela présente l'avantage - du moins sur le papier - d'absorber plus de lumière et de faire arriver plus de photons au capteur dans l'obscurité.

quantum efficiency rggb ryyb
Les diagrammes d'efficacité quantique montrent la sensibilité des différents capteurs à la lumière de différentes longueurs d'onde. Dans le cas du capteur RYYB ou RCCB à droite, l'intervalle sous la courbe d'absorption verte ou jaune est donc beaucoup plus grand. Mais les pixels vert-jaune réagissent davantage à la "gamme de fréquences rouge", ce qui rend le démosaïquage plus difficile. / © Société pour la science et la technologie de l'imagerie

Cependant, les longueurs d'onde mesurées par le capteur ne sont plus aussi uniformément réparties dans le spectre et aussi clairement séparées les unes des autres que celles d'un capteur RGGB. Afin de maintenir des niveaux de reproduction des couleurs précis, les exigences imposées aux algorithmes, qui doivent ensuite interpoler les valeurs des couleurs RVB, devront augmenter de manière correspondante.

Il n'est pas possible de prédire quelle approche produira de meilleures photos au final. Cela dépend en grande partie des tests pratiques et de laboratoire qui tendent à prouver que l'une ou l'autre technologie est "meilleure".

En matière de photo: les algorithmes font tout

Enfin, je voudrais dire quelques mots sur les algorithmes. Cela est d'autant plus important à l'ère de la photographie numérique, où le concept de photographie devient flou. Une image composée de douze photographies individuelles est-elle vraiment une photographie au sens premier du terme?

Ce qui est certain, c'est que l'influence des algorithmes de traitement de l'image est bien plus importante que le nombre de bits dans une zone de capteur. Oui, une différence de surface par un facteur de deux fait une grande différence.

Mais un bon algorithme représente aussi beaucoup. Sony, le leader mondial du marché des capteurs, en est un bon exemple. Bien que la plupart des capteurs d'images (du moins sur le plan technologique) viennent du Japon, les smartphones Xperia ont toujours été à la traîne de la concurrence en termes de qualité d'image. 

batch 20190313 143555 side
Deux photos prises avec le Samsung Galaxy S10. A gauche, l'appareil photo de Google a été utilisé, tandis que la droite montre l'application de Samsung. Le mode HDR de Google est supérieur à celui de Samsung. Pas étonnant que de nombreux utilisateurs de smartphones préfèrent l'appareil photo de Google sur leur smartphone. / © NextPit

À ce stade, je voudrais faire une remarque sur la sensibilité de l'ISO. Comme je l'explique dans l'autre épisode de cette série lié en début d'article, ne vous laissez jamais impressionner par les chiffres de l'ISO. Les capteurs d'images ont une seule sensibilité ISO native dans presque tous les cas*, qui est très rarement mentionnée dans les fiches techniques.

Les valeurs ISO qu'on règle pendant le processus de prise de vue en mode manuel ou pro, par exemple, ressemblent plutôt à un gain - un degré de "contrôle de la luminosité". La "longueur" de l'échelle de ce contrôle de la luminosité peut être définie librement, de sorte qu'écrire une valeur comme 409 600 ISO dans la fiche technique a autant de sens qu'avec une VW Golf... eh bien, ne nous aventurons pas sur cette voie.

*Il existe en fait quelques capteurs à double ISO avec deux sensibilités natives sur le marché des appareils photo, comme le Sony IMX689 dans l'Oppo Find X2 Pro, du moins c'est ce que prétend Oppo. Sinon, ce dispositif est plus susceptible d'être trouvé dans des caméras professionnelles comme la BMPCC 6K.

Autofocus: PDAF, 2x2 OCL, c'est quoi? 

Une petite digression à la fin, qui est directement liée au capteur d'image: tout le sujet de l'autofocus. Dans le passé, les smartphones déterminaient la mise au point correcte grâce à l'autofocus par contraste. Il s'agit d'une détection de bord lente et intensive en calcul.

La plupart des capteurs d'images ont désormais intégré un autofocus à comparaison de phase, également connu sous le nom de PDAF. Le PDAF comporte des pixels autofocus spéciaux intégrés au capteur, qui sont divisés en deux moitiés et comparent les phases de la lumière incidente et calculent la distance au sujet.

L'inconvénient de cette technologie est que le capteur d'image est "aveugle" à ces endroits - et cet angle mort de la mise au point peut affecter jusqu'à trois pour cent de la zone, selon le capteur.

AndroidPIT oppo find x2 pro focus speed
L'Oppo Find X2 Pro fait une mise au point incroyablement rapide en mode vidéo grâce à son capteur OCL 2x2. Un autofocus à contraste ne peut que rêver d'une telle vitesse / © NextPit

Juste un rappel: moins de surface se traduit par moins de lumière/eau et par conséquent, une qualité d'image moindre. De plus, les algorithmes doivent retoucher ces défauts tout comme votre cerveau doit comprendre le "blind spot."

Cependant, il existe une approche plus élégante qui ne rend pas les pixels inutilisables. Les micro-lentilles déjà présentes sur le capteur sont réparties sur plusieurs pixels par endroits. Sony, par exemple, appelle cela 2x2 OCL ou 2x1 OCL, selon que les micro-lentilles combinent quatre ou deux pixels.

sony 2x2 ocl
Quatre pixels sous un filtre de couleur dans une microlentille: La technologie 2x2-OCL de Sony transforme tous les pixels en capteurs croisés autofocus. / © Sony

Nous consacrerons bientôt un article distinct et plus détaillé à l'autofocus ainsi qu'aux critères auxquels il faut faire attention avant d'acheter un nouveau smartphone photo? D'ailleurs, n'hésitez pas à nous suggérer sur quels sujets liés à la photo sur smartphones vous aimeriez avoir des guides. J'attends avec impatience vos commentaires!

À lire également sur AndroidPIT France: 

Derniers Articles

Articles recommandés

Pas de commentaire

Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition
Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition