NextPit

Le faux zoom optique x2 sur un smartphone, c'est vraiment utile?

camera sensor
© atdigit/Shutterstock.com, NextPit

Apple, Google et Xiaomi se sont mis à la mode des zoom optiques x2. Ces grossissements sont obtenus en recadrant une photo grand-angle prise en pleine résolution. Une astuce permise par les plus grandes résolutions de 48, 100 ou 200 MP que peuvent atteindre certains objectifs photo. Mais est-ce que c'est vraiment utile ou simplement un énième élément markéting bidon?

La course folle aux mégapixels va reprendre en 2022. Après le lancement du premier smartphone avec un objectif de 108 MP fin 2019, la barre des 200 MP a été atteinte ce mois-ci avec les Motorola Edge 30 Ultra et Xiaomi 12T Pro. Et même l'iPhone 14 Pro est passé cette année à un capteur principal de 48 MP, ce qui est inédit chez Apple. Mais le vrai intérêt des capteurs à plus haute résolution réside surtout dans la qualité du zoom.

Blick auf die Kamerasektion des iPhone 14 Pro Max
L'iPhone 14 Pro (Max) est le premier iPhone à disposer d'une caméra de 48 MP. Est-ce bien raisonnable? / © NextPit

Comment fonctionne le zoom x2 de l'iPhone 14 Pro?

Contrairement aux appareils photo numériques classiques, la grande majorité des smartphones ne disposent pas, pour des raisons d'encombrement, d'objectifs de zoom qui permettent de modifier la distance focale en déplaçant les lentilles. Au lieu de cela, ils disposent de leurs propres capteurs pour les différents niveaux de zoom. Sur l'iPhone 14 Pro, il s'agit d'un objectif ultra-grand angle (x0,5), d'un grand angle (x1) et d'un téléobjectif (x3).

Lorsque l'on zoome dans l'application Appareil photo, le smartphone zoome numériquement dans l'image d'un objectif jusqu'à ce que le zoom de l'objectif suivant soit atteint et commute ensuite. La qualité diminue naturellement avec l'augmentation du zoom numérique. Le degré de diminution dépend de chaque objectif.

iPhone 14 Pro Sensorgrößen im Vergleich
Voici une comparaison des tailles effectives des capteurs de l'iPhone 14 Pro / © NextPit

L'objectif principal de l'iPhone 14 Pro est un capteur d'image de 1/1,28 pouce, mesurant 9,8 par 7,3 mm. La résolution est de 48 MP. Avec le zoom x2, Apple découpe simplement une section de 12 MP au milieu du capteur, qui mesure 4,9 par 3,7 mm et correspond donc à peu près au format 1/3 de pouce. D'un point de vue mathématique, ces conditions sont suffisantes pour avoir des photos correctes dans de bonnes conditions d'éclairage.

Au zoom x3, Apple passe ensuite au téléobjectif de 12 MP (qui a en fait un zoom x3,2 avec une distance focale équivalente de 77 mm). Avec un format de 1/3,5 pouce, soit 4,0 par 3,0 mm, le capteur est à nouveau un peu plus petit que le "capteur x2" découpé au centre de la caméra principale.

Le graphique ci-dessous montre la surface du capteur du module photo des iPhone 14 Pro et iPhone 13 Pro pour les différentes distances focales. Tout à gauche, en bordure, on commence avec l'ultra-grand angle (13 mm). Avec l'objectif principal (équivalent 24 mm), il y a ensuite un net saut vers le haut. Jusqu'au téléobjectif (équivalent 77 mm), l'iPhone 14 Pro a toujours plus de surface de capteur à disposition que l'iPhone 13 Pro. Enfin, le téléobjectif est identique.

Sensorgrößen von iPhone 14 Pro und iPhone 13 Pro im Vergleich
Vous pouvez voir ici quelle est la surface de capteur de l'appareil photo de l'iPhone 14 Pro et de l'iPhone 13 Pro à quelle distance focale. / © NextPit

Le graphique ci-dessus est également intéressant, mais avec des mégapixels au lieu de la surface du capteur sur l'axe vertical. Alors que l'évolution est identique pour l'ultra-grand angle et le téléobjectif avec 12 MP chacun, le saut à 48 MP se fait nettement sentir. L'iPhone 14 Pro a clairement plus de réserves de résolution lors du zoom numérique entre le x1 et le x3,2.

iPhone 14 Pro und iPhone 13 Pro hinsichtlich Auflösung im Vergleich
L'iPhone 14 Pro a également nettement plus de réserves en matière de résolution / © NextPit

Qu'en est-il de la taille et la résolution?

L'iPhone 14 Pro dont il a été question jusqu'à présent n'est même pas le smartphone avec la plus haute résolution ou le plus grand capteur. La semaine dernière, Xiaomi a lancé le Xiaomi 12T Pro, qui est équipé d'un capteur de 200 MP et a complètement renoncé au téléobjectif. Mais quelle marge de manœuvre supplémentaire offre un tel nombre de mégapixels pour le zoom numérique? Voyons cela en comparaison avec l'iPhone 14 Pro:

iPhone 14 Pro und iPhone 13 Pro hinsichtlich Auflösung im Vergleich
L'iPhone 14 Pro a aussi beaucoup plus de réserves en termes de résolution / © NextPit.

Le facteur le plus important, outre la résolution, est toutefois la surface du capteur dont dispose l'objectif pour les différentes focales. Avec une taille de 1/1,22 pouce, l'Isocell HP1 qui équipe le Xiaomi 12T Pro est certes nettement plus grand que l'objectif principal de l'iPhone 14 Pro, mais il perd tout de même en termes de surface de capteur disponible lorsque le smartphone d'Apple passe au téléobjectif:

Sensorgrößen von iPhone 14 Pro und Xiaomi 12T Pro im Vergleich
Le Xiaomi 12T Pro dispose d'une plus grande surface de capteur avec son objectif principal. Toutefois, l'iPhone 14 Pro le dépasse à nouveau avec le téléobjectif. / © NextPit

Et qu'en est-il du Quad-Bayer?

Nous avons mis de côté un facteur: les masques de couleur au-dessus du capteur. Pour expliquer le Quad-Bayer et autres, nous devons d'abord voir comment fonctionnent les capteurs d'image. Un capteur d'image est composé de petits capteurs de lumière qui mesurent uniquement la quantité de lumière incidente sans distinguer les couleurs. Un capteur de 12 MP est égal à 12 millions de capteurs de lumière de ce type.

Pour transformer ce capteur noir et blanc en capteur couleur, un masque de couleur est placé sur le capteur afin de filtrer la lumière incidente en vert, rouge ou bleu. Le masque de Bayer utilisé sur la plupart des capteurs d'images divise toujours deux fois deux pixels en deux pixels verts, un rouge et un bleu. Un capteur de 12 MP possède donc 6 millions de pixels verts et 3 millions de pixels bleus et rouges.

Demosaicing explained
Un capteur Bayer (à gauche) a deux fois plus de pixels verts que de pixels rouges et bleus. Lors du démosaïquage, les lacunes ainsi créées sont comblées et les pixels RGB interpolés / © Sony.

Lors du démosaïquage ou du dé-bayage, les algorithmes de traitement d'image déduisent la valeur RGB de chaque pixel à partir des valeurs de luminosité des pixels environnants de couleur différente. Un pixel vert très clair entouré de pixels bleus et rouges "sombres" devient donc complètement vert. Et un pixel vert à côté de pixels bleus et rouges entièrement exposés devient blanc. Et ainsi de suite, jusqu'à obtenir une image de 12 millions de pixels RVB.

Avec les capteurs à plus haute résolution, le masque de couleurs est toutefois différent. Sur les capteurs dits quadri-bayer, typiquement autour de 50 MP, quatre pixels de luminosité se trouvent sous chaque pixel rouge, vert ou bleu. Les capteurs de 108 MP regroupent même 9 (3x3) pixels sous une surface de couleur, ceux de 200 MP en comptent 16 (4x4). Chez Sony, cela s'appelle la quadruple couche, chez Samsung le tétrapixel, le nonapixel ou le tétra2pixel.

Sony IMX586 Quad-Bayer
Le premier capteur avec un masque Quad-Bayer était le Sony IMX586, montré ici lors de la présentation du OnePlus 7 / © NextPit.

Alors que les capteurs d'image ont donc effectivement une résolution allant jusqu'à 200 MP en ce qui concerne la luminosité, le masque de couleur s'arrête à 12 MP. Ce n'est pas non plus un problème, car dans la perception, la résolution de la luminosité est plus importante que la résolution des couleurs. Néanmoins, avec des zooms numériques extrêmement élevés, la résolution des couleurs finit par diminuer à tel point que des erreurs d'image apparaissent.

À titre d'exemple, nous avons traité ici une photo d'un petit androïde. À gauche (1), vous voyez une image en niveaux de gris, à droite (3) une image RGB avec une résolution divisée par quatre. Nous avons assemblé l'image du milieu à partir des deux images de gauche et de droite et à première vue, le résultat semble très bon. Toutefois, en y regardant de plus près, la transition entre le vert et le bleu au sommet de l'androïde n'est pas nette. Et c'est précisément au niveau de telles transitions que des artefacts apparaissent lorsque l'on zoome trop sur un capteur dont le masque de couleur a une résolution inférieure à celle du capteur lui-même. C'est d'ailleurs probablement pour cette raison que Samsung avait utilisé un capteur de 64 MP avec une matrice RVB atypique pour cette résolution sur son téléobjectif x1,1 tant décrié sur ses Galaxy S20 (Plus) et S21 (Plus).

Farbauflösung vs Helligkeitsauflösung
La résolution de la luminosité est plus importante que la résolution des couleurs: cette image centrale (2) a été générée à partir de l'image noir et blanc à haute résolution (1) et de l'image couleur à basse résolution (3) / © NextPit

En fin de compte, il est difficile de savoir comment se comporte la qualité d'image des objectifs à partir de la fiche technique, d'autant plus que les algorithmes des fabricants jouent un rôle décisif. Le "re-mosaicing" est également un grand défi. En effet, pour les capteurs avec des masques de bayer 2x2, 3x3 ou 4x4, les valeurs chromatiques doivent être interpolées sur des zones de capteur toujours plus grandes et avec une complexité toujours plus grande, contrairement au dé-mosaïquage normal.

D'un autre côté, les capteurs toujours plus grands posent aussi des problèmes. Pour que les objectifs restent compacts, les fabricants doivent utiliser des lentilles qui réfractent la lumière de manière toujours plus extrême, ce qui entraîne des problèmes d'aberrations chromatiques et d'autres artefacts sur les bords de l'image. Et la faible profondeur de champ pose aussi problème en gros plan.

Le suspense reste donc entier et j'espère que vous avez trouvé ce voyage dans le monde des capteurs d'images extrêmement grands et à très haute résolution intéressant. À quoi ressemble le module photo de vos rêves dans un smartphone?

Stefan Möllenhoff

Stefan Möllenhoff

Stefan gathered his first tech journalism experiences in 2004 – and works in this field full-time since 2008. His enthusiasm for everything digital started already in the 80s with a Sharp MZ700. The smartphone enlightenment came 2002 with a Symbian IRC client for his Nokia 7650. Currently, Stefan is sometimes behind the camera, sometimes writing but mainly taking care of organisational aspects at NextPit. Leisure time consists of cooking, fitness, bouldering, running and everything that has to do with AI and the concept of a Singularity.

Voir tous les articles

Articles recommandés

Ce article vous a-t-il plu? N'hésitez pas à le partager!
Rejoignez la discussion maintenant

Derniers Articles

1 commentaire

Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition
Ecrire un nouveau commentaire :
Tous les changements seront sauvegardés. Aucun brouillon n'est enregistré pendant l'édition

  • Serge depuis 2 semaines Lien du commentaire

    Pour moi que le module photo ne dépasse pas du châssis.