Les capteurs d’image ont un problème d’image : les mégapixels restent l’indicateur le plus important de la qualité d’image et deviennent de moins en moins pertinents avec des pixels de plus en plus petits. La taille du capteur est beaucoup plus importante. Car plus un capteur d’image est grand, plus il capture de lumière. Et plus de lumière sur la puce signifie – pour le dire simplement – moins de sensibilité, moins d’erreurs ou de bruit pendant la lecture, et plus de qualité d’image.

Dans le cas du capteur Samsung Isocell Bright HMX installé dans le Xiaomi Mi Note 10, cette taille de capteur est malheureusement une déception. Malheureusement, parce que la puce photosensible est vraiment très grosse avec  une taille de 1/1,3 pouce. Ce nombre correspond à une surface d’environ 70 millimètres carrés. C’est environ trois fois plus grand que l’IMX 363 de Sony, que Google utilise dans le Pixel 4 (XL), par exemple.

AndroidPIT sensor size comparison
Ce graphique montre le capteur du Google Pixel 4 (XL) et le capteur du Xiaomi Mi Note 10 en comparaison d’échelle. © NextPit Source de l'image : NextPit

Pour l’instant, jusqu’ici, c’est excitant. Avec le réglage par défaut, le Xiaomi Mi Note 10 prend toutes les photos avec 27 mégapixels, il combine donc toujours quatre des petits pixels de 0,8 micron en un pixel de 1,6 micron. Nous en savons déjà assez avec les différents smartphones de 48 mégapixels qui s’enclenchent avec 12 mégapixels en standard. Le capteur isocellulaire développé conjointement par Samsung et Xiaomi s’appelle Tetracell Technology.

Pourquoi ne pas utiliser un capteur de 27 mégapixels tout de suite ?

L’astuce de distiller de la haute à la basse résolution présente des avantages, du moins sur le papier. Pratiquement tous les capteurs d’image de smartphone actuels utilisent un filtre de Bayer, qui divise les pixels du capteur en pixels verts, rouges et bleus selon le rapport 2: 1: 1. Sans ce masque, chaque pixel de la puce ne mesurerait que bêtement la luminosité et nous aurions une caméra noir et blanc. Le logiciel de la caméra calcule ensuite les valeurs de couleur RVB de chaque pixel en fonction des pixels environnants d’une couleur différente sur le capteur.

quad bayer filter
Les puces Quad-Bayer de Sony et les capteurs Tetracell de Samsung placent toujours quatre pixels de la même couleur les uns à côté des autres. © GadgetByte Source de l'image : GadgetByte

Le filtre Bayer sur le capteur Tetracell développé par Samsung et Xiaomi n’a pas 108 mégapixels, mais seulement 27 mégapixels – comme les capteurs Quad-Bayer de Sony avec 48 mégapixels, par ailleurs – quatre pixels sous chaque filtre couleur. L’avantage, cependant, est qu’au moins les valeurs de luminosité peuvent être mesurées de manière plus granulaire. Et dans la perception de la netteté de l’image, la résolution de la luminosité joue un rôle plus important que la résolution de la couleur.

honor 9 rgb br sensor
L’image au centre (2) a la résolution de luminosité la plus fine de l’image de gauche (1) et la résolution de couleur la plus grossière de l’image de droite (3). Ce sous-échantillonnage de couleur inférieure, qui est courant dans la compression d’image, n’est perceptible qu’au niveau des bords. © NextPit Source de l'image : NextPit

Plus signifie mieux ?

Au moins sur papier, la résolution et surtout la taille du capteur sont un avantage sur la concurrence. Mais c’est comme le football : même avec la meilleure équipe, on peut perdre un match si le collectif n’est pas bon. Un test montrera dans quelle mesure le logiciel de Xiaomi peut mettre en pratique cet avantage matériel. Parce que 108 mégapixels, c’est aussi une énorme quantité de données qu’il faut d’abord maîtrise. En théorie, une seule image DNG RAW 14 bits peut produire un fier 189 mégaoctets.

La question qui se pose est la suivante: le temps ou la puissance de calcul installés sur le smartphone sont-ils déjà mûrs pour de telles quantités de données ? Ou l’approche de Google est-elle plutôt la bonne pour 2019 avec un capteur plus ancien, moins de surface et de pixels mais qui permet un traitement rapide des séries d’images HDR avec le matériel actuel ?