Les pixels sont comme les cochons et pourtant, contrairement au cochon, tous n’est pas bon dans le pixel. En fait, les pixels, pareils aux cochons d’Animal Farm, sont égaux. Mais, tout comme les cochons d’Animal Farm, certains pixels sont plus égaux que d’autres. En effet, les pixels ont des tailles différentes est, comme pour les cochons, cette taille joue un rôle dans le pouvoir du dit-pixel à moins que là aussi, elle ne soit là la conséquence de ce pouvoir. Encore une histoire de cochon qui se mort la queue....
En effet, miniaturisation oblige, les pixels d’un téléphone portable, à définition d’image égale, sont bien plus petits que ceux d’une caméra HDV qui sont, eux-mêmes, plus petits que ceux d’une caméra équipée d’un capteur HD plein format (24x36) et, simultanément, moins nombreux que ceux de cette même caméra construite autour de ce capteur plein format réellement doté de 1080 lignes de 1920 photosites chacune. De là à en déduire que la miniaturisation réduit le pouvoir...
Est-ce à dire que lorsque l’on affirme qu’un téléphone portable a une définition de 1920 x 1080 pixels on nous ment ? Oui et non ; certes l’image finale contient bien les 2 073 600 pixels annoncés, il est donc impossible de crier au loup. Pourtant cette affirmation omet d’évoquer la méthode d’obtention de ces fameux 2 millions de pixels. De fait, dans tous les cas cités précédemment, à l’exception du capteur comportant réellement 1080 lignes de 1920 photosites, les pixels de l’image finale sont obtenues par interpolation, c’est-à-dire par calcul à partir de la matrice [1] du capteur de cet appareil de prise de vue. Les pixels de l’image finale sont donc des pixels déduits mathématiquement de cette structure.
Vous allez me répondre, à juste titre, que tous les pixels d’une image numérique sont recalculés à partir des pixels environnants, puisque chaque pixel d’un appareil mono-capteur n’est sensible qu’à une seule des trois couleurs primaires. Il y a cependant une grande différence entre un pixel dont on a calculé les couleurs et un pixel produit à partir d’un capteur qui contient un nombre de photosites équivalent à la moitié de sa définition finale. Dans ce dernier cas, l’interpolation a encore plus de poids et elle affaiblit donc le “pouvoir” de chacun de ces pixels.
Par ailleurs, outre le rapport nombre de photosites du capteur / nombre de pixels de l’image finale, deux autres éléments jouent un rôle important dans cette inégalité. Plus un photosite est petit, moins sa sensibilité à la lumière sera forte et plus sa sensibilité au bruit sera importante. C’est une règle incontournable, ces deux sensibilités sont inversement proportionnels. Si la sensibilité de ce pixel à la lumière est moins grande, il va donc être nécessaire, là aussi, d’interpoler le signal obtenu afin de produire une image propre quand le photophone sera utilisé dans des conditions de faible éclairage. Dans ce cas, interpoler le signal obtenu revient à pousser la sensibilité du capteur et l’on sait que pousser la sensibilité d’un signal produit du bruit[définition du bruit dans le dictionnaire de la photonumérique de ce site, http], c’est-à-dire de la distorsion. Or, nous venons de préciser que ce photosite est lui-même plus petit sur un photophone que sur un appareil photographique et cette taille inférieure est elle-même génératrice de bruit. Nous avons donc, ici, deux motifs de recalculs et donc d’interpolation du signal qui vont conforter ces inégalités.
La difficulté est, comme en argentique, de trouver le compromis entre la sensibilité (plus une surface est sensible, plus ces éléments photosensibles sont grands), la taille des photosites et la taille du capteur. Ce compromis est d’autant plus difficile à réaliser que la taille du capteur est petit. Difficultés accentuées, dans le cas des photophones, par l’emploi d’optiques dont la qualité est parfois largement inférieure à celle d’un cul de bouteille. Nous sommes donc bien d’accord, les pixels, c’est comme les cochons. Faut-il encore savoir de quel cochon parle-t-on.
© Hervé Bernard 2010
2014-2015 Épilogue
Et avec la vidéo 4k on recommence la même histoire, on essaye à nouveau de nous faire croire que tous les pixels sont égaux. En l’état de la technologie, la seule image cinématographique 4k, pleine bande, pleine définition spatiale (nombre de pixels) et pleine définition colorimétrique (chaque couleur primaire de chaque pixel est numérisée et non une couleur sur trois) est celle d’une image pellicule scannée. Cette image là est l’image de référence. Cette image est composée de 4096 pixels par ligne sur un maximum de 2160 lignes selon le rapport du format de tournage.
Vient ensuite une image de la même définition tournée avec un capteur de 4096 pixels sur 2160 lignes échantillonné en 4:4:4 [2], puis une image de la même définition échantillonnée en 4:2:2 [3]. Bien entendu, dans les deux cas, ses signaux sont faiblement compressés et uniquement avec une compression intra-image et sans compression inter-image.
Le 4k DCI natif à lui aussi une définition de 4096 x 2160 ce qui donne en CinemaScope une image de 4096 × 1714 ou encore dans sa version 1:85 3996 × 2160, dans tous les cas l’image subie une compressée intra-image à la norme JPEG 2000. Cependant, ce taux de compression est deux fois plus élevé que celui du 2k DCI puisque le débit des serveurs reste identique.
L’Ultra Haute Définition Télévision (Ultra HD), normalisé en octobre 2012 a une définition de 3 840 × 2 160 pixels et son débit se réduit à celui de la norme HDMI 2.0