Un élément fondamental constitué d'une image numérique est appelée pixel, dont le nom est dérivé de l'expression "élément d'image". Si vous utilisez l'imagerie numérique dans le SIG et la télédétection, vous devez absolument savoir comment les pixels sont créés.
Format de base de l'imagerie numérique
Une image numérique est composée d'une matrice rectangulaire de nombres utilisés pour constituer une image. Elle possède à la fois des propriétés géométriques et des propriétés radiométriques. Chaque nombre de la matrice représente un pixel. Dans sa forme la plus simple, un pixel est un nombre dans une matrice qui décrit la luminosité et la couleur d'un point sur une image lorsqu'elle est affichée. Le format de données est également appelé format de raster ou d'image. Les propriétés physiques de ce qui constitue le nombre dans la matrice sont une fonction de la géométrie, de la valeur du pixel et de la couleur qu'elle représente et sont liées à sa radiométrie. Elle capture l'interaction de la lumière et de l'environnement à une localisation spécifique de la zone géographique.
Nature de la lumière
La lumière se comporte comme une onde ou une particule. Elle est composée d'un flux de particules appelées photons. Ces particules proviennnent du soleil et traversent l'atmosphère, où certaines sont absorbées et d'autres sont éparpillées le long du chemin atmosphérique lorsqu'elles entrent en collision avec les particules de l'air, la vapeur d'eau et d'autres constituants atmosphériques. Ce flux de photons, direct du soleil et indirect du puit de lumière, est appelé rayonnement descendant ou rayonnement. Les photons heurtent alors un objet cible à la surface de la Terre, où des photons sont absorbés par la cible et d'autres sont reflétés. Ceux reflétés sont transmis à un capteur, d'autres sont transmis via l'atmosphère et d'autres sont à nouveau absorbés. Le pourcentage mesuré par le capteur est appelé transmission.
Interaction de la lumière avec le capteur
Les photons qui atteignent le devant du capteur sont collectés par l'objectif et concentrés sur un plan focal à l'arrière du corps du capteur. Le plan focal est une collection de cellules physiques, telles qu'une matrice CCD, sensibles aux photons. Il s'agit des appareils physiques qui mesurent la lumière entrant dans le capteur et génèrent le numéro qui représente le pixel d'une image numérique. Ils sont appelés puits car ils servent de compartiments qui collectent les photons. Les photons se comportent comme des particules physiques et les compartiments qui les collectent dans le capteur possèdent deux propriétés importantes. La première est la capacité à capturer le photon. Cette propriété est appelée efficacité quantique. Si 100 photons atteignent le compartiment et que 40 d'entre eux sont collectés, la matrice possède une efficacité quantique de 40 %. L'autre propriété importante est la profondeur du puit ou la capacité du compartiment. Un compartiment peut avoir une capacité de 60 000 photons. Si plus de 60 000 photons sont collectés par le compartiment, la quantité excédentaire déborde. Parfois, ils débordent et son perdus, mais ils peuvent également déborder dans des compartiments adjacents et entraîner une condition appelée flare. Lors d'un flare, les pixels voisins sont trop lumineux, mais la plupart des plans focaux modernes sont dotés de mécanismes permettant de limiter cet effet. La lumière du soleil étant diffusée en continu, le nombre de photons qui atteignent la matrice physique est contrôlé par un appareil appelé obturateur. Il s'agit d'un appareil physique qui ouvre l'objectif pour collecter les photons ou le ferme pour les empêcher d'entrer. L'obturateur peut être mécanique ou électrique. Dans les deux cas, il permet au compartiment de collecter des photons pour une courte période à la fois, appelée temps d'intégration ou temps d'exposition.
Lumière comme onde électromagnétique
La lumière visible est perçue comme ayant une couleur. Il s'agit d'une propriété de la lumière caractérisée par le phénomène d'onde des ondes lumineuses électromagnétiques. Les ondes peuvent être décrites comme possédant une périodicité ou fréquence et elles possèdent une longueur d'onde. Les différentes couleurs de la lumière possèdent des fréquences et longueurs d'onde différentes. La vitesse de la lumière, la fréquence et la longueur d'onde sont liées selon une relation mathématique, où c correspond à la vitesse de la lumière, f à la fréquence de la lumière et ý, à la longueur d'onde.
c = fý
Pour les applications de télédétection et SIG, la longueur d'onde de la lumière est l'aspect déterminant de sa couleur. Par exemple, la lumière dont les longueurs d'onde sont de 400 à 500 nanomètres (nm) est bleue. Entre 500 et 600 nm, elle est verte et entre 600 et 700 nm, elle est rouge. C'est ce que l'on appelle la portion visible du spectre électromagnétique. Le spectre électromagnétique est large et s'étend des rayons gamma de haute énergie aux ondes radio de faible énergie. La télédétection utilise généralement les portions visible et micro-ondes du spectre.
Les capteurs capturent le spectre de la lumière
Les compartiments ou pixels physiques dans un capteur peuvent être sensibles à différentes longueurs d'onde de lumière ou différentes couleurs de lumière. Pour cela, la lumière est filtrée d'une certaine manière avant d'être détectée par le pixel physique photosensible. L'intégralité de la chaîne d'images, de la source d'illumination à la lecture des pixels par le capteur est un filtre intégré au capteur pour séparer la lumière en fonction de la longueur d'onde afin de séparer les couleurs.
Une image est constituée d'un canal ou de plusieurs canaux de données. Si elle est constituée d'un seul canal, elle possède une plage de longueurs d'onde qu'elle a capturée. Si le pixel a capturé une grande portion du spectre visible, il est qualifié de panchromatique. S'il comporte plusieurs canaux (en général, au moins trois) il est qualifié de multispectral. S'il comporte un grand nombre de canaux (par exemple, 100 ou plus), il est qualifié d'hyperspectral. Ces bandes passantes sont plus étroites que les canaux panchromatiques et isolent une portion particulière du spectre. Chaque canal représente une portion unique de la plage spectrale de la lumière reflétée par la cible.
Dans ArcGIS, l'imagerie multispectrale est affichée à l'aide de la représentation de la composition colorée RVB, dans laquelle chaque canal raster est apparié à un, deux ou trois canaux de couleur. Pour les images comportant plus de trois canaux raster, n'importe lequel des trois canaux peut être utilisé pour afficher l'imagerie. Les trois canaux de couleur sont le rouge, le bleu et le vert. Vous pouvez substituer tout canal raster pour chacun des canaux.
Les images courantes à couleurs naturelles sont constituées de trois canaux dans lesquels le canal bleu est affiché dans le canal bleu, le canal vert, dans le canal vert et le canal rouge, dans le canal rouge. Chaque pixel possède trois valeurs associées à chacune des couleurs, pour parvenir à une composition colorée.
Les pixels représentent une localisation au sol
En plus de ses caractéristiques spectrales, un pixel représente une localisation au sol. La figure ci-après illustre la relation entre le pixel physique dans le capteur et la surface effective représentée par le pixel au sol. Cette relation est une fonction de la géométrie du capteur et de ses aspects géométriques au moment précis où l'image a été capturée. La taille de ce qu'un pixel représente au sol est appelée résolution au sol moyenne (GSD). Dans le capteur, les limites entre les pixels sont fixes et discrètes. Toutefois, le pixel au sol n'est pas défini clairement car l'atmosphère et l'optique sont flous et dispersent la lumière. Au lieu de cela, les pixels ont tendance à se superposer au sol. La fonction mathématique qui décrit le contenu d'un pixel physique dans le capteur est la fonction de dispersion des points. Si la fonction de dispersion des points est grande, l'imagerie résultante est floue. Si la fonction de dispersion des points est petite, l'imagerie est bien définie avec des bords nets.
Stockage des valeurs de pixel
Les pixels étant des nombres numériques stockés dans la mémoire de l'ordinateur, les valeurs sont séparées et discrètes. Lorsque les photons sont détectés, ils génèrent une charge électrique, qui est un signal analogue ou une valeur continue. Lorsque le pixel est lu par le capteur CCD, il est converti en un nombre discret par l'intermédiaire d'un convertisseur analogique-numérique. Lorsque ces valeurs sont converties, elles reçoivent généralement des valeurs de 8 à 14 bits. Le facteur limitant est la qualité de l'électronique. Cela signifie qu'une image possède entre 256 et 16 384 valeurs. En général, les capteurs modernes sont dotés de convertisseurs analogique-numérique de 12 bits, qui affichent jusqu'à 4 096 niveaux de gris.
Résumé
Un pixel physique sur le plan focal d'un capteur absorbe les photons, qui deviennnent une charge électrique. Cette charge est convertie en nombre et placée dans une matrice ou un format de raster. La position et l'altitude du capteur au moment exact de l'exposition étant connues précisément, la localisation précise du pixel au sol est également connue.
Pour les images multispectrales et hyperspectrales, les valeurs de pixel dans chacun des canaux constituent un profil spectral pour cette localisation au sol. Chaque type de matériau au sol imagé (par exemple, le type de végétation, de sol ou de matériau de construction) possède un profil spectral unique, également appelé signatures spectrales. De nombreuses techniques permettent de normaliser les niveaux de gris des pixels dans l'image à des fins de cohérence et pour faciliter l'analyse des entités et matériaux au sol en fonction de l'analyse spectrale.
La valeur d'un pixel est une mesure de la radiation détectée associée à une localisation spécifique au sol. La télédétection utilise ces informations pour analyser une entité ou un phénomène à cette localisation. Une image numérique est bien plus qu'une belle image ; il s'agit d'une mesure radiométrique et photogrammétrique. La possibilité d'analyser les pixels permet aux analystes de télédétection de déduire d'importants types d'informations géographiques.
Pour plus d'informations, consultez les rubriques suivantes :
Rubriques connexes
Vous avez un commentaire à formuler concernant cette rubrique ?