Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Introduction au traitement d’images Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018
Image numérique Plan de la présentation 1. Image numérique 2. Représentation et organisation des données 3. Outils de traitements des données 4. Outils d’extraction des informations géographiques
Image numérique Définition Une image est la projection sur un plan d’un objet 3D. C’est également une matrice M x N éléments dont la valeur représente une intensité discrète de la lumière. Elle peut être définie comme une fonction à deux variables f (x, y). (x, y) : est la position d’un point dans l’espace sur le plan de projection (x, y) : est l’intensité au point de coordonnées(x, y) .
Image numérique Définition Une image est caractérisée par: § un couple unique de coordonnées indiquant les coordonnées d'un coin de l'image (généralement le coin en haut à gauche), §le nombre de lignes et de colonnes ainsi que sa résolution spatiale (taille du pixel « picture element »). § Sa résolution radiométrique (8 bits, 18 bits, flottant,…), § Sa table de couleurs (look up table : LUT).
Image numérique Domaines d’application du traitement d’image Le traitement d’image couvre un grand nombre de domaines d’applications : § Télédétection : météo, cartographie, astronomie, § Imagerie médicale : aide au diagnostic, tomographie, reconstruction 3D, § Applications militaires : guidage de missile, reconnaissance terrestre, § Robotique : reconnaissance/assemblage de pièces, contrôle de qualité, § Sécurité : identification de visage, reconnaissances d’empreintes digitales, § Divertissement : HDTV, images Haute Qualité.
Image numérique Différentes types d’images Le traiteur d’image dispose d’une grande variété d’images. Phénomènes physiques Grande mesurée Capteurs Emissions et réflexions de la Réflectance, luminance Barrette CCD, CCD, …. lumière visible et l’infra rouge réfléchi Rayonnement infra rouge Luminance (chaleur) bolomètres émis ou thermique Echo ultrasonore Distance sonar, échographie Résonance magnétique Présence de corps IRM chimique Echo électromagnétique Distances Radar, SAR Absorption des rayons X Densité de tissus Radiographie, tomographie
Image numérique Composition et caractéristiques q Notion de pixel Une image numérique est constitué d’un ensemble de points appelés pixel. C’est la contraction du mot anglais «PICture Element ». Le pixel représente le petit élément d’une image numérique. L’ensemble des pixels est constitué dans un tableau à deux dimensions formant l’image.
Image numérique Composition et caractéristiques q Notion de pixel Etant donné que l'écran effectue un balayage de gauche à droite et de haut en bas, on désigne généralement par les coordonnées [0,0] le pixel situé en haut à gauche de l'image, cela signifie que les axes de l'image sont orientés de la façon suivante: §L'axe X est orienté de gauche à droite. §L'axe Y est orienté de haut en bas, contrairement aux notations conventionnelles en mathématiques, où l'axe Y est orienté vers le haut.
Image numérique Composition et caractéristiques q Notion de pixel
Image numérique Composition et caractéristiques q Définition On appelle définition le nombre de points (pixel) constituant l'image, c'est-à-dire le nombre de colonnes de l'image que multiplie son nombre de lignes autrement dit la « dimension informatique » de l’image. Une image possédant 4000 pixels en largeur et 3000 en hauteur aura une définition de 4000x3000 soit 12 Megapixels.
Image numérique Composition et caractéristiques q Résolution La résolution concerne le nombre de pixels que peut afficher un écran dans un pouce (PPP, en anglais DPI pour Dots Per Inch); un pouce représentant 2.54 cm. La résolution d'une image, c'est donc le nombre de pixels qu'elle contient dans 2,54 cm
Image numérique Composition et caractéristiques q Résolution Le pouce est une unité de mesure britannique qui vaut à peu près 2,54 cm. Dot = Point= Pixels Plus la résolution est élevée, plus les points sont petits et nombreux, et plus l'image est fine. !"#$%& !'( !")*+ = $"./(+ 0+ !"#$%& $"./(+ 0+ !")*+&
Image numérique Composition et caractéristiques q Résolution
Image numérique Composition et caractéristiques q Résolution A 3 dpi, il est difficile de A 8 dpi, on va voir que A 16 dpi, c’est dire de quelle lettre, il s’agit c’est un A majuscule encore mieux
Image numérique Composition et caractéristiques q Résolution Exemple J'ai une page A4 (21x29,7 cm) que je scanne en 360 dpi. Quelle sera la taille de l'image en pixels ? Point par pouce = nombre de point / nombre de pouce 360 dpi = nombre de points /21/2,54 360*(21/2,54) = 2976 pixels 360*(29,7/2,54) = 4209 pixels La page A4 en 360 dpi donnera donc une image de 2976 par 4209 pixels.
Image numérique Composition et caractéristiques q Résolution Plus ce nombre est élevé, moins il est possible de distinguer un pixel à l'œil nu une fois l'image imprimée. L'image est donc de meilleure qualité quand elle a une résolution élevée, car elle contient un grand nombre de pixels par pouce. La résolution permet ainsi d'établir le rapport entre le nombre de pixels d'une image et la taille réelle de sa représentation sur un support physique (écran, papier…). Définition Résolution = Dimension
Image numérique Composition et caractéristiques q Rapport entre pixel, Résolution et définition Définition Résolution = Dimension Définition = RésolutionxDimension Dimension = Définition Résolution Vous devez opérer ce type de calculs en choisissant la longueur ou la hauteur de l'image (l'un ou l'autre sans mélanger les deux dans le même calcul).
Image numérique Codage des couleurs Le codage d'une image de télédétection, c'est-à-dire sa représentation sur un certain nombre de niveaux radiométriques, doit être cohérent avec : •la sensibilité du capteur (ou résolution radiométrique, c'est- à-dire son aptitude à distinguer deux luminances proches) ; •les capacités de l'utilisateur en termes de stockage, de calcul, d'affichage, etc.
Image numérique Codage des couleurs En plus de sa définition, une image numérique utilise de la mémoire selon le codage des informations qu’elle possède: codage des couleurs. Le codage des couleurs est exprimé en bit par pixel (bpp). Connaissant le nombre de pixel d’une image et la mémoire nécessaire à l’affichage (types des valeurs : entier, flottant, double, signé, non-signé…), il est possible définir exactement la taille informatique de l’image .
Image numérique Codage des couleurs Rappel : 1 bit = 2 états (0 ou 1) = 21 2 bits = 4 états, 22 4 bits = 16 états 24 8 bits = 256 états 28 16 bits = 65635 états 216 Un ensemble de 8 bits = 1 Octet 1024 Octets forment un kilo-octet 1024 Kilo-Octets forment un Mega-Octet (Mo) Exemple : occupation physique pour des images de 4096 * 4096 : 1 bits : 2 Mo .
Image numérique Défauts sur les images: lignage – le bruit q Lignage C’est un phénomène d’alternance de lignes (ou sombres) de la même direction et qui tranche avec le reste de l’image. Sur les images de télédétection, ce phénomène est visible sur les zones homogènes comme les plans d’eau. Plusieurs méthodes sont disponibles pour corriger ce phénomène : la méthode de spécification des histogrammes, le filtrage fréquentiel et la méthode de normalisation statistique.
Image numérique Défauts sur les images: lignage – le bruit q Bruit C’est un signal « parasite » dont la distribution dans l’image est aléatoire et la plupart du temps inconnue.
Image numérique Numérisation d’image: quantification- Echantillonnage q Quantification La quantification concerne la résolution radiométrique c'est-à- dire le nombre bits par pixel.
Image numérique Numérisation d’image: quantification- Echantillonnage q Echantillonnage L’échantillonnage est lié à la résolution spatiale (taille de pixel). 1.6m 0.80m 0.40m 0.20m 0.10m 0.05m 0.03m 0.01m
Représentation et organisation des données Trame C’est la répartition de l’espace continu en cellules élémentaires. Les distributions des points peuvent être régulières (trame classique) irrégulières (diagramme de Voronoï). q Trame régulière
Représentation et organisation des données Trame C’est la répartition de l’espace continu en cellules élémentaires. Les distributions des points peuvent être régulières (trame classique) irrégulières (diagramme de Voronoï). q Trame semi-régulière
Représentation et organisation des données Organisation des données Plusieurs modèles sont utilisés pour stocker les valeurs de pixels réelles d’une image dans des fichiers binaires. Selon les séquences d’octets dans le fichier binaire, on distingue principalement trois types de stockage : BSQ, BIL et BIP. A ces fichiers binaires sont associés des données auxiliaires.
Représentation et organisation des données Organisation des données q BSQ (Band SeQuential) Le format BSQ (Band SeQuential) stocke des informations sur l'image à raison d'un canal à la fois. En d'autres termes, les données de tous les pixels du canal 1 sont stockées en premier, suivies des données de tous les pixels du canal 2, etc. Ce modèle permet d’avoir un accès facile aux coordonnées spatiale (X, Y).
Représentation et organisation des données Organisation des données q BSQ (Band SeQuential) Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Représentation et organisation des données Organisation des données q BIP (Band Interleaved by Pixel) Les données BIP (Band Interleaved by Pixel) sont identiques aux données BIL, si ce n'est que les données de chaque pixel sont écrites canal par canal. Ainsi, si l'on prend la même image à trois canaux, les données des canaux 1, 2 et 3 sont écrites pour le premier pixel de la colonne 1, les données des canaux 1, 2 et 3 sont écrites pour le premier pixel de la colonne 2, etc. Ce modèle permet un accès optimal à l’information spectrale du pixel.
Représentation et organisation des données Organisation des données q BIP (Band Interleaved by Pixel) Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Représentation et organisation des données Organisation des données q BIL (Band Interleaved by Line) Les données BIL (Band Interleaved by Line) stockent des informations de pixel canal par canal, et ce, pour chaque ligne de l'image. Ainsi, dans le cas d'une image à trois canaux, tous les canaux de données sont écrits pour la ligne 1, pour la ligne 2 et ainsi de suite, jusqu'à ce que le nombre total de lignes de l'image ait été atteint. Ce modèle est un compromis entre le mode d’organisation BSQ et BIP
Représentation et organisation des données Organisation des données q BIL (Band Interleaved by Line) Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Outils de traitement d‘images Distributions et statistiques sur les données q Luminance ou brillance C’est la moyenne de tous les pixels dans l’image. q Ecart-type
Outils de traitement d‘images Amélioration radiométrique des images L'amélioration radiométrique consiste d'abord à corriger les effets des différents artefacts qui perturbent la mesure radiométrique, notamment les défauts du capteur et le voile atmosphérique. Après ces corrections, qui devraient se faire quel que soit l'usage que l'on veut faire de l'image, on peut envisager des améliorations plus sélectives, guidées par l'appréciation de l'utilisateur.
Outils de traitement d‘images Amélioration des images q Histogramme C’est la distribution des niveaux de gris de l’image. Il fournit des informations sur la distribution statistique des niveaux de gris, les bornes de répartition des niveaux de gris. Il est indispensable pour la classification et le rehaussement de contraste des images. Plusieurs opérations peuvent être réalisées sur les histogrammes pour améliorer la visualisation des images: étalement linéaire d’histogramme, égalisation d’histogramme, seuillage.
Outils de traitement d‘images Amélioration des images q Histogramme Le traitement le plus simple consiste à redistribuer les niveaux de gris (ou les couleurs) de manière à mieux utiliser la palette disponible. On parle d'étalement de l'histogramme ou de stretching.
Outils de traitement d‘images Amélioration des images q Traitement radiométrique par filtrage Le filtrage de l'image consiste à recalculer la valeur de chaque pixel en analysant les radiométries sur un voisinage, par exemple pour lisser l'image ou au contraire pour accentuer les contrastes. Un filtre linéaire convolue la radiométrie de l'image par une fenêtre de convolution (petite matrice carrée centrée sur le pixel courant) dont les coefficients déterminent l'effet du filtrage. Il existe aussi des filtres non linéaires, par exemple le filtrage médian qui remplace la valeur de chaque pixel par la valeur médiane du voisinage.
Outils de traitement d‘images Amélioration des images q Traitement radiométrique par filtrage Ø Filtrage linéaire dans le domaine spatial: filtre passe-bas Il s’agit d’un débruitage par moyennage. Il a pour effet de supprimer les hautes fréquences dans les images. Il introduit à cet effet, un flou sur les contours dans les images. On peut citer comme filtre : le filtre de Gauss, le filtre moyen, filtre médian.
Outils de traitement d‘images Amélioration des images q Traitement radiométrique par filtrage Ø Filtrage linéaire dans le domaine spatial: filtre passe-haut Il sert à sélectionner des fréquences d’intérêts (hautes fréquences : contours). On cite le filtre de Sobel, le filtre de Prewitt ou filtre Gradient.
Outils de traitement d‘images Amélioration des images q Traitement radiométrique par filtrage Ø Filtrage non linéaire dans le domaine spatial: filtre médian La sortie du filtre est la valeur médiane des valeurs de l’image dans la fenêtre d’analyse.
Outils d‘extraction d‘informations géographiques Classification pixellaire Les images recalées peuvent faire l’objet d’une classification, opération qui consiste à segmenter la scène en différentes catégories en s’appuie sur les valeurs radiométriques fournies par différentes images. Dans une mise en oeuvre au niveau du pixel, la classification consiste à analyser et partitionner l’histogramme à N dimensions correspondant à l’ensemble de N images.
Outils d‘extraction d‘informations géographiques Classification pixellaire On distingue les classifications supervisées, guidées par un opérateur qui impose les classe et choisit des échantillons représentatifs, et les classifications non supervisées qui regroupent les pixels en "paquets" de manière automatique.
Outils d‘extraction d‘informations géographiques Classification pixellaire q Classification non supervisée Dans les classifications non supervisées, le traitement se fait uniquement sur les données numériques de l’image. On cherche une partition des données en fonction de leur propre structure. L’interprète ne définit pas de classes dès le départ. C’est à la fin de la segmentation que l’interprète cherche les différentes classes trouvées. Mais au cours de ce processus, l’interprète peut choisir certains paramètres (nombre de classes, distance entre classes, les seuils…
Outils d‘extraction d‘informations géographiques Classification pixellaire q Classification supervisée Pour effectuer une classification supervisée, il faut détenir des informations sur les objets de l’image que l'on cherche à révéler, sur les caractéristiques des zones homogènes. Pour cela, la première chose à faire est de définir les zones d’apprentissage (ROI). Une fois les zones d’apprentissage saisies, il faut les sauver dans un fichier.
Outils d‘extraction d‘informations géographiques Appariement L’appariement consiste à rechercher des points homologues dans deux ou plusieurs images, c’est-à-dire des points qui représentent le même point du terrain. C’est donc une phase incontournable pour la plupart des opérations de fusion d’images. Ainsi, on utilise des techniques d’appariement pour recaler entre elles des images acquises sur un même paysage par des capteurs différents ou à des dates différentes, ou encore pour automatiser la vision stéréoscopique.
Outils d‘extraction d‘informations géographiques Appariement La méthode d’appariement la plus simple, utilisée notamment pour extraire un modèle numérique de terrain à partir d’un couple stéréoscopique d’images optiques est la corrélation automatique sur des fenêtres carrées
Merci
Applications Révision 1. Trois de nos sens (la vue, le toucher, l’ouie, le goût, l’odorat et le toucher) peuvent être considérés comme forme de télédétection, puisque nos sources d’information à distance. De quels sens s’agit-il? 2. Quelle est la couleur d’un objet qui absorbe toutes longueurs d’onde visible? 3. Quelle est la couleur d’un objet qui reflète toutes les longueurs d’onde du visible? 4. Dans quelle catégorie de capteur, classez vous un appareil photo ? 5. Le premier élément nécessaire à la télédétection est une source d’énergie pour illuminer une cible. Quelle est d’après vous la source la plus abondante à laquelle nous avons accès?
Applications Révision 6. Si la vitesse de la lumière est 300 000 000 m/s, calculer la longueur d’onde d’un rayonnement qui possède une fréquence 200 000 GHz. Exprimer votre réponse en micrométre. 7. L’infra rouge est divisée en 2 parties: lesquelles? Quelle la différence entre les 2? Est il possible de prendre des photos dans ces longueurs d’onde? 8. La plupart des systèmes de télédétection ne captent pas l’ultra violet. Pouvez vous expliquer la raison? 9. Identifiez les meilleures conditions atmosphériques pour la télédétection utilisant la partie visible du spectre. 10.Classez ces capteurs en passif ou actif: radar, lidar, optique.
Vous pouvez aussi lire