Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco

La page est créée Virginie Bouvier
 
CONTINUER À LIRE
Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
Introduction au traitement
        d’images
    Dr David NIAMIEN (GAF-AG)

               Lieu : Conakry
     Date : 26 Février au 09 Mars 2018
Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
Image numérique

            Plan de la présentation

1. Image numérique
2. Représentation et organisation des données
3. Outils de traitements des données
4. Outils    d’extraction   des    informations
   géographiques
Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
Image numérique

     Définition
 Une image est la projection sur un plan d’un objet 3D. C’est
 également une matrice M x N éléments dont la valeur
 représente une intensité discrète de la lumière. Elle peut être

  définie comme une fonction à deux variables f (x, y).
 (x, y) : est la position d’un point dans l’espace sur le plan de
 projection
(x, y) : est l’intensité au point de coordonnées(x, y) .
Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
Image numérique

   Définition
Une image est caractérisée par:
   §   un couple unique de coordonnées indiquant les
   coordonnées d'un coin de l'image (généralement le coin en
   haut à gauche),
   §le nombre        de lignes et de colonnes ainsi que sa
   résolution spatiale (taille du pixel « picture element »).
   §   Sa résolution radiométrique (8 bits, 18 bits, flottant,…),
   §   Sa table de couleurs (look up table : LUT).
Introduction au traitement d'images - Dr David NIAMIEN (GAF-AG) Lieu : Conakry Date : 26 Février au 09 Mars 2018 - Osfaco
Image numérique

Définition
Image numérique

 Domaines d’application du traitement d’image
Le traitement d’image couvre un grand nombre de domaines
d’applications :
    § Télédétection : météo, cartographie, astronomie,
    § Imagerie médicale : aide au diagnostic, tomographie,
        reconstruction 3D,
    § Applications militaires : guidage de missile, reconnaissance
        terrestre,
    § Robotique : reconnaissance/assemblage de pièces, contrôle
        de qualité,
    § Sécurité : identification de visage, reconnaissances
        d’empreintes digitales,
    § Divertissement : HDTV, images Haute Qualité.
Image numérique

Différentes types d’images
Le traiteur d’image dispose d’une grande variété d’images.
Phénomènes physiques          Grande mesurée           Capteurs
Emissions et réflexions de la Réflectance, luminance   Barrette CCD, CCD, ….
lumière visible et l’infra
rouge réfléchi
Rayonnement infra rouge      Luminance (chaleur)       bolomètres
émis ou thermique
Echo ultrasonore             Distance                  sonar, échographie
Résonance magnétique         Présence de corps         IRM
                             chimique
Echo électromagnétique       Distances                 Radar, SAR
Absorption des rayons X      Densité de tissus         Radiographie,
                                                       tomographie
Image numérique

Composition et caractéristiques
q     Notion de pixel
Une image numérique est constitué d’un ensemble de points
appelés pixel. C’est la contraction du mot anglais «PICture
Element ». Le pixel représente le petit élément d’une image
numérique. L’ensemble des pixels est constitué dans un
tableau à deux dimensions formant l’image.
Image numérique

Composition et caractéristiques
q      Notion de pixel
Etant donné que l'écran effectue un balayage de gauche à
droite et de haut en bas, on désigne généralement par les
coordonnées [0,0] le pixel situé en haut à gauche de l'image,
cela signifie que les axes de l'image sont orientés de la façon
suivante:
    §L'axe X est orienté de gauche à droite.
    §L'axe Y est orienté de haut en bas, contrairement aux
    notations conventionnelles en mathématiques, où l'axe Y
    est orienté vers le haut.
Image numérique

Composition et caractéristiques
q    Notion de pixel
Image numérique

Composition et caractéristiques
q     Définition
On appelle définition le nombre de points (pixel) constituant
l'image, c'est-à-dire le nombre de colonnes de l'image que
multiplie son nombre de lignes autrement dit la « dimension
informatique » de l’image. Une image possédant 4000 pixels
en largeur et 3000 en hauteur aura une définition de
4000x3000 soit 12 Megapixels.
Image numérique

Composition et caractéristiques
q      Résolution
La résolution concerne le nombre de pixels que peut afficher
un écran dans un pouce (PPP, en anglais DPI pour Dots Per
Inch); un pouce représentant 2.54 cm. La résolution d'une
image, c'est donc le nombre de pixels qu'elle contient dans
2,54 cm
Image numérique

Composition et caractéristiques
q      Résolution
Le pouce est une unité de mesure britannique qui vaut à peu
près 2,54 cm.
Dot = Point= Pixels
Plus la résolution est élevée, plus les points sont petits et
nombreux, et plus l'image est fine.

!"#$%& !'( !")*+ = $"./(+ 0+ !"#$%&
                      $"./(+ 0+ !")*+&
Image numérique

Composition et caractéristiques
q    Résolution
Image numérique

Composition et caractéristiques
q          Résolution

A 3 dpi, il est difficile de       A 8 dpi, on va voir que         A 16 dpi, c’est
dire de quelle lettre, il s’agit   c’est un A majuscule            encore mieux
Image numérique

Composition et caractéristiques
q         Résolution

Exemple
J'ai   une   page    A4    (21x29,7     cm)    que   je   scanne   en   360   dpi.
Quelle sera la taille de l'image en pixels ?
Point par pouce = nombre de point / nombre de pouce
360 dpi = nombre de points /21/2,54

360*(21/2,54) = 2976 pixels
360*(29,7/2,54) = 4209 pixels
La page A4 en 360 dpi donnera donc une image de 2976 par 4209 pixels.
Image numérique

Composition et caractéristiques
q      Résolution
Plus ce nombre est élevé, moins il est possible de distinguer
un pixel à l'œil nu une fois l'image imprimée. L'image est donc
de meilleure qualité quand elle a une résolution élevée, car
elle contient un grand nombre de pixels par pouce. La
résolution permet ainsi d'établir le rapport entre le nombre de
pixels d'une image et la taille réelle de sa représentation sur
un support physique (écran, papier…).
                               Définition
                Résolution =
                               Dimension
Image numérique

Composition et caractéristiques
q     Rapport entre pixel, Résolution et définition

                           Définition
            Résolution =
                           Dimension

        Définition = RésolutionxDimension

              Dimension = Définition
                          Résolution

Vous devez opérer ce type de calculs en choisissant la
longueur ou la hauteur de l'image (l'un ou l'autre sans
mélanger les deux dans le même calcul).
Image numérique

Codage des couleurs
Le codage d'une image de télédétection, c'est-à-dire sa
représentation     sur      un   certain   nombre   de   niveaux
radiométriques, doit être cohérent avec :
•la sensibilité du capteur (ou résolution radiométrique, c'est-
à-dire son aptitude à distinguer deux luminances proches) ;
•les capacités de l'utilisateur en termes de stockage, de
calcul, d'affichage, etc.
Image numérique

Codage des couleurs
En plus de sa définition, une image numérique utilise de la
mémoire selon le codage des informations qu’elle possède:
codage des couleurs.
Le codage des couleurs est exprimé en bit par pixel (bpp).
Connaissant le nombre de pixel d’une image et la mémoire
nécessaire à l’affichage (types des valeurs : entier, flottant,
double, signé, non-signé…), il est possible définir exactement
la taille informatique de l’image .
Image numérique

Codage des couleurs
Rappel :
1 bit = 2 états (0 ou 1) = 21
2 bits = 4 états, 22
4 bits = 16 états 24
8 bits = 256 états 28
16 bits = 65635 états 216
Un ensemble de 8 bits = 1 Octet
1024 Octets forment un kilo-octet
1024 Kilo-Octets forment un Mega-Octet (Mo)
Exemple : occupation physique pour des images de 4096 *
4096 : 1 bits : 2 Mo .
Image numérique

Défauts sur les images: lignage – le bruit
q     Lignage
C’est un phénomène d’alternance de lignes (ou sombres) de
la même direction et qui tranche avec le reste de l’image. Sur
les images de télédétection, ce phénomène est visible sur les
zones homogènes comme les plans d’eau. Plusieurs
méthodes sont disponibles pour corriger ce phénomène : la
méthode de spécification des histogrammes, le filtrage
fréquentiel et la méthode de normalisation statistique.
Image numérique

Défauts sur les images: lignage – le bruit
q     Bruit
C’est un signal « parasite » dont la distribution dans l’image
est aléatoire et la plupart du temps inconnue.
Image numérique

Numérisation d’image: quantification- Echantillonnage
q     Quantification
La quantification concerne la résolution radiométrique c'est-à-
dire le nombre bits par pixel.
Image numérique

Numérisation d’image: quantification- Echantillonnage
q      Echantillonnage

L’échantillonnage est lié à la résolution spatiale (taille de pixel).

       1.6m          0.80m          0.40m          0.20m

       0.10m         0.05m          0.03m          0.01m
Représentation et organisation des données

Trame
C’est la répartition de l’espace continu en cellules élémentaires.
Les distributions des points peuvent être régulières (trame
classique) irrégulières (diagramme de Voronoï).

 q      Trame régulière
Représentation et organisation des données

Trame
C’est la répartition de l’espace continu en cellules élémentaires.
Les distributions des points peuvent être régulières (trame
classique) irrégulières (diagramme de Voronoï).

 q      Trame semi-régulière
Représentation et organisation des données

Organisation des données
Plusieurs modèles sont utilisés pour stocker les valeurs de
pixels réelles d’une image dans des fichiers binaires. Selon les
séquences d’octets dans le fichier binaire, on distingue
principalement trois types de stockage : BSQ, BIL et BIP. A ces
fichiers binaires sont associés des données auxiliaires.
Représentation et organisation des données

Organisation des données
q       BSQ (Band SeQuential)
Le format BSQ (Band SeQuential) stocke des informations sur
l'image à raison d'un canal à la fois. En d'autres termes, les
données de tous les pixels du canal 1 sont stockées en premier,
suivies des données de tous les pixels du canal 2, etc. Ce
modèle permet d’avoir un accès facile aux coordonnées
spatiale (X, Y).
Représentation et organisation des données

Organisation des données
q           BSQ (Band SeQuential)

    Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Représentation et organisation des données

Organisation des données
q        BIP (Band Interleaved by Pixel)
Les données BIP (Band Interleaved by Pixel) sont identiques aux
données BIL, si ce n'est que les données de chaque pixel sont
écrites canal par canal. Ainsi, si l'on prend la même image à
trois canaux, les données des canaux 1, 2 et 3 sont écrites pour
le premier pixel de la colonne 1, les données des canaux 1, 2 et
3 sont écrites pour le premier pixel de la colonne 2, etc. Ce
modèle permet un accès optimal à l’information spectrale du
pixel.
Représentation et organisation des données

Organisation des données
q           BIP (Band Interleaved by Pixel)

    Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Représentation et organisation des données

Organisation des données
q       BIL (Band Interleaved by Line)
Les données BIL (Band Interleaved by Line) stockent des
informations de pixel canal par canal, et ce, pour chaque ligne
de l'image. Ainsi, dans le cas d'une image à trois canaux, tous
les canaux de données sont écrits pour la ligne 1, pour la
ligne 2 et ainsi de suite, jusqu'à ce que le nombre total de lignes
de l'image ait été atteint. Ce modèle est un compromis entre le
mode d’organisation BSQ et BIP
Représentation et organisation des données

Organisation des données
q        BIL (Band Interleaved by Line)

    Source: http://help.arcgis.com/fr/arcgisdesktop/10.0/help/index.html#/na/009t00000010000000/)
Outils de traitement d‘images

Distributions et statistiques sur les données
q       Luminance ou brillance
C’est la moyenne de tous les pixels dans l’image.

 q      Ecart-type
Outils de traitement d‘images

Amélioration radiométrique des images
L'amélioration radiométrique consiste d'abord à corriger les
effets des différents artefacts qui perturbent la mesure
radiométrique, notamment les défauts du capteur et le voile
atmosphérique. Après ces corrections, qui devraient se faire
quel que soit l'usage que l'on veut faire de l'image, on peut
envisager des améliorations plus sélectives, guidées par
l'appréciation de l'utilisateur.
Outils de traitement d‘images

Amélioration des images
q       Histogramme
C’est la distribution des niveaux de gris de l’image. Il fournit des
informations sur la distribution statistique des niveaux de gris,
les bornes de répartition des niveaux de gris. Il est
indispensable pour la classification et le rehaussement de
contraste des images. Plusieurs opérations peuvent être
réalisées sur les histogrammes pour améliorer la visualisation
des images: étalement linéaire d’histogramme, égalisation
d’histogramme, seuillage.
Outils de traitement d‘images

Amélioration des images
q      Histogramme

Le traitement le plus simple consiste à redistribuer les niveaux
de gris (ou les couleurs) de manière à mieux utiliser la palette
disponible. On parle d'étalement de l'histogramme ou de
stretching.
Outils de traitement d‘images

  Amélioration des images
   q      Traitement radiométrique par filtrage
Le filtrage de l'image consiste à recalculer la valeur de chaque pixel
en analysant les radiométries sur un voisinage, par exemple pour
lisser l'image ou au contraire pour accentuer les contrastes. Un
filtre linéaire convolue la radiométrie de l'image par une fenêtre de
convolution (petite matrice carrée centrée sur le pixel courant) dont
les coefficients déterminent l'effet du filtrage. Il existe aussi des
filtres non linéaires, par exemple le filtrage médian qui remplace la
valeur de chaque pixel par la valeur médiane du voisinage.
Outils de traitement d‘images

Amélioration des images
q       Traitement radiométrique par filtrage
Ø Filtrage linéaire dans le domaine spatial: filtre passe-bas
Il s’agit d’un débruitage par moyennage. Il a pour effet de
supprimer les hautes fréquences dans les images. Il introduit à
cet effet, un flou sur les contours dans les images. On peut citer
comme filtre : le filtre de Gauss, le filtre moyen, filtre médian.
Outils de traitement d‘images

Amélioration des images
q       Traitement radiométrique par filtrage
Ø Filtrage linéaire dans le domaine spatial: filtre passe-haut
Il sert à sélectionner des fréquences d’intérêts (hautes
fréquences : contours). On cite le filtre de Sobel, le filtre de
Prewitt ou filtre Gradient.
Outils de traitement d‘images

Amélioration des images
q      Traitement radiométrique par filtrage
Ø Filtrage non linéaire dans le domaine spatial: filtre médian
La sortie du filtre est la valeur médiane des valeurs de l’image
dans la fenêtre d’analyse.
Outils d‘extraction d‘informations géographiques

Classification pixellaire
Les images recalées peuvent faire l’objet d’une classification,
opération qui consiste à segmenter la scène en différentes
catégories en s’appuie sur les valeurs radiométriques fournies
par différentes images.
Dans une mise en oeuvre au niveau du pixel, la classification
consiste à analyser et partitionner l’histogramme à N
dimensions correspondant à l’ensemble de N images.
Outils d‘extraction d‘informations géographiques

Classification pixellaire
On distingue les classifications supervisées, guidées par un
opérateur qui impose les classe et choisit des échantillons
représentatifs, et les classifications non supervisées qui
regroupent les pixels en "paquets" de manière automatique.
Outils d‘extraction d‘informations géographiques

Classification pixellaire
q      Classification non supervisée

Dans les classifications non supervisées, le traitement se fait
uniquement sur les données numériques de l’image. On
cherche une partition des données en fonction de leur propre
structure. L’interprète ne définit pas de classes dès le départ.
C’est à la fin de la segmentation que l’interprète cherche les
différentes classes trouvées. Mais au cours de ce processus,
l’interprète peut choisir certains paramètres (nombre de
classes, distance entre classes, les seuils…
Outils d‘extraction d‘informations géographiques

Classification pixellaire
q      Classification supervisée

Pour effectuer une classification supervisée, il faut détenir des
informations sur les objets de l’image que l'on cherche à
révéler, sur les caractéristiques des zones homogènes. Pour
cela, la première chose à faire est de définir les zones
d’apprentissage (ROI). Une fois        les zones d’apprentissage
saisies, il faut les sauver dans un fichier.
Outils d‘extraction d‘informations géographiques

Appariement
L’appariement consiste à rechercher des points homologues
dans deux ou plusieurs images, c’est-à-dire des points qui
représentent le même point du terrain. C’est donc une phase
incontournable pour la plupart des opérations de fusion
d’images.
Ainsi, on utilise des techniques d’appariement pour recaler
entre elles des images acquises sur un même paysage par des
capteurs différents ou à des dates différentes, ou encore pour
automatiser la vision stéréoscopique.
Outils d‘extraction d‘informations géographiques

Appariement
La méthode d’appariement la plus simple, utilisée notamment
pour extraire un modèle numérique de terrain à partir d’un
couple stéréoscopique d’images optiques est la corrélation
automatique sur des fenêtres carrées
Merci
Applications

Révision
1. Trois de nos sens (la vue, le toucher, l’ouie, le goût, l’odorat et le
   toucher) peuvent être considérés comme forme de télédétection,
   puisque nos sources d’information à distance. De quels sens
   s’agit-il?
2. Quelle est la couleur d’un objet qui absorbe toutes longueurs
   d’onde visible?
3. Quelle est la couleur d’un objet qui reflète toutes les longueurs
   d’onde du visible?
4. Dans quelle catégorie de capteur, classez vous un appareil photo
   ?
5. Le premier élément nécessaire à la télédétection est une source
   d’énergie pour illuminer une cible. Quelle est d’après vous la
   source la plus abondante à laquelle nous avons accès?
Applications

Révision
6. Si la vitesse de la lumière est 300 000 000 m/s, calculer la
   longueur d’onde d’un rayonnement qui possède une fréquence
   200 000 GHz. Exprimer votre réponse en micrométre.
7. L’infra rouge est divisée en 2 parties: lesquelles? Quelle la
   différence entre les 2? Est il possible de prendre des photos dans
   ces longueurs d’onde?
8. La plupart des systèmes de télédétection ne captent pas l’ultra
   violet. Pouvez vous expliquer la raison?
9. Identifiez les meilleures conditions atmosphériques pour la
   télédétection utilisant la partie visible du spectre.
10.Classez ces capteurs en passif ou actif: radar, lidar, optique.
Vous pouvez aussi lire