Tout d’abord, un avertissement: ce tutoriel ne s’adresse pas aux utilisateurs dont le traitement d’images spatiales est leur métier. Il s’adresse aux utilisateurs de SIG qui doivent se lancer dans le traitement d’images dans le but d’enrichir leur données. Le but est d’aplanir les écueils du débutant et de fournir quelques bases théoriques pour ne pas simplement suivre une recette de cuisine. Les aspects théoriques ne sont donc pas exhaustifs et on se permettra quelques approximations pour ne pas rendre le discours incompréhensible pour le néophyte.
Une grande partie des explications est tirée de l’excellent site de Ressources naturelles Canada, auxquelles nous avons ajouté toute la partie pratique avec QGis. Vous trouverez le même tutoriel mais adapté aux outils proposé par ArcGis sur notre site.
Parmi la grande variété d’outil proposés par QGis pour réaliser le travail de classification d’images, nous utiliserons dans ce tutoriel:
- le plug-in SEMI AUTOMATIC CLASSIFICATION
- les outils de traitement de QGis
Le plug-in SEMI AUTOMATIC CLASSIFICATION est tellement performant que l’on pourrait se contenter de lui pour l’ensemble du tutoriel. Mais dans ce cas il serait un boîte noire et vous ne sauriez pas faire ce qu’il fait. Nous verrons donc comment faire les différentes opérations sans utiliser le plugin (par exemple la correction atmosphérique) et après, nous verrons comment gagner du temps avec l’utilisation du plugin (en cochant une case pour la correction atmosphérique!).
Nous donnerons la marche à suivre pour les versions 2.18 et 3.4 de QGis.
Le tutoriel abordera les trois grandes phases du travail de classification d’images:
- le prétraitement et l’exploration des données
- la classification d’images à proprement parler
- le post-traitement des classifications
1- Introduction
L’interprétation et l’analyse de l’imagerie de télédétection ont pour but d’identifier et de mesurer différentes cibles dans une image pour pouvoir en extraire l’information utile. En télédétection, une cible est définie comme étant toute structure ou objet observable dans une image. Les cibles peuvent être des points, des lignes ou des surfaces. Elles peuvent donc présenter des formes variées mais elles doivent obligatoirement répondre à une caractéristique: elles doivent être distinctives, c’est à dire qu’elles doivent contraster avec les structures avoisinantes.
La photo-interprétation
L’interprétation et l’identification des cibles en télédétection peuvent être faites de façon visuelle, c’est-à-dire par un interprète humain. Dans ce cas, l’imagerie est présentée dans un format photographique, indépendamment du type de capteurs et de la manière dont les données sont acquises.
L’interprétation et l’analyse visuelles datent du tout début de la télédétection avec l’interprétation de photos aériennes. L’interprétation visuelle est souvent limitée à un seul canal de données ou une seule image à la fois, en raison de la difficulté d’effectuer une interprétation visuelle avec plusieurs images. L’interprétation humaine est un procédé subjectif, ce qui veut dire que les résultats peuvent varier d’un interprète à l’autre.
La classification d’image
Un analyste qui tente de classer les caractéristiques d’une image, utilise les éléments de l’interprétation visuelle (photo-interprétation) pour identifier des groupes homogènes de pixels qui représentent des classes intéressantes de surfaces. La classification numérique des images utilise l’information spectrale contenue dans les valeurs d’une ou de plusieurs bandes spectrales pour classifier chaque pixel individuellement. Ce type de classification est appelé reconnaissance de regroupements spectraux. Les deux façons de procéder (manuelle ou automatique) ont pour but d’assigner une classe particulière ou thème (par exemple : eau, forêt de conifères, maïs, blé, etc.) à chacun des pixels d’une image. La « nouvelle » image qui représente la classification est composée d’une mosaïque de pixels qui appartiennent chacun à un thème particulier. Cette image est essentiellement une représentation thématique de l’image originale.
Lorsqu’on parle de classes, il faut faire la distinction entre des classes d’information et des classes spectrales. Les classes d’information sont des catégories d’intérêt que l’analyste tente d’identifier dans les images, comme différents types de cultures, de forêts ou d’espèce d’arbres, différents types de caractéristiques géologiques ou de roches, etc. Les classes spectrales sont des groupes de pixels qui ont les mêmes caractéristiques (ou presque) en ce qui a trait à leur valeur d’intensité dans les différentes bandes spectrales des données. L’objectif ultime de la classification est de faire la correspondance entre les classes spectrales et les classes d’information. Il est rare qu’une correspondance directe soit possible entre ces deux types de classes. Des classes spectrales bien définies peuvent apparaître parfois sans qu’elles correspondent nécessairement à des classes d’information intéressantes pour l’analyse. D’un autre côté, une classe d’information très large (par exemple la forêt) peut contenir plusieurs sous-classes spectrales avec des variations spectrales définies. En utilisant l’exemple de la forêt, les sous-classes spectrales peuvent être causées par des variations dans l’âge, l’espèce, la densité des arbres ou simplement par les effets d’ombrage ou des variations dans l’illumination. L’analyste a le rôle de déterminer de l’utilité des différentes classes spectrales et de valider leur correspondance à des classes d’informations utiles.
Les méthodes de classification les plus communes peuvent être séparées en deux grandes catégories : les méthodes de classification supervisée et les méthodes de classification non supervisée.
Classification supervisée
Lors de l’utilisation d’une méthode de classification supervisée, l’analyste identifie des échantillons assez homogènes de l’image qui sont représentatifs de différents types de surfaces (classes d’information). Ces échantillons forment un ensemble de données-tests. La sélection de ces données-tests est basée sur les connaissances de l’analyste, sa familiarité avec les régions géographiques et les types de surfaces présents dans l’image. L’analyste supervise donc la classification d’un ensemble spécifique de classes. Les informations numériques pour chacune des bandes et pour chaque pixel de ces ensembles sont utilisées pour que l’ordinateur puisse définir les classes et ensuite reconnaître des régions aux propriétés similaires à chaque classe. L’ordinateur utilise un programme spécial ou algorithme afin de déterminer la « signature » numérique de chacune des classes. Plusieurs algorithmes différents sont possibles. Une fois que l’ordinateur a établi la signature spectrale de chaque classe, il assigne chaque pixel de l’image à la classe avec laquelle il a le plus d’affinités.
Classification non supervisée
La classification non supervisée procède de façon contraire. Les classes spectrales sont formées en premier, basées sur l’information numérique des données seulement. Ces classes sont ensuite associées, par un analyste, à des classes d’information utile (si possible). Des programmes appelés algorithmes de classification sont utilisés pour déterminer les groupes statistiques naturels ou les structures des données. Habituellement, l’analyste spécifie le nombre de groupes ou classes qui seront formés avec les données. De plus, l’analyste peut spécifier certains paramètres relatifs à la distance entre les classes et la variance à l’intérieur même d’une classe. Le résultat final de ce processus de classification itératif peut créer des classes que l’analyste voudra combiner, ou des classes qui devraient être séparées de nouveau. Chacune de ces étapes nécessite une nouvelle application de l’algorithme. L’intervention humaine n’est donc pas totalement exempte de la classification non supervisée. Cependant
L’interprétation visuelle
La reconnaissance des cibles est la clé de l’interprétation et de l’extraction d’information. L’observation des différences entre les cibles et leurs arrière-plans implique la comparaison entre différentes cibles en se basant sur une combinaison de sept caractéristiques : ton, forme, taille, patron, texture, ombre et association. Consciemment ou non, nous utilisons régulièrement ces caractéristiques pour les interprétations visuelles que nous effectuons quotidiennement. L’identification des cibles en télédétection basée sur les sept caractéristiques visuelles nous permet de mieux interpréter et analyser.
Le ton réfère à la clarté relative ou la couleur (teinte) des objets dans une image. Généralement, la nuance de ton est l’élément fondamental pour différencier les cibles et les structures. Les variations de ton permettent aussi la différenciation des formes, textures et patrons des objets.
La forme réfère à l’allure générale, la structure ou le contour des objets pris individuellement. La forme peut être un indice très important pour l’interprétation. Les formes aux bordures rectilignes se retrouvent généralement dans les régions urbaines ou sont des champs agricoles, alors que les structures naturelles, telles que les bordures des forêts, sont généralement plus irrégulières, sauf dans les endroits où l’homme a construit une route ou effectué une coupe à blanc. Les fermes où les champs de culture irrigués par des systèmes d’arrosage automatiques présentent des formes circulaires.
La taille d’un objet sur une image est fonction de l’échelle. Il est important d’évaluer la taille d’une cible par rapport aux autres objets dans une scène (taille relative), ainsi que la taille absolue, afin d’aider l’interprétation de cette cible. Une évaluation rapide de la taille approximative d’une cible facilite souvent l’interprétation. Par exemple, dans une image où l’on aurait à distinguer différentes zones d’utilisation du sol et à identifier une aire comportant des bâtiments, les grosses structures telles que les usines ou les entrepôts suggéreraient des propriétés commerciales, tandis que de plus petits éléments suggéreraient des lieux résidentiels.
Le patron réfère à l’agencement spatial des objets visiblement discernables. Une répétition ordonnée de tons similaires et de textures produit un patron distinctif et facilement reconnaissable. Les vergers avec leurs arbres régulièrement disposés, ou les rues régulièrement bordées de maisons sont de bons exemples de patrons.
La texture réfère à l’arrangement et à la fréquence des variations de teintes dans des régions particulières d’une image. Des textures rugueuses consisteraient en des tons en rayures où les niveaux de gris changent brusquement dans une petite région, alors que les textures lisses auraient peu ou pas de variations de tons. Les textures lisses sont souvent le résultat de surfaces uniformes telles que des champs, du pavement ou des terrains gazonnés. Une cible avec une surface rugueuse et une structure irrégulière, telle qu’une forêt, résulte en une texture d’apparence rugueuse. La texture est l’un des éléments les plus importants pour différencier les structures sur une image radar.
Les ombres sont aussi utiles pour l’interprétation puisqu’elles donnent une idée du profil et de la hauteur relative des cibles pouvant être identifiées facilement. Les ombres peuvent cependant réduire, voire éliminer l’interprétation dans leur entourage, puisque les cibles situées dans les ombres sont moins, ou pas du tout discernables. En imagerie radar, les ombres sont particulièrement utiles pour rehausser ou identifier la topographie et les formes géologiques, particulièrement en imagerie radar.
L’association tient compte de la relation entre la cible d’intérêt et d’autres objets ou structures reconnaissables qui sont à proximité. L’identification d’éléments qu’on s’attend normalement à retrouver à proximité d’autres structures peut donner de l’information facilitant l’identification. Dans l’exemple ci-dessous, les propriétés commerciales peuvent être associées avec les routes à proximité, alors que les aires résidentielles seraient associées avec les écoles, les terrains de jeux et de sports. Dans notre exemple, un lac est associé à des bateaux, à une marina et à un parc récréatif tout près.
Le processus de classification d’images
L’ensemble du processus menant de l’image brute acquise par satellite ou par avion à une carte thématique présentant les entités géographiques choisies se décompose en une série d’étapes:
- Exploration des données et prétraitement
- le prétraitement des images
- correction atmosphérique
- le rehaussement de l’image
- les transformations de l’image
- Classification de l’image
- Collecte d’échantillons d’apprentissage
- Évaluation d’échantillons d’apprentissage
- Mise à jour des classes
- Création du fichier de signatures
- Agrégation (classification non assistée)
- Examen du fichier de signatures
- Modification du fichier de signatures
- Application de la classification
- Traitements de post-classification
- Filtrage
- Lissage
- Généralisation
Nous aborderons dans les prochains articles chacun de ces thèmes. Au fur et à mesure des publications, nous ajouterons les liens vers les articles correspondants.
Bonjour
Merci pour ce tutoriel tres inclusif.
Est-ce que la marche a suivre pour la version 2.18 est deja disponible?
Cordialement,
Ce tutoriel comme le plus récent (voir https://www.sigterritoires.fr/index.php/tutoriels-2/classification-dimages/avecqgis/) peuvent être réalisés avec la version 2.18 ou 3.x
Merci. C’est vraiment très intéressant