Abstract
Highly accurate classifications of urban Land Use/Land Cover (LULC) are critical for many remote sensing applications in urban geography. A review of the literature shows that there is no one method that consistently achieves this. Therefore, the goal of this study is to investigate the ability of out-of-box, pixel-based, medium-resolution image fusion classifications to increase the thematic classification accuracy of urban LULC mapping. The objectives identified to achieve this goal were to (1) establish a baseline of nonfusion classification results using supervised and unsupervised algorithms and (2) test 2 fusion methods to explore whether they would improve classification results. The unsupervised optical classification and the image fusion using radar products (H/A/α) with optical and near-infrared (NIR) bands both achieved excellent overall accuracies (89.4% and 89.1%, respectively). Lower accuracies were obtained using a principal components analysis of both optical and radar data. Overall, optical-radar image fusion improved urban LULC classification. The choice of how LULC classes are aggregated and which algorithm is chosen were found to be critical in achieving adequate results for urban mapping.
Résumé
Classifications très précises de l’utilisation des terres urbaines de la couverture terrestre ⟨⟨Land Use/Land Cover⟩⟩ (LULC) sont essentiels pour de nombreuses applications de la télédétection dans la géographie urbaine. Une revue de la littérature montre qu’il n’y a pas une méthode qui permet d’obtenir de façon constante cette. Par conséquent, l’objectif de cette étude est de déterminer la capacité de résolution moyenne classifications de fusion d’images à base de pixels hors-boîte pour augmenter la précision de la classification thématique de la cartographie des LULC urbain. Les objectifs identifiés pour atteindre cet objectif sont (1) d’établir une base des résultats de la classification nonfusion en utilisant des algorithmes supervisés et nonsupervisés et (2) un essai sur deux méthodes de fusion d’explorer si elles améliorer les résultats de classification. La classification optique sans surveillance, et la fusion de l’image en utilisant des produits de radar (H/A/α) avec des bandes optiques et ⟨⟨near-infrared⟩⟩(NIR) fois obtenu d’excellents exactitude globale (89,4% et 89,1%). Précision plus faibles ont été obtenues en utilisant une analyse en composantes principales des deux données optiques et radar. Dans l’ensemble, optique-radar fusion d’image améliorée classification LULC urbain. Le choix de la façon dont les classes LULC sont agrégées et l’algorithme a été choisi a été jugée essentielle à la réalisation des résultats adéquats pour la cartographie urbaine.