Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/11681
Títulos: Deep & dense convolutional neural network for hyperspectral image classification
Autores/as: Paoletti Ávila, Mercedes Eugenia
Haut Hurtado, Juan Mario
Plaza Miguel, Javier
Plaza Miguel, Antonio
Palabras clave: Imágenes hiperespectrales (HSI);Redes neuronales convolucionales (CNN);Convoluciones densas;Hyperspectral images (HSIs);Convolutional neural networks (CNNs);Dense convolutions
Fecha de publicación: 2018
Editor/a: MDPI
Resumen: Las redes neuronales profundas (DNN) han surgido como una herramienta relevante para la clasificación de las imágenes hiperespectrales de teledetección (HSI), siendo las redes neuronales convolutivas (CNN) el estado actual de la técnica en muchas tareas de clasificación. Sin embargo, las CNN profundas presentan varias limitaciones en el contexto de la clasificación supervisada de las HSI. Aunque los modelos profundos son capaces de extraer características mejores y más abstractas, el número de parámetros que deben afinarse requiere una gran cantidad de datos de capacitación (utilizando pequeñas tasas de aprendizaje) a fin de evitar los problemas de sobreajuste y desaparición de gradientes. La adquisición de datos etiquetados es costosa y lleva mucho tiempo, y las pequeñas tasas de aprendizaje obligan al descenso del gradiente a utilizar muchos pequeños pasos para converger, lo que ralentiza el tiempo de ejecución del modelo. Para mitigar estos problemas, este documento introduce un nuevo marco de CNN profundo para la clasificación espectral-espacial de los HSI. Nuestro nuevo marco de trabajo propuesto introduce conexiones de atajo entre las capas, en las que los mapas de características de las capas inferiores se utilizan como entradas de la capa actual, alimentando su propia salida al resto de las capas superiores. Esto lleva a la combinación de varias características espectrales-espaciales a través de las capas que nos permite mejorar la capacidad de generalización de la red con HSIs. Nuestros resultados experimentales con cuatro conocidos conjuntos de datos de HSI revelan que el modelo propuesto de CNN profundo y denso es capaz de proporcionar ventajas competitivas en términos de precisión de clasificación cuando se compara con otros métodos de vanguardia para la clasificación de HSI.
Deep neural networks (DNNs) have emerged as a relevant tool for the classification of remotely sensed hyperspectral images (HSIs), with convolutional neural networks (CNNs) being the current state-of-the-art in many classification tasks. However, deep CNNs present several limitations in the context of HSI supervised classification. Although deep models are able to extract better and more abstract features, the number of parameters that must be fine-tuned requires a large amount of training data (using small learning rates) in order to avoid the overfitting and vanishing gradient problems. The acquisition of labeled data is expensive and time-consuming, and small learning rates forces the gradient descent to use many small steps to converge, slowing down the runtime of the model. To mitigate these issues, this paper introduces a new deep CNN framework for spectral-spatial classification of HSIs. Our newly proposed framework introduces shortcut connections between layers, in which the feature maps of inferior layers are used as inputs of the current layer, feeding its own output to the rest of the the upper layers. This leads to the combination of various spectral-spatial features across layers that allows us to enhance the generalization ability of the network with HSIs. Our experimental results with four well-known HSI datasets reveal that the proposed deep&dense CNN model is able to provide competitive advantages in terms of classification accuracy when compared to other state-of-the-methods for HSI classification.
URI: http://hdl.handle.net/10662/11681
ISSN: 2072-4292
DOI: 10.3390/rs10091454
Colección:DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
rs10091454.pdf1,93 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons