Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/11058
Títulos: Hyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectures
Autores/as: Torti, Emanuele
Fontanella, Alessandro
Plaza Miguel, Antonio
Plaza Miguel, Javier
Leporati, Francesco
Palabras clave: Unidades de Procesamiento Gráfico (GPU);CPU multi-núcleo;Procesamiento paralelo;CUDA;OpenMP;Imágenes hiperespectrales;Graphics Processing Units (GPUs);Multi-core CPU;Parallel processing;Hyperspectral imaging
Fecha de publicación: 2018
Editor/a: MDPI
Resumen: Una de las tareas más importantes de la imagen hiperespectral es la clasificación de los píxeles de la escena para producir mapas temáticos. Este problema puede ser típicamente resuelto a través de técnicas de aprendizaje automático. En particular, en los últimos años han surgido algoritmos de aprendizaje profundo como metodología adecuada para clasificar los datos hiperespectrales. Además, la gran dimensionalidad de los datos hiperespectrales, junto con la creciente disponibilidad de muestras no etiquetadas, hace que el aprendizaje en profundidad sea un enfoque atractivo para procesar e interpretar esos datos. Sin embargo, el número limitado de muestras etiquetadas suele complicar la explotación de las técnicas supervisadas. De hecho, para garantizar una precisión adecuada, normalmente se requiere un gran número de muestras etiquetadas. Este obstáculo puede superarse mediante recurriendo a algoritmos de clasificación no supervisados. En particular, los autocodificadores pueden ser usados para analizar una imagen hiperespectral usando sólo datos no etiquetados. Sin embargo, la alta dimensionalidad de los datos lleva a tiempos de entrenamiento prohibitivos. A este respecto, es importante tener en cuenta que las operaciones que intervienen en el entrenamiento de los autocodificadores son intrínsecamente paralelas. Por lo tanto, en este documento presentamos un enfoque que explota los dispositivos de múltiples núcleos y de muchos núcleos para lograr una capacitación eficiente de los autocodificadores en aplicaciones de imágenes hiperespectrales. Específicamente, en este documento, presentamos nuevos marcos OpenMP y CUDA para el entrenamiento de autocodificadores. Los resultados obtenidos muestran que el marco CUDA proporciona una aceleración de aproximadamente dos órdenes de magnitud en comparación con una cadena de procesamiento en serie optimizada.
One of the most important tasks in hyperspectral imaging is the classification of the pixels in the scene in order to produce thematic maps. This problem can be typically solved through machine learning techniques. In particular, deep learning algorithms have emerged in recent years as a suitable methodology to classify hyperspectral data. Moreover, the high dimensionality of hyperspectral data, together with the increasing availability of unlabeled samples, makes deep learning an appealing approach to process and interpret those data. However, the limited number of labeled samples often complicates the exploitation of supervised techniques. Indeed, in order to guarantee a suitable precision, a large number of labeled samples is normally required. This hurdle can be overcome by resorting to unsupervised classification algorithms. In particular, autoencoders can be used to analyze a hyperspectral image using only unlabeled data. However, the high data dimensionality leads to prohibitive training times. In this regard, it is important to realize that the operations involved in autoencoders training are intrinsically parallel. Therefore, in this paper we present an approach that exploits multi-core and many-core devices in order to achieve efficient autoencoders training in hyperspectral imaging applications. Specifically, in this paper, we present new OpenMP and CUDA frameworks for autoencoder training. The obtained results show that the CUDA framework provides a speed-up of about two orders of magnitudes as compared to an optimized serial processing chain.
URI: http://hdl.handle.net/10662/11058
ISSN: 2079-9292
DOI: 10.3390/electronics7120411
Colección:DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
electronics7120411.pdf1,09 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons