Hyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectures

DSpace/Manakin Repository

español português english

Hyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectures

Show full item record

Title: Hyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectures
Author: Torti, Emanuele; Fontanella, Alessandro; Plaza Miguel, Antonio; Plaza Miguel, Javier; Leporati, Francesco
Abstract: Una de las tareas más importantes de la imagen hiperespectral es la clasificación de los píxeles de la escena para producir mapas temáticos. Este problema puede ser típicamente resuelto a través de técnicas de aprendizaje automático. En particular, en los últimos años han surgido algoritmos de aprendizaje profundo como metodología adecuada para clasificar los datos hiperespectrales. Además, la gran dimensionalidad de los datos hiperespectrales, junto con la creciente disponibilidad de muestras no etiquetadas, hace que el aprendizaje en profundidad sea un enfoque atractivo para procesar e interpretar esos datos. Sin embargo, el número limitado de muestras etiquetadas suele complicar la explotación de las técnicas supervisadas. De hecho, para garantizar una precisión adecuada, normalmente se requiere un gran número de muestras etiquetadas. Este obstáculo puede superarse mediante recurriendo a algoritmos de clasificación no supervisados. En particular, los autocodificadores pueden ser usados para analizar una imagen hiperespectral usando sólo datos no etiquetados. Sin embargo, la alta dimensionalidad de los datos lleva a tiempos de entrenamiento prohibitivos. A este respecto, es importante tener en cuenta que las operaciones que intervienen en el entrenamiento de los autocodificadores son intrínsecamente paralelas. Por lo tanto, en este documento presentamos un enfoque que explota los dispositivos de múltiples núcleos y de muchos núcleos para lograr una capacitación eficiente de los autocodificadores en aplicaciones de imágenes hiperespectrales. Específicamente, en este documento, presentamos nuevos marcos OpenMP y CUDA para el entrenamiento de autocodificadores. Los resultados obtenidos muestran que el marco CUDA proporciona una aceleración de aproximadamente dos órdenes de magnitud en comparación con una cadena de procesamiento en serie optimizada.One of the most important tasks in hyperspectral imaging is the classification of the pixels in the scene in order to produce thematic maps. This problem can be typically solved through machine learning techniques. In particular, deep learning algorithms have emerged in recent years as a suitable methodology to classify hyperspectral data. Moreover, the high dimensionality of hyperspectral data, together with the increasing availability of unlabeled samples, makes deep learning an appealing approach to process and interpret those data. However, the limited number of labeled samples often complicates the exploitation of supervised techniques. Indeed, in order to guarantee a suitable precision, a large number of labeled samples is normally required. This hurdle can be overcome by resorting to unsupervised classification algorithms. In particular, autoencoders can be used to analyze a hyperspectral image using only unlabeled data. However, the high data dimensionality leads to prohibitive training times. In this regard, it is important to realize that the operations involved in autoencoders training are intrinsically parallel. Therefore, in this paper we present an approach that exploits multi-core and many-core devices in order to achieve efficient autoencoders training in hyperspectral imaging applications. Specifically, in this paper, we present new OpenMP and CUDA frameworks for autoencoder training. The obtained results show that the CUDA framework provides a speed-up of about two orders of magnitudes as compared to an optimized serial processing chain.
URI: http://hdl.handle.net/10662/11058
Date: 2018


Files in this item

Files Size Format View
electronics7120411.pdf 1.061Mb PDF View  Thumbnail

The following license files are associated with this item:

This item appears in the following Collection(s)

Show full item record

Atribución 4.0 Internacional Except where otherwise noted, this item's license is described as Atribución 4.0 Internacional

Search DSpace


Browse

My Account

Statistics

Help

Redes sociales