Identificador persistente para citar o vincular este elemento:
http://hdl.handle.net/10662/11058
Registro completo de Metadatos
Campo DC | Valor | idioma |
---|---|---|
dc.contributor.author | Torti, Emanuele | - |
dc.contributor.author | Fontanella, Alessandro | - |
dc.contributor.author | Plaza, Antonio | - |
dc.contributor.author | Plaza Miguel, Javier | - |
dc.contributor.author | Leporati, Francesco | - |
dc.date.accessioned | 2020-07-07T10:07:42Z | - |
dc.date.available | 2020-07-07T10:07:42Z | - |
dc.date.issued | 2018 | - |
dc.identifier.issn | 2079-9292 | - |
dc.identifier.uri | http://hdl.handle.net/10662/11058 | - |
dc.description.abstract | Una de las tareas más importantes de la imagen hiperespectral es la clasificación de los píxeles de la escena para producir mapas temáticos. Este problema puede ser típicamente resuelto a través de técnicas de aprendizaje automático. En particular, en los últimos años han surgido algoritmos de aprendizaje profundo como metodología adecuada para clasificar los datos hiperespectrales. Además, la gran dimensionalidad de los datos hiperespectrales, junto con la creciente disponibilidad de muestras no etiquetadas, hace que el aprendizaje en profundidad sea un enfoque atractivo para procesar e interpretar esos datos. Sin embargo, el número limitado de muestras etiquetadas suele complicar la explotación de las técnicas supervisadas. De hecho, para garantizar una precisión adecuada, normalmente se requiere un gran número de muestras etiquetadas. Este obstáculo puede superarse mediante recurriendo a algoritmos de clasificación no supervisados. En particular, los autocodificadores pueden ser usados para analizar una imagen hiperespectral usando sólo datos no etiquetados. Sin embargo, la alta dimensionalidad de los datos lleva a tiempos de entrenamiento prohibitivos. A este respecto, es importante tener en cuenta que las operaciones que intervienen en el entrenamiento de los autocodificadores son intrínsecamente paralelas. Por lo tanto, en este documento presentamos un enfoque que explota los dispositivos de múltiples núcleos y de muchos núcleos para lograr una capacitación eficiente de los autocodificadores en aplicaciones de imágenes hiperespectrales. Específicamente, en este documento, presentamos nuevos marcos OpenMP y CUDA para el entrenamiento de autocodificadores. Los resultados obtenidos muestran que el marco CUDA proporciona una aceleración de aproximadamente dos órdenes de magnitud en comparación con una cadena de procesamiento en serie optimizada. | es_ES |
dc.description.abstract | One of the most important tasks in hyperspectral imaging is the classification of the pixels in the scene in order to produce thematic maps. This problem can be typically solved through machine learning techniques. In particular, deep learning algorithms have emerged in recent years as a suitable methodology to classify hyperspectral data. Moreover, the high dimensionality of hyperspectral data, together with the increasing availability of unlabeled samples, makes deep learning an appealing approach to process and interpret those data. However, the limited number of labeled samples often complicates the exploitation of supervised techniques. Indeed, in order to guarantee a suitable precision, a large number of labeled samples is normally required. This hurdle can be overcome by resorting to unsupervised classification algorithms. In particular, autoencoders can be used to analyze a hyperspectral image using only unlabeled data. However, the high data dimensionality leads to prohibitive training times. In this regard, it is important to realize that the operations involved in autoencoders training are intrinsically parallel. Therefore, in this paper we present an approach that exploits multi-core and many-core devices in order to achieve efficient autoencoders training in hyperspectral imaging applications. Specifically, in this paper, we present new OpenMP and CUDA frameworks for autoencoder training. The obtained results show that the CUDA framework provides a speed-up of about two orders of magnitudes as compared to an optimized serial processing chain. | es_ES |
dc.format.extent | 15 p. | es_ES |
dc.format.mimetype | application/pdf | en_US |
dc.language.iso | eng | es_ES |
dc.publisher | MDPI | es_ES |
dc.rights | Atribución 4.0 Internacional | * |
dc.rights.uri | http://creativecommons.org/licenses/by/4.0/ | * |
dc.subject | Unidades de Procesamiento Gráfico (GPU) | es_ES |
dc.subject | CPU multi-núcleo | es_ES |
dc.subject | Procesamiento paralelo | es_ES |
dc.subject | CUDA | es_ES |
dc.subject | OpenMP | es_ES |
dc.subject | Imágenes hiperespectrales | es_ES |
dc.subject | Graphics Processing Units (GPUs) | es_ES |
dc.subject | Multi-core CPU | es_ES |
dc.subject | Parallel processing | es_ES |
dc.subject | Hyperspectral imaging | es_ES |
dc.title | Hyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectures | es_ES |
dc.type | article | es_ES |
dc.description.version | peerReviewed | es_ES |
europeana.type | TEXT | en_US |
dc.rights.accessRights | openAccess | es_ES |
dc.subject.unesco | 3310 Tecnología Industrial | es_ES |
europeana.dataProvider | Universidad de Extremadura. España | es_ES |
dc.identifier.bibliographicCitation | TORTI, Emanuele, FONTANELLA, Alessandro, PLAZA, Antonio, PLAZA, Javier and LEPORATI, Francesco. Hyperspectral Image Classification Using Parallel Autoencoding Diabolo Networks on Multi-Core and Many-Core Architectures. Electronics [online]. 8 December 2018. Vol. 7, no. 12, p. 411. DOI 10.3390/electronics7120411. Available from: http://dx.doi.org/10.3390/electronics7120411 | es_ES |
dc.type.version | publishedVersion | es_ES |
dc.contributor.affiliation | Università di Pavia. Italia | es_ES |
dc.contributor.affiliation | Universidad de Extremadura. Departamento de Tecnología de los Computadores y de las Comunicaciones | es_ES |
dc.relation.publisherversion | https://www.mdpi.com/2079-9292/7/12/411 | es_ES |
dc.relation.publisherversion | https://doi.org/10.3390/electronics7120411 | es_ES |
dc.identifier.doi | 10.3390/electronics7120411 | - |
dc.identifier.publicationtitle | Electronics | es_ES |
dc.identifier.publicationissue | 12 | es_ES |
dc.identifier.publicationfirstpage | 1 | es_ES |
dc.identifier.publicationlastpage | 15 | es_ES |
dc.identifier.publicationvolume | 7, 411 | es_ES |
Colección: | DTCYC - Artículos |
Archivos
Archivo | Descripción | Tamaño | Formato | |
---|---|---|---|---|
electronics7120411.pdf | 1,09 MB | Adobe PDF | Descargar |
Este elemento está sujeto a una licencia Licencia Creative Commons