Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/11058
Registro completo de Metadatos
Campo DCValoridioma
dc.contributor.authorTorti, Emanuele-
dc.contributor.authorFontanella, Alessandro-
dc.contributor.authorPlaza Miguel, Antonio J.-
dc.contributor.authorPlaza Miguel, Javier-
dc.contributor.authorLeporati, Francesco-
dc.date.accessioned2020-07-07T10:07:42Z-
dc.date.available2020-07-07T10:07:42Z-
dc.date.issued2018-
dc.identifier.issn2079-9292-
dc.identifier.urihttp://hdl.handle.net/10662/11058-
dc.description.abstractUna de las tareas más importantes de la imagen hiperespectral es la clasificación de los píxeles de la escena para producir mapas temáticos. Este problema puede ser típicamente resuelto a través de técnicas de aprendizaje automático. En particular, en los últimos años han surgido algoritmos de aprendizaje profundo como metodología adecuada para clasificar los datos hiperespectrales. Además, la gran dimensionalidad de los datos hiperespectrales, junto con la creciente disponibilidad de muestras no etiquetadas, hace que el aprendizaje en profundidad sea un enfoque atractivo para procesar e interpretar esos datos. Sin embargo, el número limitado de muestras etiquetadas suele complicar la explotación de las técnicas supervisadas. De hecho, para garantizar una precisión adecuada, normalmente se requiere un gran número de muestras etiquetadas. Este obstáculo puede superarse mediante recurriendo a algoritmos de clasificación no supervisados. En particular, los autocodificadores pueden ser usados para analizar una imagen hiperespectral usando sólo datos no etiquetados. Sin embargo, la alta dimensionalidad de los datos lleva a tiempos de entrenamiento prohibitivos. A este respecto, es importante tener en cuenta que las operaciones que intervienen en el entrenamiento de los autocodificadores son intrínsecamente paralelas. Por lo tanto, en este documento presentamos un enfoque que explota los dispositivos de múltiples núcleos y de muchos núcleos para lograr una capacitación eficiente de los autocodificadores en aplicaciones de imágenes hiperespectrales. Específicamente, en este documento, presentamos nuevos marcos OpenMP y CUDA para el entrenamiento de autocodificadores. Los resultados obtenidos muestran que el marco CUDA proporciona una aceleración de aproximadamente dos órdenes de magnitud en comparación con una cadena de procesamiento en serie optimizada.es_ES
dc.description.abstractOne of the most important tasks in hyperspectral imaging is the classification of the pixels in the scene in order to produce thematic maps. This problem can be typically solved through machine learning techniques. In particular, deep learning algorithms have emerged in recent years as a suitable methodology to classify hyperspectral data. Moreover, the high dimensionality of hyperspectral data, together with the increasing availability of unlabeled samples, makes deep learning an appealing approach to process and interpret those data. However, the limited number of labeled samples often complicates the exploitation of supervised techniques. Indeed, in order to guarantee a suitable precision, a large number of labeled samples is normally required. This hurdle can be overcome by resorting to unsupervised classification algorithms. In particular, autoencoders can be used to analyze a hyperspectral image using only unlabeled data. However, the high data dimensionality leads to prohibitive training times. In this regard, it is important to realize that the operations involved in autoencoders training are intrinsically parallel. Therefore, in this paper we present an approach that exploits multi-core and many-core devices in order to achieve efficient autoencoders training in hyperspectral imaging applications. Specifically, in this paper, we present new OpenMP and CUDA frameworks for autoencoder training. The obtained results show that the CUDA framework provides a speed-up of about two orders of magnitudes as compared to an optimized serial processing chain.es_ES
dc.format.extent15 p.es_ES
dc.format.mimetypeapplication/pdfen_US
dc.language.isoenges_ES
dc.publisherMDPIes_ES
dc.rightsAtribución 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.subjectUnidades de Procesamiento Gráfico (GPU)es_ES
dc.subjectCPU multi-núcleoes_ES
dc.subjectProcesamiento paraleloes_ES
dc.subjectCUDAes_ES
dc.subjectOpenMPes_ES
dc.subjectImágenes hiperespectraleses_ES
dc.subjectGraphics Processing Units (GPUs)es_ES
dc.subjectMulti-core CPUes_ES
dc.subjectParallel processinges_ES
dc.subjectHyperspectral imaginges_ES
dc.titleHyperspectral image classification using parallel autoencoding diabolo networks on multi-core and many-core architectureses_ES
dc.typearticlees_ES
dc.description.versionpeerReviewedes_ES
europeana.typeTEXTen_US
dc.rights.accessRightsopenAccesses_ES
dc.subject.unesco3310 Tecnología Industriales_ES
europeana.dataProviderUniversidad de Extremadura. Españaes_ES
dc.identifier.bibliographicCitationTORTI, Emanuele, FONTANELLA, Alessandro, PLAZA, Antonio, PLAZA, Javier and LEPORATI, Francesco. Hyperspectral Image Classification Using Parallel Autoencoding Diabolo Networks on Multi-Core and Many-Core Architectures. Electronics [online]. 8 December 2018. Vol. 7, no. 12, p. 411. DOI 10.3390/electronics7120411. Available from: http://dx.doi.org/10.3390/electronics7120411es_ES
dc.type.versionpublishedVersiones_ES
dc.contributor.affiliationUniversità di Pavia. Italiaes_ES
dc.contributor.affiliationUniversidad de Extremadura. Departamento de Tecnología de los Computadores y de las Comunicacioneses_ES
dc.relation.publisherversionhttps://www.mdpi.com/2079-9292/7/12/411es_ES
dc.relation.publisherversionhttps://doi.org/10.3390/electronics7120411es_ES
dc.identifier.doi10.3390/electronics7120411-
dc.identifier.publicationtitleElectronicses_ES
dc.identifier.publicationissue12es_ES
dc.identifier.publicationfirstpage1es_ES
dc.identifier.publicationlastpage15es_ES
dc.identifier.publicationvolume7, 411es_ES
Colección:DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
electronics7120411.pdf1,09 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons