Mostrar el registro sencillo del ítem

dc.contributor.advisorNieto Librero, Ana Belén es_ES
dc.contributor.advisorVicente Villardón, José Luis es_ES
dc.contributor.authorGarcía Vega, Julia
dc.date.accessioned2025-02-20T09:41:02Z
dc.date.available2025-02-20T09:41:02Z
dc.date.issued2024-07
dc.identifier.urihttp://hdl.handle.net/10366/163859
dc.descriptionTrabajo de fin de Grado. Grado en Estadística. Curso académico 2023-2024.es_ES
dc.description.abstract[ES]Las redes neuronales convolucionales se han convertido en la principal técnica para la segmentación de imágenes quedando los métodos anteriores obsoletos. Desde que se presentó la primera arquitectura convolucional adaptada para la segmentación, numerosas arquitecturas han sido propuestas por investigadores. Entre estas arquitecturas destacan SegNet, U-Net y DeepLab. Este trabajo presenta un estudio sobre la implementación y optimización de estas tres arquitecturas de redes neuronales convolucionales para la segmentación de imágenes del entorno urbano. El objetivo de este trabajo es lograr un modelo de segmentación entrenado que sea óptimo en la segmentación de imágenes de la vía urbana desde la perspectiva de un peatón para un posible futuro uso en dispositivos de asistencia en la navegación de personas con discapacidad visual. Para ello se utilizó herramientas como Python, Google Colaboratory y TensorFlow y se evaluaron los modelos en base a diversas métricas de precisión. Los resultados muestran que la arquitectura U-Net con hiperparámetros optimizados se ajusta mejor a los datos frente a las otras dos arquitecturas ofreciendo una segmentación con un porcentaje de clasificación correcta de los pixeles de un 90%. Esta alta precisión deja abierta la posibilidad de una implementación en dispositivos de asistencia para personas con discapacidad visual para una navegación más autónoma y segura por la vía urbana.es_ES
dc.description.abstract[EN]Convolutional neural networks have become the primary technique for image segmentation, rendering previous methods obsolete. Since the introduction of the first convolutional architecture adapted for segmentation, numerous architectures have been proposed by researchers. Notable among these are SegNet, U-Net, and DeepLab. This work presents a study on the implementation and optimization of these three convolutional neural network architectures for urban environment image segmentation. The objective of this work is to achieve a trained segmentation model that is optimal for segmenting urban road images from a pedestrian's perspective for potential future use in assistive navigation devices for visually impaired individuals. Tools such as Python, Google Colaboratory, and TensorFlow were used, and the models were evaluated based on various accuracy metrics. The results show that the U-Net architecture with optimized hyperparameters fits the data better than the other two architectures, offering segmentation with a correct pixel classification rate of 90%. This high accuracy opens the possibility of implementation in assistive devices for visually impaired individuals, facilitating more autonomous and safer navigation in urban environments.
dc.language.isospaes_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectRedes neuronales convolucionaleses_ES
dc.subjectSegmentación de imágeneses_ES
dc.subjectU-Netes_ES
dc.subjectSegNetes_ES
dc.subjectDeepLabes_ES
dc.subjectConvolutional neural networkses_ES
dc.subjectImage segmentationes_ES
dc.titleEstudio e implementación de redes neuronales convolucionales para la segmentación de imágeneses_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.subject.unesco1209 Estadísticaes_ES
dc.subject.unesco1209.09 Análisis Multivariantees_ES
dc.subject.unesco1209.03 Análisis de Datoses_ES
dc.subject.unesco1203.04 Inteligencia Artificiales_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses_ES


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional