Mostrar el registro sencillo del ítem

dc.contributor.advisorBarranco Expósito, Francisco 
dc.contributor.authorShepstone, Ricardo
dc.date.accessioned2025-01-09T11:02:38Z
dc.date.available2025-01-09T11:02:38Z
dc.date.issued2024-09
dc.date.submitted2024-09
dc.identifier.urihttps://hdl.handle.net/10481/98758
dc.description.abstractEn este trabajo, se presenta la implementación de un sistema basado en redes neuronales convolucionales (CNNs) para la localización y estimación de la pose de objetos a partir de imágenes RGB, aplicable en entornos reales para el agarre robótico, y considerando las condiciones especı́ficas del proyecto IFMIF-DONES. Se realizó un estudio exhaustivo del estado del arte de las arquitecturas para seleccionar la topologı́a más adecuada para esta tarea, ası́ como una revisión de conjuntos de datos y métricas comúnmente utilizados para la evaluación del rendimiento y la comparación. Se desarrolla una metodologı́a que aprovecha entornos de simulación para generar imágenes RGB sintéticas aleatorias y sus etiquetas utilizando modelos CAD proporcionados por el laboratorio de robótica del proyecto IFMIF-DONES. Estos entornos facilitaron la generación de una cantidad significativa de datos de entrenamiento, reduciendo la dependencia de datos reales difı́ciles de obtener en las primeras etapas. El sistema fue desplegado e integrado con otras tecnologı́as en un escenario real, donde fue empleado para la recopilación de datos realistas y el procesamiento de imágenes de una maqueta fı́sica impresa en 3D, obtenida de uno de los modelos CAD. El rendimiento del sistema se evaluó utilizando métricas estándar de estimación de pose, comparándolo con tecnologı́as alternativas, como el sistema de captura de movimiento Vicon. El modelo demostró dificultades al adaptarse a escenarios reales, especialmente debido a la baja definición de la cámara utilizada, la cual simulaba la baja calidad de imagen de cámaras resistentes a la radiación. Además, se realizaron mejoras al modelo basadas en los datos recolectados en el laboratorio del mundo real, logrando resultados satisfactorios y una mejora del rendimiento en el escenario real. Analizamos los efectos de la radiación en los sensores de las cámaras y el ruido resultante en las imágenes, examinando su impacto en la precisión del modelo. Este análisis introdujo el concepto de mantenimiento predictivo, identificando los niveles de ruido en los que el rendimiento del modelo se deteriora significativamente, ofreciendo información sobre cuándo el sistema podrı́a necesitar intervención. Finalmente, se realizó con éxito una prueba de agarre robótico utilizando la implementación del sistema y los modelos ajustados, demostrando la utilidad de esta tecnologı́a para tareas de agarre y manipulación robótica.es_ES
dc.description.abstractIn this work, we present the implementation of a system based on convolutional neural networks (CNN) for the localization and pose estimation of objects from RGB images, applicable in real environments for robotic grasping, considering the specific conditions of the IFMIF-DONES project. A comprehensive study of state-of-the-art architectures was conducted to select the most suitable topology for this task, as well as a review of commonly used datasets and metrics, for performance evaluation and comparison. We developed a methodology that leverages simulation environments to generate randomized synthetic RGB images and ground truth data using CAD models provided by the IFMIF-DONES RH laboratory. These environments facilitated the generation of a significant amount of training data, reducing the reliance on hard to obtain real-world data in early stages. The system was deployed and integrated with other technologies in a real scenario, where it was employed for real-world data collection and processing images of a physical 3D-printed mockup derived from one of the CAD models. The system’s performance was evaluated using standard pose estimation metrics, using alternative technologies for comparison, such as the Vicon motion capture system. The model demonstrated difficulties transitioning to real scenario, especially for the low definition camera used to simulate the poor image quality provided by rad-hard cameras. Additionally, improvements were made to the model based on data collected in the real-world laboratory setup, achieving satisfactory results and performance improvements in the real scenario. We analyzed the effects of radiation on camera sensors and the resulting noise in the images, examining its impact on model accuracy. This analysis introduced the concept of predictive maintenance, identifying the noise levels at which the model’s performance significantly deteriorates, offering insights into when the system may require intervention. Lastly, a successful robotic grasping test was carried out utilizing the system’s implementation and tuned models, proving the usefulness of this technology for robotic grasping & handling tasks.es_ES
dc.description.sponsorshipICAR, PID2022-141466OB-I00es_ES
dc.language.isospaes_ES
dc.publisherUniversidad de Granadaes_ES
dc.rightsCreative Commons Attribution-NonCommercial-NoDerivs 3.0 Licensees_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es_ES
dc.subjectpose estimationes_ES
dc.subjectcomputer visiones_ES
dc.subjectneural networkses_ES
dc.subjectremote handlinges_ES
dc.subjectrobotic graspinges_ES
dc.subjectsimulationes_ES
dc.subjectestimación de posees_ES
dc.subjectvisión por computadores_ES
dc.subjectredes neuronaleses_ES
dc.subjectmanipulación remotaes_ES
dc.subjectagarre robóticoes_ES
dc.subjectsimulaciónes_ES
dc.titleRemote Handling Robotic Systemes_ES
dc.title.alternativeSistema Robótico de Manipulación Remotaes_ES
dc.typemaster thesises_ES
dc.rights.accessRightsopen accesses_ES
dc.type1Proyecto fin de Másteres_ES


Ficheros en el ítem

[PDF]

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Creative Commons Attribution-NonCommercial-NoDerivs 3.0 License
Excepto si se señala otra cosa, la licencia del ítem se describe como Creative Commons Attribution-NonCommercial-NoDerivs 3.0 License