Explainable Deep Learning Models for Image Classification Morales Rodríguez, David Morales Santos, Diego Pedro Pegalajar Cuéllar, Manuel Universidad de Granada. Programa de Doctorado en Tecnologías de la Información y la Comunicación La inteligencia artificial (IA) ha evolucionado a un ritmo vertiginoso, transformando radicalmente diversos aspectos de nuestra sociedad así como la manera de entender e interactuar con la tecnología. Este desarrollo no podría entenderse sin la visión por computador, que ha sido uno de los grandes campos de pruebas para la maduración de la IA. Muchos modelos y técnicas desarrollados y perfeccionados en este campo han sido luego extrapolados a otras tareas, haciendo que la evolución de la IA fuera en muchas ocasiones ligada o impulsada por la visión por computador. En concreto, gran mérito de esta evolución lo tienen los modelos de aprendizaje profundo que, sin ser sólo propios del campo de la visión por computador, se han visto influenciados por esta. Estos modelos han demostrado una gran versatilidad y precisión en diversos campos y son a día de hoy empleados para resolver multitud de tareas. Sin embargo, una de las grandes críticas que se le hacen a estos modelos es su opacidad. En esta tesis nos hemos centrado en el campo de la clasificación de imágenes y en estudiar posibles soluciones a este problema de opacidad. En concreto se han estudiado y analizado los retos y limitaciones de estos algoritmos de clasificación con respecto a su interpretabilidad y transparencia. Como resultado de esta labor de investigación y análisis, se han realizado cuatro propuestas concretas que se presentan en forma de cuatro artículos científicos que componen este documento. Estos artículos proponen respectivamente: 1) la integración de técnicas post-hoc en el entrenamiento de clasificadores; 2) la propuesta de un clasificador entrenado en un entorno multitarea para ser explicable; 3) la propuesta de un modelo explicable basado en conceptos humanos y árboles de decisión difusos; y 4) la mejora del modelo propuesto en el artículo anterior por medio de aprendizaje neurosimbólico y reglas lógicas, para logar un modelo que permita la interacción con el usuario y la incoorporación de conocimiento experto. En documento se recogen estos artículos con sus resultados y conclusiones, así como la metodología usada y conclusiones finales obtenidas. The artificial intelligence (AI) has evolved at a remarkably fast speed, radically transforming various aspects of our society as well as the way we understand and interact with technology. This development could not be understood without computer vision, which has been one of the major research areas and testing grounds for AI maturity. Many models and techniques developed and optimized in this field have been extrapolated to other research areas, leading the evolution of AI to be often driven by computer vision. Specifically, deep learning models deserve much credit for this evolution, which, while not exclusively associated with the field of computer vision, have been strongly influenced by it. These models have demonstrated great versatility and accuracy in various fields and are currently employed to solve a multitude of different tasks. However, one of the major criticisms leveled against these models is their opacity. In this thesis, we have focused on the field of image classification and on studying possible solutions to this opacity problem. Specifically, the challenges and limitations of these classification algorithms regarding their interpretability and transparency have been studied and analyzed. As a result of this research and analysis, four specific proposals have been made, presented in the form of four scientific articles comprising this document. These articles propose respectively: 1) the integration of post-hoc techniques in classifier training; 2) the proposal of a classifier trained in a multitask environment to be explainable; 3) the proposal of an explainable model based on human concepts and fuzzy decision trees; and 4) the improvement of the model proposed in the previous article through neurosymbolic learning and logical rules, to achieve a model that allows interaction with the user and the incorporation of expert knowledge. This document compiles these articles with their results and conclusions, as well as the methodology used and final conclusions obtained. 2024-09-24T10:40:13Z 2024-09-24T10:40:13Z 2024 2024-07-12 doctoral thesis David Morales Rodríguez. Explainable Deep Learning Models for Image Classification. Granada: Universidad de Granada, 2024. [https://hdl.handle.net/10481/94993] 9788411954440 https://hdl.handle.net/10481/94993 eng http://creativecommons.org/licenses/by-nc-nd/4.0/ open access Attribution-NonCommercial-NoDerivatives 4.0 Internacional Universidad de Granada