Explainable Deep Learning Models for Image Classification
Metadatos
Afficher la notice complèteAuteur
Morales Rodríguez, DavidEditorial
Universidad de Granada
Departamento
Universidad de Granada. Programa de Doctorado en Tecnologías de la Información y la ComunicaciónDate
2024Fecha lectura
2024-07-12Referencia bibliográfica
David Morales Rodríguez. Explainable Deep Learning Models for Image Classification. Granada: Universidad de Granada, 2024. [https://hdl.handle.net/10481/94993]
Patrocinador
Tesis Univ. Granada.Résumé
La inteligencia artificial (IA) ha evolucionado a un ritmo vertiginoso, transformando
radicalmente diversos aspectos de nuestra sociedad así como la
manera de entender e interactuar con la tecnología. Este desarrollo no podría
entenderse sin la visión por computador, que ha sido uno de los grandes
campos de pruebas para la maduración de la IA. Muchos modelos y técnicas
desarrollados y perfeccionados en este campo han sido luego extrapolados a
otras tareas, haciendo que la evolución de la IA fuera en muchas ocasiones ligada
o impulsada por la visión por computador. En concreto, gran mérito de
esta evolución lo tienen los modelos de aprendizaje profundo que, sin ser sólo
propios del campo de la visión por computador, se han visto influenciados
por esta. Estos modelos han demostrado una gran versatilidad y precisión
en diversos campos y son a día de hoy empleados para resolver multitud
de tareas. Sin embargo, una de las grandes críticas que se le hacen a estos
modelos es su opacidad.
En esta tesis nos hemos centrado en el campo de la clasificación de imágenes
y en estudiar posibles soluciones a este problema de opacidad. En concreto
se han estudiado y analizado los retos y limitaciones de estos algoritmos de
clasificación con respecto a su interpretabilidad y transparencia.
Como resultado de esta labor de investigación y análisis, se han realizado
cuatro propuestas concretas que se presentan en forma de cuatro artículos
científicos que componen este documento. Estos artículos proponen respectivamente:
1) la integración de técnicas post-hoc en el entrenamiento de
clasificadores; 2) la propuesta de un clasificador entrenado en un entorno
multitarea para ser explicable; 3) la propuesta de un modelo explicable basado
en conceptos humanos y árboles de decisión difusos; y 4) la mejora del
modelo propuesto en el artículo anterior por medio de aprendizaje neurosimbólico
y reglas lógicas, para logar un modelo que permita la interacción con
el usuario y la incoorporación de conocimiento experto.
En documento se recogen estos artículos con sus resultados y conclusiones,
así como la metodología usada y conclusiones finales obtenidas. The artificial intelligence (AI) has evolved at a remarkably fast speed, radically
transforming various aspects of our society as well as the way we
understand and interact with technology. This development could not be understood
without computer vision, which has been one of the major research
areas and testing grounds for AI maturity. Many models and techniques developed
and optimized in this field have been extrapolated to other research
areas, leading the evolution of AI to be often driven by computer vision. Specifically,
deep learning models deserve much credit for this evolution, which,
while not exclusively associated with the field of computer vision, have been
strongly influenced by it. These models have demonstrated great versatility
and accuracy in various fields and are currently employed to solve a multitude
of different tasks. However, one of the major criticisms leveled against
these models is their opacity.
In this thesis, we have focused on the field of image classification and on studying
possible solutions to this opacity problem. Specifically, the challenges
and limitations of these classification algorithms regarding their interpretability
and transparency have been studied and analyzed. As a result of this
research and analysis, four specific proposals have been made, presented in
the form of four scientific articles comprising this document. These articles
propose respectively: 1) the integration of post-hoc techniques in classifier
training; 2) the proposal of a classifier trained in a multitask environment
to be explainable; 3) the proposal of an explainable model based on human
concepts and fuzzy decision trees; and 4) the improvement of the model
proposed in the previous article through neurosymbolic learning and logical
rules, to achieve a model that allows interaction with the user and the
incorporation of expert knowledge.
This document compiles these articles with their results and conclusions, as
well as the methodology used and final conclusions obtained.