Human Autonomy and Dignity in the AI Age. Ensuring alignment with human values in the development and use of AI-enabled technologies
Metadatos
Mostrar el registro completo del ítemEditorial
Universidad de Granada
Departamento
Universidad de Granada. Programa de Doctorado en FilosofíaFecha
2026-04-24Fecha lectura
2025-07-07Referencia bibliográfica
Del Valle Martínez, Juan Ignacio. Human Autonomy and Dignity in the AI Age. Ensuring alignment with human values in the development and use of AI-enabled technologies. Granada: Universidad de Granada, 2025. [https://hdl.handle.net/10481/112993]
Patrocinador
MCIN/AEI/10.13039/501100011033 and FEDER - (PID2022-137953OB-I00); Tesis Univ. Granada.Resumen
This thesis addresses a pressing challenge in the Responsible AI domain: how to translate
abstract ethical values into concrete, actionable requirements for the design and deployment of
AI-powered systems. While ethical principles such as autonomy, fairness, accountability, or
dignity are frequently invoked in AI policies, they often lack operational clarity. The thesis
proposes a refined methodology for bridging this "operationalization gap" by combining
philosophical analysis with engineering practice.
At the core of the proposed approach is a commitment to contextual sensitivity, philosophical
relevance, and practical applicability. The methodology unfolds in four stages: (1) system
description that describes the technical and operational context, (2) elicitation of relevant ethical
values, (3) interpretation of values in light of contextual details, and (4) translation of these
contextual interpretations into specific technical and non-technical requirements.
The novel element in this method is its emphasis on the interpretation of ethical principles as the
primary enabler of bringing ethical principles into engineering practice. The importance of this
conceptual analysis and the exploitation of its results are demonstrated through two in-depth
case studies. The first examines human autonomy in AI-powered recommender systems,
highlighting recognized problems such as manipulation and cognitive degeneration, as well as
less-explored issues concerning the development of the users’ personal identity. The second
focuses on human dignity in Autonomous Weapon Systems and introduces the notion of
"combatant dignity" as a practical and context-sensitive interpretation of this value. This framing
avoids the metaphysical burden often associated with dignity discourse, while still oXering strong
normative guidance for evaluating the ethical acceptability of AI use in warfare. In both cases, the
method provides a structured approach to mitigating the risks associated with these values
through both technical safeguards and non-technical provisions. Esta tesis aborda un desafío urgente en el ámbito de la Inteligencia Artificial Responsable: cómo
traducir principios éticos abstractos en requisitos concretos y aplicables para el diseño y el uso
de sistemas que integran IA. Aunque principios como la autonomía, la equidad, la
responsabilidad o la dignidad son frecuentemente invocados en las políticas sobre IA, a menudo
carecen de claridad operativa. La tesis propone una metodología para cerrar esta “brecha de
operacionalización” mediante la combinación de un análisis filosófico detallado con la práctica
ingenieril.
El enfoque propuesto se basa en la importancia de la información contextual, la relevancia del
análisis filosófico y la aplicabilidad práctica. La metodología se desarrolla en cuatro etapas: (1)
una descripción de la tecnología que se pretende evaluar y que incluye una descripción detallada
del contexto técnico y operacional, (2) identificación de los valores éticos relevantes, (3)
interpretación de los valores a la luz de los detalles contextuales, y (4) traducción de estas
interpretaciones en requisitos técnicos y no técnicos específicos.
Un elemento novedoso del método propuesto es la importancia que éste confiere a la
interpretación de los principios éticos y cómo esta interpretación facilita una aproximación
ingenieril a los mismos. La importancia de este análisis conceptual y la explotación de sus
resultados se demuestra a través de dos casos de uso concretos. El primero examina la
autonomía humana en sistemas de recomendación potenciados por IA, destacando problemas
previamente reconocidos como la manipulación y la degeneración cognitiva, así como
cuestiones menos exploradas relacionadas con el desarrollo de la identidad personal. El
segundo se centra en la dignidad humana en los sistemas de armas autónomas, e introduce la
noción de “dignidad del combatiente” como una interpretación práctica y contextual de este
valor. Este enfoque evita la carga metafísica que a menudo acompaña al discurso sobre la
dignidad, y al mismo tiempo ofrece una orientación normativa sólida para evaluar la
aceptabilidad ética del uso de la IA en un conflicto armado. En ambos casos, el método
proporciona una forma estructurada de mitigar los riesgos asociados a estos valores mediante
requisitos técnicos y otras consideraciones no técnicas.





