Mostrar el registro sencillo del ítem

dc.contributor.authorDel Valle Martínez, Juan Ignacio
dc.contributor.otherUniversidad de Granada. Programa de Doctorado en Filosofíaes_ES
dc.date.accessioned2026-04-24T11:19:00Z
dc.date.available2026-04-24T11:19:00Z
dc.date.issued2026-04-24
dc.date.submitted2025-07-07
dc.identifier.citationDel Valle Martínez, Juan Ignacio. Human Autonomy and Dignity in the AI Age. Ensuring alignment with human values in the development and use of AI-enabled technologies. Granada: Universidad de Granada, 2025. [https://hdl.handle.net/10481/112993]es_ES
dc.identifier.isbn979-13-7015-047-1
dc.identifier.urihttps://hdl.handle.net/10481/112993
dc.description.abstractThis thesis addresses a pressing challenge in the Responsible AI domain: how to translate abstract ethical values into concrete, actionable requirements for the design and deployment of AI-powered systems. While ethical principles such as autonomy, fairness, accountability, or dignity are frequently invoked in AI policies, they often lack operational clarity. The thesis proposes a refined methodology for bridging this "operationalization gap" by combining philosophical analysis with engineering practice. At the core of the proposed approach is a commitment to contextual sensitivity, philosophical relevance, and practical applicability. The methodology unfolds in four stages: (1) system description that describes the technical and operational context, (2) elicitation of relevant ethical values, (3) interpretation of values in light of contextual details, and (4) translation of these contextual interpretations into specific technical and non-technical requirements. The novel element in this method is its emphasis on the interpretation of ethical principles as the primary enabler of bringing ethical principles into engineering practice. The importance of this conceptual analysis and the exploitation of its results are demonstrated through two in-depth case studies. The first examines human autonomy in AI-powered recommender systems, highlighting recognized problems such as manipulation and cognitive degeneration, as well as less-explored issues concerning the development of the users’ personal identity. The second focuses on human dignity in Autonomous Weapon Systems and introduces the notion of "combatant dignity" as a practical and context-sensitive interpretation of this value. This framing avoids the metaphysical burden often associated with dignity discourse, while still oXering strong normative guidance for evaluating the ethical acceptability of AI use in warfare. In both cases, the method provides a structured approach to mitigating the risks associated with these values through both technical safeguards and non-technical provisions.es_ES
dc.description.abstractEsta tesis aborda un desafío urgente en el ámbito de la Inteligencia Artificial Responsable: cómo traducir principios éticos abstractos en requisitos concretos y aplicables para el diseño y el uso de sistemas que integran IA. Aunque principios como la autonomía, la equidad, la responsabilidad o la dignidad son frecuentemente invocados en las políticas sobre IA, a menudo carecen de claridad operativa. La tesis propone una metodología para cerrar esta “brecha de operacionalización” mediante la combinación de un análisis filosófico detallado con la práctica ingenieril. El enfoque propuesto se basa en la importancia de la información contextual, la relevancia del análisis filosófico y la aplicabilidad práctica. La metodología se desarrolla en cuatro etapas: (1) una descripción de la tecnología que se pretende evaluar y que incluye una descripción detallada del contexto técnico y operacional, (2) identificación de los valores éticos relevantes, (3) interpretación de los valores a la luz de los detalles contextuales, y (4) traducción de estas interpretaciones en requisitos técnicos y no técnicos específicos. Un elemento novedoso del método propuesto es la importancia que éste confiere a la interpretación de los principios éticos y cómo esta interpretación facilita una aproximación ingenieril a los mismos. La importancia de este análisis conceptual y la explotación de sus resultados se demuestra a través de dos casos de uso concretos. El primero examina la autonomía humana en sistemas de recomendación potenciados por IA, destacando problemas previamente reconocidos como la manipulación y la degeneración cognitiva, así como cuestiones menos exploradas relacionadas con el desarrollo de la identidad personal. El segundo se centra en la dignidad humana en los sistemas de armas autónomas, e introduce la noción de “dignidad del combatiente” como una interpretación práctica y contextual de este valor. Este enfoque evita la carga metafísica que a menudo acompaña al discurso sobre la dignidad, y al mismo tiempo ofrece una orientación normativa sólida para evaluar la aceptabilidad ética del uso de la IA en un conflicto armado. En ambos casos, el método proporciona una forma estructurada de mitigar los riesgos asociados a estos valores mediante requisitos técnicos y otras consideraciones no técnicas.es_ES
dc.description.sponsorshipMCIN/AEI/10.13039/501100011033 and FEDER - (PID2022-137953OB-I00)es_ES
dc.description.sponsorshipTesis Univ. Granada.
dc.format.mimetypeapplication/pdfen_US
dc.language.isoenges_ES
dc.publisherUniversidad de Granadaes_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.titleHuman Autonomy and Dignity in the AI Age. Ensuring alignment with human values in the development and use of AI-enabled technologieses_ES
dc.typedoctoral thesises_ES
europeana.typeTEXTen_US
europeana.dataProviderUniversidad de Granada. España.es_ES
europeana.rightshttp://creativecommons.org/licenses/by-nc-nd/3.0/en_US
dc.rights.accessRightsopen accesses_ES
dc.type.hasVersionVoRes_ES


Ficheros en el ítem

[PDF]

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Tesis
    Tesis leídas en la Universidad de Granada

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional