Mostrar el registro sencillo del ítem

dc.contributor.authorMorte Ferrer, Ricardo
dc.date.accessioned2022-02-22T08:41:26Z
dc.date.available2022-02-22T08:41:26Z
dc.date.issued2022-02-03
dc.identifier.citationMorte Ferrer, Ricardo (2021). Valoraciones éticas para una inteligencia artificial adecuada a la privacidad. Arbor, 197(802): a628. [https://doi.org/10.3989/arbor.2021.802006]es_ES
dc.identifier.urihttp://hdl.handle.net/10481/72937
dc.descriptionEste artículo ha sido elaborado en el marco de sendas colaboraciones con los proyectos INBOTS (European Union’s Horizon 2020 research and innovation programme under grant agreement No. 780073) y EXTEND (European Union’s Horizon 2020 research and innovation programme under grant agreement No. 779982).es_ES
dc.description.abstractDesde hace ya bastante tiempo existe una tendencia a afirmar que el derecho o las normas de diferente tipo no son adecuadas o aplicables para las diferentes nuevas tecnologías que van apareciendo de forma continua (computación en la nube, big data, Internet de las cosas, robots, inteligencia artificial...). Este trabajo intentará dar la vuelta a ese razonamiento y, centrándose en la inteligencia artificial, tratará de plantear criterios adecuados para que esa tecnología y muchas otras sean desarrolladas y aplicadas de forma adecuada a los derechos fundamentales en general y a la privacidad en particular. Dentro de esos criterios se analizará lo que debe aportar la explicabilidad de la tecnología mencionada (requisito introducido por diferentes grupos de expertos) y se profundizará en algunos conceptos adicionales como la posibilidad y la necesidad de controlar (hasta el punto de poder detener en cualquier momento un sistema de inteligencia artificial) y de auditar sistemas de inteligencia artificial. Para realizar la mencionada profundización se recurrirá a lo que se conoce como objetivos de protección (disponibilidad, confidencialidad, integridad, transparencia, no encadenabilidad y capacidad de intervenir) y a los principios de la ciberética, incluyendo una referencia especial a la sostenibilidad y a la resiliencia de este tipo de sistemas.es_ES
dc.description.abstractFor quite some time now, there has been a tendency to claim that the law or different types of standards are not adequate or applicable to the different new technologies that are continuously appearing (cloud computing, big data, the Internet of Things, robots, Artificial Intelligence, etc.). This paper will attempt to turn this reasoning on its head and, focusing on Artificial Intelligence, propose suitable criteria for this technology and many others to be developed and applied appropriately to fundamental rights, in general, and privacy in particular. Within these criteria, an analysis will be made of what the explainability of the aforementioned technology should provide (a requirement introduced by different groups of experts) and some additional concepts, such as the possibility/necessity of controlling (to the point of being able to stop an Artificial Intelligence system at any time) and auditing Artificial Intelligence systems, will be explored in greater depth. In order to carry out the aforementioned in-depth study, we will use what are known as protection goals (availability, confidentiality, integrity, transparency, unlinkability, and ability to intervene) and the principles of Cyberethics, including a special reference to the sustainability and resilience of these types of systems.es_ES
dc.description.sponsorshipEuropean Union’s Horizon 2020 research and innovation programme under grant agreement No. 780073es_ES
dc.description.sponsorshipEuropean Union’s Horizon 2020 research and innovation programme under grant agreement No. 779982es_ES
dc.language.isospaes_ES
dc.publisherCSICes_ES
dc.rightsAtribución 3.0 España*
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/es/*
dc.subjectInteligencia artificial es_ES
dc.subjectPrivacidades_ES
dc.subjectDerechos fundamentaleses_ES
dc.subjectObjetivos de protecciónes_ES
dc.subjectArtificial intelligence es_ES
dc.subjectPrivacyes_ES
dc.subjectFundamental rightses_ES
dc.subjectProtection goalses_ES
dc.titleValoraciones éticas para una inteligencia artificial adecuada a la privacidades_ES
dc.title.alternativeEthical assessments for a privacy-friendly artificial intelligencees_ES
dc.typejournal articlees_ES
dc.relation.projectIDinfo:eu-repo/grantAgreement/EC/H2020/780073es_ES
dc.relation.projectIDinfo:eu-repo/grantAgreement/EC/H2020/779982es_ES
dc.rights.accessRightsopen accesses_ES
dc.identifier.doi10.3989/arbor.2021.802006
dc.type.hasVersionVoRes_ES


Ficheros en el ítem

[PDF]

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución 3.0 España
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución 3.0 España