Valoraciones éticas para una inteligencia artificial adecuada a la privacidad
Metadatos
Mostrar el registro completo del ítemAutor
Morte Ferrer, RicardoEditorial
CSIC
Materia
Inteligencia artificial Privacidad Derechos fundamentales Objetivos de protección Artificial intelligence Privacy Fundamental rights Protection goals
Fecha
2022-02-03Referencia bibliográfica
Morte Ferrer, Ricardo (2021). Valoraciones éticas para una inteligencia artificial adecuada a la privacidad. Arbor, 197(802): a628. [https://doi.org/10.3989/arbor.2021.802006]
Patrocinador
European Union’s Horizon 2020 research and innovation programme under grant agreement No. 780073; European Union’s Horizon 2020 research and innovation programme under grant agreement No. 779982Resumen
Desde hace ya bastante tiempo existe una tendencia
a afirmar que el derecho o las normas de diferente tipo no
son adecuadas o aplicables para las diferentes nuevas tecnologías
que van apareciendo de forma continua (computación
en la nube, big data, Internet de las cosas, robots, inteligencia
artificial...). Este trabajo intentará dar la vuelta a ese razonamiento
y, centrándose en la inteligencia artificial, tratará de
plantear criterios adecuados para que esa tecnología y muchas
otras sean desarrolladas y aplicadas de forma adecuada a los
derechos fundamentales en general y a la privacidad en particular.
Dentro de esos criterios se analizará lo que debe aportar
la explicabilidad de la tecnología mencionada (requisito introducido
por diferentes grupos de expertos) y se profundizará en
algunos conceptos adicionales como la posibilidad y la necesidad
de controlar (hasta el punto de poder detener en cualquier
momento un sistema de inteligencia artificial) y de auditar sistemas
de inteligencia artificial. Para realizar la mencionada profundización
se recurrirá a lo que se conoce como objetivos de
protección (disponibilidad, confidencialidad, integridad, transparencia,
no encadenabilidad y capacidad de intervenir) y a los
principios de la ciberética, incluyendo una referencia especial a
la sostenibilidad y a la resiliencia de este tipo de sistemas. For quite some time now, there has been a
tendency to claim that the law or different types of standards are
not adequate or applicable to the different new technologies
that are continuously appearing (cloud computing, big data,
the Internet of Things, robots, Artificial Intelligence, etc.).
This paper will attempt to turn this reasoning on its head and,
focusing on Artificial Intelligence, propose suitable criteria
for this technology and many others to be developed and
applied appropriately to fundamental rights, in general, and
privacy in particular. Within these criteria, an analysis will
be made of what the explainability of the aforementioned
technology should provide (a requirement introduced by
different groups of experts) and some additional concepts,
such as the possibility/necessity of controlling (to the point of
being able to stop an Artificial Intelligence system at any time)
and auditing Artificial Intelligence systems, will be explored
in greater depth. In order to carry out the aforementioned
in-depth study, we will use what are known as protection
goals (availability, confidentiality, integrity, transparency,
unlinkability, and ability to intervene) and the principles of
Cyberethics, including a special reference to the sustainability
and resilience of these types of systems.