Explicabilidad (de la inteligencia artificial)
Título (trad.)
Explainable ArtificiaI IntelligenceAutor (es)
Ortiz de Zárate Alcarazo, LucíaEntidad
UAM. Departamento de Ciencia Política y Relaciones InternacionalesEditor
Universidad Carlos III de MadridFecha de edición
2022-03-23Cita
10.20318/eunomia.2022.6819
Eunomía: Revista en Cultura de la Legalidad 22 (2022): 328-344
ISSN
2253-6655DOI
10.20318/eunomia.2022.6819Versión del editor
https://doi.org/10.20318/eunomia.2022.6819Materias
Inteligencia artificial; Ética; DerechoDerechos
© 2022 Eunomía. Revista en Cultura de la LegalidadEsta obra está bajo una licencia de Creative Commons Reconocimiento-SinObraDerivada 4.0 Internacional.
Resumen
La Inteligencia Artificial (IA) se ha convertido en uno de los ejes centrales de las estrategias de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la autonomía humana, la previsión del daño y la explicabilidad. El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito de la IA); cuándo es necesario dar explicaciones y de qué tipo de explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistema de IA.
Lista de ficheros
Google Scholar:Ortiz de Zárate Alcarazo, Lucía
Lista de colecciones del ítem
Registros relacionados
Mostrando ítems relacionados por título, autor, creador y materia.
-
De la razón artificial a la inteligencia artificial
Gil Aluja, Jaime
2020-04 -
Aplicación de Inteligencia Artificial para la predicción del consumo de materiales en un despliegue FTTH a nivel nacional
Alonso San Segundo, Diego
2019-05