Ética y responsabilidad en la era de la IA Generativa
Créditos totales
3 ECTS
Plataformas
Moodle UA + Google Suite
Idioma de impartición
🇪🇸 Castellano
Precio
Por confirmar
Docentes
Profesor/a: Irene Bajo García (correo UA no disponible públicamente)
Profesor/a: Cristina Berenguer Albaladejo (c.berenguer@ua.es)
Profesor/a: María del Carmen Cuadrado Salinas (carmen.cuadrado@ua.es)
Profesor/a: Mari Angeles Rodenas Calatayud (angeles.rodenas@ua.es)
Profesor/a: Adrián Arnaiz‑Rodríguez
Profesor/a: Lucile Alys Favero Montero
Profesor/a: Francisco Herrera Triguero
Profesor/a: Gema Marcilla Córdoba
Profesor/a: María Cristina Zuheros Montes
Contenido de la asignatura
- Tema 1. Ética aplicada a la IA
- Breve introducción a los conceptos básicos de la Filosofía Práctica y a la Ética
Normativa: Razón teórica y razón práctica, valores éticos, derechos humanos, principios jurídicos, éticas deontológicas,
éticas utilitaristas, relativismo ético. - ¿Puede la «Ética de la IA» constituir una disciplina autónoma?
- Una ética aplicada a la IA. Los principios éticos de la IA como un punto de partida
inexcusable, aunque insuficiente, de la ética aplicada a la IA. - Conflictos éticos, dilemas éticos y «casos difíciles» en IA.
- Breve introducción a los conceptos básicos de la Filosofía Práctica y a la Ética
- Tema 2. Filosofía del Derecho aplicada a la IA
- Tipos de sistemas jurídicos, modelos de fuentes del Derecho y problemas de regulación de la IA.
- Problemas de regulación de la IA característicos de los sistemas del common law.
- Problemas de regulación de la IA característicos de los sistemas del civil law. La desregulación de la IA en algunos
sistemas jurídicos de Asia. - La regulación de la IA mediante el Derecho trasnacional y el soft law.
- Tema 3. Filosofía de la mente e IA
- Inteligencia humana versus Inteligencia Artificial.
- El razonamiento que simula la Inteligencia Artificial.
- La «simulación» de operaciones racionales por la IA generativa de los LLMs.
- Hacia otros modelos de IA generativa, como la programación probabilística de Russell.
- Tema 4. El riesgo de pensar con máquinas en la Era de los LLM: la erosión del pensamiento independiente de los usuarios
- Análisis de los avances de los modelos de Lenguaje de Gran Escala (LLM) y su impacto para transformar las actividades
en el trabajo y en la vida cotidiana. - El riesgo de erosión del pensamiento independiente de los usuarios y de la delegación de facultades críticas.
- El problema de la confianza: ¿cómo aseguramos que los usuarios distinguen entre el contenido generado por las
máquinas y las percepciones humanas?
- Análisis de los avances de los modelos de Lenguaje de Gran Escala (LLM) y su impacto para transformar las actividades
- Tema 5. Límites normativos al uso de la IA en la prevención del delito y en la prueba judicial de los hechos
- Uso de la IA en la justicia preventiva: imparcialidad, predictibilidad, sesgos y derechos fundamentales.
- La identificación biométrica mediante sistemas de IA y su impacto en la investigación del delito y en el derecho a la
privacidad ex art. 8 CEDH. - La utilización de dispositivos inteligentes como fuente de prueba en el proceso penal. Criterios de admisibilidad y prueba
pericial.
- Tema 6. La discriminación algorítmica en la toma de decisiones individualizadas
- ¿Qué es la discriminación algorítmica y qué tiene de nueva respecto de la discriminación tradicional?
- ¿Por qué el algoritmo discrimina?
- Principales desafíos que plantea la discriminación algorítmica en relación con la responsabilidad civil por daños.
- Medidas para hacer frente a los daños que pueden derivarse de la discriminación algorítmica en la toma de decisiones.
- Tema 7. Justicia algorítmica, conceptos técnicos e intersección con la sociedad
- Conceptos básicos sobre la justicia algorítmica de grupo.
- Técnicas de «pre-procesado», «in-procesado» y «post-procesado» para conseguir garantías de no discriminación en los
algoritmos de IA. - La intersección entre la regulación de la IA y la implementación técnica de la equidad.
- El desafío de alinear el diseño algorítmico con marcos normativos como la Ley de IA de la UE.
- Tema 8. Responsabilidad corporativa y social. Políticas internas de empresas tecnológicas
- Marcos éticos (UNESCO, IEEE, UE, etc.), políticas internas de empresas tecnológicas.
- Brechas en la regulación y necesidad de autorregulación;
Resultados de la formación y aprendizaje
- Comprender los principales dilemas éticos asociados a la generación de contenido artificial.
- Identificar riesgos de desinformación, deepfakes, discriminación y manipulación.
- Conocer principios y marcos éticos propuestos por instituciones y organismos internacionales.
- Conocer los desafíos de transparencia, explicabilidad y rendición de cuentas.
- Comprender la importancia del diseño responsable en el desarrollo y uso de modelos generativos.
Preinscripción
Por confirmar
Matrícula
Por confirmar
Inicio del curso
Por confirmar
© Universidad de Alicante, 2025

