aborda los retos técnicos y normativos vinculados a la integración ética y segura de sistemas inteligentes en plataformas aéreas, considerando metodologías avanzadas de gestión de riesgos, documentación traceable y evaluación continua. Los ámbitos fundamentales incluyen IA explicable, modelos de validación basados en HIL y SIL, análisis de vulnerabilidades y aseguramiento de confiabilidad conforme a marcos regulatorios como ISO 31000 y ISO/IEC 23894, integrándose en procesos de certificación para UAM y eVTOL que demandan alta integridad en algoritmos autónomos y control adaptativo.
El laboratorio especializado facilita pruebas de robustez mediante simulaciones en tiempo real y adquisición avanzada de datos, alineando la trazabilidad de seguridad con estándares internacionales y regulaciones europeas emergentes, incluyendo aspectos de privacidad y ética digital. La formación capacita a roles como Ingeniero de Compliance, Auditor de Sistemas de IA, Especialista en Gobernanza Ética, y Consultor en Evaluación de Riesgos de IA, preparando profesionales para cumplir exigencias regulatorias y operacionales en entornos aeronáuticos altamente dinámicos.
7.800 €
Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.
Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.
**Requisitos recomendados:** Conocimiento básico de IA y sus aplicaciones. Se valorará experiencia en proyectos relacionados con el análisis de riesgos, la documentación y la evaluación de la IA. Dominio del idioma ES/EN (B2+/C1).
1.1 Contexto y finalidad del EU AI Act en la gobernanza de IA
1.2 Alcance, definiciones y categorías de sistemas de IA regulados
1.3 Clasificación de riesgos: limitado, alto y prohibido según la regulación
1.4 Obligaciones generales para proveedores, usuarios y entidades públicas
1.5 Documentación y trazabilidad: registro de decisiones, cambios y versiones
1.6 Evaluación de cumplimiento: metodologías, controles y métricas
1.7 Roles y responsabilidades: comité de IA, DPO, responsables de gobernanza
1.8 Ética en IA: principios, derechos fundamentales y mitigación de sesgos
1.9 Auditoría, supervisión y reporte: auditorías internas y externas
1.10 Caso práctico: go/no-go con matriz de riesgos y criterios de decisión
2.1 Principios de gobernanza de IA: marco normativo, roles y responsabilidades**
2.2 EU AI Act: categorías de riesgo y requisitos de conformidad**
2.3 Evaluación de impacto de IA: metodologías, métricas y herramientas**
2.4 Documentación y trazabilidad: registros, versionado y cambios**
2.5 Gobernanza de datos para IA: calidad, control de acceso y seguridad**
2.6 Ética en IA: sesgos, transparencia y responsabilidad**
2.7 Evaluación y mitigación de riesgos: procesos de identificación y control**
2.8 Auditoría y cumplimiento: planes, procesos y evidencia**
2.9 Gestión de proveedores y cadena de suministro de IA: acuerdos y trazabilidad**
2.10 Caso práctico: go/no-go con matriz de riesgo y cumplimiento**
3.1 Gobernanza de IA: fundamentos, roles, responsabilidades y marco regulatorio del EU AI Act
3.2 Gestión de riesgos de IA: identificación, clasificación, mitigación y supervisión
3.3 Cumplimiento normativo de IA: requisitos del EU AI Act, controles y auditoría
3.4 Documentación de modelos y decisiones: registro, trazabilidad, ciclo de vida y gobernanza de cambios
3.5 Evaluación de IA: métricas, pruebas de rendimiento, seguridad, robustez y evaluación ética
3.6 Ética en IA: sesgos, equidad, derechos humanos, consentimiento y uso responsable
3.7 Gestión de datos y proveedores: gobernanza de datos, calidad, privacidad y evaluación de terceros
3.8 Transparencia y explicabilidad: capacidad de explicar decisiones, registros de decisiones y comunicación con stakeholders
3.9 Auditoría y monitoreo: procesos de revisión, logging, evidencia y cumplimiento continuo
3.10 Caso práctico: go/no-go con matriz de riesgo, cumplimiento y ética
4.1 Enfoque de análisis de riesgos en IA: alcance, métodos y marcos (EU AI Act, ISO/NIST)
4.2 Identificación de riesgos en IA: sesgos, seguridad, privacidad, confiabilidad
4.3 Evaluación y priorización de riesgos: probabilidad, impacto, matrices de riesgo
4.4 Gobernanza de riesgos y roles: comité de riesgo, responsabilidades, trazabilidad
4.5 Evaluación ética y cumplimiento: derechos, no discriminación, transparencia
4.6 Documentación y trazabilidad de decisiones en el ciclo de vida de la IA
4.7 Mitigación de riesgos: controles técnicos y organizativos, procesos de mitigación
4.8 Pruebas, validación y verificación de modelos: pruebas de robustez, seguridad y ataques adversariales
4.9 Gestión de incidentes y aprendizaje: detección, respuesta, informe post mortem
4.10 Caso práctico: matriz de riesgos para go/no-go y plan de mitigación
5.1 Introducción a la Implementación de IA: Marco Regulatorio (EU AI Act)
5.2 Gobernanza de la IA: Principios y Estructuras
5.3 Cumplimiento Normativo: Requisitos Clave de la EU AI Act
5.4 Gestión de Riesgos en Proyectos de IA
5.5 Documentación Integral de Sistemas de IA
5.6 Evaluación y Auditoría de IA: Métricas y Herramientas
5.7 Ética en IA: Principios y Aplicaciones Prácticas
5.8 Diseño e Implementación de IA Responsable
5.9 Casos de Uso: Implementación de IA en Diversos Sectores
5.10 Futuro de la IA: Tendencias y Desafíos
6.1 Introducción al marco legal de IA: Ley de IA de la UE y otras regulaciones relevantes
6.2 Identificación y clasificación de riesgos en proyectos de IA
6.3 Evaluación de riesgos: metodologías y herramientas
6.4 Impacto de la IA en derechos fundamentales y la sociedad
6.5 Análisis de casos prácticos de riesgos en IA
7.1 Marco Regulatorio y la Ley de IA de la UE: Fundamentos y Alcance
7.2 Gobernanza de la IA: Estructura, Roles y Responsabilidades
7.3 Evaluación de Riesgos en la IA: Identificación y Mitigación
7.4 Documentación Integral para Sistemas de IA: Diseño y Mantenimiento
7.5 Ética en IA: Principios, Valores y Alineación con la Ley de IA de la UE
7.6 Cumplimiento Normativo: Proceso y Verificación
7.7 Diseño y Desarrollo de Sistemas de IA Éticos y Seguros
7.8 Evaluación del Impacto en Derechos Fundamentales ( fundamental rights )
7.9 Auditoría y Monitoreo Continuo de Sistemas de IA
7.10 Casos de Estudio: Implementación de IA y Cumplimiento de la EU AI Act
8.1 Marco de Gobernanza de IA: Fundamentos y Principios Éticos
8.2 Cumplimiento Normativo (EU AI Act): Análisis y Requisitos Clave
8.3 Evaluación de Riesgos: Identificación y Mitigación en Proyectos de IA
8.4 Documentación Integral: Estándares y Mejores Prácticas
8.5 Evaluación de Modelos de IA: Métricas y Herramientas
8.6 Ética en IA: Sesgos, Transparencia y Responsabilidad
8.7 Estrategias de Implementación: Planificación y Ejecución
8.8 Casos de Estudio: Implementación de IA en Diversos Sectores
8.9 Optimización del Desempeño: Monitoreo y Mejora Continua
8.10 Futuro de la IA: Tendencias y Desafíos
9.1 Introducción a la IA y la Regulación: Panorama General de la EU AI Act
9.2 Marco Legal: Fundamentos y Alcance de la EU AI Act
9.3 Identificación y Clasificación de Riesgos en Sistemas de IA
9.4 Evaluación de Impacto y Mitigación de Riesgos en IA
9.5 Documentación Esencial para el Cumplimiento Normativo
9.6 Análisis de Casos de Uso: Ejemplos Prácticos y Estudios de Caso
9.7 Herramientas y Tecnologías para el Cumplimiento
9.8 Gobernanza de Datos y Privacidad en la Era de la IA
9.9 Ciberseguridad y Resiliencia en Sistemas de IA
9.10 Futuro de la IA y Adaptación a la Evolución Normativa
10.1 Cumplimiento Normativo y Marco Legal de la EU AI Act
10.2 Identificación y Evaluación de Riesgos en Sistemas de IA
10.3 Documentación Integral para la Transparencia y Trazabilidad de la IA
10.4 Evaluación Ética de Sistemas de IA y sus Impactos
10.5 Estructura de Gobernanza para la Implementación de la EU AI Act
10.6 Estrategias para la Mitigación de Riesgos en IA
10.7 Diseño de un Programa de Cumplimiento Robusto
10.8 Integración de la Ética en el Desarrollo y Despliegue de la IA
10.9 Monitoreo y Auditoría de Sistemas de IA
10.10 Estudio de Caso: Aplicación Práctica de la EU AI Act
DO-160: ensayos y mitigación.
DO-160: ensayos y mitigación.
Consulta “Calendario & convocatorias”, “Becas & ayudas” y “Tasas & financiación” en el mega-menú de SEIUM
Nuestro equipo está listo para ayudarte. Contáctanos y te responderemos lo antes posible.
Si, contamos con certificacion internacional
Sí: modelos experimentales, datos reales, simulaciones aplicadas, entornos profesionales, casos de estudio reales.
No es obligatoria. Ofrecemos tracks de nivelación y tutorización
Totalmente. Cubre e-propulsión, integración y normativa emergente (SC-VTOL).
Recomendado. También hay retos internos y consorcios.
Sí. Modalidad online/híbrida con laboratorios planificados y soporte de visados (ver “Visado & residencia”).