aborda la optimización avanzada de modelos mediante técnicas como la cuantización, pruning y on-device inference, utilizando frameworks como TensorRT, TFLite y ONNX. Este campo integra áreas fundamentales como visión por computadora, procesamiento en tiempo real y sistemas embebidos, apoyándose en metodologías de desarrollo ágil y simulación GPU-accelerated para garantizar eficiencia en entornos con restricciones energéticas y de memoria propias de plataformas UAV y sistemas de a bordo en aeronáutica. Se aplican modelos compactos y técnicas de compresión para respetar los límites impuestos por el hardware sin comprometer la precisión inferencial, clave en aplicaciones de control autónomo y navegación predictiva.
Los laboratorios cuentan con entornos HIL/SIL que permiten validar la inferencia on-device bajo condiciones de prueba rigurosas, evaluando latencia, consumo energético y robustez frente a vibraciones y EMI conforme a normativa aplicable internacional. La trazabilidad se asegura mediante estándares de seguridad funcional e integración de software embebido alineados con DO-178C, DO-254 y principios de ARP4754A. Las competencias desarrolladas habilitan a profesionales para roles en ingeniería de software embebido, desarrollo de sistemas autónomos, data science aplicada, integración de sistemas críticos y gestión de certificación aeronáutica.
Palabras clave objetivo (naturales en el texto): cuantización, pruning, on-device inference, TensorRT, TFLite, ONNX, Edge AI, HIL, SIL, DO-178C, DO-254, ARP4754A, sistemas embebidos, inferencia en tiempo real.
2.480 €
Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.
Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.
Requisitos recomendados: Conocimientos básicos de aprendizaje automático, Python y experiencia con frameworks de deep learning (TensorFlow, PyTorch); EN B2+/C1.
1.1 Edge AI: conceptos clave y relevancia en entornos navales (vigilancia, sensores, sistemas autónomos)
1.2 Diferencias entre Edge y Cloud: cuándo desplegar inferencias a bordo y en entornos con conectividad limitada
1.3 Herramientas y formatos: TensorRT, TFLite y ONNX como pilares para optimización y despliegue
1.4 Flujo de desarrollo típico: entrenamiento, conversión/formatos, optimización e implementación en dispositivo
1.5 Cuantización: principios, impacto en tamaño, rendimiento y precisión aceptable para aplicaciones navales
1.6 Poda e optimización de modelos: reducir complejidad sin perder rendimiento crítico en tareas a bordo
1.7 Inferencia On-Device: runtimes, administración de memoria, latencia y ejecución en hardware limitado
1.8 Seguridad y gobernanza: integridad de modelos, actualizaciones OTA y cumplimiento en entornos marinos
1.9 Métricas de rendimiento para Edge AI: latencia, throughput, consumo de energía y robustez ante condiciones reales
1.10 Casos de uso navales: detección de anomalías en equipos, vigilancia costera, sistemas de navegación asistida y mantenimiento predictivo
2.1 Fundamentos de IA en Edge: diferencias entre nube y dispositivo, arquitectura de edge y dispositivos objetivo
2.2 Cuantización: técnicas (post-entrenamiento y quantization-aware training) y efectos en precisión y rendimiento
2.3 Poda (Pruning): poda estructural y no estructural, impacto en tamaño, memoria y velocidad
2.4 Inferencia On-Device: TensorRT, TFLite y ONNX Runtime, pipelines, compatibilidad y optimización
2.5 Optimización de modelos para recursos limitados: cuantización, poda y distilación para edge
2.6 Despliegue y pipelines: conversión de modelos, calibración y flujos de despliegue a dispositivos edge
2.7 Evaluación de rendimiento en Edge: latencia, throughput, jitter y determinismo
2.8 Eficiencia energética y térmica: consumo, disipación y gestión térmica en dispositivos edge
2.9 Seguridad, robustez y fiabilidad: ruido de cuantización, ataques adversariales y mitigaciones
2.10 Caso práctico: laboratorio de optimización de un modelo sencillo para edge usando TensorRT, TFLite y ONNX
3.1 Fundamentos de IA Edge: conceptos, arquitectura y requisitos de despliegue
3.2 Cuantización en Edge: cuantización de pesos y activaciones, formatos (INT8/FP36) y calibración
3.3 Poda y compresión de modelos para dispositivos: pruning estructural vs. no estructural
3.4 Inferencia On-Device con TensorRT: optimización, motores y pipelines de ejecución
3.5 Inferencia On-Device con TensorFlow Lite (TFLite): conversión, quantization-aware training y delegaciones
3.6 Inferencia On-Device con ONNX Runtime: compatibilidad, optimización y deployment multiplataforma
3.7 Flujo de despliegue en dispositivos: herramientas, pruebas, validación de rendimiento y seguridad
3.8 Optimización de recursos en Edge: gestión de memoria, consumo energético y latencia
3.9 Seguridad, privacidad y robustez en IA Edge: mitigación de ataques, confiabilidad y resiliencia
3.10 Caso práctico naval: implementación y evaluación de IA Edge para vigilancia, detección de anomalías y fusión de sensores a bordo
4.1 Fundamentos de IA Edge: conceptos clave, arquitectura y flujos de datos
4.2 Cuantización en IA Edge: técnicas, precisión vs rendimiento y casos de uso
4.3 Poda (Pruning) e sparsidad: estrategias, impacto en tamaño y velocidad
4.4 Inferencia On-Device: pipelines de ejecución y latencia en dispositivos limitados
4.5 TensorRT, TFLite y ONNX: herramientas para optimización y despliegue edge
4.6 Despliegue de modelos en dispositivos: consideraciones de hardware, drivers y compatibilidad
4.7 Optimización de modelos para Edge: post-entrenamiento vs entrenamiento con cuantización
4.8 Evaluación de rendimiento: métricas (latencia, throughput, consumo) y pruebas en hardware real
4.9 Seguridad y privacidad en IA Edge: buenas prácticas y mitigaciones
4.10 Casos de uso y benchmarks: ejemplos reales y lineamientos de validación
5.1 ¿Qué es Edge AI?: Definición y beneficios en dispositivos.
5.2 Arquitecturas de Edge AI: Hardware y software.
5.3 Introducción a la Optimización de Modelos: Cuantización, Pruning e Inferencia.
5.4 Frameworks Clave: TensorRT, TFLite y ONNX.
5.5 Desafíos y oportunidades en Edge AI: Limitaciones y avances tecnológicos.
5.6 Flujo de trabajo típico para la optimización de modelos en Edge.
5.7 Herramientas y entornos de desarrollo para Edge AI.
5.8 Casos de uso de Edge AI: Ejemplos prácticos y aplicaciones.
5.9 Metodologías de evaluación y métricas de rendimiento.
5.10 Prácticas recomendadas para la implementación de Edge AI.
6.1 Introducción a la IA Edge: Definición, conceptos clave y aplicaciones.
6.2 Diferencias entre IA Cloud y IA Edge: Ventajas y desventajas.
6.3 Hardware para IA Edge: Consideraciones y selección de plataformas.
6.4 Conceptos de Cuantización: Tipos, beneficios y desafíos.
6.5 Técnicas de Cuantización: Cuantización a nivel de post-entrenamiento y entrenamiento.
6.6 Flujos de trabajo de Cuantización: TensorFlow Lite (TFLite) y ONNX Runtime.
6.7 Métricas de Evaluación de la Cuantización: Precisión y tamaño del modelo.
6.8 Introducción a TensorRT: Arquitectura y funcionamiento.
6.9 Herramientas y bibliotecas esenciales para IA Edge.
6.10 Casos de uso y ejemplos prácticos de Cuantización.
7.1 ¿Qué es Edge AI? Conceptos básicos y aplicaciones.
7.2 Desafíos y oportunidades de la IA en dispositivos Edge.
7.3 Introducción a la optimización de modelos para Edge AI.
7.4 Visión general de TensorRT, TFLite y ONNX.
7.5 Cuantización: Reducción del tamaño del modelo y eficiencia.
7.6 Pruning: Eliminación de conexiones innecesarias en la red.
7.7 Inferencia On-Device: Ejecución eficiente de modelos en dispositivos.
7.8 Herramientas y frameworks para la optimización de Edge AI.
7.9 Casos de estudio: Aplicaciones exitosas de Edge AI.
7.10 Tendencias futuras en Edge AI y optimización.
8.1 ¿Qué es Edge AI? Definición y diferencias con la IA tradicional.
8.2 Arquitectura de Edge AI: Dispositivos, redes y desafíos.
8.3 Beneficios y aplicaciones de Edge AI en la actualidad.
8.4 Hardware para Edge AI: CPU, GPU, TPU, y otros aceleradores.
8.5 Frameworks y bibliotecas esenciales para Edge AI (TensorRT, TFLite, ONNX)
8.6 Flujo de trabajo típico en Edge AI: Desarrollo, optimización, despliegue.
8.7 Introducción a la optimización de modelos: cuantización, pruning.
8.8 Conceptos de inferencia on-device y su importancia.
8.9 Desafíos comunes en Edge AI: limitaciones de recursos, latencia, seguridad.
8.10 Casos de uso y ejemplos prácticos de Edge AI en diferentes industrias.
9.1 Conceptos Fundamentales de IA Edge: Definición, ventajas y desafíos.
9.2 Arquitectura de IA Edge: Componentes clave y comparación con la IA en la nube.
9.3 Ciclo de Vida de un Proyecto de IA Edge: Desarrollo, despliegue y mantenimiento.
9.4 Importancia de la Optimización en IA Edge: Limitaciones de recursos y su impacto.
9.5 Introducción a la Cuantización: Conceptos y beneficios.
9.6 Tipos de Cuantización: Entera, post-entrenamiento y aware-entrenamiento.
9.7 Flujos de Trabajo de Cuantización: Herramientas y metodologías.
9.8 Impacto de la Cuantización en el Rendimiento: Precisión vs. Velocidad.
9.9 Ejemplos Prácticos de Cuantización: Estudios de caso y demostraciones.
9.10 Consideraciones Iniciales para la IA Edge: Hardware, software y casos de uso.
10.1 Introducción a la IA Edge: Conceptos y Beneficios
10.2 El Reto de la Optimización en Dispositivos Limitados
10.3 Herramientas Fundamentales: TensorRT, TFLite, ONNX (Overview)
10.4 Entendiendo la Cuantización: Tipos y Impacto en el Rendimiento
10.5 Primeros Pasos con TFLite: Conversión y Despliegue
10.6 Principios de Pruning: Reducción de Complejidad del Modelo
10.7 Introducción a la Inferencia On-Device: Conceptos Clave
10.8 Evaluación del Rendimiento: Métricas y Herramientas Básicas
10.9 Casos de Uso: Identificación de Aplicaciones Edge AI
10.10 Diseño de un Primer Pipeline de Optimización Edge
DO-160: ensayos y mitigación.
DO-160: ensayos y mitigación.
Consulta “Calendario & convocatorias”, “Becas & ayudas” y “Tasas & financiación” en el mega-menú de SEIUM
Nuestro equipo está listo para ayudarte. Contáctanos y te responderemos lo antes posible.
Si, contamos con certificacion internacional
Sí: modelos experimentales, datos reales, simulaciones aplicadas, entornos profesionales, casos de estudio reales.
No es obligatoria. Ofrecemos tracks de nivelación y tutorización
Totalmente. Cubre e-propulsión, integración y normativa emergente (SC-VTOL).
Recomendado. También hay retos internos y consorcios.
Sí. Modalidad online/híbrida con laboratorios planificados y soporte de visados (ver “Visado & residencia”).