Ingeniería de Edge AI para Dispositivos

Sobre nuestro Ingeniería de Edge AI para Dispositivos

La ingeniería de Edge AI para dispositivos

aborda la optimización avanzada de modelos mediante técnicas como la cuantización, pruning y on-device inference, utilizando frameworks como TensorRT, TFLite y ONNX. Este campo integra áreas fundamentales como visión por computadora, procesamiento en tiempo real y sistemas embebidos, apoyándose en metodologías de desarrollo ágil y simulación GPU-accelerated para garantizar eficiencia en entornos con restricciones energéticas y de memoria propias de plataformas UAV y sistemas de a bordo en aeronáutica. Se aplican modelos compactos y técnicas de compresión para respetar los límites impuestos por el hardware sin comprometer la precisión inferencial, clave en aplicaciones de control autónomo y navegación predictiva.

Los laboratorios cuentan con entornos HIL/SIL que permiten validar la inferencia on-device bajo condiciones de prueba rigurosas, evaluando latencia, consumo energético y robustez frente a vibraciones y EMI conforme a normativa aplicable internacional. La trazabilidad se asegura mediante estándares de seguridad funcional e integración de software embebido alineados con DO-178C, DO-254 y principios de ARP4754A. Las competencias desarrolladas habilitan a profesionales para roles en ingeniería de software embebido, desarrollo de sistemas autónomos, data science aplicada, integración de sistemas críticos y gestión de certificación aeronáutica.

Palabras clave objetivo (naturales en el texto): cuantización, pruning, on-device inference, TensorRT, TFLite, ONNX, Edge AI, HIL, SIL, DO-178C, DO-254, ARP4754A, sistemas embebidos, inferencia en tiempo real.

Edge AI
Ingeniería de Edge AI para Dispositivos

2.480 

Competencias y resultados

Qué aprenderás

1. Optimización de IA Edge: Cuantización, Pruning e Inferencia On-Device (TensorRT, TFLite, ONNX)

  • Analizar cuantización, pruning y inferencia on-device en entornos edge, evaluando latencia, consumo y precisión con TensorRT, TFLite y ONNX.
  • Dimensionar modelos optimizados y recursos en dispositivos embarcados, ajustando arquitectura, memoria y rendimiento mediante quantization-aware training y pruning para despliegue en TensorRT, TFLite y ONNX.
  • Implementar estrategias de validación y despliegue de inferencia on-device, con benchmarking, pruebas de precisión y robustez entre plataformas (TensorRT, TFLite, ONNX).

2. Desarrollo de IA en Dispositivos: Técnicas de Optimización y Despliegue con TensorRT, TFLite y ONNX

  • Analizar optimización de modelos de IA para dispositivos con cuantización, podado y distilación, y TensorRT, TFLite y ONNX para reducir latencia y consumo.
  • Dimensionar y desplegar modelos en edge y multiplataforma mediante TensorRT, TFLite y ONNX Runtime, gestionando versiones, OTA y compatibilidad entre hardware y OS.
  • Implementar seguridad y fiabilidad en IA en dispositivos: monitoreo, pruebas y gobernanza de modelos para garantizar rendimiento y integridad.

3. Diseño y validación integral orientado al usuario (del modelado a la manufactura)

Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.

3. Optimización de IA para Dispositivos Edge: Cuantización, Pruning e Inferencia con TensorRT, TFLite y ONNX

  • Evaluar técnicas de optimización de IA para dispositivos edge: cuantización, pruning y estrategias de inferencia con TensorRT, TFLite y ONNX, considerando precisión, latencia y consumo energético.
  • Diseñar y aplicar pipelines de cuantización y pruning para reducir el tamaño de modelos y garantizar rendimiento en edge, con validación mediante benchmarks en TensorRT, TFLite y ONNX Runtime.
  • Implementar soluciones de inferencia en dispositivos edge y optimizar despliegues, abarcando flujos de trabajo para TensorRT, TFLite y ONNX con métricas de latencia, throughput y consumo.

3. Maestría en IA Edge: Cuantización, Poda e Inferencia en Dispositivos (TensorRT, TFLite, ONNX)

  • Aplicar cuantización y poda para reducir el tamaño de modelos y la latencia en edge devices, manteniendo la precisión necesaria para operaciones navales.
  • Analizar, convertir y optimizar la inferencia en tiempo real con TensorRT, TFLite y ONNX en plataformas embarcadas, considerando restricciones de energía, memoria y entornos marítimos.
  • Diseñar flujos de despliegue en producción y validación de modelos cuantizados y podados, con métricas de rendimiento, consumo y fiabilidad, asegurando robustez ante condiciones operativas en el mar.

3. Dominio de IA Edge: Cuantización, Poda e Inferencia con TensorRT, TFLite y ONNX

Aprenderás a integrar todo el proceso de desarrollo de producto desde la concepción del modelo hasta su validación final, aplicando metodologías centradas en el usuario. Desarrollarás competencias en diseño paramétrico, ergonomía, simulación, materiales sostenibles, visualización 3D y gestión de manufactura, garantizando soluciones eficientes, seguras y alineadas con los estándares industriales actuales.

Edge AI

Para quien va dirigido nuestro:

Ingeniería de Edge AI para Dispositivos

  • Ingenieros/as con titulación en Ingeniería Informática, Ingeniería Electrónica, Ingeniería de Telecomunicaciones o campos relacionados.
  • Científicos/as de datos, desarrolladores/as de software y profesionales de Machine Learning interesados en la optimización de modelos para despliegue en dispositivos edge.
  • Profesionales de empresas de tecnología, IoT, robótica, automoción y telecomunicaciones que busquen implementar soluciones de Edge AI.
  • Investigadores/as, académicos/as y estudiantes de postgrado que deseen profundizar en las técnicas de cuantización, pruning y on-device inference con TensorRT, TFLite y ONNX.

Requisitos recomendados: Conocimientos básicos de aprendizaje automático, Python y experiencia con frameworks de deep learning (TensorFlow, PyTorch); EN B2+/C1.

  • Standards-driven curriculum: trabajarás con CS-27/CS-29, DO-160, DO-178C/DO-254, ARP4754A/ARP4761, ADS-33E-PRF desde el primer módulo.
  • Laboratorios acreditables (EN ISO/IEC 17025) con banco de rotor, EMC/Lightning pre-compliance, HIL/SIL, vibraciones/acústica.
  • TFM orientado a evidencia: safety case, test plan, compliance dossier y límites operativos.
  • Mentorado por industria: docentes con trayectoria en rotorcraft, tiltrotor, eVTOL/UAM y flight test.
  • Modalidad flexible (híbrido/online), cohortes internacionales y soporte de SEIUM Career Services.
  • Ética y seguridad: enfoque safety-by-design, ciber-OT, DIH y cumplimiento como pilares.

1.1 Edge AI: conceptos clave y relevancia en entornos navales (vigilancia, sensores, sistemas autónomos)
1.2 Diferencias entre Edge y Cloud: cuándo desplegar inferencias a bordo y en entornos con conectividad limitada
1.3 Herramientas y formatos: TensorRT, TFLite y ONNX como pilares para optimización y despliegue
1.4 Flujo de desarrollo típico: entrenamiento, conversión/formatos, optimización e implementación en dispositivo
1.5 Cuantización: principios, impacto en tamaño, rendimiento y precisión aceptable para aplicaciones navales
1.6 Poda e optimización de modelos: reducir complejidad sin perder rendimiento crítico en tareas a bordo
1.7 Inferencia On-Device: runtimes, administración de memoria, latencia y ejecución en hardware limitado
1.8 Seguridad y gobernanza: integridad de modelos, actualizaciones OTA y cumplimiento en entornos marinos
1.9 Métricas de rendimiento para Edge AI: latencia, throughput, consumo de energía y robustez ante condiciones reales
1.10 Casos de uso navales: detección de anomalías en equipos, vigilancia costera, sistemas de navegación asistida y mantenimiento predictivo

2.1 Fundamentos de IA en Edge: diferencias entre nube y dispositivo, arquitectura de edge y dispositivos objetivo
2.2 Cuantización: técnicas (post-entrenamiento y quantization-aware training) y efectos en precisión y rendimiento
2.3 Poda (Pruning): poda estructural y no estructural, impacto en tamaño, memoria y velocidad
2.4 Inferencia On-Device: TensorRT, TFLite y ONNX Runtime, pipelines, compatibilidad y optimización
2.5 Optimización de modelos para recursos limitados: cuantización, poda y distilación para edge
2.6 Despliegue y pipelines: conversión de modelos, calibración y flujos de despliegue a dispositivos edge
2.7 Evaluación de rendimiento en Edge: latencia, throughput, jitter y determinismo
2.8 Eficiencia energética y térmica: consumo, disipación y gestión térmica en dispositivos edge
2.9 Seguridad, robustez y fiabilidad: ruido de cuantización, ataques adversariales y mitigaciones
2.10 Caso práctico: laboratorio de optimización de un modelo sencillo para edge usando TensorRT, TFLite y ONNX

3.1 Fundamentos de IA Edge: conceptos, arquitectura y requisitos de despliegue
3.2 Cuantización en Edge: cuantización de pesos y activaciones, formatos (INT8/FP36) y calibración
3.3 Poda y compresión de modelos para dispositivos: pruning estructural vs. no estructural
3.4 Inferencia On-Device con TensorRT: optimización, motores y pipelines de ejecución
3.5 Inferencia On-Device con TensorFlow Lite (TFLite): conversión, quantization-aware training y delegaciones
3.6 Inferencia On-Device con ONNX Runtime: compatibilidad, optimización y deployment multiplataforma
3.7 Flujo de despliegue en dispositivos: herramientas, pruebas, validación de rendimiento y seguridad
3.8 Optimización de recursos en Edge: gestión de memoria, consumo energético y latencia
3.9 Seguridad, privacidad y robustez en IA Edge: mitigación de ataques, confiabilidad y resiliencia
3.10 Caso práctico naval: implementación y evaluación de IA Edge para vigilancia, detección de anomalías y fusión de sensores a bordo

4.1 Fundamentos de IA Edge: conceptos clave, arquitectura y flujos de datos
4.2 Cuantización en IA Edge: técnicas, precisión vs rendimiento y casos de uso
4.3 Poda (Pruning) e sparsidad: estrategias, impacto en tamaño y velocidad
4.4 Inferencia On-Device: pipelines de ejecución y latencia en dispositivos limitados
4.5 TensorRT, TFLite y ONNX: herramientas para optimización y despliegue edge
4.6 Despliegue de modelos en dispositivos: consideraciones de hardware, drivers y compatibilidad
4.7 Optimización de modelos para Edge: post-entrenamiento vs entrenamiento con cuantización
4.8 Evaluación de rendimiento: métricas (latencia, throughput, consumo) y pruebas en hardware real
4.9 Seguridad y privacidad en IA Edge: buenas prácticas y mitigaciones
4.10 Casos de uso y benchmarks: ejemplos reales y lineamientos de validación

5.1 ¿Qué es Edge AI?: Definición y beneficios en dispositivos.
5.2 Arquitecturas de Edge AI: Hardware y software.
5.3 Introducción a la Optimización de Modelos: Cuantización, Pruning e Inferencia.
5.4 Frameworks Clave: TensorRT, TFLite y ONNX.
5.5 Desafíos y oportunidades en Edge AI: Limitaciones y avances tecnológicos.
5.6 Flujo de trabajo típico para la optimización de modelos en Edge.
5.7 Herramientas y entornos de desarrollo para Edge AI.
5.8 Casos de uso de Edge AI: Ejemplos prácticos y aplicaciones.
5.9 Metodologías de evaluación y métricas de rendimiento.
5.10 Prácticas recomendadas para la implementación de Edge AI.

6.1 Introducción a la IA Edge: Definición, conceptos clave y aplicaciones.
6.2 Diferencias entre IA Cloud y IA Edge: Ventajas y desventajas.
6.3 Hardware para IA Edge: Consideraciones y selección de plataformas.
6.4 Conceptos de Cuantización: Tipos, beneficios y desafíos.
6.5 Técnicas de Cuantización: Cuantización a nivel de post-entrenamiento y entrenamiento.
6.6 Flujos de trabajo de Cuantización: TensorFlow Lite (TFLite) y ONNX Runtime.
6.7 Métricas de Evaluación de la Cuantización: Precisión y tamaño del modelo.
6.8 Introducción a TensorRT: Arquitectura y funcionamiento.
6.9 Herramientas y bibliotecas esenciales para IA Edge.
6.10 Casos de uso y ejemplos prácticos de Cuantización.

7.1 ¿Qué es Edge AI? Conceptos básicos y aplicaciones.
7.2 Desafíos y oportunidades de la IA en dispositivos Edge.
7.3 Introducción a la optimización de modelos para Edge AI.
7.4 Visión general de TensorRT, TFLite y ONNX.
7.5 Cuantización: Reducción del tamaño del modelo y eficiencia.
7.6 Pruning: Eliminación de conexiones innecesarias en la red.
7.7 Inferencia On-Device: Ejecución eficiente de modelos en dispositivos.
7.8 Herramientas y frameworks para la optimización de Edge AI.
7.9 Casos de estudio: Aplicaciones exitosas de Edge AI.
7.10 Tendencias futuras en Edge AI y optimización.

8.1 ¿Qué es Edge AI? Definición y diferencias con la IA tradicional.
8.2 Arquitectura de Edge AI: Dispositivos, redes y desafíos.
8.3 Beneficios y aplicaciones de Edge AI en la actualidad.
8.4 Hardware para Edge AI: CPU, GPU, TPU, y otros aceleradores.
8.5 Frameworks y bibliotecas esenciales para Edge AI (TensorRT, TFLite, ONNX)
8.6 Flujo de trabajo típico en Edge AI: Desarrollo, optimización, despliegue.
8.7 Introducción a la optimización de modelos: cuantización, pruning.
8.8 Conceptos de inferencia on-device y su importancia.
8.9 Desafíos comunes en Edge AI: limitaciones de recursos, latencia, seguridad.
8.10 Casos de uso y ejemplos prácticos de Edge AI en diferentes industrias.

9.1 Conceptos Fundamentales de IA Edge: Definición, ventajas y desafíos.
9.2 Arquitectura de IA Edge: Componentes clave y comparación con la IA en la nube.
9.3 Ciclo de Vida de un Proyecto de IA Edge: Desarrollo, despliegue y mantenimiento.
9.4 Importancia de la Optimización en IA Edge: Limitaciones de recursos y su impacto.
9.5 Introducción a la Cuantización: Conceptos y beneficios.
9.6 Tipos de Cuantización: Entera, post-entrenamiento y aware-entrenamiento.
9.7 Flujos de Trabajo de Cuantización: Herramientas y metodologías.
9.8 Impacto de la Cuantización en el Rendimiento: Precisión vs. Velocidad.
9.9 Ejemplos Prácticos de Cuantización: Estudios de caso y demostraciones.
9.10 Consideraciones Iniciales para la IA Edge: Hardware, software y casos de uso.

10.1 Introducción a la IA Edge: Conceptos y Beneficios
10.2 El Reto de la Optimización en Dispositivos Limitados
10.3 Herramientas Fundamentales: TensorRT, TFLite, ONNX (Overview)
10.4 Entendiendo la Cuantización: Tipos y Impacto en el Rendimiento
10.5 Primeros Pasos con TFLite: Conversión y Despliegue
10.6 Principios de Pruning: Reducción de Complejidad del Modelo
10.7 Introducción a la Inferencia On-Device: Conceptos Clave
10.8 Evaluación del Rendimiento: Métricas y Herramientas Básicas
10.9 Casos de Uso: Identificación de Aplicaciones Edge AI
10.10 Diseño de un Primer Pipeline de Optimización Edge

  • Metodología hands-on: test-before-you-trust, design reviews, failure analysis, compliance evidence.
  • Software (según licencias/partners): MATLAB/Simulink, Python (NumPy/SciPy), OpenVSP, SU2/OpenFOAM, Nastran/Abaqus, AMESim/Modelica, herramientas de acústica, toolchains de planificación DO-178C.
  • Laboratorios SEIUM: banco de rotor a escala, vibraciones/acústica, EMC/Lightning pre-compliance, HIL/SIL para AFCS, adquisición de datos con strain gauging.
  • Estándares y cumplimiento: EN 9100, 17025, ISO 27001, GDPR.

Proyectos tipo capstones

Admisiones, tasas y becas

  • Documentación: CV actualizado, expediente académico, SOP/ensayo de propósitoejemplos de proyectos o código (opcional).
  • Proceso: solicitud → evaluación técnica de perfil y experiencia → entrevista técnica → revisión de casos prácticos → decisión final → matrícula.
  • Tasas:
  • Pago único10% de descuento.
  • Becas: por mérito académico, situación económica y fomento de la inclusión; convenios con empresas del sector para becas parciales o totales.

Consulta “Calendario & convocatorias”“Becas & ayudas” y “Tasas & financiación” en el mega-menú de SEIUM

¿Tienes dudas?

Nuestro equipo está listo para ayudarte. Contáctanos y te responderemos lo antes posible.

Por favor, activa JavaScript en tu navegador para completar este formulario.

F. A. Q

Preguntas frecuentes

Si, contamos con certificacion internacional

Sí: modelos experimentales, datos reales, simulaciones aplicadas, entornos profesionales, casos de estudio reales.

No es obligatoria. Ofrecemos tracks de nivelación y tutorización

Totalmente. Cubre e-propulsión, integración y normativa emergente (SC-VTOL).

Recomendado. También hay retos internos y consorcios.

Sí. Modalidad online/híbrida con laboratorios planificados y soporte de visados (ver “Visado & residencia”).