electronica-news.es
02
'26
Written on Modified on
Plataformas de visión Edge AI para sistemas multicámara
e-con Systems presenta tecnologías de visión con Edge AI y multicámara para robótica, movilidad y aplicaciones industriales en NVIDIA GTC 2026 y Embedded World 2026.
www.e-consystems.com

e-con Systems demostrará plataformas integradas de visión con Edge AI que combinan transmisión multicámara sincronizada, captura 3D de profundidad y analítica basada en inteligencia artificial en la NVIDIA GTC (16–19 de marzo de 2026, San José, EE. UU.) y en la Embedded World (10–12 de marzo de 2026, Núremberg, Alemania). Las tecnologías están orientadas a robótica, sistemas de transporte inteligente, automatización industrial y otros entornos de visión embebida que requieren percepción en tiempo real y gestión escalable de dispositivos.
Contexto del evento y plataformas demostradas
En NVIDIA GTC 2026, la empresa expondrá en el stand #3119. En Embedded World 2026, las demostraciones en vivo se realizarán en el pabellón 2, stand #2-111 (QUAD GmbH).
Las presentaciones técnicas se centran en procesamiento de visión con IA en tiempo real, integración multisensor y analítica en el edge, con arquitecturas diseñadas para despliegues productivos.
Arquitectura de procesamiento multicámara con Edge AI
La demostración multicámara integra transmisión sincronizada desde ocho cámaras HDR con interfaz GMSL y ejecución de modelos de IA en una plataforma de cómputo en el edge.
Los principales elementos técnicos incluyen:
- Sincronización en tiempo real de ocho cámaras HDR GMSL para captura multisensor determinista.
- Detección 3D de alta resolución mediante una cámara de profundidad indirecta Time-of-Flight (iToF) de onda continua basada en el sensor onsemi AF0130.
- Analítica basada en IA para percepción robótica y sistemas autónomos.
- Gestión de dispositivos habilitada en la nube para configuración remota y supervisión de flotas dentro de una cadena de suministro digital.
La combinación de datos RGB y de profundidad permite flujos de trabajo de fusión multisensor para detección de obstáculos, seguimiento de objetos y mapeo espacial en entornos dinámicos. El procesamiento en el edge reduce la latencia frente a arquitecturas exclusivamente en la nube y facilita su implementación en aplicaciones con restricciones de ancho de banda o requisitos críticos de seguridad.
Visión basada en Holoscan para sistemas de transporte inteligente
Otra demostración integra una plataforma de cámara compatible con Holoscan y analítica de video habilitada por IA generativa para sistemas de transporte inteligente (ITS). La arquitectura procesa flujos de video de alto rendimiento de forma local y admite canalizaciones de inferencia como detección de anomalías y análisis del comportamiento del tráfico.
Este enfoque resulta adecuado para despliegues ITS en los que la toma de decisiones en tiempo real —como la gestión de congestión o la detección de incidentes— debe realizarse en el edge para cumplir requisitos de latencia y fiabilidad dentro de un automotive data ecosystem.
Plataforma de computación para robótica y desarrollo de visión con IA
La plataforma de computación para robótica combina módulos de cámara, capacidad de cómputo Edge AI e integración de sistema en un entorno unificado de desarrollo. Su objetivo es reducir la complejidad de integración al pasar del prototipo a la producción en robótica y automatización industrial.
La plataforma admite diferentes interfaces y tipos de sensores, incluidos Time-of-Flight, MIPI, GMSL, USB, estéreo, GigE, HDR y cámaras de baja iluminación. Esto permite cubrir los requisitos heterogéneos de sensores típicos en robots móviles autónomos (AMR), sistemas de inspección y aplicaciones de robótica industrial.
Según Suresh Madhu, BU Head – Mobility en e-con Systems, el enfoque se centra en el despliegue escalable de visión con IA mediante la combinación de diseño avanzado de cámaras, cómputo en el edge e integración completa con plataformas NVIDIA, con énfasis en sistemas listos para operación en campo.
Áreas de aplicación y alcance industrial
e-con Systems diseña y fabrica soluciones de visión embebida que abarcan desde cámaras OEM personalizadas hasta plataformas ODM completas. Sus tecnologías se utilizan en movilidad, automatización industrial, dispositivos médicos, retail, agricultura e infraestructuras de ciudades inteligentes.
La empresa cuenta con más de 20 años de experiencia en visión embebida. Según datos proporcionados, más de 350 productos de clientes integran sus tecnologías de cámara y se han distribuido más de dos millones de unidades en Estados Unidos, Europa, Japón y Corea del Sur, entre otros mercados.
Las demostraciones en NVIDIA GTC 2026 y Embedded World 2026 ilustran cómo la combinación de sistemas multicámara sincronizados, sensorización 3D de profundidad y analítica Edge AI permite construir arquitecturas de percepción escalables para robótica, transporte e inspección industrial.
www.e-consystems.com
Visión basada en Holoscan para sistemas de transporte inteligente
Otra demostración integra una plataforma de cámara compatible con Holoscan y analítica de video habilitada por IA generativa para sistemas de transporte inteligente (ITS). La arquitectura procesa flujos de video de alto rendimiento de forma local y admite canalizaciones de inferencia como detección de anomalías y análisis del comportamiento del tráfico.
Este enfoque resulta adecuado para despliegues ITS en los que la toma de decisiones en tiempo real —como la gestión de congestión o la detección de incidentes— debe realizarse en el edge para cumplir requisitos de latencia y fiabilidad dentro de un automotive data ecosystem.
Plataforma de computación para robótica y desarrollo de visión con IA
La plataforma de computación para robótica combina módulos de cámara, capacidad de cómputo Edge AI e integración de sistema en un entorno unificado de desarrollo. Su objetivo es reducir la complejidad de integración al pasar del prototipo a la producción en robótica y automatización industrial.
La plataforma admite diferentes interfaces y tipos de sensores, incluidos Time-of-Flight, MIPI, GMSL, USB, estéreo, GigE, HDR y cámaras de baja iluminación. Esto permite cubrir los requisitos heterogéneos de sensores típicos en robots móviles autónomos (AMR), sistemas de inspección y aplicaciones de robótica industrial.
Según Suresh Madhu, BU Head – Mobility en e-con Systems, el enfoque se centra en el despliegue escalable de visión con IA mediante la combinación de diseño avanzado de cámaras, cómputo en el edge e integración completa con plataformas NVIDIA, con énfasis en sistemas listos para operación en campo.
Áreas de aplicación y alcance industrial
e-con Systems diseña y fabrica soluciones de visión embebida que abarcan desde cámaras OEM personalizadas hasta plataformas ODM completas. Sus tecnologías se utilizan en movilidad, automatización industrial, dispositivos médicos, retail, agricultura e infraestructuras de ciudades inteligentes.
La empresa cuenta con más de 20 años de experiencia en visión embebida. Según datos proporcionados, más de 350 productos de clientes integran sus tecnologías de cámara y se han distribuido más de dos millones de unidades en Estados Unidos, Europa, Japón y Corea del Sur, entre otros mercados.
Las demostraciones en NVIDIA GTC 2026 y Embedded World 2026 ilustran cómo la combinación de sistemas multicámara sincronizados, sensorización 3D de profundidad y analítica Edge AI permite construir arquitecturas de percepción escalables para robótica, transporte e inspección industrial.
www.e-consystems.com

