Radxa ha presentado el AICore DX-M1M, un módulo compacto de aceleración de IA para edge con formato M.2 2242, basado en la unidad de procesamiento neuronal (NPU) DeepX DX-M1M. Este módulo ofrece un rendimiento de hasta 25 TOPS en INT8 con un consumo energético muy bajo de apenas 3 vatios. Está orientado a aplicaciones que requieren un procesamiento eficiente de IA, como brazos robóticos industriales, robots móviles autónomos (AMR), servidores edge, drones y dispositivos AIoT.
El AICore DX-M1M incluye 1 GB de memoria LPDDR4X integrada en el chip, funcionando a 4266 MT/s, aunque la arquitectura DeepX soporta configuraciones de hasta 8 GB. El almacenamiento se realiza mediante un flash QSPI NAND/NOR de 1 Gbit. La conexión al sistema host se hace a través de una interfaz PCIe Gen 3.0 x4, con compatibilidad hacia atrás en Gen 1 y Gen 2 a velocidades x1 y x2, respectivamente. Su tamaño compacto de 42 x 22 mm es el estándar para tarjetas M.2 2242, y puede adaptarse a ranuras M.2 2280 mediante un adaptador.
Características técnicas del módulo Radxa AICore DX-M1M
El módulo garantiza un rango operativo estable entre -25 ºC y 65 ºC sin necesidad de reducción de frecuencia. El sistema de protección térmica entra en acción entre 65 ºC y 85 ºC para evitar sobrecalentamientos. Este diseño responde a entornos que demandan inferencia constante sin grandes exigencias de energía ni refrigeración. Aun así, Radxa recomienda sistemas de refrigeración activos, como su disipador Heatsink 2012B o el uso de carcasas metálicas con pads térmicos para mantener al máximo el rendimiento durante cargas prolongadas.
La compatibilidad software llega de la mano del SDK DEEPX DXNN, que facilita la compilación, optimización e inferencia acelerada en el NPU DX-M1M. Este kit de desarrollo soporta frameworks de IA principales como PyTorch, ONNX, TensorFlow y Keras, y convierte modelos a un formato propietario DXNN a través del compilador DX-COM. Además, incorpora el driver DXRT-NPU-Driver para la gestión del PCIe a nivel kernel, el runtime DX-RT para la administración del NPU, plantillas demo en C++ y Python, y un plugin para GStreamer (DX-STREAM) que habilita pipelines en tiempo real para procesamiento de vídeo.
El paquete también incluye el DX Model Zoo, una colección de modelos precompilados para tareas variadas como detección facial, clasificación de imágenes, detección de objetos, eliminación de ruido, segmentación semántica y estimación de pose. Toda la plataforma funciona en Windows 10/11 y en versiones Ubuntu Linux 20.04, 22.04 y 24.04 LTS, además de en entornos Docker, lo que facilita la integración y despliegue en distintos sistemas.
Disponibilidad y variantes de Radxa
Para acelerar la puesta en marcha, Radxa ofrece la suite DX-All, un instalador que agrupa compilador, runtime y demás componentes, permitiendo una instalación sencilla local o mediante Docker. En cuanto a precio, el AICore DX-M1M está listado en torno a 97,67 dólares (unos 89 euros) en plataformas de venta y en torno a 85 dólares (77 euros) en otras tiendas. La compañía insiste en la importancia de una refrigeración adecuada para mantener el rendimiento en cargas continuas y exigentes.
Este módulo es una evolución de las implementaciones previas basadas en el chip DeepX DX-M1, como el SOM iMX8M Mini DX-M1 y el ordenador edge ALPON X5. A diferencia del chip DX-M1 independiente, que requiere memoria LPDDR5 externa y un diseño más complejo, el DX-M1M integra el NPU con memoria LPDDR4X en el mismo módulo, facilitando la integración hardware y la conectividad plug-and-play en formato M.2 compacto. Ambos modelos ofrecen un rendimiento de IA similar, pero el DX-M1 está pensado para configuraciones hardware a medida, mientras que el DX-M1M se orienta a despliegues rápidos en entornos industriales y edge.
Radxa también menciona la existencia de un modelo más ligero, el DX-M1ML, con un rendimiento de 13 TOPS, aunque aún no está disponible comercialmente.
La entrada Radxa presenta el módulo AI DX-M1M M.2 2242 con 25 TOPS y solo 3W de consumo se publicó primero en Domótica en Casa.