
Radxa ha presentado el AICore DX-M1M, un módulo compacto de aceleración de IA para edge con formato M.2 2242, basado en la unidad de procesamiento neuronal (NPU) DeepX DX-M1M. Este módulo ofrece un rendimiento de hasta 25 TOPS en INT8 con un consumo energético muy bajo de apenas 3 vatios. Está orientado a aplicaciones que requieren un procesamiento eficiente de IA, como brazos robóticos industriales, robots móviles autónomos (AMR), servidores edge, drones y dispositivos AIoT.
El AICore DX-M1M incluye 1 GB de memoria LPDDR4X integrada en el chip, funcionando a 4266 MT/s, aunque la arquitectura DeepX soporta configuraciones de hasta 8 GB. El almacenamiento se realiza mediante un flash QSPI NAND/NOR de 1 Gbit. La conexión al sistema host se hace a través de una interfaz PCIe Gen 3.0 x4, con compatibilidad hacia atrás en Gen 1 y Gen 2 a velocidades x1 y x2, respectivamente. Su tamaño compacto de 42 x 22 mm es el estándar para tarjetas M.2 2242, y puede adaptarse a ranuras M.2 2280 mediante un adaptador.
![]()
Características técnicas del módulo Radxa AICore DX-M1M
El módulo garantiza un rango operativo estable entre -25 ºC y 65 ºC sin necesidad de reducción de frecuencia. El sistema de protección térmica entra en acción entre 65 ºC y 85 ºC para evitar sobrecalentamientos. Este diseño responde a entornos que demandan inferencia constante sin grandes exigencias de energía ni refrigeración. Aun así, Radxa recomienda sistemas de refrigeración activos, como su disipador Heatsink 2012B o el uso de carcasas metálicas con pads térmicos para mantener al máximo el rendimiento durante cargas prolongadas.
![]()
La compatibilidad software llega de la mano del SDK DEEPX DXNN, que facilita la compilación, optimización e inferencia acelerada en el NPU DX-M1M. Este kit de desarrollo soporta frameworks de IA principales como PyTorch, ONNX, TensorFlow y Keras, y convierte modelos a un formato propietario DXNN a través del compilador DX-COM. Además, incorpora el driver DXRT-NPU-Driver para la gestión del PCIe a nivel kernel, el runtime DX-RT para la administración del NPU, plantillas demo en C++ y Python, y un plugin para GStreamer (DX-STREAM) que habilita pipelines en tiempo real para procesamiento de vídeo.
![]()
El paquete también incluye el DX Model Zoo, una colección de modelos precompilados para tareas variadas como detección facial, clasificación de imágenes, detección de objetos, eliminación de ruido, segmentación semántica y estimación de pose. Toda la plataforma funciona en Windows 10/11 y en versiones Ubuntu Linux 20.04, 22.04 y 24.04 LTS, además de en entornos Docker, lo que facilita la integración y despliegue en distintos sistemas.
Disponibilidad y variantes de Radxa
Para acelerar la puesta en marcha, Radxa ofrece la suite DX-All, un instalador que agrupa compilador, runtime y demás componentes, permitiendo una instalación sencilla local o mediante Docker. En cuanto a precio, el AICore DX-M1M está listado en torno a 97,67 dólares (unos 89 euros) en plataformas de venta y en torno a 85 dólares (77 euros) en otras tiendas. La compañía insiste en la importancia de una refrigeración adecuada para mantener el rendimiento en cargas continuas y exigentes.
Este módulo es una evolución de las implementaciones previas basadas en el chip DeepX DX-M1, como el SOM iMX8M Mini DX-M1 y el ordenador edge ALPON X5. A diferencia del chip DX-M1 independiente, que requiere memoria LPDDR5 externa y un diseño más complejo, el DX-M1M integra el NPU con memoria LPDDR4X en el mismo módulo, facilitando la integración hardware y la conectividad plug-and-play en formato M.2 compacto. Ambos modelos ofrecen un rendimiento de IA similar, pero el DX-M1 está pensado para configuraciones hardware a medida, mientras que el DX-M1M se orienta a despliegues rápidos en entornos industriales y edge.
Radxa también menciona la existencia de un modelo más ligero, el DX-M1ML, con un rendimiento de 13 TOPS, aunque aún no está disponible comercialmente.
![]()
La entrada Radxa presenta el módulo AI DX-M1M M.2 2242 con 25 TOPS y solo 3W de consumo se publicó primero en Domótica en Casa.