El mundo del desarrollo de la inteligencia artificial vive un momento dulce y, en medio del huracán, NVIDIA ha puesto patas arriba el escritorio tradicional con dos propuestas que están dando que hablar: Project Digits y DGX Spark. Ambas acercan el rendimiento de un centro de datos a la mesa de trabajo, con tamaños de miniPC y un enfoque claro hacia investigadores, estudiantes y equipos que quieren experimentar sin depender a todas horas de la nube y explorar nuevas formas de compartir escritorio con IA.
Más allá del brillo del marketing, lo interesante es que estas máquinas rompen barreras prácticas: ejecutar y ajustar modelos grandes en local, mantener los datos sensibles bajo control y, si se necesita, escalar el trabajo hacia infraestructuras con arquitectura Grace Blackwell y la pila de software NVIDIA AI Enterprise. Es, como dijo Jensen Huang, llevar una plataforma tipo nube al escritorio, y hacerlo sin instalaciones exóticas ni presupuestos imposibles.
Qué entendemos por supercomputador de escritorio para IA
Cuando hablamos de supercomputación personal nos referimos a un formato que, por volumen y consumo, se parece a un miniPC pero que, por potencia, se acerca a las estaciones de trabajo de gama altísima para IA. No sustituyen a los clústeres de hiperescala, pero permiten prototipar, entrenar e inferir en condiciones reales, a ritmo ágil, y con costes bastante más asumibles que alquilar GPU masivamente en la nube.
Esta categoría conecta con lo que en entornos industriales se cataloga como PC Edge AI: equipos robustos con GPU y aceleradores para ejecutar IA en el borde, con inferencia en tiempo real, detección de objetos o análisis predictivo sin depender de latencias ni de conexiones constantes al exterior. Aquí la idea es similar, pero llevada al escritorio de investigación y desarrollo.

Project Digits: la nube que se sienta en tu escritorio
Project Digits es la apuesta de NVIDIA presentada en CES: un sistema compacto con superchip GB10 Grace Blackwell, pensado para que quienes crean software de IA experimenten con chatbots y generadores de imágenes en casa o en el despacho. Tiene un precio de salida de 3.000 dólares y puede funcionar como máquina independiente o enlazado a un PC con Windows o un Mac.
La promesa técnica impresiona para su tamaño: hasta 200.000 millones de parámetros por modelo en ejecución local, y la opción de unir dos unidades para afrontar modelos que, según distintas fuentes, alcanzan 400.000 o incluso 405.000 millones de parámetros. Es decir, un salto que acerca a los escritorios modelos de escala similar a los mejores LLM abiertos de la actualidad.
NVIDIA plantea Digits como un puente natural entre el desarrollo local y el despliegue en centros de datos con arquitectura Grace Blackwell y software NVIDIA AI Enterprise. Prototipas en casa, escalas en la nube cuando convenga, manteniendo coherencia entre hardware y stack de software para no reescribir flujos de trabajo cada dos por tres.
Especificaciones técnicas que importan
En el corazón de Digits está el superchip GB10 Grace Blackwell, fruto de la colaboración con MediaTek para afinar eficiencia y rendimiento. La CPU Grace integra 20 núcleos Arm de alta eficiencia, y la GPU Blackwell aporta los núcleos CUDA de última generación y núcleos Tensor de quinta generación, comunicándose mediante NVLink-C2C con memoria unificada de alto ancho de banda.
- Rendimiento de IA de hasta 1 petaFLOPS en precisión FP4.
- 128 GB de memoria unificada LPDDR5X de bajo consumo.
- Almacenamiento NVMe de hasta 4 TB.
- Conectividad Wi‑Fi y Bluetooth, además de puertos modernos de alta velocidad.
- Compatibilidad con frameworks populares: PyTorch, Python, Jupyter.
A nivel de software, el sistema funciona con NVIDIA DGX OS sobre Linux y da acceso a la biblioteca completa de herramientas de IA de la compañía: kits de desarrollo, orquestación, modelos preentrenados en el catálogo NGC, microservicios NIM, librerías de ciencia de datos RAPIDS y el framework NeMo para ajuste y creación de modelos.

DGX Spark: la hermana vitaminada que aspira al escritorio
DGX Spark es el otro gran nombre propio. Se presentó como un superordenador de IA personal del tamaño de un miniPC y ha sido destacado por medios de prestigio como uno de los inventos del año. Su precio oficial parte de 3.999 dólares para la edición vendida directamente por NVIDIA, y se espera disponibilidad general a partir del 15 de octubre a través de la web de la compañía, socios y distribuidores.
Por dentro monta el mismo Superchip GB10 Grace Blackwell con 20 núcleos de CPU (combinación de Cortex‑X925 y Cortex‑A725), 6144 núcleos CUDA, 128 GB de memoria unificada LPDDR5X‑9400 y, en la edición FE, 4 TB de almacenamiento. Todo ello en un chasis muy ligero de alrededor de 1,2 kg, lo que es una barbaridad si pensamos en lo que es capaz de mover.
La conectividad es de primer nivel: red ConnectX‑7 de 200 Gb/s, Wi‑Fi 7, Bluetooth 5.3, un puerto Ethernet 10 GbE, cuatro USB4 Type‑C, un HDMI y dos QSFP de 200 Gb/s. Esta dotación permite, entre otras cosas, enlazar dos Spark y armar un mini‑clúster doméstico o de laboratorio para cargas más ambiciosas.
DGX Spark ha sido presentado como respuesta a la ola de IA agéntica, esos sistemas que razonan, planifican y actúan en cadena de manera autónoma. NVIDIA posiciona Spark para crear prototipos de agentes, ajustar modelos medianos a grandes, ejecutar inferencia local sin dependencias externas y mantener la seguridad de los datos in situ.
Rendimiento en parámetros: qué puedes ejecutar y ajustar
A nivel práctico, los números compartidos por NVIDIA y por distintas coberturas coinciden en la foto general y varían en algunos matices. Con una sola unidad, se pueden ejecutar modelos de hasta 200.000 millones de parámetros. Al enlazar dos equipos mediante ConnectX‑7, se mencionan cifras de 400.000 millones y, en otras fuentes, 405.000 millones para la inferencia.
¿Y el ajuste fino? Aquí la guía operativa habla de ajustes locales hasta aproximadamente 70.000 millones de parámetros, algo muy relevante para adaptar LLM o modelos multimodales a dominios concretos sin necesidad de alquilar decenas de GPU en la nube. La idea es trabajar con tamaños que ofrecen un equilibrio competente entre coste, latencia y privacidad.
Por si sirve de referencia, en el panorama actual se alude a modelos abiertos de referencia como Llama 3.1 en su variante grande, que rondan los 400.000 millones de parámetros; unir dos unidades Digits o Spark pretende precisamente habilitar ese rango operativo en local, al menos para inferencia.

Software, ecosistema y compatibilidad
Uno de los grandes puntos fuertes es la pila de software lista para arrancar: NVIDIA AI Enterprise y DGX OS vienen con los controladores, librerías CUDA, TensorRT y los frameworks necesarios para ponerte a trabajar en minutos. La compatibilidad declarada con Python, Jupyter o PyTorch reduce fricción y favorece que puedas portar notebooks o pipelines existentes sin rehacerlos por completo.
Además, se incluye acceso al catálogo NGC, que agrupa modelos y contenedores optimizados, y a suites como NVIDIA RAPIDS para ciencia de datos y NVIDIA NeMo para el ajuste y la orquestación de LLM. En la parte de despliegue de servicios de inferencia, los microservicios NIM facilitan la puesta en marcha de APIs de alto rendimiento en local.
Una nota sobre acústica, mediciones y verificación
Cuando se habla de estaciones de trabajo de alto rendimiento, el ruido importa, y mucho. En este terreno, los estándares traen orden: el nivel de potencia sonora medio ponderado A declarado, Lwa,m, se obtiene promediando aritméticamente los niveles de potencia sonora medidos con ponderación A.
En paralelo, el nivel de presión sonora de emisión medio ponderado A, LpA,m, se calcula como la media aritmética de los valores de presión en la posición del operador, siguiendo criterios como los del apartado C.4b. Son métricas diferentes y complementarias que describen lo que emite la máquina y lo que percibe la persona que la usa.
Para la verificación estadística, se utiliza un agregador, Kv, que se suma a LWA,m para fijar un umbral de aceptación del 95 por ciento, de forma que, aplicando los procedimientos de ECMA‑109, no más del 6,5 por ciento de las unidades de un lote superen LWA,m + Kv. Esta metodología da confianza de que lo que se declara coincide con lo que se entrega.
De hecho, la magnitud LWA,c, antes llamada LWAd, se obtiene directamente como LWA,m + Kv. Todas estas mediciones se realizan según ECMA‑74 y se declaran con ECMA‑109, usando dB como unidad, que no deja de ser la abreviatura de decibelios. Por contexto, se considera el modo operativo de estrés máximo de la GPU en atmósfera de 25 ºC para garantizar reproducibilidad.
Puertos, redes y montaje sin dolor
Tanto Digits como Spark están pensados para enchufar y producir. En Spark encontramos una dotación particularmente rica: USB4 Type‑C, HDMI, 10 GbE, Wi‑Fi 7, Bluetooth 5.3 y dos puertos QSFP de 200 Gb/s, además de la tarjeta ConnectX‑7 de 200 Gb/s. Esto permite redes de baja latencia, discos en red rápidos y, si hace falta, unir dos unidades para ampliar el techo de parámetros.
En Digits, la idea es muy similar: una caja que se alimenta desde un enchufe doméstico y que no exige infraestructuras especiales. Para muchos equipos, tener un entorno estable y predecible en local reduce la fricción de desarrollo y elimina buena parte de los cuellos de botella que aparecen cuando todo depende de la nube.
Mercado, disponibilidad y contexto competitivo
NVIDIA llega a este segmento en un momento en el que domina la conversación tecnológica, alternando la primera y segunda posición mundial por capitalización, en pugna con Apple y por delante de Microsoft o Google según el momento. El impulso de la IA ha sido el gran motor de su valoración, y mover la supercomputación al escritorio encaja con su estrategia de controlar toda la pila, del centro de datos al borde.
DGX Spark abrirá pedidos a través de la web de NVIDIA y socios, con lanzamiento general fechado y una edición FE a 3.999 dólares. Se ha reportado incluso que unidades iniciales se agotaron rápidamente. En paralelo, fabricantes como Acer, ASUS, Dell, GIGABYTE, HP, Lenovo o MSI preparan sistemas personalizados basados en GB10 para ampliar catálogo y disponibilidad.
Hay, además, un componente simbólico y de narrativa: Jensen Huang entregó personalmente una de las primeras unidades a Elon Musk, y recordó que en 2016 llevó el primer DGX‑1 a una joven OpenAI. De aquel ecosistema surgiría el salto que encendió la mecha de la IA generativa moderna. El guiño no es casual: se busca trasladar a los escritorios parte de la chispa de aquella ola.
¿Para quién es esto y qué aporta en la práctica?
No es un PC generalista. Es una herramienta profesional para perfiles que necesitan reducir ciclos de iteración, mantener datos en casa y hacer pruebas serias con modelos que antes exigían mucha nube. Para una startup o un laboratorio, la independencia operativa pesa tanto como la potencia bruta: menos colas de GPU, menos facturas impredecibles y más control sobre el stack.
En términos de coste, los 3.000 dólares de Digits y los 3.999 de Spark no son calderilla, pero si lo comparamos con montar un clúster a medida o alquilar recursos a gran escala, puede salir muy a cuenta para fases de I+D. Y si el proyecto crece, se puede dar el salto a despliegues en centros de datos con la misma arquitectura Grace Blackwell.
Hay también lectura estratégica: si las grandes nubes acaparan recursos, acercar la computación a quien innova desbloquea experimentación y diversidad de enfoques. Es una válvula de escape para equipos pequeños que quieren participar de la ola de modelos cada vez más grandes y agénticos sin hipotecar su presupuesto.
Por último, no conviene olvidar el detalle humano: menos latencia, más privacidad, menos dependencia externa. Trabajar con tus datos y tus modelos en tu mesa cambia la relación con la tecnología y abre espacios de creatividad que, de otro modo, se diluyen entre colas y facturación.