Tutorial para instalar CUDA en Windows

  • Compatibilidad: versiones de Windows soportadas, drivers adecuados y modelos WDDM/TCC bien configurados.
  • Instalación flexible: Toolkit gráfico o silencioso, Conda y Wheels, con verificación mediante samples.
  • Entornos híbridos: soporte de WSL con kernel mínimo, Docker y frameworks de IA dentro de Linux en Windows.

CUDA en Windows

Instalar CUDA en Windows no tiene por qué ser un quebradero de cabeza si sigues una ruta clara y validada por las guías oficiales. A lo largo de esta guía práctica y técnica integraremos todo lo necesario para poner a punto el Toolkit, los controladores y las herramientas de verificación, tanto en Windows nativo como en WSL. El objetivo es que termines con una instalación operativa y probada, lista para acelerar tus flujos de trabajo con GPU.

Además de los pasos clásicos, cubriremos compatibilidad con Visual Studio, instalación silenciosa, paquetes Conda y Wheels de NVIDIA, verificación con ejemplos de CUDA, particularidades de WSL y notas clave de versiones (como la retirada del driver del instalador en CUDA 13). También verás cómo diagnosticar problemas comunes (incluido un caso real con un Lenovo Ideapad y controladores 526.56) y requisitos específicos para escenarios concretos como Model Builder con CUDA 10.1 y cuDNN 7.6.4.

Qué es CUDA

CUDA es la plataforma y modelo de programación paralela de NVIDIA que permite acelerar aplicaciones de cómputo intensivo en la GPU. Con CUDA C/C++ y sus extensiones puedes centrarte en paralelizar el algoritmo, mientras que el runtime de CUDA gestiona ejecución y memoria entre CPU y GPU. Al dividir trabajo serial (CPU) y paralelo (GPU), es posible escalar rendimiento aprovechando miles de hilos y la memoria compartida en chip.

Esta guía se centra en cómo dejar a punto el entorno en Windows (nativo y WSL), instalar el Toolkit, compilar ejemplos y comprobar que el sistema detecta correctamente la GPU. La verificación con muestras como deviceQuery y bandwidthTest es una pieza crítica que a menudo se pasa por alto y que aquí abordamos de forma explícita.

CUDA

Requisitos del sistema y versiones de Windows compatibles

Para usar CUDA necesitas una GPU NVIDIA compatible y un Windows admitido. Las versiones soportadas del sistema operativo incluyen: Windows 11 24H2, 23H2 y 22H2-SV2; Windows 10 22H2; Windows Server 2022 y Windows Server 2025. Comprueba en el Administrador de dispositivos que tu tarjeta aparece bajo Adaptadores de pantalla y verifica su compatibilidad en la lista oficial de GPUs CUDA-capable (página de NVIDIA).

En el plano del compilador, el Toolkit soporta MSVC 193x en Visual Studio 2022 17.x (C++11/14/17/20) y MSVC 192x en Visual Studio 2019 16.x (C++11/14/17). El soporte para Visual Studio 2015 quedó deprecado en 11.1; para VS 2017 se deprecó en 12.5 y se eliminó en 13.0. Ten en cuenta que la compilación de 32 bits se eliminó a partir de CUDA 12.0 (nativo y cross-compilation), si necesitas 32 bits deberás usar Toolkits anteriores.

Aunque el driver de NVIDIA seguirá permitiendo ejecutar binarios de 32 bits en GPUs GeForce hasta la arquitectura Ada, Ada será la última con ese soporte; Hopper ya no soporta aplicaciones de 32 bits. Esto es clave si mantienes software heredado en producción y necesitas planificar actualizaciones.

En Windows 10 y posteriores, el driver NVIDIA puede operar bajo dos modelos: WDDM (para dispositivos de visualización) y TCC (Tesla Compute Cluster) para GPUs de cómputo sin salida de vídeo como Tesla o ciertos modelos Titan. Con nvidia-smi puedes comprobar el modo actual y, cuando esté soportado, alternarlo. En equipos de escritorio con GPU de juego, WDDM será lo habitual; en estaciones de trabajo con tarjetas de cómputo, TCC suele venir activado por defecto.

Instalación del Toolkit en Windows: paso a paso

  1. Verifica que tienes una GPU CUDA-capable y un Windows soportado. Desde el Administrador de dispositivos (Adaptadores de pantalla) puedes ver fabricante y modelo.
  2. Descarga el NVIDIA CUDA Toolkit desde la página de descargas oficial. Tienes dos formatos: Network Installer (descarga sólo lo seleccionado durante la instalación) y Full Installer (incluye todos los componentes, útil sin conexión o para despliegue en empresa).
  3. Ejecuta el instalador y sigue el asistente gráfico para instalar Toolkit, ejemplos y la integración con Visual Studio si lo necesitas.
  4. En instalaciones automatizadas puedes usar modo silencioso con -s, y añadir parámetros para elegir subpaquetes concretos. El flag -n evita el reinicio automático si fuese requerido.
  5. Completa y reinicia si se solicita.
  6. Abre un Símbolo de sistema y ejecuta nvcc -V para ver la versión del compilador CUDA instalada.

instalar CUDA en Windows

Instalación silenciosa y subpaquetes del Toolkit

El instalador permite desplegar componentes concretos del Toolkit, lo que es útil en entornos gestionados o CI. Algunos subpaquetes representativos en CUDA 13.0 (ruta por defecto C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v13.0) son:

  • cublas_13.0 / cublas_dev_13.0: bibliotecas cuBLAS en tiempo de ejecución.
  • crt_13.0: compilador para aplicaciones CUDA.
  • ctadvisor_13.0: análisis de trazas de NVCC/NVRTC para reducir tiempos de compilación.
  • cuda_profiler_api_13.0 y cudart_13.0: API de profiler y runtime de CUDA.
  • cufft_13.0 / cufft_dev_13.0: cuFFT.
  • cuobjdump_13.0 y nvdisasm_13.0: utilidades para inspeccionar cubins.
  • cupti_13.0: interfaz de herramientas de perfilado.
  • curand_13.0 / curand_dev_13.0: cuRAND.
  • cusolver_13.0 / cusolver_dev_13.0 y cusparse_13.0 / cusparse_dev_13.0: bibliotecas de álgebra lineal.
  • cuxxfilt_13.0: demangler cu++ filt.
  • documentation_13.0: guías HTML y PDF (programación, best practices, etc.).
  • nsight_compute_13.0, nsight_systems_13.0 y nsight_vse_13.0: herramientas Nsight.
  • npp_13.0 / npp_dev_13.0: NPP.
  • nvcc_13.0: compilador CUDA.
  • nvfatbin_13.0, nvjitlink_13.0, nvtx_13.0, nvvm_13.0, nvptxcompiler_13.0: herramientas/librerías de toolchain y trazas.
  • nvjpeg_13.0 / nvjpeg_dev_13.0: nvJPEG.
  • nvml_dev_13.0: cabeceras y libs de NVML.
  • nvprune_13.0: podado de objetos/estáticos por objetivos device.
  • occupancy_calculator_13.0: hoja de cálculo de ocupación.
  • opencl_13.0: biblioteca OpenCL.
  • sanitizer_13.0: Compute Sanitizer API.
  • thrust_13.0 y visual_studio_integration_13.0: Thrust e integración VS.

Si necesitas inspeccionar el contenido antes de instalar, puedes extraer el Full Installer con una herramienta compatible con LZMA (por ejemplo, 7-Zip). Los ficheros del Toolkit quedan en la carpeta CUDAToolkit tras descomprimir; dentro hay archivos .dll y .nvi que puedes ignorar si sólo quieres revisar el árbol de instalación. La desinstalación se realiza desde Panel de control > Programas y características.

Instalación con pip (Wheels de NVIDIA)

Para entornos centrados en Python, NVIDIA ofrece Wheels que instalan el runtime y bibliotecas de CUDA vía pip. Estos paquetes están pensados para uso en tiempo de ejecución y no incluyen herramientas de desarrollo (puedes instalarlas aparte si las necesitas). Ojo: el entorno CUDA se gestiona dentro del entorno de pip, por lo que tendrás que ajustar el entorno del host si pretendes usar CUDA fuera de ese entorno.

Antes, instala nvidia-pyindex para que pip pueda resolver módulos desde el repositorio NVIDIA NGC. Si es necesario, actualiza pip y setuptools para evitar fallos posteriores. También puedes añadir la línea de nvidia-pyindex a tu requirements.txt si trabajas con esa convención.

Verificar la instalación: muestras y pruebas

Comprueba la versión del compilador con nvcc -V desde un CMD. Clona las CUDA Samples desde github.com/nvidia/cuda-samples, compílalas y ejecútalas según indica el repositorio. Es muy recomendable construir y ejecutar deviceQuery para confirmar que la GPU se detecta y la configuración es correcta.

El test bandwidthTest valida el rendimiento y la comunicación host-device. En ambos casos, lo importante es que el dispositivo aparezca, coincida con tu hardware y que las pruebas pasen. Si deviceQuery no detecta GPU, revisa instalación del driver y que el dispositivo esté operativo en el sistema.

CUDA y WSL en Windows 11 y Windows 10 21H2+

Windows 11 y las versiones recientes de Windows 10 (21H2 en adelante) admiten ejecutar herramientas de ML aceleradas por GPU mediante WSL. Podrás usar TensorFlow, PyTorch, Docker y NVIDIA Container Toolkit dentro de una distro Linux basada en glibc (Ubuntu, Debian, etc.).

Pasos clave: instala el controlador NVIDIA habilitado para CUDA en WSL, habilita WSL y añade una distribución tipo Ubuntu/Debian. Asegúrate de tener el kernel de WSL actualizado (mínimo 5.10.43.3). Puedes verificarlo en PowerShell con: wsl cat /proc/version. Después, sigue la guía de usuario de CUDA en WSL de NVIDIA para trabajar con NVIDIA Docker o instalar PyTorch/TensorFlow dentro de la distro.

Comprobaciones y diagnóstico en Windows

Para saber qué GPU tienes: en Configuración > Sistema > Pantalla > Configuración avanzada, encontrarás marca y modelo en “Información de pantalla”. En el Administrador de tareas, pestaña Rendimiento, selecciona GPU para ver uso, modelo y memoria. Si no aparece, revisa el Administrador de dispositivos > Adaptadores de pantalla e instala el driver apropiado para la tarjeta.

Para ver la versión de CUDA “informada” por tu driver, ejecuta nvidia-smi. Para conocer la versión del compilador del Toolkit instalado, usa nvcc --version. Ten presente que nvidia-smi muestra la versión máxima de CUDA “API” compatible con el driver, no la del Toolkit que tengas en disco.

Uso en la nube: ejemplo de instancias con GPU

Si necesitas potencia bajo demanda, los proveedores de nube ofrecen instancias con GPUs como NVIDIA A100, RTX 4090 o A6000. Este enfoque permite pago por uso, despliegue casi instantáneo y plantillas listas para frameworks populares (PyTorch, TensorFlow). Para cargas grandes o picos temporales, resulta una alternativa eficiente sin invertir en hardware propio y con soporte de las últimas versiones de CUDA.

Avisos legales y marcas

La documentación y software de NVIDIA se proporcionan “tal cual”, con derechos reservados y sin garantías implícitas de comercialización o idoneidad. NVIDIA puede modificar especificaciones y documentos sin previo aviso. Verifica siempre la información más reciente y respeta términos de venta y licencias de terceros. OpenCL es marca de Apple Inc. licenciada a Khronos; NVIDIA y su logotipo son marcas registradas en EE. UU. y otros países.

Con todo lo anterior ya tienes las piezas para instalar, configurar y validar CUDA en Windows (y también en WSL o Linux cuando lo necesites). Desde requisitos y drivers hasta la integración con Visual Studio y la verificación con muestras, la clave está en alinear versión de driver, Toolkit y entorno, y apoyarte en herramientas como nvidia-smi, nvcc y las samples para confirmar que la cadena completa funciona como esperas.