De los coprocesadores a la IA: la evolución de las GPU en Windows y juegos

  • De la FPU a la GPU: shaders unificados, más VRAM y DirectX en Windows impulsaron el salto del 2D al 3D avanzado.
  • Turing, Ampere y Ada llevaron el ray tracing y la IA al gran público; DLSS/FSR equilibran calidad y FPS.
  • RDNA 2/3 compite con caché masiva, más VRAM y chiplets; el futuro apunta a diseños MCM.
  • GPGPU trasciende el gaming: CUDA, DGX-2, RAPIDS, Clara y DRIVE aceleran ciencia, IA y simulación.

gpu gaming

Todos usamos el ordenador a diario y, sin darnos cuenta, detrás hay un engranaje técnico de aúpa. Gracias a la potencia del procesador gráfico (GPU) hoy disfrutamos de videojuegos con físicas complejas, iluminación realista y escenas que rozan la realidad, además de acelerar tareas de ciencia de datos, ejecutar modelos de IA en tu PC y creación de contenido.

En estas líneas vamos a recorrer la historia y las tecnologías clave de las GPU: desde los coprocesadores matemáticos (FPU) hasta el trazado de rayos y la inteligencia artificial, pasando por su impacto en Windows, DirectX y los juegos de PC. Veremos cómo cambiaron las arquitecturas, qué hitos marcaron cada etapa y por qué la computación en GPU (GPGPU) es ya presente y futuro.

De la era pre-GPU a las primeras tarjetas: cuando la CPU lo hacía todo

Los primeros ordenadores personales seguían el esquema clásico de von Neumann: ALU, memoria y E/S. La CPU asumía todo el trabajo, desde el sistema operativo hasta la salida gráfica. Con las primeras interfaces visuales y aplicaciones exigentes (CAD, videojuegos en 2D y 3D tempranos), la carga creció y apareció un aliado: la FPU, un coprocesador para acelerar operaciones en punto flotante que la CPU no manejaba de forma nativa sin conversiones costosas.

A medida que la pantalla —una matriz de píxeles— reclamaba cálculos masivos y repetitivos, quedó claro que buena parte de ese trabajo era paralelizable y podía salir de la CPU. Los coprocesadores evolucionaron y acabaron dando paso a las tarjetas gráficas como piezas separadas con chips más grandes, más transistores y mejor alimentación, abriendo la puerta a una aceleración específica del renderizado.

Estándares pioneros: de MDA y CGA a VGA y SVGA

A comienzos de los 80 aparecieron los primeros estándares de vídeo para PC. La MDA (1981) de IBM era monocroma y orientada a texto, mientras que la CGA (1984) añadió color (16 colores a baja resolución). Más tarde llegaron HGC (Hércules), EGA y la influyente VGA (1987), que popularizó resoluciones y paletas más amplias; luego la SVGA amplió resolución y colores hasta niveles impensables unos años antes. Aquellos hitos cimentaron el salto a la era gráfica del PC.

En los 90 vimos aceleradores 2D como los de S3 Graphics (1992) y el debut del 3D para juegos con 3Dfx Voodoo (1995). También llegaron nuevos buses y puertos optimizados para vídeo como el AGP (1997), diseñado por Intel para dar más ancho de banda gráfico frente al PCI clásico. Estas piezas allanaron el camino a la gran revolución que estaba por venir.

GPU gaming

1999: nace el concepto de GPU y cambia el juego para siempre

En 1999 NVIDIA acuñó el término GPU (Graphics Processing Unit) con la GeForce 256, integrando por primera vez transformación e iluminación en el chip gráfico —el viejo T&L deja de recaer en la CPU—. Este fue un salto histórico: las tarjetas pasaron de ser un “vídeo” más o menos pasivo a convertirse en procesadores paralelos especializados capaces de liberar a la CPU y disparar el rendimiento en gráficos.

A partir de ahí, la carrera por la potencia fue constante. En los años siguientes, generaciones como GeForce 7000 y 8000 y las series Radeon análogas fueron aumentando unidades de cálculo, memoria y ancho de banda. El progreso no solo se medía en FPS: también en nuevas APIs y librerías (OpenGL y, en el mundo Windows, DirectX) que facilitaron a los desarrolladores explotar la GPU de forma más directa.

Arquitectura de una GPU moderna: muchas unidades simples trabajando en paralelo

A diferencia de la CPU, diseñada para poca latencia y tareas secuenciales, una GPU agrupa centenares o miles de procesadores simples (shaders unificados o stream processors) con un repertorio muy concreto de instrucciones aritméticas. Esa masividad permite procesar algoritmos paralelos de forma extraordinariamente eficiente, apoyándose en memorias de alta velocidad y anchos de banda enormes.

En cifras, el salto ha sido abismal. A finales de los 90, una GeForce 256 apenas reunía 4 unidades dedicadas para sombreado; pocos años después, modelos como una GeForce GTX 780 Ti sumaban 2.880 shaders, y configuraciones duales como la AMD Radeon HD 7990 alcanzaban 4.096 en total (dos GPUs). El software se apoya en APIs como OpenGL y DirectX para sacar partido de esa maquinaria.

radeon hd 2900

Shaders unificados, «hot shaders» y el salto al gigabyte de VRAM

La transición a shaders unificados fue decisiva. Consolas de sobremesa marcaron tendencia: Xbox 360 adelantó a su tiempo usando una arquitectura unificada antes de que llegara a PC, mientras PS3 apostó por un diseño basado en la familia GeForce 7000. En PC, ATi estrenó los shaders unificados en 2007 con Radeon HD 2900 XT (en la imagen de arriba) y poco después NVIDIA hizo lo propio con GeForce 8000. El resultado: enormes saltos de rendimiento, como el de la GeForce 8800 GT duplicando a la 7900 GT.

En 2008 se consolidó esta filosofía con GeForce 9000 y Radeon HD 3000, con modelos míticos por precio/rendimiento como GeForce 9600 GT o Radeon HD 3870. NVIDIA experimentó con los «hot shaders», haciendo trabajar los shaders a más frecuencia que el resto de la GPU (ejemplo clásico: 8800 GT, GPU a ~600 MHz y shaders a ~1.500 MHz). También se generalizaron las VRAM de 1 GB en gamas medias/altas.

La escalada continuó con más shaders y más ancho de banda: una GeForce GTX 285 montaba 240 shaders y 159 GB/s, frente a los 128 shaders y 86,4 GB/s de una 8800 GTX; por el lado de ATi, la Radeon HD 4890 subió a 800 shaders y 124,8 GB/s desde los 320 shaders y 72,06 GB/s de la 3870. Las primeras con DirectX 11 llegaron con Radeon HD 5000 y GeForce GTX 400; GTX 500 y HD 6000 refinaron lo anterior, con rarezas como ciertas GTX 580 de 3 GB.

Windows, DirectX y el gran cambio: adiós a los «hot shaders», hola a DX12

El ecosistema Windows/DirectX guía la evolución en PC. AMD se adelantó con GCN 1.0 (HD 7950/7970), una arquitectura pensada para las nuevas capacidades de DX12 como la computación asíncrona. En aquel momento dominaba DX11 y la competencia (Kepler, de NVIDIA) rendía mejor ahí, pero AMD puso más VRAM por defecto (3 GB frente a 2 GB en equivalentes verdes), algo clave para la vida útil.

Con Kepler, NVIDIA puso fin a los «hot shaders», lo que obligó a incrementar drásticamente el número de shaders. Sirva de referencia: la GTX 680 (Kepler) llevaba 1.536 shaders a ~1.058 MHz, frente a los 512 shaders a ~1.544 MHz efectivos de la GTX 580. Kepler no brilló en DX12, cierto, pero DX11 seguía mandando, y en bruto la GTX 780 Ti con 2.880 shaders fue un monstruo que ya tocaba el 4K en su época.

De Maxwell a Pascal: eficiencia, más VRAM y salto a DX12/Vulkan

Maxwell supuso una mejora enorme de eficiencia y rendimiento por vatio. Una GeForce GTX 970, con “solo” 1.664 shaders, superaba a la GTX 780 Ti, montaba 4 GB de VRAM y se llevaba mejor con DX12. Ese equilibrio precio/rendimiento la convirtió en una de las gráficas más queridas de los últimos tiempos.

El siguiente paso, Pascal (GeForce GTX 10), abrazó con decisión DX12 y Vulkan. La GeForce GTX 1070 duplicó la VRAM de su predecesora (8 GB frente a 4 GB) y, pese a 1.920 shaders, superó a la GTX 980 Ti con 2.816. AMD respondió con Radeon RX Vega 56/64, potentes y con memoria HBM2, pero la GeForce GTX 1080 Ti se coronó y ni la Radeon VII logró destronarla. A día de hoy, 1080 Ti sigue moviendo títulos a 4K en rasterización clásica.

Consolas y su influencia: de Xbox 360 a PS4/Xbox One

Las consolas marcan la dirección tecnológica del PC por el volumen que mueven. Xbox 360 apostó pronto por shaders unificados, y en la generación siguiente, PS4 y Xbox One eligieron AMD GCN, reforzando el soporte a computación asíncrona y asentando estándares que luego se exprimen en Windows y DirectX. GCN tuvo hasta cinco revisiones, presentes incluso en PS4 Pro y Xbox One X.

Con el tiempo, AMD optó por HBM/HBM2 en productos de gama alta (ej. RX Vega 64 con 4.096 shaders, 8 GB HBM2 y 483,8 GB/s), mientras que generaciones previas como la HD 7970 (GCN 1.0) partían de 2.048 shaders, 3 GB y 264 GB/s. Este aumento de ancho de banda fue clave para texturas y resoluciones cada vez mayores en juegos multiplataforma.

GeForce RTX 20

Ray tracing e inteligencia artificial: Turing, Ampere y Ada

En 2018, NVIDIA lanzó Turing (GeForce RTX 20) y cambió el paradigma: además de SMs tradicionales, incorporó núcleos RT (aceleración de trazado de rayos) y núcleos tensor (IA e inferencia). Por fin era viable el ray tracing en tiempo real con costes asumibles, algo que antes era prohibitivo. La arquitectura abrió la puerta a efectos de iluminación, reflejos y oclusión muchísimo más fieles.

El trazado de rayos necesitó acompañarse de nuevas técnicas de reconstrucción. La primera versión de DLSS fue discreta, pero DLSS 2 se consolidó y hoy es una referencia: puede multiplicar FPS con un impacto mínimo en calidad gracias a la IA en los núcleos tensor. AMD contestó con FSR/FSR2, un escalado por software muy útil, si bien sin hardware dedicado de IA al nivel del tensor; además, Windows 11 incorpora funciones como Auto Super Resolution en Windows 11 para mejorar la imagen sin tanto coste.

Con Ampere (RTX 30) se dio un salto de potencia bruta, subiendo mucho los shaders por SM (una RTX 3060 tiene 3.584 shaders frente a 1.920 de la RTX 2060). Los núcleos RT y tensor mejoraron sensiblemente. Y con Ada Lovelace (RTX 40) llegó una gran revolución en eficiencia: una RTX 4060 de 110 W puede rendir alrededor de un 20% más que una RTX 3060 de 170 W, y la RTX 4090 supera a la RTX 3090 en torno a un 40% en raster. Además, DLSS 3 introdujo la generación de fotogramas en la GPU para aliviar cuellos de botella de CPU, clave en Windows con juegos mal optimizados.

RDNA y RDNA 2/3: la réplica de AMD con caché enorme y chiplets

AMD contraatacó con RDNA (Radeon RX 5700 XT), con WGP (grupos de trabajo) y frecuencias cercanas a 2 GHz. Con RDNA 2 dobló shaders en la gama alta (hasta 5.120 en RX 6900 XT), estandarizó 16 GB de VRAM, elevó frecuencias y añadió un masivo bloque de caché L3 para aliviar la dependencia del ancho de banda externo, además de unidades para acelerar ray tracing.

La siguiente iteración, RDNA 3, mejoró eficiencia y RT con núcleos de segunda generación, e introdujo por primera vez un diseño multi-chiplet en la gama gaming: el núcleo gráfico siguió siendo monolítico, pero la gran caché L3 (Infinity Cache) se externalizó a chiplets. Esto simplifica la oblea, mejora los rendimientos de fabricación y reduce costes, anticipando el futuro MCM en GPUs complejas. También surgen iniciativas de IA locales como aprovechar la IA local con Ryzen que encajan con la estrategia de AMD.

gpgpu

GPGPU: de la ciencia a la minería de criptomonedas y el aprendizaje automático

La idea de ejecutar tareas de propósito general en la GPU lleva años sonando fuerte, y formatos como formato GGUF han mejorado la ejecución local de modelos. No todo escala bien (hay procesos poco paralelizables), pero los problemas de cálculo masivo y repetitivo funcionan de maravilla. Un ejemplo popular fue la minería de Bitcoin, ejecutando SHA-256 sobre múltiples cadenas en paralelo con los shaders.

Para minar de forma eficiente antaño se recomendaban equipos con CPU modesta (incluso ULV), 2-4 GB de RAM, almacenamiento pequeño (mejor SSD por consumo), varias GPUs en CrossFire X (muy habitual con AMD por su gran conteo de stream processors) y una fuente de alimentación robusta. Eso sí, el consumo es la variable que manda: granjas con varias GPUs pueden rozar los 1.000 W funcionando 24/7, con impacto claro en costes y en la necesidad de proteger tu PC.

Más allá de la minería, la GPGPU ha impulsado HPC y ciencia de datos. Ejemplos: supercomputadoras como el MareNostrum incorporan aceleradores; NVIDIA lanzó CUDA (2006) para programar la GPU en cómputo general, el servidor DGX-2 con Tesla V100 y NVSwitch (2 PFLOPS), y plataformas como RAPIDS para acelerar ciencia de datos, Clara para imágenes médicas, DRIVE Constellation para simulación de conducción y la familia Jetson AGX Xavier para robótica con IA. Todo esto vive en PCs y servidores con Windows y Linux, y APIs como DirectCompute, CUDA y OpenCL.

Gráficos integrados (IGP) y su papel en el hogar

El auge de la web y apps menos exigentes visualmente trajo las IGP, integradas en la CPU (Intel UHD, Iris Xe; AMD Radeon Vega, como las nuevas APU). Para sistema operativo, ofimática o streaming, una IGP moderna va sobrada, y solo juegos exigentes o software profesional piden una dedicada.

Un caso ilustrativo: en un portátil como el Alienware 14, una GTX 765M de gama media supera en torno a un 410% a la iGPU Intel HD 4600 en juegos, donde la integrada cae bajo 30 fps en muchos títulos; sin embargo, en uso diario (Windows, navegador, ofimática) la experiencia es muy similar. Es la prueba de que la dGPU es clave para jugar en serio, pero no imprescindible para el día a día.

Ventajas habituales de las IGP: menos consumo, menos calor, cada vez más rendimiento y cero ocupación de espacio adicional. Desventajas: limitaciones físicas (tamaño/temperatura dentro del SoC) e imposibilidad de actualización sin cambiar el conjunto. El futuro de estas integradas depende de los saltos de nodo (de 22 nm a 14 nm, como en Broadwell en su día) y de tecnologías como hUMA de AMD, que permite a CPU e IGP compartir el mismo espacio de memoria para mejorar el rendimiento conjunto.

Tipos de GPU: integradas, dedicadas e híbridas

En el mercado doméstico conviven tres grandes familias. Las integradas vienen en el procesador y cubren tareas cotidianas. Las dedicadas son tarjetas independientes con su propia VRAM y refrigeración (ej. NVIDIA GeForce RTX 3090 o AMD Radeon RX 6800), ideales para juegos, creación y GPGPU. Y existen diseños híbridos como algunas RTX 3090 con refrigeración mixta que combinan ventajas de aire y líquido para mantener frecuencias altas.

Durante años NVIDIA y ATi lideraron la gama alta; en 2006 ATi pasó a ser AMD tras su compra, y desde entonces compite de tú a tú con NVIDIA y con Intel en integradas. Hubo momentos estelares como la HD 3870 X2, la primera dual-GPU de AMD tras la Rage Fury MAXX, que superó a la GeForce 8800 Ultra a alta resolución, o la Radeon HD 5970 y la Radeon R9 295X2 en la era del multiGPU.

Windows y juegos: DirectX como columna vertebral

La evolución de los juegos en PC depende en gran parte de DirectX en Windows. De DX9 a DX11, el salto fue continuo; con DX12, Microsoft expuso un control de bajo nivel para que los motores expriman la GPU mejor (multihilo, colas de mando, async compute). Los drivers WDDM y características como el ray tracing en DXR han permitido que efectos avanzados lleguen a los jugadores de PC con escalabilidad y estabilidad.

Hoy títulos punteros combinan rasterización, ray tracing y superresolución (DLSS/FSR) para equilibrar calidad y rendimiento. Casos como el modo Overdrive de Cyberpunk 2077, con path tracing, exigen arquitecturas como Ada y técnicas de generación de frames para sostener FPS a resoluciones altas, especialmente en equipos donde la CPU puede poner límites.

Hitos adicionales en la historia reciente

Además de los grandes saltos ya citados, merece recordar la GeForce 8800 GTX (2006) por su papel en DX10, la GeForce GTX 680 (2012) con Kepler, la GTX 1080 (2016) con Pascal y la familia RTX 30 (2020) con Ampere, que popularizó aún más el ray tracing y la IA. En paralelo, tecnologías como SLI (2004) y CrossFire exploraron el multiGPU, si bien hoy han perdido tracción en juegos frente a la escala vertical de una sola GPU potente.

También hay hitos fuera del gaming: la plataforma GRID (2012) llevó la GPU a la nube, y soluciones como DGX-2, RAPIDS, Clara, DRIVE Constellation y Jetson AGX Xavier han extendido la aceleración por GPU a la IA, medicina, automoción y robótica, mostrando que el impacto del cómputo gráfico va más allá del entretenimiento.

Rendimiento, consumo y elección práctica

A la hora de elegir, manda el presupuesto, el monitor y el tipo de uso. Para jugar en 1080p/1440p con ray tracing moderado, una GPU de gama media con soporte de DLSS/FSR puede ser suficiente; para 4K con RT alto, hace falta una tope de gama. Si tu prioridad es edición de vídeo, IA o ciencia de datos, conviene mirar VRAM, ancho de banda y soporte de librerías (CUDA, TensorRT, ROCm).

El consumo energético importa más de lo que parece. Equipos con varias tarjetas —como las granjas para minería de criptomonedas de antaño— pueden disparar la factura. En gaming, la eficiencia de arquitecturas como Ada o RDNA 3 ayuda a reducir ruido y calor, y a encajar en cajas pequeñas sin renunciar a alto rendimiento en Windows.

Tras décadas de innovación, la GPU ha pasado de mover texto monocromo a sostener mundos fotorrealistas, acelerar IA en tiempo real y mejorar la experiencia de Windows y los juegos con tecnologías como DX12/DXR, DLSS y FSR. Desde MDA, CGA y VGA hasta RTX y RDNA, cada hito —shaders unificados, cachés masivas, HBM, ray tracing, chiplets— ha encajado una pieza del puzzle que hoy disfrutamos en casa, en el trabajo y en el centro de datos.

microsoft directstorage
Artículo relacionado:
DirectStorage en Windows 11: Habilítalo ya