Evolución de las tarjetas gráficas: de VGA a GPU y su impacto en Windows y juegos

  • De los adaptadores MDA/CGA/EGA/VGA a las GPU con RT e IA, la evolución ha sido técnica y constante.
  • Windows y sus APIs DirectX/DXR han marcado el ritmo del gaming en PC junto a OpenGL y Vulkan.
  • Claves actuales: más shaders, cachés grandes, VRAM rápida, núcleos especializados y alta eficiencia.
  • Elegir bien exige equilibrar CPU/GPU, conocer buses/puertos y ajustar la experiencia por resolución y ajustes.

evolucion de las tarjetas graficas e impacto en windows y juegos

Desde que encendemos el ordenador y aparece el logotipo de Windows hasta que arrancamos un juego cargado de luces, sombras y texturas, todo pasa por la misma pieza: la tarjeta gráfica. Este componente puede ir integrado en el procesador o venir en formato dedicado, y su misión es transformar datos en imágenes con fluidez, precisión y, en los últimos años, con un toque de inteligencia artificial.

En este viaje repasamos, con lupa, la evolución de las tarjetas gráficas «de VGA a GPU», el cambio de los primeros adaptadores monocromo al trazado de rayos en tiempo real, y cómo todo esto ha impactado en la experiencia dentro de Windows y los videojuegos. Veremos historia, tecnologías clave, APIs, fabricantes, buses, memorias, consejos de compra, y hasta cómo comprobar en dos clics cuál es tu gráfica en Windows con dxdiag.

Qué es una tarjeta gráfica y cómo trabaja junto a la CPU

Una tarjeta gráfica (o GPU en sentido estricto) es un procesador especializado en operaciones en coma flotante, pensado para ejecutar en paralelo miles de cálculos que dan forma a los píxeles. La versión integrada va dentro del propio CPU (iGPU/APU), mientras que la dedicada se coloca en la placa base vía PCI Express y cuenta con su propia memoria VRAM, alimentación y refrigeración.

El flujo típico en un PC con Windows y juegos es: la CPU prepara geometría (vértices), órdenes y física; la GPU organiza la escena (ordenamiento espacial y clipping), y luego ejecuta los pixel/fragment shaders que dan color, materiales, efectos y postprocesado. Tras ello, la señal sale por VGA, DVI, HDMI, USB‑C o DisplayPort hacia el monitor, que la muestra con una tasa de refresco determinada (50/60/120/144 Hz…).

Las dedicadas suelen ser bastante más potentes que las integradas, por eso para edición, videojuegos o IA hoy se priorizan modelos con VRAM rápida y ancho de banda elevado. En portátiles gaming, los chips Max‑Q optimizan consumo y temperatura para acercar el rendimiento de escritorio con menos vatios.

asus vga

De MDA y CGA a HGC, EGA, VGA y SVGA: los cimientos

El punto de partida en PC fueron los adaptadores de IBM a principios de los 80. El MDA (Monochrome Display Adapter) mostraba solo texto alfanumérico (80×25) con 4 KB de memoria y monitores monocromo. La controladora leía valores ASCII, el generador de caracteres componía una matriz raster por signo, y el monitor la reproducía a unos 50 Hz.

En 1981 llegaron los primeros gráficos a color con la CGA (Color Graphics Adapter), que inauguró el mundo RGB en PC: hasta 16 colores (8 con dos intensidades) y resoluciones como 320×200 (4 colores) o 640×200 (2 colores). No era perfecta, pero puso el color en el mapa doméstico.

En paralelo, en 1982 apareció la Hércules Graphics Card (HGC): monocroma, sí, pero capaz de 720×348 y con 64 KB de memoria. Permitía texto nítido (matriz 14×9) y un modo gráfico notable para la época.

El siguiente paso fue la EGA (Enhanced Graphics Adapter) de IBM, compatible con MDA y CGA, con 256 KB de memoria y 16 colores a 640×350 elegidos de una paleta de 64. Además, hacía los cambios de pantalla de forma suave, reduciendo el molesto parpadeo típico de CGA.

En 1987 la industria abrazó la VGA (Video Graphics Array): 640×480 en modo gráfico, 720×350 en texto, 256 colores elegidos de una paleta de 262.144, y la gran diferencia: señal analógica al monitor. Por eso las VGA incorporaban el famoso RAMDAC (conversor digital‑analógico de memoria), que llegó a operar hasta 450 MHz en modelos posteriores. Con VGA se generalizaron también 800×600, 1024×768 y tasas de refresco de 50/60/70 Hz.

De 2D a 3D: buses, chips y la primera gran revolución

Los 90 trajeron dos revoluciones: los buses y el salto al 3D. El estándar VESA local bus dio paso a PCI en 1993, con tarjetas más compactas de marcas como Matrox, Creative o 3dfx (Voodoo). Poco después llegó el AGP (x2, x4, x8) para acelerar el tráfico de texturas, con picos teóricos de hasta 2,1 GB/s, antesala del actual PCI Express de 16 carriles.

Por el lado de los chips, emergieron fabricantes como S3 (Trio, ViRGE), Rendition, Matrox, 3dfx, NEC PowerVR, ATI y una entonces incipiente NVIDIA (RIVA TNT/TNT2). Las primeras APIs 3D en PC se asentaron con OpenGL (de Silicon Graphics), Glide (propietaria de 3dfx) y Direct3D dentro de Microsoft DirectX, que en Windows acabaría dominando el juego en PC.

El verdadero punto de inflexión fue la GeForce 256 (1999), el primer chip con T&L por hardware (Transform & Lighting), unificando aceleración 3D poligonal y descargando a la CPU de cálculos geométricos. A partir de ahí, ATI nombró a su familia «Radeon», naciendo la rivalidad moderna.

directx 12

Shaders unificados, «hot shaders» y el salto a DirectX 11

NVIDIA experimentó con los llamados «hot shaders», haciendo funcionar los shaders a más MHz que el resto de la GPU (por ejemplo, 600 MHz para GPU y 1.500 MHz para shaders en 8800 GT). Mientras, se popularizó la VRAM de 1 GB y se disparó el ancho de banda para evitar cuellos de botella.

La etapa GeForce GTX 400/500 y Radeon HD 5000/6000 trajo DirectX 11, más conteo de shaders, más ancho de banda y ediciones que por primera vez alcanzaron los 3 GB de VRAM (en la gama alta de NVIDIA, aunque de forma limitada). Era la regla: sumar unidades de cálculo y memoria para subir potencia bruta.

GCN, computación asíncrona y el fin de los «hot shaders»

AMD respondió con GCN 1.0 (Radeon HD 7950/7970), una arquitectura adelantada a su tiempo que favorecía DirectX 12 y la computación asíncrona. También estandarizó VRAM más generosa (3 GB frente a 2 GB en equivalentes de NVIDIA), una decisión que se notaría con juegos más pesados.

NVIDIA, con Kepler (GTX 600/700), dijo adiós a los «hot shaders», triplicó shaders entre generaciones (GTX 580 a GTX 680) y ganó inercia en DX11, aunque su soporte DX12 temprano fue tibio. Aun así, con la GTX 780 Ti (2013) duplicó shaders y logró mover juegos en 4K en PC con Windows con sorprendente solvencia.

El salto grande llegó con Maxwell (GTX 900): mucha más eficiencia y rendimiento por vatio; una GTX 970 con 1.664 shaders superaba a la GTX 780 Ti con 2.880, además de sumar VRAM (4 GB) y llevarse mejor con DX12. Fue una de las gráficas más queridas por su equilibrio y longevidad.

Con Pascal (GTX 10), NVIDIA abrazó de lleno DX12 y Vulkan; una GTX 1070 (1.920 shaders, 8 GB) superaba a la GTX 980 Ti. La GTX 1080 Ti se convirtió en una leyenda con rendimiento 4K aún vigente en rasterización clásica.

NVIDIA DLSS

Turing, núcleos RT y tensor: ray tracing e IA en Windows y juegos

El siguiente gran hito llegó con Turing (RTX 20), que añadió dos bloques especializados: núcleos RT (trazado de rayos) y núcleos tensor (IA e inferencia). A partir de ahí, una GPU dejó de ser «solo shaders + texturas + raster» y pudo afrontar efectos antes prohibitivos por coste de rendimiento, integrándose con DirectX Raytracing en Windows.

Para compensar el impacto del ray tracing, NVIDIA lanzó DLSS, un reescalado con IA que fracasó en su primera versión pero triunfó con DLSS 2 gracias a su reconstrucción temporal de la imagen. AMD respondió con FSR/FSR 2, que no usa IA pero ofrece un buen equilibrio multiplataforma.

Ampere y Ada (RTX 30/40), RDNA2 y RDNA3: eficiencia, cachés y chiplets

Con Ampere (RTX 30), NVIDIA incrementó de forma masiva los shaders por SM; una RTX 3060 (3.584 shaders) doblaba a la 2060 en núcleos, mejoró RT/tensor y elevó frecuencias. Después, Ada Lovelace (RTX 40) dio un salto enorme en eficiencia: una RTX 4060 de 110 W supera en torno a un 20% a una 3060 de 170 W en raster.

La RTX 4090 aventaja unos 40% a la 3090 en raster y es la única que mueve con soltura el modo Overdrive de Cyberpunk 2077 (path tracing). Además, DLSS 3 introduce la generación de fotogramas, aliviando cuellos de botella de CPU en Windows al «intercalar» frames sintetizados en la GPU.

En el lado rojo, RDNA2 duplicó shaders frente a RDNA, estandarizó 16 GB en gama alta, disparó frecuencias y añadió un gran bloque de caché L3 tipo «Infinity Cache» para reducir dependencia del ancho de banda externo. También llegaron las primeras unidades de ray tracing en AMD para juegos DXR.

Con RDNA3, AMD refinó eficiencia, añadió núcleos RT de segunda generación, incorporó aceleradores de IA y, sobre todo, introdujo un diseño multi-chiplet novedoso: mantuvo un die monolítico para la GPU y externalizó la caché L3 en chiplets. Así reduce superficie de silicio, mejora el yield y baja costes.

Mirando hacia delante, todo apunta a GPUS MCM (multi‑chip module) con varias GPU interconectadas. Es cuestión de tiempo: el área de un único die ya no escala bien en coste y complejidad cuando hablamos de decenas de miles de shaders.

VRAM

Componentes esenciales: GPU, VRAM, RAMDAC, VRM y refrigeración

En la placa conviven la GPU (núcleo de cálculo con cachés L1/L2), la memoria VRAM (texturas, framebuffers, buffers intermedios), el VRM (fases de alimentación con MOSFETs, chokes y condensadores) y el sistema de refrigeración. Las dedicadas suelen usar conectores de 6+2 pines porque el slot PCIe solo entrega hasta 75 W.

El histórico RAMDAC convirtió datos digitales en señal analógica para monitores VGA/CRT. Aunque hoy todo es digital (HDMI/DP), resulta clave entender su papel en la transición: su frecuencia determinaba estabilidad de imagen; modelos avanzados alcanzaron 450 MHz.

En disipación, conviven diseños de turbina (blower, expulsan el aire caliente fuera de la caja) y de flujo axial (varios ventiladores empujando aire sobre un radiador de aletas). Los blower son compactos pero ruidosos y menos eficientes; los axiales son la norma en modelos personalizados por su mejor rendimiento térmico.

Memorias de vídeo: de EDO/SGRAM/VRAM/WRAM a GDDR6 y HBM2

Antes de la era moderna, las tarjetas gráficas usaron EDO RAM y SDRAM, luego SGRAM (SDRAM optimizada para gráficos), VRAM (doble puerto para leer y escribir a la vez) y WRAM (más rápida que VRAM y con funciones de aceleración de bloques, ideal para ventanas en Windows). Aquello marcó la transición desde 300–800 Mbps a anchos mucho mayores.

Hoy dominan GDDR6 y GDDR6X: memorias «DDR» con frecuencias efectivas altísimas (14–21 Gbps) y buses de 128 a 384 bits, logrando anchos de banda masivos. AMD ha usado HBM2 (bus de hasta 2048 bits con apilado 3D), menos MHz pero un ancho brutal, útil en escenarios de ancho de banda extremo.

Relación clásica memoria‑resolución (época 2D): con 512 KB, 1024×768 a 16 colores; con 1 MB, 1280×1024 a 16 colores o 1024×768 a 256; con 2 MB, 1280×1024 a 256 y 1024×768 a 65.536; con 4 MB ya se popularizaron los 16,7 millones de colores en 800×600 y superiores. Hoy, para juegos modernos, 4–8 GB son el mínimo razonable en 1080p–1440p.

Puertos de vídeo: VGA, DVI, HDMI, DisplayPort y USB‑C

La señal analógica VGA quedó atrás, pero conviene conocer DVI: DVI‑D (solo digital), DVI‑A (solo analógico) y DVI‑I (ambas). HDMI 2.1 maneja hasta 4K@120 y 8K@60; la 2.0 se queda en 4K@60 (8 bits). DisplayPort 1.4 permite 4K@120 y 8K@60 con DSC; DP es la interfaz preferida para monitores de alta tasa de refresco en PC.

USB‑C con Alt Mode DP/Thunderbolt 3 puede sacar vídeo 4K@60 y combinar datos y energía. En equipos modernos de Windows es habitual ver DP y HDMI conviviendo, y, en portátiles, USB‑C como salida polivalente.

OpenGL

APIs 3D en Windows: OpenGL, Glide, DirectX y Vulkan

Las APIs son el «idioma» que habla el juego con la GPU. OpenGL (industrial y muy capaz) y Glide (subconjunto optimizado para 3dfx) marcaron los 90. Microsoft integró en Windows la familia DirectX (Direct3D), que arrancó renqueante, pero a partir de DX8/DX11 se convirtió en el estándar dominante en PC.

Además, existe Vulkan (Khronos), de bajo nivel y multiplataforma, con raíces en Mantle de AMD. En la práctica, en Windows la mayoría de juegos grandes usan DirectX 11/12, con DXR para ray tracing; OpenGL/Vulkan conviven en motores y ports concretos.

Buses: PCI, AGP y PCI Express

El bus define el camino de datos entre GPU y sistema. PCI fue el puente de los 90. AGP elevó el ancho de banda y permitió tirar de RAM del sistema (a costa de latencia). Con PCIe x16 (3.0, 4.0 y 5.0), las GPUs se comunican directamente con la CPU por 16 carriles dedicados. PCIe 3.0 x16 ofrece ~15,8 GB/s bidireccional; 4.0 dobla; 5.0 vuelve a doblar. Hoy, en juegos, rara vez se satura.

Rendimiento y métricas: FPS, TFLOPS, TMUs/ROPs y overclock

Los FPS marcan la fluidez: más FPS, sensación más suave, limitada por la tasa de refresco del monitor (sincronía vertical mediante V‑Sync/G‑Sync/FreeSync). Para ver «el techo» de tu GPU, desactiva la sincronización y observa el frametime en herramientas de test.

Los TFLOPS miden operaciones en punto flotante por segundo, una referencia de potencia bruta, pero no definitiva: arquitectura, cachés, compresión de color, ancho de banda y drivers pesan mucho. Las TMUs (mapeo/filtrado de texturas) y las ROPs (rasterización, blending, z‑buffer, antialiasing) condicionan el throughput real de píxeles y texturas.

El overclock de GPU suele rondar +100–150 MHz y en VRAM GDDR6 incluso +900–1000 MHz efectivos, con ganancias apreciables de FPS si la GPU no está limitada por CPU. Herramientas populares: MSI Afterburner, EVGA Precision X1 o AMD Adrenalin (WattMan).

DGPU e IGPU

Elegir bien la gráfica, emparejar con CPU y evitar cuellos de botella

Para ofimática y multimedia, una iGPU moderna (Intel UHD/ARC integrada o AMD Radeon Vega en APUs) basta; invertir en dedicada no compensa. Para jugar en 1080p, una GPU de gama media con 6–8 GB y una CPU de 6 núcleos ofrecen un gran equilibrio precio/rendimiento.

En 1440p/4K, piensa en gamas altas (más shaders, RT mejorado y VRAM holgada). Recuerda: la CPU determina cuánta geometría/física alimenta a la GPU; bajar resolución alivia a la GPU, pero apenas reduce carga de CPU. Ajustes que «pegan» a CPU: densidad de objetos, NPCs, simulación, físicas; los que «pegan» a GPU: resolución, texturas, AA, oclusión ambiental, teselado y, por supuesto, ray tracing.

Formatos y disipación importan: mide tu caja y elige entre diseños de dos/ tres ventiladores, o incluso líquida AIO en modelos extremos. Los ensambladores (ASUS, MSI, Gigabyte, etc.) suelen subir frecuencias de fábrica y montar VRM más robustos.

Portátiles gaming y Max‑Q

En portátiles, la GPU va soldada y optimizada (series RTX/GTX Max‑Q) con menos consumo y algo menos de rendimiento respecto al escritorio. Comparten VRAM GDDR6, drivers unificados para Windows y soporte de tecnologías como DLSS y RT, priorizando temperaturas contenidas y autonomía, y opciones como el mux switch para mejorar rendimiento.

Cómo saber qué gráfica tienes en Windows (dxdiag)

Si quieres identificar tu tarjeta en segundos desde Windows, usa la herramienta de diagnóstico de DirectX:

  1. Haz clic en Inicio.
  2. Abre «Ejecutar» desde el menú de Inicio.
  3. Escribe dxdiag y pulsa Aceptar.
  4. Cuando se abra la utilidad, entra en la pestaña Pantalla.
  5. Consulta en «Dispositivo» el nombre de tu GPU y la memoria disponible.

Fabricantes y ecosistema: NVIDIA, AMD, Intel y ensambladores

Hoy el mercado lo lideran NVIDIA (GeForce RTX) y AMD (Radeon RX). Intel ha vuelto al juego con Arc en dedicadas e integra gráficos en la mayoría de CPUs. En 2006 AMD adquirió ATI; desde entonces fusiona CPU y GPU (APUs) y compite de tú a tú en gaming y PC de sobremesa.

Los ensambladores (ASUS, MSI, Gigabyte, etc.) compran GPU/memorias y diseñan PCB, VRM y disipadores propios. Algunas añaden RGB, dual BIOS, sensores y perfiles «OC». En 2004, NVIDIA reintrodujo SLI (multi‑GPU) para sumar rendimiento, y han existido soluciones de computación en la nube como las de tipo GRID que mueven gráficos desde servidores remotos, adelantándose al actual juego en streaming.

Mirando todo el recorrido, desde la señal analógica de una VGA hasta el path tracing y la generación de fotogramas por IA, queda claro que las tarjetas gráficas han pasado de ser simples adaptadores a convertirse en procesadores masivamente paralelos con impacto directo en Windows, motores y juegos; el futuro refuerza la especialización (RT/IA), diseños por chiplets y la eficiencia, con la promesa de más fidelidad y más FPS sin disparar consumo.