Si sigues de cerca el mundo de la inteligencia artificial, seguramente ya te suene el nombre de DeepSeek. Este modelo de IA procedente de China se ha colado de lleno en el radar de todo el sector por ofrecer un rendimiento muy similar al de gigantes como OpenAI o Google, pero con un coste de cómputo y despliegue muchísimo más bajo. Todo esto ha hecho que en Silicon Valley más de uno levante la ceja y empiece a tomar buena nota.
Lo que hace especialmente interesante a DeepSeek es que se trata de un modelo de código abierto bajo licencia MIT. Eso implica que cualquiera puede descargarlo, auditarlo, modificarlo, utilizarlo comercialmente y, lo más jugoso para ti, ejecutarlo de forma local en tu propio ordenador. Puedes usarlo sin enviar tus datos a servidores externos, evitando que tus conversaciones acaben almacenadas en centros de datos en China o en cualquier otro país, y ganando en privacidad y control.
Qué es DeepSeek y por qué está dando tanto que hablar
DeepSeek se ha colado en la conversación global porque ofrece resultados de muy alto nivel en tareas de chat y razonamiento con un coste muy inferior al de los grandes modelos propietarios. Su enfoque abierto lo coloca en la misma liga que las propuestas de Meta, Google o Microsoft que también han liberado modelos, como muestra una comparativa entre Copilot y DeepSeek, pero con una agresividad en costes y eficiencia que ha hecho ruido en todo el sector.
Este proyecto apuesta claramente por el ecosistema open source: al estar bajo licencia MIT, puedes integrarlo en proyectos comerciales, modificarlo, combinarlo con otras herramientas y, en general, montarte tu propia infraestructura de IA sin pasar por caja cada vez que quieras hacer pruebas o desplegar algo en serio. Este hecho incluso ha llevado a algunos referentes del sector a reconsiderar su postura sobre el open source, lo que demuestra el impacto que está teniendo.
Además, uno de los puntos más atractivos es que DeepSeek está pensado para poder funcionar localmente en equipos de usuario gracias a versiones reducidas y destiladas de su modelo principal. No necesitas un centro de datos entero para aprovechar sus capacidades básicas; con un PC decente puedes empezar a trastear y usarlo como asistente diario.
Otro detalle importante es que DeepSeek ha puesto mucho enfoque en el razonamiento paso a paso. El modelo R1, del que hablaremos más adelante, es capaz de mostrar su proceso de pensamiento entre etiquetas <think> cuando lo ejecutas con ciertas herramientas, permitiéndote ver cómo descompone los problemas antes de darte la respuesta final.

Modelos completos frente a modelos destilados: por qué no vas a instalar el «bicho gordo»
DeepSeek no es un único modelo, sino una familia. En la parte alta del catálogo está DeepSeek-R1:671b, una auténtica bestia con unos 671.000 millones de parámetros. Comprimido, este modelo ronda los 120 GB (desde unos 720 GB originales), lo que da una idea de la escala de recursos que necesita para funcionar como es debido.
Para que te hagas una idea, un creador como Matthew Berman llegó a probar R1:671b en la nube usando un servidor con un procesador AMD EPYC de 128 núcleos, más de 2 TB de RAM, varias unidades SSD NVMe y 8 GPUs AMD Instinct MI300X con 192 GB cada una. Vamos, lo que coloquialmente se conocería como un «ordenador de la NASA», muy lejos del equipo de sobremesa o portátil que tenemos en casa.
En el lado opuesto están las versiones destiladas o reducidas de DeepSeek. Estas variantes utilizan una técnica en la que un modelo más pequeño aprende a imitar el comportamiento de uno grande, aprovechando su fine-tuning y sus ajustes optimizados. Se mantienen muchas de las capacidades del modelo original, pero con muchos menos parámetros y consumo de recursos. Los modelos destilados de DeepSeek suelen estar por debajo de los 8.000 millones de parámetros y rondan entre 4 y 5 GB de tamaño. Esto hace que puedas descargarlos, almacenarlos y ejecutarlos en un PC normal sin que tu equipo salga ardiendo. Sacrificas algo de precisión y potencia, pero a cambio los puedes usar en el día a día.
Con este tipo de versiones más ligeras, un ordenador con 32 GB de RAM y una GPU dedicada con 8 GB de VRAM (por ejemplo, una AMD Radeon RX 580) es capaz de mover DeepSeek de forma perfectamente utilizable. Las respuestas se generan algo más despacio que en la web o en servidores potentes, pero la experiencia es totalmente funcional, eso sí, con la GPU casi al 100% de carga mientras el modelo está generando.
Ventajas de usar DeepSeek de forma local en Windows 11
El gran atractivo de llevar DeepSeek a tu Windows 11 es que pasas de depender de un servicio en la nube a tener tu propia IA corriendo en tu máquina. Esto conlleva una serie de ventajas que, para muchos usuarios, compensan con creces el esfuerzo de la instalación inicial.
La primera es evidente: puedes utilizar DeepSeek sin conexión a Internet una vez descargado el modelo. Ideal si trabajas en un portátil que se mueve entre distintas redes.
La segunda gran ventaja es la privacidad y el control de datos. Al ejecutarse todo en tu equipo, las entradas y salidas del modelo no salen de tu PC. Si tratas con información sensible, documentos internos de empresa o datos personales, no tienes que estar preocupado por a qué servidores van a parar tus conversaciones.
Además, al no depender de una infraestructura compartida, no te afectan las colas de espera, caídas de servicio ni limitaciones por saturación de usuarios. Si tu ordenador tiene recursos suficientes, DeepSeek responderá en función exclusivamente de lo que tu hardware pueda dar de sí, sin importar cuántas personas estén usando el modelo en otro lugar.
Por último, el hecho de que DeepSeek sea de código abierto y ejecutable localmente lo convierte en un candidato ideal si quieres experimentar, integrarlo con otras aplicaciones, automatizar flujos de trabajo o montar un entorno de pruebas de IA completamente bajo tu control. Para desarrolladores y usuarios avanzados, es un caramelito.
Requisitos de hardware recomendados para sacarle partido
Aunque DeepSeek en sus versiones destiladas está pensado para ser más amable con los recursos, conviene tener claras unas mínimas especificaciones de hardware para que la experiencia no sea desesperante. Técnicamente puedes llegar a ejecutarlo en equipos más modestos, pero cuanto más te acerques a estas cifras, mejor.
En el terreno de la memoria, es muy recomendable contar con al menos 16 GB de RAM, siendo 32 GB un punto dulce si quieres trabajar con algo de holgura y abrir otros programas a la vez. Con menos memoria te arriesgas a tirones constantes o a que Windows empiece a paginar en disco, con la consiguiente bajada brutal de rendimiento.
En cuanto a la tarjeta gráfica, la clave está en la VRAM disponible. Para una versión de DeepSeek R1 destilada tipo 7B u 8B, una GPU con 6-8 GB de VRAM puede apañarse, aunque cuanto más margen tengas, mejor. Si tu PC no tiene gráfica dedicada, algunos modelos pueden tirar solo de CPU, pero el rendimiento será claramente peor.
En almacenamiento, debes contar con al menos 5 GB libres por modelo que quieras instalar, más espacio adicional para otros modelos y para el propio Windows 11. Es muy recomendable usar un SSD en vez de un disco duro mecánico, ya que los tiempos de carga y acceso a ficheros grandes se notan muchísimo.
Si tienes un equipo moderno con NPU integrada (procesador especializado en IA), Windows 11 irá ganando soporte para aprovecharlo en distintas tareas. Sin embargo, a día de hoy, gran parte de la carga de DeepSeek va a recaer principalmente en la GPU y la CPU, sobre todo cuando trabajes con modelos LLM más pesados.
DeepSeek en tu PC con Ollama: la opción ligera desde la consola
Una de las formas más sencillas y potentes de usar DeepSeek de manera local en Windows 11 es a través de Ollama, un programa que funciona como gestor de modelos de IA y que se maneja desde la consola del sistema. No tiene interfaz gráfica al uso, pero a cambio sencilliza mucho el proceso de descarga y ejecución.
Descarga e instalación
Para empezar, tienes que entrar en la web oficial de Ollama, ollama.com, y pulsar en el botón Download. La página detecta automáticamente tu sistema operativo, pero si quieres, puedes descargar el instalador para otra plataforma compatible, como macOS o GNU/Linux.
Una vez descargado el archivo, solo tienes que ejecutar el instalador y seguir el asistente. El proceso es muy directo: siguiente, aceptar, instalar y listo. Ollama es una aplicación bastante ligera, por lo que no tardará demasiado en quedar completamente instalada en tu equipo.
Al terminar la instalación, debes lanzar Ollama. Es posible que al abrirlo parezca que no ocurre nada, pero en realidad el programa se queda corriendo en segundo plano como un servicio. A partir de aquí, la magia ocurre desde la ventana de comandos de Windows 11.
Abre el Símbolo del sistema (CMD) con permisos de administrador o, si lo prefieres, Windows Terminal. Ahí es donde vas a escribir las órdenes necesarias para descargar e iniciar DeepSeek con Ollama, sin interfaces complicadas ni menús escondidos.
Iniciar DeepSeek R1 8B con Ollama
Con Ollama ya funcionando, el siguiente paso es traer DeepSeek a tu disco duro. La versión más práctica para la mayoría de usuarios de Windows 11 es deepseek-r1:8b, que es una variante reducida del modelo R1 con unos 4,7 GB de tamaño, pensada para equipos más normales.
Para descargarla sin ejecutarla todavía, en la ventana de comandos escribe el siguiente orden y pulsa Intro: ollama pull deepseek-r1:8b. Este comando le dice a Ollama que descargue el modelo desde su biblioteca y lo deje preparado para cuando quieras usarlo.
La descarga ocupa varios gigas, así que el tiempo que tarde dependerá de la velocidad de tu conexión a Internet. Verás cómo se va mostrando el progreso hasta que Ollama confirme que el modelo se ha almacenado correctamente en tu equipo. Una vez termine, ya tienes DeepSeek R1 8B listo para funcionar.
Cuando el modelo esté corriendo, la ventana de comandos se convertirá en una especie de chat minimalista. Podrás escribir tu prompt (tu petición o pregunta) e ir viendo cómo DeepSeek genera la respuesta, línea a línea. Aunque la interfaz es espartana, para muchos usos es más que suficiente y súper directa.
Cambiar versiones y controlar la sesión en Ollama
Una de las cosas interesantes de Ollama es que te permite probar distintas variantes del mismo modelo con sólo cambiar una etiqueta. En el caso de DeepSeek R1, puedes consultar las versiones disponibles en la página de biblioteca de Ollama, dentro de la sección de tags de deepseek-r1.
Para cambiar de versión, basta con sustituir el número en el comando. Por ejemplo, puedes escribir ollama run deepseek-r1:7b o ollama run deepseek-r1:x según las opciones publicadas. Cuanto mayor sea la cifra de parámetros, más potente y cercana al modelo completo será la experiencia, pero también exigirá más recursos de tu PC.
Cuando estés usando DeepSeek desde la línea de comandos, puedes lanzar prompts en español sin problema. El modelo tiende a tirar más hacia el inglés, pero si le pides claramente que responda en español o acostumbras siempre tus entradas a este idioma, se adapta sin mayor drama.
Uno de los detalles curiosos de DeepSeek R1 es que puede mostrar su razonamiento interno entre etiquetas <think>, de modo que antes de ver la respuesta final, puedes observar cómo el modelo descompone el problema mentalmente. Es una buena forma de entender mejor su «forma de pensar» y de detectar posibles errores en la lógica.
Cuando quieras salir de la sesión con DeepSeek en Ollama, no tienes más que escribir el comando /bye. Esto te devuelve a la consola normal sin cerrar la ventana. Y si quieres ver otros comandos útiles disponibles, puedes escribir /? para que el propio Ollama te muestre las opciones más importantes.

Usar DeepSeek con interfaz gráfica en Windows 11 gracias a LM Studio
Si lo de hablar con una IA desde la consola te da un poco de pereza, puedes optar por una solución con interfaz gráfica limpia y moderna. Ahí entra en juego LM Studio, una aplicación disponible para Windows, macOS y Linux que te permite descargar y ejecutar LLMs localmente de forma bastante amigable.
LM Studio funciona como un hub de modelos de lenguaje: desde su propia interfaz puedes buscar modelos, descargarlos, configurarlos y abrir chats con ellos sin tocar la terminal. Además, incluye un entorno de conversación muy similar al de chatbots en la web tipo ChatGPT, lo que lo hace ideal para usuarios menos técnicos.
Para instalarlo, entra en la web oficial, lmstudio.ai, y descarga el instalador para Windows. Una vez lo ejecutes, el proceso de instalación es tan sencillo como seguir el asistente, sin opciones especialmente complicadas. En unos minutos tendrás LM Studio listo para arrancar.
Al abrirlo por primera vez, LM Studio suele ofrecer la descarga del modelo Llama 3.1 8B de Meta como ejemplo inicial. Es recomendable aceptar esta descarga y permitir que se instale y cargue, porque facilita que luego puedas gestionar otros modelos desde la misma interfaz de forma más fluida.
Con Llama 3.1 8B ya instalado y disponible, el siguiente paso será localizar y descargar DeepSeek en su versión destilada, para utilizarlo como tu modelo principal de chat dentro de LM Studio en Windows 11.
Buscar, descargar y cargar DeepSeek en LM Studio
Dentro de LM Studio, en el panel lateral izquierdo verás varios iconos. Para localizar DeepSeek, tienes que hacer clic en el que corresponde a la sección Discover, que actúa como un buscador y catálogo de modelos disponibles.
En la zona de Model Search, verás un campo de búsqueda en la parte superior. Escribe «DeepSeek» y espera a que aparezca el listado de modelos compatibles. Lo habitual es que se muestren, entre otros, dos variantes basadas en R1: DeepSeek R1 Distill (Qwen 7B) y DeepSeek R1 Distill (Llama 8B).
Ambas opciones son válidas para usarlas en tu PC con Windows 11. La versión basada en Llama 8B suele ser algo más pesada, ya que cuenta con alrededor de mil millones de parámetros extra, pero también puede ofrecer una pizca más de capacidad. Elige la que mejor encaje con los recursos de tu equipo.
Cuando tengas clara la versión que quieres, selecciona el modelo y pulsa el botón Download. LM Studio se encargará de descargar todos los ficheros necesarios. Igual que en el caso de Ollama, el tiempo dependerá principalmente de la velocidad de tu conexión a Internet y del tamaño del modelo.
Al finalizar la descarga, LM Studio te mostrará una notificación emergente indicando que el proceso ha concluido. En esa notificación, suele aparecer un botón del tipo Load Model para que puedas cargar inmediatamente DeepSeek y tenerlo listo para chatear.
Configurar y empezar a chatear con DeepSeek en LM Studio
Una vez que pulses en Load Model desde la notificación o desde la lista de modelos descargados, LM Studio cargará DeepSeek en memoria y te permitirá usarlo como motor de conversación. El siguiente paso es dirigirte a la sección Chat, también en el menú lateral izquierdo.
En la ventana de chat, en la parte superior, verás un botón o desplegable con texto del tipo Select a model to load. Haz clic ahí y elige el modelo de DeepSeek que acabas de descargar. Esto hará que ese modelo se convierta en el que alimenta tus próximas conversaciones en LM Studio.
Al seleccionar DeepSeek, el programa te mostrará una serie de opciones de configuración, como el número máximo de tokens, ajustes de temperatura, top-p y otros parámetros avanzados. Si no tienes claro qué toquetear, puedes dejar la configuración por defecto y simplemente pulsar de nuevo en Load Model para empezar.
Una vez cargado, ya puedes escribir en el cuadro de texto inferior tu primera consulta o tarea. Verás que el logo que aparece en la interfaz es el de LM Studio, no el de DeepSeek, pero internamente es este último el que está generando las respuestas.
Para que la conversación fluya en castellano, basta con que empieces tú mismo a escribir en español. El modelo tenderá a seguir el idioma en el que hayas formulado la pregunta. Si alguna vez te contesta en inglés, puedes indicarle explícitamente que deseas las respuestas en español de España y, en general, se adaptará a partir de ahí.
Con todo lo que ofrecen las versiones destiladas de DeepSeek, la combinación de modelos abiertos, herramientas como Ollama o LM Studio y la potencia de un PC con Windows 11 medianamente moderno convierte tu ordenador en un auténtico laboratorio personal de IA. Tener una IA potente en local te da libertad, privacidad y un margen enorme para aprender y cacharrear sin límites impuestos por terceros.