Descubre cómo usar DeepSeek R1, la nueva IA Open Source que amenaza el trono de ChatGPT

Tiempo de lectura: 6 minutos

La inteligencia artificial (IA) sigue avanzando a pasos agigantados, y el modelo DeepSeek R1 se ha convertido en el centro de atención del sector tecnológico. Este modelo, desarrollado por el laboratorio chino DeepSeek, representa un salto cualitativo en la evolución de los modelos de lenguaje y razonamiento, situándose como una opción competitiva frente a gigantes como OpenAI.  

En este artículo, exploraremos cómo este modelo open source está marcando un antes y un después en la IA, qué lo hace único y cómo podrías aprovecharlo en tus proyectos.

¿Qué es DeepSeek R1 y por qué es relevante?

DeepSeek R1 es un modelo de razonamiento de código abierto que utiliza un enfoque innovador conocido como test-time compute. Este paradigma permite que el modelo dedique tiempo adicional de computación para generar cadenas de razonamiento internas antes de proporcionar una respuesta final.

El resultado es una mejora significativa en la precisión y la capacidad del modelo para abordar tareas complejas como matemáticas, programación y comprensión general del lenguaje.

Este enfoque no solo lo coloca a la par de modelos como O1 de OpenAI, sino que también establece un estándar en cómo se desarrollan y distribuyen modelos de IA a nivel global.

Un modelo open source que reta a los gigantes

 

El laboratorio DeepSeek ya había causado revuelo en enero de 2025 con el lanzamiento de DeepSeek V3, un modelo de 671 mil millones de parámetros que competía directamente con GPT-4. Sin embargo, DeepSeek R1 da un paso más al incluir capacidades de razonamiento, lo que mejora drásticamente su rendimiento en benchmarks clave:

  • Matemáticas: Aumenta su precisión en pruebas como AIME de un 39,2% a un 79,8%.

 

  • Programación: En Codeforces, pasa de un 58,7% a un impresionante 96,3%.

 

  • Comprensión general: Mejora métricas como GPQA Diamond de un 59,1% a un 71,5%.

 

Estos resultados colocan a DeepSeek R1 como un contendiente sólido frente a los modelos privados de OpenAI, con la ventaja adicional de ser completamente accesible para el público.

 

Beneficios de un modelo open source

 

  1. Accesibilidad: DeepSeek R1 está disponible bajo licencia MIT, lo que permite su uso comercial y académico sin restricciones.
  2. Transparencia: Incluye la documentación completa y el paper técnico que detalla su entrenamiento, algo que OpenAI no ofrece.
  3. Economía: Su uso a través de APIs es hasta 27 veces más barato que modelos como O1 de OpenAI, democratizando el acceso a la IA avanzada.
  4. Adaptabilidad: Incluye versiones más pequeñas, entrenadas con datos destilados del modelo principal, para ser ejecutadas en hardware menos potente.

 

El impacto del test-time compute

 

La capacidad de razonamiento de DeepSeek R1 se basa en su habilidad para generar cadenas de pensamiento detalladas. Esto significa que, al enfrentarse a un problema, el modelo simula un proceso de análisis similar al humano:

 

  1. Divide el problema en pasos lógicos.
  2. Evalúa cada paso antes de avanzar al siguiente.
  3. Ajusta sus conclusiones para optimizar el resultado final.

 

Este enfoque mejora la calidad de las respuestas y abre nuevas posibilidades para aplicaciones en investigación, educación y automatización.

¿Quieres extraer todo el potencial de IA y escalar tu negocio? 🚀

Tenemos el máster más especializado del mercado para escalar tu propio negocio o impulsar tu departamento, gracias a la inteligencia artificial.

Descubre nuestro Máster en IA

Nuevas oportunidades para empresas y desarrolladores

 

Aunque DeepSeek R1 requiere hardware de alto nivel para aprovechar al máximo sus capacidades (671 mil millones de parámetros), su arquitectura Mixture of Experts (MoE) permite optimizar el uso de recursos. Además, la disponibilidad de versiones reducidas lo hace accesible para:

 

  • Startups tecnológicas: Pueden integrar capacidades avanzadas de IA sin incurrir en altos costos.
  • Empresas de SaaS: Ofrecen servicios basados en DeepSeek R1 a precios competitivos.
  • Desarrolladores independientes: Experimentan con modelos avanzados sin las limitaciones de los modelos cerrados.

Cómo empezar con DeepSeek R1

 

DeepSeek ha facilitado el acceso al modelo a través de su plataforma. Puedes hacerlo de diferentes modos, los cuales exploraremos a continuación.

 

Descargar y configurar el modelo en tu ordenador

 

  1. Accede desde Hugging Face para explorarlo localmente, descargando el modelo que mejor se adapte a tus necesidades.
  2. Instalar dependencias: Antes de empezar, asegúrate de contar con las herramientas necesarias, como Python y un entorno de terminal. Si usas Windows, instala WSL para mayor compatibilidad.
  3. Configuración inicial: Descomprime el archivo descargado y sigue las instrucciones del README incluido. Normalmente, esto implica ejecutar un comando, como por ejemplo sucedería en los modelos Llama:oylama Run llama 3.2.
  4. Iniciar el modelo: Abre la terminal, navega hasta la carpeta donde descargaste el modelo y ejecuta el comando para inicializar DeepSeek.

 

Usar DeepSeek R1 de forma práctica con LM Studio

 

Otra de las formas con las que podrás disfrutar de DeepSeek R1 de forma local en tu ordenador, es gracias a LM Studio. Esta herramienta facilita la descarga y el uso de diferentes tamaños de modelos de lenguaje, permitiendo mantener la privacidad de la información y ajustarse a la potencia de tu equipo.

 

  1. Descarga e instalación de LM Studio
    • Visita la página oficial de LM Studio para descargar el ejecutable correspondiente a tu sistema operativo (Windows, macOS o Linux).
    • Instálalo siguiendo las instrucciones del instalador. Se recomienda usar al menos la versión 0.3.8 o superior, ya que incluye compatibilidad con los modelos de DeepSeek R1.
  2. Accede al panel de “Descubrimiento”
    • Una vez abierto LM Studio, dirígete a la pestaña Discovery (Descubrimiento).
    • En el buscador, introduce “dipi” o “DeepSeek” para que la aplicación muestre los modelos relacionados de R1 disponibles.
    • Verás múltiples modelos (por ejemplo, con 7.000M, 10.000M, 14.000M de parámetros, etc.). Selecciona el que mejor se adapte a la memoria de tu GPU o a la potencia de tu CPU.
  3. Descarga y gestión de los modelos
    • Haz clic en el modelo de tu elección para ver su ficha técnica y verifica el tamaño (en GB) antes de descargarlo.
    • Pulsa en Download para bajar el modelo a tu equipo. El peso puede variar entre 2GB y 20GB, dependiendo de la cantidad de parámetros.
    • Una vez descargado, el modelo aparecerá en la pestaña My Models, donde podrás eliminar aquellos que no utilices para ahorrar espacio.
  4. Uso en la sección de “Chat”
    • Ve a la pestaña Chat en LM Studio y selecciona New Chat.
    • Desde el menú desplegable en la parte superior, elige el modelo de DeepSeek R1 que acabas de descargar.
    • Ajusta la ventana de contexto (context window) según la memoria disponible en tu GPU/CPU. Cuanta más ventana de contexto uses, mayor será la carga en tu sistema y más lenta la generación de texto.
  5. Realiza tus preguntas o tareas
    • Escribe tu prompt en el campo de texto inferior y envíalo.
    • LM Studio mostrará la respuesta generada por DeepSeek R1. Si observas un rendimiento más lento o errores lógicos, prueba con modelos más pequeños o ajusta los parámetros de ejecución.
  6. Consejos de rendimiento y privacidad
    • Estos modelos, al ser Open Source y ejecutarse en local, te permiten mantener la confidencialidad de tu información.
    • Sin embargo, al tratarse de versiones reducidas frente a la que se usa en la nube, su capacidad de razonamiento puede ser más limitada.
    • Experimenta con diferentes tamaños hasta encontrar el equilibrio ideal entre velocidad de respuesta y calidad de resultados.

 

Utilizando APIs propias de DeepSeek

 

DeepSeek permite conectarse mediante APIs, lo que ofrece gran flexibilidad para personalizar la experiencia. Aquí te mostramos cómo hacerlo:

  1. Obtener tu API Key: Desde la plataforma de DeepSeek, genera una clave API para autenticar tus solicitudes.
  2. Conectar con herramientas externas: Integra DeepSeek con una interfaz de usuario como Page Assist para usarlo directamente desde tu navegador.
  3. Crear una interfaz personalizada:
    • Usa un entorno de desarrollo como Node.js para construir una aplicación que interactúe con la API.
    • Configura los endpoints necesarios para enviar consultas y recibir respuestas de DeepSeek.
  4. Ejemplo de código:

const fetch = require(‘node-fetch’);
const apiKey = ‘TU_API_KEY’;
const endpoint = ‘https://api.deepseek.com/query’;async function queryDeepSeek(prompt) {
const response = await fetch(endpoint, {
method: ‘POST’,
headers: {
‘Content-Type’: ‘application/json’,
‘Authorization’: `Bearer ${apiKey}`
},
body: JSON.stringify({ prompt: prompt })
});
const data = await response.json();
return data;
}queryDeepSeek(‘Hola, ¿puedes ayudarme con un problema?’).then(response => {
console.log(response);
});

DeepSeek R1, un antes y un después en la IA

 

Con DeepSeek R1, estamos presenciando el nacimiento de una nueva era en la inteligencia artificial. Su combinación de rendimiento, accesibilidad y economía lo convierte en una herramienta imprescindible para cualquier profesional o empresa que busque aprovechar al máximo el potencial de la IA.

En un mundo donde el conocimiento es poder, DeepSeek R1 democratiza el acceso a tecnología de vanguardia, allanando el camino hacia un futuro más equitativo e innovador.

¡No te quedes atrás! Empieza a explorar el universo de posibilidades que ofrece este modelo hoy mismo. Y si quieres ser capaz de llevar la IA al máximo, gracias a nuestro máster en Inteligencia Artificial, tendrás un abanico de conocimientos y herramientas muy superior al resto.

Carlos Palmón
Carlos Palmón es Sociólogo, SEO Content Specialist y Marketing Analyst. Intrigado por entender la sociedad, se graduó en Sociología para entender mejor el mundo que nos rodea. Desde 2020, ayuda a conectar a las organizaciones con su público ideal, aunando su interés por el análisis sociológico, con su pasión por el copywriting, el SEO y la creación de contenidos. Actualmente, se especializa en Data Analytics para reforzar todavía más su capacidad de transformar datos en historias que conectan.