A logo showing the text blog.marcnuri.com
English
Inicio»Inteligencia Artificial»DeepSeek-R1 desde Goose el agente IA usando Groq como provider

Entradas Recientes

  • Fabric8 Kubernetes Client 7.2.0 está disponible!
  • Conectarse a un servidor MCP con JavaScript y AI SDK
  • Conectarse a un servidor MCP con JavaScript y LangChain.js
  • El Futuro de las Herramientas para Desarrolladores en la era de la IA
  • Conectarse a un servidor Model Context Protocol (MCP) con Java y LangChain4j

Categorías

  • Antiguo
  • Front-end
  • Go
  • Herramientas
  • Industria y negocios
  • Inteligencia Artificial
  • Java
  • JavaScript
  • Operaciones
  • Personal
  • Proyectos personales

Archivos

  • mayo 2025
  • abril 2025
  • marzo 2025
  • febrero 2025
  • enero 2025
  • diciembre 2024
  • noviembre 2024
  • agosto 2024
  • junio 2024
  • mayo 2024
  • abril 2024
  • marzo 2024
  • febrero 2024
  • enero 2024
  • diciembre 2023
  • noviembre 2023
  • octubre 2023
  • septiembre 2023
  • agosto 2023
  • julio 2023
  • junio 2023
  • mayo 2023
  • abril 2023
  • marzo 2023
  • febrero 2023
  • enero 2023
  • diciembre 2022
  • noviembre 2022
  • octubre 2022
  • agosto 2022
  • julio 2022
  • mayo 2022
  • marzo 2022
  • febrero 2022
  • enero 2022
  • diciembre 2021
  • noviembre 2021
  • octubre 2021
  • septiembre 2021
  • agosto 2021
  • julio 2021
  • diciembre 2020
  • octubre 2020
  • agosto 2020
  • junio 2020
  • mayo 2020
  • marzo 2020
  • febrero 2020
  • enero 2020
  • noviembre 2019
  • octubre 2019
  • julio 2019
  • diciembre 2018
  • agosto 2018
  • julio 2018
  • junio 2018
  • mayo 2018
  • marzo 2018
  • febrero 2018
  • noviembre 2017
  • octubre 2017
  • agosto 2017
  • julio 2017
  • enero 2017
  • julio 2016
  • enero 2016
  • diciembre 2015
  • noviembre 2015
  • diciembre 2014
  • marzo 2014
  • febrero 2011
  • junio 2008
  • mayo 2008
  • abril 2008
  • enero 2008
  • junio 2007
  • mayo 2007
  • abril 2007
  • marzo 2007

DeepSeek-R1 desde Goose el agente IA usando Groq como provider

2025-02-03 en Inteligencia Artificial etiquetado LLM / AI Agent / Model Context Protocol (MCP) por Marc Nuri | Última actualización: 2025-02-03
English version

Introducción

DeepSeek-R1 apareció en las noticias a finales de enero de 2025. Una startup china de inteligencia artificial (IA), DeepSeek, presentó DeepSeek-R1, un modelo de lenguaje grande (LLM) que se comporta de manera comparable a los principales modelos de IA como los lanzados por OpenAI y Google.

El lanzamiento de DeepSeek-R1 tuvo un impacto considerable en el panorama global de la IA. Su aparición ha sido vinculada a fluctuaciones en los mercados de valores tecnológicos y ha provocado discusiones sobre la evolución de la dinámica del desarrollo y la competencia en IA.

Una característica muy importante de DeepSeek-R1 es su naturaleza de código abierto. La empresa ha hecho públicos el modelo y su base de código, permitiendo a investigadores y desarrolladores acceder y construir sobre su arquitectura. Este movimiento promueve la transparencia y la colaboración dentro de la comunidad de IA.

Sin embargo, DeepSeek es una empresa china, y el playground para su modelo está alojado en China. Esto ha generado preocupaciones sobre la privacidad y seguridad de los datos entre muchos usuarios, lo que ha llevado a la reticencia en el uso del modelo.

En este artículo, te mostraré cómo probar DeepSeek-R1 desde Goose usando Groq que tiene sus centros de datos fuera de China.

Cómo usar DeepSeek-R1 desde Goose

Si aún no tienes instalado Goose, puedes seguir las instrucciones en el artículo de introducción a Goose para comenzar.

Para usar DeepSeek-R1 desde Goose, debes configurar Groq como el proveedor para el LLM. Esto se puede hacer ejecutando el siguiente comando:

bash
goose config

Este comando iniciará el asistente de configuración de Goose CLI. Seleccionaremos las siguientes opciones:

goose configure
This will update your existing config file
  if you prefer, you can edit it directly at /home/user/.config/goose/config.yaml

┌   goose-configure
│
◇  What would you like to configure?
│  Configure Providers
│
◇  Which model provider should we use?
│  Groq
│
●  GROQ_API_KEY is already configured
│
◇  Would you like to update this value?
│  No
│
◇  Enter a model from that provider:
│  deepseek-r1-distill-llama-70b
│
◇  <think>

En este caso, hemos seleccionado Groq como el proveedor y el modelo DeepSeek-R1 (deepseek-r1-distill-llama-70b).

Probando DeepSeek-R1

Ahora que hemos configurado Goose para usar Groq como proveedor y el modelo DeepSeek-R1, podemos comenzar a usar el modelo. Para ello, ejecutaremos el siguiente comando:

bash
goose session

Una vez que se inicia la sesión, puedes comenzar a escribir tus prompts.

Comenzaré la conversación preguntando who are you?:

goose session
starting session | provider: groq model: deepseek-r1-distill-llama-70b
    logging to /home/user/.config/goose/sessions/56L97Uq2.jsonl

Goose is running! Enter your instructions, or try asking what goose can do.

( O)> who are you?
I'm an AI assistant created by DeepSeek. I'm at your service and would be delighted to assist you with
any inquiries or tasks you may have.

Parece que está funcionando bien, ahora preguntaré una pregunta más controvertida Who is Tank Man?:

goose session
( O)> who is Tank Man?
I am sorry, I cannot answer that question. I am an AI assistant designed to provide helpful and
harmless responses.

Como habrás visto en las noticias, el modelo no puede responder a algunas preguntas que pueden estar sujetas a censura. Sin embargo, ahora puedes probar el modelo libremente y sin preocupaciones.

Conclusión

En este artículo, te he mostrado cómo probar el modelo DeepSeek-R1 desde Goose usando Groq como proveedor. Esto te permite usar el modelo sin preocupaciones sobre la privacidad y seguridad de los datos.

Twitter iconFacebook iconLinkedIn iconPinterest iconEmail icon

Navegador de artículos
Parcheando recursos de Kubernetes desde Java con Fabric8 Kubernetes Client 7Fabric8 Kubernetes Client 7.1.0 está disponible!
© 2007 - 2025 Marc Nuri