DeepSeek-R1 desde Goose el agente IA usando Groq como provider
Introducción
DeepSeek-R1 apareció en las noticias a finales de enero de 2025. Una startup china de inteligencia artificial (IA), DeepSeek, presentó DeepSeek-R1, un modelo de lenguaje grande (LLM) que se comporta de manera comparable a los principales modelos de IA como los lanzados por OpenAI y Google.
El lanzamiento de DeepSeek-R1 tuvo un impacto considerable en el panorama global de la IA. Su aparición ha sido vinculada a fluctuaciones en los mercados de valores tecnológicos y ha provocado discusiones sobre la evolución de la dinámica del desarrollo y la competencia en IA.
Una característica muy importante de DeepSeek-R1 es su naturaleza de código abierto. La empresa ha hecho públicos el modelo y su base de código, permitiendo a investigadores y desarrolladores acceder y construir sobre su arquitectura. Este movimiento promueve la transparencia y la colaboración dentro de la comunidad de IA.
Sin embargo, DeepSeek es una empresa china, y el playground para su modelo está alojado en China. Esto ha generado preocupaciones sobre la privacidad y seguridad de los datos entre muchos usuarios, lo que ha llevado a la reticencia en el uso del modelo.
En este artículo, te mostraré cómo probar DeepSeek-R1 desde Goose usando Groq que tiene sus centros de datos fuera de China.
Cómo usar DeepSeek-R1 desde Goose
Si aún no tienes instalado Goose, puedes seguir las instrucciones en el artículo de introducción a Goose para comenzar.
Para usar DeepSeek-R1 desde Goose, debes configurar Groq como el proveedor para el LLM. Esto se puede hacer ejecutando el siguiente comando:
goose config
Este comando iniciará el asistente de configuración de Goose CLI. Seleccionaremos las siguientes opciones:
This will update your existing config file
if you prefer, you can edit it directly at /home/user/.config/goose/config.yaml
┌ goose-configure
│
◇ What would you like to configure?
│ Configure Providers
│
◇ Which model provider should we use?
│ Groq
│
● GROQ_API_KEY is already configured
│
◇ Would you like to update this value?
│ No
│
◇ Enter a model from that provider:
│ deepseek-r1-distill-llama-70b
│
◇ <think>
En este caso, hemos seleccionado Groq como el proveedor y el modelo DeepSeek-R1 (deepseek-r1-distill-llama-70b
).
Probando DeepSeek-R1
Ahora que hemos configurado Goose para usar Groq como proveedor y el modelo DeepSeek-R1, podemos comenzar a usar el modelo. Para ello, ejecutaremos el siguiente comando:
goose session
Una vez que se inicia la sesión, puedes comenzar a escribir tus prompts.
Comenzaré la conversación preguntando who are you?
:
starting session | provider: groq model: deepseek-r1-distill-llama-70b
logging to /home/user/.config/goose/sessions/56L97Uq2.jsonl
Goose is running! Enter your instructions, or try asking what goose can do.
( O)> who are you?
I'm an AI assistant created by DeepSeek. I'm at your service and would be delighted to assist you with
any inquiries or tasks you may have.
Parece que está funcionando bien, ahora preguntaré una pregunta más controvertida Who is Tank Man?
:
( O)> who is Tank Man?
I am sorry, I cannot answer that question. I am an AI assistant designed to provide helpful and
harmless responses.
Como habrás visto en las noticias, el modelo no puede responder a algunas preguntas que pueden estar sujetas a censura. Sin embargo, ahora puedes probar el modelo libremente y sin preocupaciones.
Conclusión
En este artículo, te he mostrado cómo probar el modelo DeepSeek-R1 desde Goose usando Groq como proveedor. Esto te permite usar el modelo sin preocupaciones sobre la privacidad y seguridad de los datos.