Introducción a Goose, el agente de IA en tu máquina
Introducción
En enero de 2025, Block presentó Goose, un agente de IA extensible, de código abierto, distribuido como una interfaz de línea de comandos (CLI) y una aplicación de escritorio. Goose se ejecuta localmente, se puede conectar a diferentes proveedores de modelos de lenguaje grandes LLM y es extensible a través de servidores Model Context Protocol (MCP).

En este artículo, te guiaré a través de la configuración de Goose CLI en Linux, conectarlo a Google Gemini y extender sus capacidades utilizando un servidor MCP.
Configuración de Goose CLI
El CLI de Goose es una herramienta ligera que te permite interactuar directamente con Goose desde tu terminal. Prefiero usar el CLI porque proporciona una forma simple y eficiente de interactuar con el modelo de IA sin necesidad de una interfaz gráfica de usuario.
Primero, descarga e instala el CLI de Goose. La guía de inicio proporciona instrucciones de instalación para varios sistemas operativos.
Para Linux, instala la última versión de Goose usando:
curl -fsSL https://github.com/block/goose/releases/download/stable/download_cli.sh | bash
Este script descarga e instala la última versión de Goose para tu distribución.
Importante
Considera verificar la fuente y el checksum del script antes de ejecutarlo para seguir las mejores prácticas de seguridad.
Como alternativa, visita la página de GitHub releases para descargar el binario adecuado para tu sistema operativo.
Configuración del proveedor LLM (Google Gemini)
A continuación, configura Goose para un proveedor LLM. En este caso, usaré Gemini API, el proveedor LLM de Google. Elegí esta opción porque ofrece una capa gratuita con límites de uso generosos, lo que permite experimentar sin incurrir en costes.
Esta es la forma más rápida de empezar con Goose. No obstante, es posible que necesites cambiar de proveedor o actualizar a un plan de pago si alcanzas los límites de uso.
Para conectarte a Google Gemini, necesitas crear una cuenta de Google y obtener una API key. Puedes generar esta clave en el Google AI Studio:

Presiona el botón "Create API Key" para generar una nueva API key.

Utilizaremos esta API key para configurar Goose y conectarnos a Google Gemini estableciendo el proveedor de Goose. Puedes hacerlo ejecutando el siguiente comando:
goose configure
El comando goose configure
te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Si la configuración es exitosa, verás un mensaje de confirmación.
Si encuentras algún problema, verifica tu API key, la conexión a Internet o las trazas en tu directorio ~/.config/goose
para obtener más información.
Ahora que Google Gemini está configurado como nuestro proveedor LLM, exploremos las capacidades de Goose iniciando una nueva sesión de chat.
Ejecutar Goose por primera vez
Inicia una nueva sesión ejecutando el siguiente comando:
goose session
Este comando lanza una sesión de chat basada en terminal donde puedes interactuar con el LLM.

En la imagen anterior, puedes ver la sesión de Goose ejecutándose en la terminal. En este caso, le pedí al modelo que enumerara sus capacidades, y respondió con una lista de los comandos admitidos.
Configuración del servidor MCP de Puppeteer
Para demostrar la extensibilidad de Goose, configuremos el servidor MCP de Puppeteer.
Puedes hacerlo a través de la línea de comandos o editando tu archivo goose/config.yaml
.
Para este ejemplo, usaremos la línea de comandos:
goose configure
El CLI te pedirá que configures Goose:
This will update your existing config file
if you prefer, you can edit it directly at /home/user/.config/goose/config.yaml
┌ goose-configure
│
◆ What would you like to configure?
│ ○ Configure Providers (Change provider or update credentials)
│ ○ Toggle Extensions
│ ● Add Extension
└
Selecciona Add Extension
, elige Command-line Extension
e introduce los siguientes detalles para el servidor MCP de Puppeteer:
┌ goose-configure
│
◇ What would you like to configure?
│ Add Extension
│
◇ What type of extension would you like to add?
│ Command-line Extension
│
◇ What would you like to call this extension?
│ puppeteer
│
◇ What command should be run?
│ npx -y @modelcontextprotocol/server-puppeteer
│
◇ Would you like to add environment variables?
│ No
│
└ Added puppeteer extension
Una vez que hayas añadido la extensión del servidor MCP de Puppeteer, puedes iniciar una nueva sesión e interactuar con él a través de Goose.
Nota
Para ejecutar esta extensión, necesitas tener Node.js instalado en tu sistema.
Alternativamente, puedes usar el comando Docker: docker run -i --rm --init -e DOCKER_CONTAINER=true mcp/puppeteer
.
Usar Goose para abrir un navegador e ir a un sitio web
Para demostrar las capacidades de Goose con el servidor MCP de Puppeteer, lo usaremos para abrir un navegador e ir a un sitio web. Puedes hacerlo ejecutando el siguiente comando en la sesión de Goose:
goose session
Una vez se haya iniciado la sesión, puedes interactuar con el servidor MCP de Puppeteer escribiendo el siguiente comando:
Open a new browser window and navigate to https://blog.marcnuri.com, evaluate the links to find the author's LinkedIn, Bluesky, GitHub, and Twitter URLs'
Goose utilizará el servidor MCP de Puppeteer para abrir una nueva ventana del navegador e ir al sitio web especificado. Luego, realizará una evaluación de script para encontrar las URL de LinkedIn, Bluesky, GitHub y Twitter del autor.

En la imagen anterior, puedes ver la sesión de Goose con el servidor MCP de Puppeteer ejecutándose en la terminal.
Después de introducir el prompt, Goose siguió una secuencia de pasos hasta que devolvió la lista de enlaces:
- Enviar la lista de comandos y el prompt del usuario al servidor LLM.
- Evaluar la respuesta del LLM para realizar las siguientes acciones con funciones de Puppeteer:
- Abrir una nueva ventana del navegador.
- Navegar al sitio web especificado.
- Evaluar el contenido del sitio web utilizando JavaScript proporcionado por el LLM para encontrar los enlaces de las redes sociales del autor.
- Enviar el resultado de la función del servidor MCP al servidor LLM.
- Mostrar el resultado al usuario.
En este caso, interactuó con un único servidor MCP, pero puedes añadir varios servidores para ampliar aún más las capacidades de Goose.
Uso de un proveedor LLM alternativo (Groq)
Una de mis características favoritas de Goose es su capacidad para conectarse a diferentes proveedores LLM. Hasta ahora, hemos utilizado Google Gemini porque se puede acceder de forma gratuita, pero es posible que desees cambiar a un proveedor diferente por diversas razones.
Intentemos conectarnos a Groq, un potente proveedor LLM que ofrece una amplia gama de modelos y capacidades y es conocido por su velocidad y eficiencia. La arquitectura única de Language Processing Unit (LPU) de Groq ofrece un alto rendimiento con un consumo mínimo de energía, lo que lo hace ideal para tareas de IA en tiempo real.
Groq también ofrece una capa gratuita, pero su límite de tasa de tokens por minuto puede ser demasiado restrictivo para algunos casos de uso. Esto es especialmente cierto para los servidores MCP que requieren una interacción continua con el proveedor LLM.
Para conectar Goose a Groq, debes crear una cuenta en el sitio web de Groq y obtener una API key. Puedes generar esta clave en la Groq cloud console:

Utilizaremos esta API key para configurar Goose y conectarlo a Groq estableciendo Groq como proveedor predeterminado. Puedes hacerlo ejecutando el siguiente comando:
goose configure
El comando goose configure
te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Con un simple comando, puedes cambiar entre diferentes proveedores LLM y explorar sus capacidades con Goose. Ahora es muy fácil utilizar una variedad de modelos y servicios de IA aprovechando sus fortalezas específicas sin tener que cambiar entre diferentes herramientas o interfaces.
Conclusión
En este artículo, presenté Goose, un agente de IA de código abierto que se ejecuta localmente, se conecta a proveedores LLM como Groq y extiende sus capacidades a través de servidores MCP. Demostré cómo configurar Goose, configurar Groq y utilizar el servidor MCP de Puppeteer para la automatización del navegador.
A pesar de su potencial, Goose y MCP todavía están en sus primeros días. Muchos servidores MCP siguen siendo experimentales, con capacidades bastante limitadas. Por ejemplo, el servidor de Puppeteer sólo admite tareas básicas de automatización, como navegación, capturas de pantalla e interacción básica con elementos.
A medida que la comunidad siga creciendo, espero que Goose y MCP evolucionen, redefiniendo cómo los desarrolladores automatizan flujos de trabajo potenciados por IA. ¡Mantente atento a futuras integraciones y extensiones impulsadas por la comunidad!