Introducción a Goose, el agente de IA en tu máquina
Introducción
En enero de 2025, Block presentó Goose, un agente de IA extensible, de código abierto, distribuido como una interfaz de línea de comandos (CLI) y una aplicación de escritorio. Goose se ejecuta localmente, se puede conectar a diferentes proveedores de modelos de lenguaje grandes LLM y es extensible a través de servidores Model Context Protocol (MCP).
Desde su lanzamiento inicial, Goose ha evolucionado significativamente. El proyecto ahora soporta más de 25 proveedores LLM, incluyendo servicios comerciales, plataformas en la nube y modelos locales. En diciembre de 2025, Block contribuyó Goose a la Agentic AI Foundation (AAIF) de la Linux Foundation, junto con MCP de Anthropic y AGENTS.md de OpenAI, asegurando que el futuro del proyecto sea moldeado por la comunidad bajo una gobernanza neutral.

En este artículo, te guiaré a través de la configuración de Goose CLI en Linux y macOS, conectarlo a Google Gemini y extender sus capacidades utilizando un servidor MCP.
Configuración de Goose CLI
El CLI de Goose es una herramienta ligera que te permite interactuar directamente con Goose desde tu terminal. Prefiero usar el CLI porque proporciona una forma simple y eficiente de interactuar con el modelo de IA sin necesidad de una interfaz gráfica de usuario.
Primero, descarga e instala el CLI de Goose. La guía de inicio proporciona instrucciones de instalación para varios sistemas operativos.
Para Linux, instala la última versión de Goose usando:
curl -fsSL https://github.com/block/goose/releases/download/stable/download_cli.sh | bashEste script descarga e instala la última versión de Goose para tu distribución.
Importante
Considera verificar la fuente y el checksum del script antes de ejecutarlo para seguir las mejores prácticas de seguridad.
Como alternativa, visita la página de GitHub releases para descargar el binario adecuado para tu sistema operativo.
Para usuarios de macOS, Goose también está disponible a través de Homebrew:
brew install block-goose-cliUna vez instalado, puedes actualizar Goose en cualquier momento ejecutando:
goose updateConfiguración del proveedor LLM (Google Gemini)
A continuación, configura Goose para un proveedor LLM. Goose ahora soporta más de 25 proveedores diferentes en tres categorías principales:
- Proveedores basados en API: Anthropic (Claude), OpenAI, Google Gemini, xAI (Grok), Mistral AI, y más
- Plataformas en la nube: Amazon Bedrock, GCP Vertex AI, Azure OpenAI, Databricks, Snowflake
- Proveedores locales: Ollama, Ramalama, Docker Model Runner (completamente gratis, se ejecuta en tu máquina)
- CLI pass-through: Claude Code, OpenAI Codex, Cursor Agent, Gemini CLI (usa tus suscripciones existentes)
Para este ejemplo, usaré Gemini API, el proveedor LLM de Google. Elegí esta opción porque ofrece una capa gratuita con límites de uso generosos, lo que permite experimentar sin incurrir en costes.
Esta es la forma más rápida de empezar con Goose. No obstante, es posible que necesites cambiar de proveedor o actualizar a un plan de pago si alcanzas los límites de uso.
Para conectarte a Google Gemini, necesitas crear una cuenta de Google y obtener una API key. Puedes generar esta clave en Google AI Studio:

Presiona el botón "Create API Key" para generar una nueva API key.

Utilizaremos esta API key para configurar Goose y conectarnos a Google Gemini estableciendo el proveedor de Goose. Puedes hacerlo ejecutando el siguiente comando:
goose configureEl comando goose configure te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Si la configuración es exitosa, verás un mensaje de confirmación.
Si encuentras algún problema, verifica tu API key, la conexión a Internet o las trazas en tu directorio ~/.config/goose para obtener más información.
Ahora que Google Gemini está configurado como nuestro proveedor LLM, exploremos las capacidades de Goose iniciando una nueva sesión de chat.
Ejecutar Goose por primera vez
Inicia una nueva sesión ejecutando el siguiente comando:
goose sessionEste comando lanza una sesión de chat basada en terminal donde puedes interactuar con el LLM.

En la imagen anterior, puedes ver la sesión de Goose ejecutándose en la terminal. En este caso, le pedí al modelo que enumerara sus capacidades, y respondió con una lista de los comandos admitidos.
Goose también incluye varios comandos slash integrados que puedes usar durante una sesión:
/prompts- Listar los prompts disponibles/prompt- Usar un prompt específico/compact- Compactar el historial de la conversación/clear- Limpiar la conversación
Configuración del servidor MCP de Playwright
El ecosistema MCP ha crecido significativamente desde el lanzamiento inicial de Goose, con más de 3.000 servidores MCP ahora disponibles cubriendo herramientas de desarrollo, suites de productividad y servicios especializados.
Para demostrar la extensibilidad de Goose, configuremos el servidor MCP de Playwright de Microsoft.
Este servidor permite la automatización del navegador utilizando el árbol de accesibilidad de Playwright, haciéndolo rápido y amigable para LLMs sin necesidad de modelos de visión.
Puedes configurarlo a través de la línea de comandos o editando tu archivo goose/config.yaml.
Para este ejemplo, usaremos la línea de comandos:
goose configureEl CLI te pedirá que configures Goose:
This will update your existing config file
if you prefer, you can edit it directly at /home/user/.config/goose/config.yaml
┌ goose-configure
│
◆ What would you like to configure?
│ ○ Configure Providers (Change provider or update credentials)
│ ○ Toggle Extensions
│ ● Add Extension
└Selecciona Add Extension, elige Command-line Extension e introduce los siguientes detalles para el servidor MCP de Playwright:
┌ goose-configure
│
◇ What would you like to configure?
│ Add Extension
│
◇ What type of extension would you like to add?
│ Command-line Extension
│
◇ What would you like to call this extension?
│ playwright
│
◇ What command should be run?
│ npx @playwright/mcp@latest
│
◇ Please set the timeout for this tool (in secs):
│ 300
│
◇ Enter a description for this extension:
│ Playwright
│
◇ Would you like to add environment variables?
│ No
│
└ Added playwright extensionUna vez que hayas añadido la extensión del servidor MCP de Playwright, puedes iniciar una nueva sesión e interactuar con él a través de Goose.
Nota
Para ejecutar esta extensión, necesitas tener Node.js instalado en tu sistema. Playwright descargará automáticamente los binarios del navegador necesarios en el primer uso.
Usar Goose para abrir un navegador e ir a un sitio web
Para demostrar las capacidades de Goose con el servidor MCP de Playwright, lo usaremos para abrir un navegador e ir a un sitio web. Puedes hacerlo ejecutando el siguiente comando en la sesión de Goose:
goose sessionUna vez se haya iniciado la sesión, puedes interactuar con el servidor MCP de Playwright escribiendo el siguiente comando:
Open a new browser window and navigate to https://blog.marcnuri.com, evaluate the links to find the author's LinkedIn, Bluesky, GitHub, and Twitter URLs'Goose utilizará el servidor MCP de Playwright para abrir una nueva ventana del navegador e ir al sitio web especificado. Luego, analizará el árbol de accesibilidad de la página para encontrar las URL de LinkedIn, Bluesky, GitHub y Twitter del autor.

En la imagen anterior, puedes ver la sesión de Goose con el servidor MCP de Playwright ejecutándose en la terminal.
Después de introducir el prompt, Goose siguió una secuencia de pasos hasta que devolvió la lista de enlaces:
- Enviar la lista de comandos y el prompt del usuario al servidor LLM.
- Evaluar la respuesta del LLM para realizar las siguientes acciones con Playwright:
- Abrir una nueva ventana del navegador.
- Navegar al sitio web especificado.
- Analizar el snapshot de accesibilidad de la página para encontrar los enlaces de las redes sociales del autor.
- Enviar el resultado de la función del servidor MCP al servidor LLM.
- Mostrar el resultado al usuario.
En este caso, interactuó con un único servidor MCP, pero puedes añadir varios servidores para ampliar aún más las capacidades de Goose.
Goose también soporta MCP Apps, que permiten interfaces de usuario ricas e interactivas en lugar de respuestas solo de texto. Esto permite que las extensiones proporcionen formularios interactivos, visualizaciones de datos y asistentes de configuración directamente dentro de la sesión de Goose.
Consejo
Si estás interesado en crear tus propios servidores MCP, consulta las guías para conectarte a servidores MCP usando LangChain4j (Java) o LangChain.js.
Uso de un proveedor LLM alternativo (Groq)
Una de mis características favoritas de Goose es su capacidad para conectarse a diferentes proveedores LLM. Hasta ahora, hemos utilizado Google Gemini porque se puede acceder de forma gratuita, pero es posible que desees cambiar a un proveedor diferente por diversas razones.
Consejo
Si prefieres mantener todo local y gratuito, considera usar Ollama con Goose.
Simplemente instala Ollama, ejecuta un modelo de lenguaje pequeño como ollama run qwen2.5, y configura Goose para usarlo.
Esto te da privacidad completa y sin límites de uso, aunque requiere una máquina capaz.
Con MCP, incluso los modelos más pequeños pueden alcanzar un rendimiento de nivel experto en tareas especializadas.
Intentemos conectarnos a Groq, un potente proveedor LLM que ofrece una amplia gama de modelos y capacidades y es conocido por su velocidad y eficiencia. La arquitectura única de Language Processing Unit (LPU) de Groq ofrece un alto rendimiento con un consumo mínimo de energía, lo que lo hace ideal para tareas de IA en tiempo real.
Groq también ofrece una capa gratuita, pero su límite de tasa de tokens por minuto puede ser demasiado restrictivo para algunos casos de uso. Esto es especialmente cierto para los servidores MCP que requieren una interacción continua con el proveedor LLM.
Para conectar Goose a Groq, debes crear una cuenta en el sitio web de Groq y obtener una API key. Puedes generar esta clave en la Groq cloud console:

Utilizaremos esta API key para configurar Goose y conectarlo a Groq estableciendo Groq como proveedor predeterminado. Puedes hacerlo ejecutando el siguiente comando:
goose configureEl comando goose configure te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Con un simple comando, puedes cambiar entre diferentes proveedores LLM y explorar sus capacidades con Goose. Ahora es muy fácil utilizar una variedad de modelos y servicios de IA aprovechando sus fortalezas específicas sin tener que cambiar entre diferentes herramientas o interfaces.
Nota
Para un ejemplo práctico de uso de Groq con Goose, consulta cómo ejecutar DeepSeek-R1 con Goose usando Groq como proveedor.
Conclusión
En este artículo, presenté Goose, un agente de IA de código abierto que se ejecuta localmente, se conecta a más de 25 proveedores LLM incluyendo Google Gemini y Groq, y extiende sus capacidades a través de servidores MCP. Demostré cómo configurar Goose, configurar Google Gemini y utilizar el servidor MCP de Playwright para la automatización del navegador.
Desde su lanzamiento en enero de 2025, Goose ha madurado significativamente. El proyecto ha visto más de 100 lanzamientos, ha ganado más de 25.000 estrellas en GitHub y ha atraído a más de 350 colaboradores. El ecosistema MCP se ha expandido a más de 3.000 servidores cubriendo herramientas de desarrollo (GitHub, VS Code, Docker), suites de productividad (Google Drive, Asana, Slack) y servicios especializados como el Kubernetes MCP Server.
Un hito importante llegó en diciembre de 2025 cuando Block contribuyó Goose a la Agentic AI Foundation de la Linux Foundation, junto con MCP de Anthropic y AGENTS.md de OpenAI. Esto asegura que el desarrollo de Goose continúe bajo una gobernanza neutral impulsada por la comunidad con el respaldo de AWS, Anthropic, Google, Microsoft, OpenAI y otros líderes de la industria.
A medida que el ecosistema de IA agéntica continúa evolucionando, Goose se presenta como una base sólida para los desarrolladores que buscan automatizar flujos de trabajo potenciados por IA manteniendo el control total sobre su entorno local. Este cambio hacia desarrolladores basados en máquinas está remodelando cómo pensamos sobre las herramientas y flujos de trabajo de desarrollo.
Consejo
Para descubrir cómo los agentes de línea de comandos como Goose pueden mejorar drásticamente la productividad del desarrollador, consulta cómo impulsé mi productividad con IA en 2025.
