A logo showing the text blog.marcnuri.com
English
Inicio»Inteligencia Artificial»Introducción a Goose, el agente de IA en tu máquina

Entradas Recientes

  • Synology DS224+: Cómo actualizar discos duros en RAID 1
  • Fabric8 Kubernetes Client 7.5 está disponible!
  • Impulsando Mi Productividad como Desarrollador con IA en 2025
  • Black Box vs White Box Testing: Cuándo Usar Cada Enfoque
  • Fabric8 Kubernetes Client 7.4.0 está disponible!

Categorías

  • Antiguo
  • Cloud Native
  • Desarrollo Backend
  • Desarrollo Frontend
  • Herramientas
  • Ingeniería de calidad
  • Inteligencia Artificial
  • JavaScript
  • Operaciones
  • Personal
  • Proyectos personales
  • Reflexiones sobre Ingeniería

Archivos

  • enero 2026
  • diciembre 2025
  • octubre 2025
  • septiembre 2025
  • julio 2025
  • mayo 2025
  • abril 2025
  • marzo 2025
  • febrero 2025
  • enero 2025
  • diciembre 2024
  • noviembre 2024
  • agosto 2024
  • junio 2024
  • mayo 2024
  • abril 2024
  • marzo 2024
  • febrero 2024
  • enero 2024
  • diciembre 2023
  • noviembre 2023
  • octubre 2023
  • septiembre 2023
  • agosto 2023
  • julio 2023
  • junio 2023
  • mayo 2023
  • abril 2023
  • marzo 2023
  • febrero 2023
  • enero 2023
  • diciembre 2022
  • noviembre 2022
  • octubre 2022
  • septiembre 2022
  • agosto 2022
  • julio 2022
  • junio 2022
  • mayo 2022
  • marzo 2022
  • febrero 2022
  • enero 2022
  • diciembre 2021
  • noviembre 2021
  • octubre 2021
  • septiembre 2021
  • agosto 2021
  • julio 2021
  • enero 2021
  • diciembre 2020
  • octubre 2020
  • septiembre 2020
  • agosto 2020
  • junio 2020
  • mayo 2020
  • marzo 2020
  • febrero 2020
  • enero 2020
  • noviembre 2019
  • septiembre 2019
  • julio 2019
  • diciembre 2018
  • agosto 2018
  • julio 2018
  • junio 2018
  • mayo 2018
  • marzo 2018
  • febrero 2018
  • noviembre 2017
  • octubre 2017
  • agosto 2017
  • julio 2017
  • enero 2017
  • julio 2016
  • enero 2016
  • diciembre 2015
  • noviembre 2015
  • diciembre 2014
  • noviembre 2014
  • octubre 2014
  • marzo 2014
  • febrero 2011
  • junio 2008
  • mayo 2008
  • abril 2008
  • enero 2008
  • junio 2007
  • mayo 2007
  • abril 2007
  • marzo 2007

Introducción a Goose, el agente de IA en tu máquina

2025-01-30 en Inteligencia Artificial etiquetado LLM / AI Agent / Model Context Protocol (MCP) por Marc Nuri | Última actualización: 2026-01-08
English version

Introducción

En enero de 2025, Block presentó Goose, un agente de IA extensible, de código abierto, distribuido como una interfaz de línea de comandos (CLI) y una aplicación de escritorio. Goose se ejecuta localmente, se puede conectar a diferentes proveedores de modelos de lenguaje grandes LLM y es extensible a través de servidores Model Context Protocol (MCP).

Desde su lanzamiento inicial, Goose ha evolucionado significativamente. El proyecto ahora soporta más de 25 proveedores LLM, incluyendo servicios comerciales, plataformas en la nube y modelos locales. En diciembre de 2025, Block contribuyó Goose a la Agentic AI Foundation (AAIF) de la Linux Foundation, junto con MCP de Anthropic y AGENTS.md de OpenAI, asegurando que el futuro del proyecto sea moldeado por la comunidad bajo una gobernanza neutral.

Una imagen del logotipo de Goose y su lema "Tu agente de IA en la máquina, automatizando tareas de ingeniería sin problemas."
Una imagen del logotipo de Goose y su lema "Tu agente de IA en la máquina, automatizando tareas de ingeniería sin problemas."

En este artículo, te guiaré a través de la configuración de Goose CLI en Linux y macOS, conectarlo a Google Gemini y extender sus capacidades utilizando un servidor MCP.

Configuración de Goose CLI

El CLI de Goose es una herramienta ligera que te permite interactuar directamente con Goose desde tu terminal. Prefiero usar el CLI porque proporciona una forma simple y eficiente de interactuar con el modelo de IA sin necesidad de una interfaz gráfica de usuario.

Primero, descarga e instala el CLI de Goose. La guía de inicio proporciona instrucciones de instalación para varios sistemas operativos.

Para Linux, instala la última versión de Goose usando:

bash
curl -fsSL https://github.com/block/goose/releases/download/stable/download_cli.sh | bash

Este script descarga e instala la última versión de Goose para tu distribución.

Importante

Considera verificar la fuente y el checksum del script antes de ejecutarlo para seguir las mejores prácticas de seguridad.

Como alternativa, visita la página de GitHub releases para descargar el binario adecuado para tu sistema operativo.

Para usuarios de macOS, Goose también está disponible a través de Homebrew:

bash
brew install block-goose-cli

Una vez instalado, puedes actualizar Goose en cualquier momento ejecutando:

bash
goose update

Configuración del proveedor LLM (Google Gemini)

A continuación, configura Goose para un proveedor LLM. Goose ahora soporta más de 25 proveedores diferentes en tres categorías principales:

  • Proveedores basados en API: Anthropic (Claude), OpenAI, Google Gemini, xAI (Grok), Mistral AI, y más
  • Plataformas en la nube: Amazon Bedrock, GCP Vertex AI, Azure OpenAI, Databricks, Snowflake
  • Proveedores locales: Ollama, Ramalama, Docker Model Runner (completamente gratis, se ejecuta en tu máquina)
  • CLI pass-through: Claude Code, OpenAI Codex, Cursor Agent, Gemini CLI (usa tus suscripciones existentes)

Para este ejemplo, usaré Gemini API, el proveedor LLM de Google. Elegí esta opción porque ofrece una capa gratuita con límites de uso generosos, lo que permite experimentar sin incurrir en costes.

Esta es la forma más rápida de empezar con Goose. No obstante, es posible que necesites cambiar de proveedor o actualizar a un plan de pago si alcanzas los límites de uso.

Para conectarte a Google Gemini, necesitas crear una cuenta de Google y obtener una API key. Puedes generar esta clave en Google AI Studio:

Una captura de pantalla de la creación de una API key en Google AI Studio
Una captura de pantalla de la creación de una API key en Google AI Studio

Presiona el botón "Create API Key" para generar una nueva API key.

Una captura de pantalla de la sección de claves de API de Google AI Studio con la clave creada
Una captura de pantalla de la sección de claves de API de Google AI Studio con la clave creada

Utilizaremos esta API key para configurar Goose y conectarnos a Google Gemini estableciendo el proveedor de Goose. Puedes hacerlo ejecutando el siguiente comando:

bash
goose configure

El comando goose configure te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Una captura de pantalla del comando goose configure y el asistente de configuracion
Una captura de pantalla del comando goose configure y el asistente de configuracion

Si la configuración es exitosa, verás un mensaje de confirmación. Si encuentras algún problema, verifica tu API key, la conexión a Internet o las trazas en tu directorio ~/.config/goose para obtener más información.

Ahora que Google Gemini está configurado como nuestro proveedor LLM, exploremos las capacidades de Goose iniciando una nueva sesión de chat.

Ejecutar Goose por primera vez

Inicia una nueva sesión ejecutando el siguiente comando:

bash
goose session

Este comando lanza una sesión de chat basada en terminal donde puedes interactuar con el LLM.

Una captura de pantalla de la sesión de chat de Goose en la terminal
Una captura de pantalla de la sesión de chat de Goose en la terminal

En la imagen anterior, puedes ver la sesión de Goose ejecutándose en la terminal. En este caso, le pedí al modelo que enumerara sus capacidades, y respondió con una lista de los comandos admitidos.

Goose también incluye varios comandos slash integrados que puedes usar durante una sesión:

  • /prompts - Listar los prompts disponibles
  • /prompt - Usar un prompt específico
  • /compact - Compactar el historial de la conversación
  • /clear - Limpiar la conversación

Configuración del servidor MCP de Playwright

El ecosistema MCP ha crecido significativamente desde el lanzamiento inicial de Goose, con más de 3.000 servidores MCP ahora disponibles cubriendo herramientas de desarrollo, suites de productividad y servicios especializados.

Para demostrar la extensibilidad de Goose, configuremos el servidor MCP de Playwright de Microsoft. Este servidor permite la automatización del navegador utilizando el árbol de accesibilidad de Playwright, haciéndolo rápido y amigable para LLMs sin necesidad de modelos de visión. Puedes configurarlo a través de la línea de comandos o editando tu archivo goose/config.yaml. Para este ejemplo, usaremos la línea de comandos:

bash
goose configure

El CLI te pedirá que configures Goose:

goose configure
This will update your existing config file
  if you prefer, you can edit it directly at /home/user/.config/goose/config.yaml

┌   goose-configure
│
◆  What would you like to configure?
│  ○ Configure Providers (Change provider or update credentials)
│  ○ Toggle Extensions
│  ● Add Extension
└

Selecciona Add Extension, elige Command-line Extension e introduce los siguientes detalles para el servidor MCP de Playwright:

goose configure
┌   goose-configure
│
◇  What would you like to configure?
│  Add Extension
│
◇  What type of extension would you like to add?
│  Command-line Extension
│
◇  What would you like to call this extension?
│  playwright
│
◇  What command should be run?
│  npx @playwright/mcp@latest
│
◇  Please set the timeout for this tool (in secs):
│  300
│
◇  Enter a description for this extension:
│  Playwright
│
◇  Would you like to add environment variables?
│  No
│
└  Added playwright extension

Una vez que hayas añadido la extensión del servidor MCP de Playwright, puedes iniciar una nueva sesión e interactuar con él a través de Goose.

Nota

Para ejecutar esta extensión, necesitas tener Node.js instalado en tu sistema. Playwright descargará automáticamente los binarios del navegador necesarios en el primer uso.

Usar Goose para abrir un navegador e ir a un sitio web

Para demostrar las capacidades de Goose con el servidor MCP de Playwright, lo usaremos para abrir un navegador e ir a un sitio web. Puedes hacerlo ejecutando el siguiente comando en la sesión de Goose:

bash
goose session

Una vez se haya iniciado la sesión, puedes interactuar con el servidor MCP de Playwright escribiendo el siguiente comando:

bash
Open a new browser window and navigate to https://blog.marcnuri.com, evaluate the links to find the author's LinkedIn, Bluesky, GitHub, and Twitter URLs'

Goose utilizará el servidor MCP de Playwright para abrir una nueva ventana del navegador e ir al sitio web especificado. Luego, analizará el árbol de accesibilidad de la página para encontrar las URL de LinkedIn, Bluesky, GitHub y Twitter del autor.

Una captura de pantalla de la sesión de Goose con Playwright
Una captura de pantalla de la sesión de Goose con Playwright

En la imagen anterior, puedes ver la sesión de Goose con el servidor MCP de Playwright ejecutándose en la terminal.

Después de introducir el prompt, Goose siguió una secuencia de pasos hasta que devolvió la lista de enlaces:

  1. Enviar la lista de comandos y el prompt del usuario al servidor LLM.
  2. Evaluar la respuesta del LLM para realizar las siguientes acciones con Playwright:
    • Abrir una nueva ventana del navegador.
    • Navegar al sitio web especificado.
    • Analizar el snapshot de accesibilidad de la página para encontrar los enlaces de las redes sociales del autor.
  3. Enviar el resultado de la función del servidor MCP al servidor LLM.
  4. Mostrar el resultado al usuario.

En este caso, interactuó con un único servidor MCP, pero puedes añadir varios servidores para ampliar aún más las capacidades de Goose.

Goose también soporta MCP Apps, que permiten interfaces de usuario ricas e interactivas en lugar de respuestas solo de texto. Esto permite que las extensiones proporcionen formularios interactivos, visualizaciones de datos y asistentes de configuración directamente dentro de la sesión de Goose.

Consejo

Si estás interesado en crear tus propios servidores MCP, consulta las guías para conectarte a servidores MCP usando LangChain4j (Java) o LangChain.js.

Uso de un proveedor LLM alternativo (Groq)

Una de mis características favoritas de Goose es su capacidad para conectarse a diferentes proveedores LLM. Hasta ahora, hemos utilizado Google Gemini porque se puede acceder de forma gratuita, pero es posible que desees cambiar a un proveedor diferente por diversas razones.

Consejo

Si prefieres mantener todo local y gratuito, considera usar Ollama con Goose. Simplemente instala Ollama, ejecuta un modelo de lenguaje pequeño como ollama run qwen2.5, y configura Goose para usarlo. Esto te da privacidad completa y sin límites de uso, aunque requiere una máquina capaz. Con MCP, incluso los modelos más pequeños pueden alcanzar un rendimiento de nivel experto en tareas especializadas.

Intentemos conectarnos a Groq, un potente proveedor LLM que ofrece una amplia gama de modelos y capacidades y es conocido por su velocidad y eficiencia. La arquitectura única de Language Processing Unit (LPU) de Groq ofrece un alto rendimiento con un consumo mínimo de energía, lo que lo hace ideal para tareas de IA en tiempo real.

Groq también ofrece una capa gratuita, pero su límite de tasa de tokens por minuto puede ser demasiado restrictivo para algunos casos de uso. Esto es especialmente cierto para los servidores MCP que requieren una interacción continua con el proveedor LLM.

Para conectar Goose a Groq, debes crear una cuenta en el sitio web de Groq y obtener una API key. Puedes generar esta clave en la Groq cloud console:

Una captura de pantalla de la sección de claves de API de la consola de Groq
Una captura de pantalla de la sección de claves de API de la consola de Groq

Utilizaremos esta API key para configurar Goose y conectarlo a Groq estableciendo Groq como proveedor predeterminado. Puedes hacerlo ejecutando el siguiente comando:

bash
goose configure

El comando goose configure te guiará a través de la configuración del proveedor, incluyendo la introducción de tu API key y la selección del modelo predeterminado.

Una captura de pantalla del asistente de configuración de comandos de terminal de Goose
Una captura de pantalla del asistente de configuración de comandos de terminal de Goose

Con un simple comando, puedes cambiar entre diferentes proveedores LLM y explorar sus capacidades con Goose. Ahora es muy fácil utilizar una variedad de modelos y servicios de IA aprovechando sus fortalezas específicas sin tener que cambiar entre diferentes herramientas o interfaces.

Nota

Para un ejemplo práctico de uso de Groq con Goose, consulta cómo ejecutar DeepSeek-R1 con Goose usando Groq como proveedor.

Conclusión

En este artículo, presenté Goose, un agente de IA de código abierto que se ejecuta localmente, se conecta a más de 25 proveedores LLM incluyendo Google Gemini y Groq, y extiende sus capacidades a través de servidores MCP. Demostré cómo configurar Goose, configurar Google Gemini y utilizar el servidor MCP de Playwright para la automatización del navegador.

Desde su lanzamiento en enero de 2025, Goose ha madurado significativamente. El proyecto ha visto más de 100 lanzamientos, ha ganado más de 25.000 estrellas en GitHub y ha atraído a más de 350 colaboradores. El ecosistema MCP se ha expandido a más de 3.000 servidores cubriendo herramientas de desarrollo (GitHub, VS Code, Docker), suites de productividad (Google Drive, Asana, Slack) y servicios especializados como el Kubernetes MCP Server.

Un hito importante llegó en diciembre de 2025 cuando Block contribuyó Goose a la Agentic AI Foundation de la Linux Foundation, junto con MCP de Anthropic y AGENTS.md de OpenAI. Esto asegura que el desarrollo de Goose continúe bajo una gobernanza neutral impulsada por la comunidad con el respaldo de AWS, Anthropic, Google, Microsoft, OpenAI y otros líderes de la industria.

A medida que el ecosistema de IA agéntica continúa evolucionando, Goose se presenta como una base sólida para los desarrolladores que buscan automatizar flujos de trabajo potenciados por IA manteniendo el control total sobre su entorno local. Este cambio hacia desarrolladores basados en máquinas está remodelando cómo pensamos sobre las herramientas y flujos de trabajo de desarrollo.

Consejo

Para descubrir cómo los agentes de línea de comandos como Goose pueden mejorar drásticamente la productividad del desarrollador, consulta cómo impulsé mi productividad con IA en 2025.

Twitter iconFacebook iconLinkedIn iconPinterest iconEmail icon

Navegador de artículos
Fabric8 Kubernetes Client 7.1.0 está disponible!Rolling Updates en Kubernetes desde Java con Fabric8 Kubernetes Client 7
© 2007 - 2026 Marc Nuri