Ir al contenido
Intermedio IA para desarrolladores

MCP en la práctica: construcción de servidores e integraciones para agentes de IA en Python

Taller para desarrolladores que quieren pasar de usar IA en el IDE a construir sus propios servidores MCP, herramientas e integraciones para agentes. El curso va desde un servidor local en Python, pasando por un segundo ejemplo en TypeScript, hasta la integración con Responses API, Claude Code y un servidor MCP remoto público.

12 horas 8 módulos Certificado

Curso intensivo de tipo build-along: el participante empieza con un repositorio vacío y, paso a paso, construye un ecosistema MCP funcional para agentes de IA. En el camino, aclara las diferencias entre MCP, function calling e integraciones API clásicas; implementa una arquitectura cliente-servidor con tools, resources y prompts; pone en marcha un servidor MCP local en Python; crea un segundo servidor en TypeScript; prueba y depura todo en MCP Inspector; añade mecanismos de seguridad, approval flow y limitación de permisos; expone un servidor MCP remoto mediante HTTP; y al final monta un mini proyecto de agente que combina el repositorio de código, la documentación y una API externa. El curso mezcla deliberadamente breves resúmenes arquitectónicos, checklists de calidad, comparaciones de buenas y malas definiciones de herramientas, tareas de implementación, sesiones de depuración y revisiones de artefactos, para que el aprendizaje no se reduzca a hacer clic en una interfaz. El alcance y los ejercicios se basan en el ecosistema MCP actual y oficial: los SDK oficiales para Python y TypeScript, MCP Inspector, transportes locales y remotos modernos, integraciones con OpenAI Docs MCP / la documentación de OpenAI, materiales sobre la construcción de MCP para integraciones con la API de OpenAI y las capacidades actuales de Claude Code y de los conectores MCP remotos.

Que aprenderas

  • Explicarás de forma práctica cuándo MCP ofrece ventaja frente al function calling habitual y la integración API clásica, y cuándo es una capa innecesaria.
  • Diseñarás una arquitectura MCP que incluya host, client, server, tools, resources, prompts y la elección de transporte local o remoto.
  • Construirás desde cero un servidor MCP local en Python con herramientas, recursos y prompts descritos de forma adecuada.
  • Prepararás un segundo ejemplo paralelo de servidor MCP en TypeScript y compararás los idioms de ambos SDK.
  • Conectarás el servidor MCP a un workflow con OpenAI Responses API y a herramientas como Claude Code y clientes de escritorio.
  • Sabrás probar y depurar servidores mediante MCP Inspector, logs y escenarios de fallo en lugar de adivinar por qué el agente no usa una herramienta.
  • Implementarás una exposición segura de herramientas: auth, approval flow, restricciones de alcance y minimización del riesgo de fuga de datos.
  • Expondrás un servidor MCP remoto mediante un endpoint HTTP público y lo prepararás para su uso por clientes externos.
  • Montarás un mini proyecto final: un agente que combine repositorio, documentación y una API externa en un único flujo de trabajo.
  • Aprenderás a evaluar la calidad de MCP no por si «funciona», sino por si el agente elige las herramientas correctas, devuelve resultados útiles y puede mantenerse en producción.

Requisitos

Dominio de Python a nivel de trabajo diario como desarrollador, conocimientos básicos de TypeScript/Node.js, experiencia con REST/HTTP y JSON, capacidad para trabajar con la terminal, Git y un entorno virtual. Se valoran: conocimientos básicos de FastAPI/Express, Docker y cualquier cliente de IA como Claude Code, Cursor, VS Code Agent o un script propio que use la API.

Programa del curso

  • MCP vs function calling vs API conectadas manualmente: tres arquitecturas para una misma tarea de agente
  • Revisión de caso: por qué un agente con solo function calling pierde el contexto de herramientas y permisos
  • Lista de verificación de decisión: cuándo MCP simplifica la integración y cuándo es sobreingeniería
  • Anatomía del ecosistema MCP: host, client, server, tools, resources, prompts, transports
  • Quiz de decisión: elige el patrón de integración adecuado para 8 escenarios de producto
  • Bootstrap repo: estructura del proyecto, env, dependencias y scripts dev para el taller MCP
  • Primer servidor en Python: un FastMCP mínimo con stdio que realmente responde
  • No solo tool: añadir resource y prompt para que el agente tenga algo más que acciones
  • Artefacto completo para comparar: mala vs buena definición de tool y descripción de parámetros
  • Primer arranque con un cliente local: qué deberías ver antes de seguir
  • Quiz de errores de inicio: reconoce el problema por el síntoma, el log y el comportamiento del cliente
  • Marco de diseño para herramientas MCP: nombre, contrato de entrada, resultado, errores, efectos secundarios
  • Taller de contratos: reconstrucción de 3 herramientas de versión «demo» a versión «agent-friendly»
  • Resources como capa de contexto: cuándo son mejores las URI y la lectura que otro tool
  • Prompts como procedimientos listos para usar: cómo empaquetar workflows sin codificar la lógica a fuego en el modelo
  • Crítica de artefactos: comparación before/after de las respuestas del agente en las mismas tareas
  • Cuestionario de calidad: indica qué descripción de la herramienta aumenta la probabilidad de que el modelo elija correctamente
  • MCP Inspector desde dentro: qué preguntas le harás al servidor antes de arrancar el cliente de IA
  • Depuración de sesión local: enumeración de tools/resources/prompts y verificación del capability handshake
  • Trabajo con errores: schema mismatch, excepción en la herramienta, content type incorrecto, timeout
  • Respuestas demasiado grandes y demasiados tokens: cómo recortar el payload, paginar y devolver resultados sensatos
  • Logs, traces y checklist de reproducción: cómo reportar un error de MCP para que otra persona lo arregle
  • Cuestionario diagnóstico: relaciona el síntoma con la causa más probable
  • Por qué el segundo ejemplo en TypeScript no debería ser una copia 1:1 de Python
  • Construcción de un servidor en TypeScript: inicio del proyecto, SDK, transporte y primera herramienta
  • Ejemplo integrador: servidor de documentación/proyecto con resource templates y filtrado de resultados
  • Comparación Python vs TypeScript: ergonomía de decoradores, tipos, validación y estructura del código
  • Revisión de código de dos implementaciones: qué decisiones trasladar entre repositorios y cuáles no
  • Quiz comparativo: elige el mejor stack para un helper local, un servidor de equipo y un endpoint público
  • Mapa de integración: cliente MCP local, Claude Code, clientes de escritorio y conectores API remotos
  • OpenAI y MCP en la práctica: cómo integrar documentación y tus propias herramientas en un workflow con Responses API
  • Claude Code + servidor local: configuración, selección de herramientas y expectativas de aprobación
  • Flujo del cliente de escritorio: iniciar el mismo servidor en la configuración del usuario final
  • Escenario end-to-end: el agente lee un resource, ejecuta una tool y compone una respuesta con contexto citable
  • Quiz integrador: indica qué limitaciones provienen del cliente y cuáles del servidor
  • Modelo de amenazas para MCP: qué puede salir mal al leer archivos, repos, secretos y al ejecutar acciones mutantes
  • Approval flow en la práctica: qué operaciones requieren confirmación humana y cómo forzarlo
  • Auth para el servidor remoto: tokens, bearer flow y separación de la identidad del usuario respecto al servidor
  • Least privilege by design: limitación del alcance de repos, endpoints, parámetros y formatos de respuesta
  • Revisión de anti-patrones: herramientas con side effects ocultos, secretos en el payload, confianza en proxies no oficiales
  • Quiz de seguridad: evalúa el riesgo y elige el contrato mínimo seguro de la herramienta
  • STDIO vs Streamable HTTP: decisión de transporte antes del despliegue y consecuencias para la arquitectura
  • Exposición de un servidor MCP remoto: endpoint público, configuración del entorno y smoke test tras el despliegue
  • Checklist de producción: health checks, límites, observabilidad, versionado y rollback
  • Mini-proyecto parte 1: agente para trabajar con repositorio, documentación y API externa — plan y contratos
  • Mini-proyecto parte 2: implementación del flujo y pruebas de escenarios de éxito y fracaso
  • Mini-proyecto parte 3: crítica de resultados, refactor de contratos y mejora de la calidad de las respuestas del agente
  • Cuestionario final: decisiones arquitectónicas y de depuración basadas en un único caso de estudio de producción

Preguntas frecuentes

Aprenderás paso a paso a construir un ecosistema MCP de nivel productivo, desde un repositorio vacío hasta una integración funcional para agentes de IA. Ordenarás las diferencias entre MCP, function calling e integraciones API clásicas, implementarás una arquitectura cliente-servidor con tools, resources y prompts, pondrás en marcha un servidor MCP local en Python, crearás un segundo servidor en TypeScript y probarás y depurarás todo en MCP Inspector. El curso tiene formato de taller intensivo build-along, así que en lugar de solo teoría crearás componentes reales que luego podrás seguir desarrollando en un proyecto de empresa.

Porque el mercado de los agentes de IA madura rápidamente y la interoperabilidad se vuelve clave. OpenAI posiciona Responses API como una dirección de futuro para construir agentes y herramientas, mientras que Anthropic desarrolla Model Context Protocol como un estándar abierto para trabajar con herramientas y contexto para agentes. Eso significa que las competencias relacionadas con MCP, las integraciones de herramientas y la orquestación segura de agentes son cada vez más prácticas y demandadas, especialmente en equipos que construyen sus propios workflows de IA. El curso te ayuda a entrar en este ámbito no con eslóganes generales, sino implementando una arquitectura funcional.

Sin duda, en la práctica. Es un curso de taller tipo build-along: el participante empieza con un repositorio vacío y, junto con el instructor, construye una solución completa. Cada elemento —desde la arquitectura MCP, pasando por la creación del servidor en Python y TypeScript, hasta las pruebas, la depuración, la seguridad y la limitación de permisos— se implementa en directo. Gracias a ello, al terminar el curso no solo tendrás comprensión conceptual, sino también código, estructura de proyecto y patrones de implementación que podrás usar en tus propios agentes de IA.

Para programadores de Python, desarrolladores backend, AI engineers, creadores de automatizaciones y personas que construyen agentes de IA y quieren ir más allá de una demo simple con function calling. También será útil para equipos de producto y técnicos que necesitan entender cuándo basta con una llamada a función y cuándo conviene diseñar un ecosistema MCP completo con control de acceso, approval flow y un modelo de integración claro.

No. El curso ordena los fundamentos desde el principio y muestra las diferencias prácticas entre MCP, function calling y la API clásica. Si conoces lo básico de Python y entiendes qué son las integraciones HTTP/API, entrarás en el material con fluidez. Al mismo tiempo, el ritmo y el alcance son lo bastante concretos como para que también los participantes más avanzados obtengan patrones de implementación listos para usar y un mejor enfoque para diseñar agentes.

El lenguaje principal es Python, en el que pones en marcha el servidor MCP local y construyes integraciones prácticas para agentes de IA. Además, crearás un segundo servidor en TypeScript, lo que te permitirá entender cómo diseñar un entorno multilenguaje y cómo trasladar patrones entre stacks. En el curso también aparece MCP Inspector para pruebas y depuración, así como temas relacionados con seguridad, control de permisos y flujos de aprobación.

Sí, y esa es una de sus mayores fortalezas. Además de poner en marcha el servidor, aprenderás a añadir mecanismos de seguridad, approval flow y limitación de permisos. Esto es especialmente importante hoy, cuando las herramientas de agentes pueden ejecutar acciones en sistemas externos y plataformas como OpenAI desarrollan herramientas y bucles de orquestación de agentes cada vez más avanzados. El curso muestra, por tanto, no solo cómo conectar algo, sino cómo hacerlo de forma responsable y preparada para seguir evolucionando.

El function calling enseña al modelo a invocar funciones concretas, pero MCP introduce un modelo más amplio y ordenado de colaboración del agente con herramientas, recursos y prompts. En la práctica, esto significa mejor escalabilidad de las integraciones, una arquitectura cliente-servidor más clara y mayor previsibilidad en el desarrollo del entorno de agentes. Este curso no se queda en una sola llamada a una herramienta: muestra cómo diseñar todo un ecosistema de integración, probarlo en MCP Inspector y desarrollarlo en casos de uso reales.

MCP en la práctica: construcción de servidores e integraciones para agentes de IA en Python
40 EUR
  • 12 horas
  • Intermedio
  • Certificado al terminar
  • Acceso inmediato tras la compra

Usamos cookies para ofrecer el mejor servicio. Detalles en la politica de cookies