MCP en la práctica: construcción de servidores e integraciones para agentes de IA en Python
Taller para desarrolladores que quieren pasar de usar IA en el IDE a construir sus propios servidores MCP, herramientas e integraciones para agentes. El curso va desde un servidor local en Python, pasando por un segundo ejemplo en TypeScript, hasta la integración con Responses API, Claude Code y un servidor MCP remoto público.
Curso intensivo de tipo build-along: el participante empieza con un repositorio vacío y, paso a paso, construye un ecosistema MCP funcional para agentes de IA. En el camino, aclara las diferencias entre MCP, function calling e integraciones API clásicas; implementa una arquitectura cliente-servidor con tools, resources y prompts; pone en marcha un servidor MCP local en Python; crea un segundo servidor en TypeScript; prueba y depura todo en MCP Inspector; añade mecanismos de seguridad, approval flow y limitación de permisos; expone un servidor MCP remoto mediante HTTP; y al final monta un mini proyecto de agente que combina el repositorio de código, la documentación y una API externa. El curso mezcla deliberadamente breves resúmenes arquitectónicos, checklists de calidad, comparaciones de buenas y malas definiciones de herramientas, tareas de implementación, sesiones de depuración y revisiones de artefactos, para que el aprendizaje no se reduzca a hacer clic en una interfaz. El alcance y los ejercicios se basan en el ecosistema MCP actual y oficial: los SDK oficiales para Python y TypeScript, MCP Inspector, transportes locales y remotos modernos, integraciones con OpenAI Docs MCP / la documentación de OpenAI, materiales sobre la construcción de MCP para integraciones con la API de OpenAI y las capacidades actuales de Claude Code y de los conectores MCP remotos.
Que aprenderas
- Explicarás de forma práctica cuándo MCP ofrece ventaja frente al function calling habitual y la integración API clásica, y cuándo es una capa innecesaria.
- Diseñarás una arquitectura MCP que incluya host, client, server, tools, resources, prompts y la elección de transporte local o remoto.
- Construirás desde cero un servidor MCP local en Python con herramientas, recursos y prompts descritos de forma adecuada.
- Prepararás un segundo ejemplo paralelo de servidor MCP en TypeScript y compararás los idioms de ambos SDK.
- Conectarás el servidor MCP a un workflow con OpenAI Responses API y a herramientas como Claude Code y clientes de escritorio.
- Sabrás probar y depurar servidores mediante MCP Inspector, logs y escenarios de fallo en lugar de adivinar por qué el agente no usa una herramienta.
- Implementarás una exposición segura de herramientas: auth, approval flow, restricciones de alcance y minimización del riesgo de fuga de datos.
- Expondrás un servidor MCP remoto mediante un endpoint HTTP público y lo prepararás para su uso por clientes externos.
- Montarás un mini proyecto final: un agente que combine repositorio, documentación y una API externa en un único flujo de trabajo.
- Aprenderás a evaluar la calidad de MCP no por si «funciona», sino por si el agente elige las herramientas correctas, devuelve resultados útiles y puede mantenerse en producción.
Requisitos
Dominio de Python a nivel de trabajo diario como desarrollador, conocimientos básicos de TypeScript/Node.js, experiencia con REST/HTTP y JSON, capacidad para trabajar con la terminal, Git y un entorno virtual. Se valoran: conocimientos básicos de FastAPI/Express, Docker y cualquier cliente de IA como Claude Code, Cursor, VS Code Agent o un script propio que use la API.
Programa del curso
- MCP vs function calling vs API conectadas manualmente: tres arquitecturas para una misma tarea de agente
- Revisión de caso: por qué un agente con solo function calling pierde el contexto de herramientas y permisos
- Lista de verificación de decisión: cuándo MCP simplifica la integración y cuándo es sobreingeniería
- Anatomía del ecosistema MCP: host, client, server, tools, resources, prompts, transports
- Quiz de decisión: elige el patrón de integración adecuado para 8 escenarios de producto
- Bootstrap repo: estructura del proyecto, env, dependencias y scripts dev para el taller MCP
- Primer servidor en Python: un FastMCP mínimo con stdio que realmente responde
- No solo tool: añadir resource y prompt para que el agente tenga algo más que acciones
- Artefacto completo para comparar: mala vs buena definición de tool y descripción de parámetros
- Primer arranque con un cliente local: qué deberías ver antes de seguir
- Quiz de errores de inicio: reconoce el problema por el síntoma, el log y el comportamiento del cliente
- Marco de diseño para herramientas MCP: nombre, contrato de entrada, resultado, errores, efectos secundarios
- Taller de contratos: reconstrucción de 3 herramientas de versión «demo» a versión «agent-friendly»
- Resources como capa de contexto: cuándo son mejores las URI y la lectura que otro tool
- Prompts como procedimientos listos para usar: cómo empaquetar workflows sin codificar la lógica a fuego en el modelo
- Crítica de artefactos: comparación before/after de las respuestas del agente en las mismas tareas
- Cuestionario de calidad: indica qué descripción de la herramienta aumenta la probabilidad de que el modelo elija correctamente
- MCP Inspector desde dentro: qué preguntas le harás al servidor antes de arrancar el cliente de IA
- Depuración de sesión local: enumeración de tools/resources/prompts y verificación del capability handshake
- Trabajo con errores: schema mismatch, excepción en la herramienta, content type incorrecto, timeout
- Respuestas demasiado grandes y demasiados tokens: cómo recortar el payload, paginar y devolver resultados sensatos
- Logs, traces y checklist de reproducción: cómo reportar un error de MCP para que otra persona lo arregle
- Cuestionario diagnóstico: relaciona el síntoma con la causa más probable
- Por qué el segundo ejemplo en TypeScript no debería ser una copia 1:1 de Python
- Construcción de un servidor en TypeScript: inicio del proyecto, SDK, transporte y primera herramienta
- Ejemplo integrador: servidor de documentación/proyecto con resource templates y filtrado de resultados
- Comparación Python vs TypeScript: ergonomía de decoradores, tipos, validación y estructura del código
- Revisión de código de dos implementaciones: qué decisiones trasladar entre repositorios y cuáles no
- Quiz comparativo: elige el mejor stack para un helper local, un servidor de equipo y un endpoint público
- Mapa de integración: cliente MCP local, Claude Code, clientes de escritorio y conectores API remotos
- OpenAI y MCP en la práctica: cómo integrar documentación y tus propias herramientas en un workflow con Responses API
- Claude Code + servidor local: configuración, selección de herramientas y expectativas de aprobación
- Flujo del cliente de escritorio: iniciar el mismo servidor en la configuración del usuario final
- Escenario end-to-end: el agente lee un resource, ejecuta una tool y compone una respuesta con contexto citable
- Quiz integrador: indica qué limitaciones provienen del cliente y cuáles del servidor
- Modelo de amenazas para MCP: qué puede salir mal al leer archivos, repos, secretos y al ejecutar acciones mutantes
- Approval flow en la práctica: qué operaciones requieren confirmación humana y cómo forzarlo
- Auth para el servidor remoto: tokens, bearer flow y separación de la identidad del usuario respecto al servidor
- Least privilege by design: limitación del alcance de repos, endpoints, parámetros y formatos de respuesta
- Revisión de anti-patrones: herramientas con side effects ocultos, secretos en el payload, confianza en proxies no oficiales
- Quiz de seguridad: evalúa el riesgo y elige el contrato mínimo seguro de la herramienta
- STDIO vs Streamable HTTP: decisión de transporte antes del despliegue y consecuencias para la arquitectura
- Exposición de un servidor MCP remoto: endpoint público, configuración del entorno y smoke test tras el despliegue
- Checklist de producción: health checks, límites, observabilidad, versionado y rollback
- Mini-proyecto parte 1: agente para trabajar con repositorio, documentación y API externa — plan y contratos
- Mini-proyecto parte 2: implementación del flujo y pruebas de escenarios de éxito y fracaso
- Mini-proyecto parte 3: crítica de resultados, refactor de contratos y mejora de la calidad de las respuestas del agente
- Cuestionario final: decisiones arquitectónicas y de depuración basadas en un único caso de estudio de producción
Preguntas frecuentes
Aprenderás paso a paso a construir un ecosistema MCP de nivel productivo, desde un repositorio vacío hasta una integración funcional para agentes de IA. Ordenarás las diferencias entre MCP, function calling e integraciones API clásicas, implementarás una arquitectura cliente-servidor con tools, resources y prompts, pondrás en marcha un servidor MCP local en Python, crearás un segundo servidor en TypeScript y probarás y depurarás todo en MCP Inspector. El curso tiene formato de taller intensivo build-along, así que en lugar de solo teoría crearás componentes reales que luego podrás seguir desarrollando en un proyecto de empresa.
Porque el mercado de los agentes de IA madura rápidamente y la interoperabilidad se vuelve clave. OpenAI posiciona Responses API como una dirección de futuro para construir agentes y herramientas, mientras que Anthropic desarrolla Model Context Protocol como un estándar abierto para trabajar con herramientas y contexto para agentes. Eso significa que las competencias relacionadas con MCP, las integraciones de herramientas y la orquestación segura de agentes son cada vez más prácticas y demandadas, especialmente en equipos que construyen sus propios workflows de IA. El curso te ayuda a entrar en este ámbito no con eslóganes generales, sino implementando una arquitectura funcional.
Sin duda, en la práctica. Es un curso de taller tipo build-along: el participante empieza con un repositorio vacío y, junto con el instructor, construye una solución completa. Cada elemento —desde la arquitectura MCP, pasando por la creación del servidor en Python y TypeScript, hasta las pruebas, la depuración, la seguridad y la limitación de permisos— se implementa en directo. Gracias a ello, al terminar el curso no solo tendrás comprensión conceptual, sino también código, estructura de proyecto y patrones de implementación que podrás usar en tus propios agentes de IA.
Para programadores de Python, desarrolladores backend, AI engineers, creadores de automatizaciones y personas que construyen agentes de IA y quieren ir más allá de una demo simple con function calling. También será útil para equipos de producto y técnicos que necesitan entender cuándo basta con una llamada a función y cuándo conviene diseñar un ecosistema MCP completo con control de acceso, approval flow y un modelo de integración claro.
No. El curso ordena los fundamentos desde el principio y muestra las diferencias prácticas entre MCP, function calling y la API clásica. Si conoces lo básico de Python y entiendes qué son las integraciones HTTP/API, entrarás en el material con fluidez. Al mismo tiempo, el ritmo y el alcance son lo bastante concretos como para que también los participantes más avanzados obtengan patrones de implementación listos para usar y un mejor enfoque para diseñar agentes.
El lenguaje principal es Python, en el que pones en marcha el servidor MCP local y construyes integraciones prácticas para agentes de IA. Además, crearás un segundo servidor en TypeScript, lo que te permitirá entender cómo diseñar un entorno multilenguaje y cómo trasladar patrones entre stacks. En el curso también aparece MCP Inspector para pruebas y depuración, así como temas relacionados con seguridad, control de permisos y flujos de aprobación.
Sí, y esa es una de sus mayores fortalezas. Además de poner en marcha el servidor, aprenderás a añadir mecanismos de seguridad, approval flow y limitación de permisos. Esto es especialmente importante hoy, cuando las herramientas de agentes pueden ejecutar acciones en sistemas externos y plataformas como OpenAI desarrollan herramientas y bucles de orquestación de agentes cada vez más avanzados. El curso muestra, por tanto, no solo cómo conectar algo, sino cómo hacerlo de forma responsable y preparada para seguir evolucionando.
El function calling enseña al modelo a invocar funciones concretas, pero MCP introduce un modelo más amplio y ordenado de colaboración del agente con herramientas, recursos y prompts. En la práctica, esto significa mejor escalabilidad de las integraciones, una arquitectura cliente-servidor más clara y mayor previsibilidad en el desarrollo del entorno de agentes. Este curso no se queda en una sola llamada a una herramienta: muestra cómo diseñar todo un ecosistema de integración, probarlo en MCP Inspector y desarrollarlo en casos de uso reales.
- 12 horas
- Intermedio
- Certificado al terminar
- Acceso inmediato tras la compra