Przejdz do tresci
Średniozaawansowany AI dla developerów

MCP w praktyce: budowa serwerów i integracji dla AI agentów w Pythonie

Warsztat dla developerów, którzy chcą przejść od używania AI w IDE do budowy własnych serwerów MCP, narzędzi i integracji dla agentów. Kurs prowadzi od lokalnego serwera w Pythonie, przez drugi przykład w TypeScript, po integrację z Responses API, Claude Code i publiczny remote MCP server.

12 godzin 8 modułów Certyfikat

Intensywny kurs warsztatowy typu build-along: uczestnik zaczyna od pustego repozytorium i krok po kroku buduje działający ekosystem MCP dla agentów AI. Po drodze porządkuje różnice między MCP, function calling i klasycznymi integracjami API; wdraża architekturę client-server z tools, resources i prompts; uruchamia lokalny serwer MCP w Pythonie; tworzy drugi serwer w TypeScript; testuje i debuguje całość w MCP Inspector; dodaje mechanizmy bezpieczeństwa, approval flow i ograniczania uprawnień; wystawia remote MCP server przez HTTP; a na koniec składa mini-projekt agenta, który łączy repozytorium kodu, dokumentację i zewnętrzne API. Kurs celowo miesza krótkie briefingi architektoniczne, checklisty jakości, porównania dobrych i złych definicji narzędzi, zadania implementacyjne, sesje debugowania oraz przeglądy artefaktów, żeby nauka nie sprowadzała się do klikania po UI. Zakres i ćwiczenia opierają się na aktualnym, oficjalnym ekosystemie MCP: oficjalnych SDK dla Python i TypeScript, MCP Inspector, nowoczesnych transportach lokalnych i zdalnych, integracjach z OpenAI Docs MCP / dokumentacją OpenAI, materiałach o budowie MCP dla integracji API OpenAI oraz aktualnych możliwościach Claude Code i zdalnych konektorów MCP.

Czego się nauczysz

  • Wyjaśnisz praktycznie, kiedy MCP daje przewagę nad zwykłym function calling i klasyczną integracją API oraz kiedy jest zbędną warstwą.
  • Zaprojektujesz architekturę MCP obejmującą host, client, server, tools, resources, prompts i dobór transportu lokalnego lub zdalnego.
  • Zbudujesz od zera lokalny MCP server w Pythonie z sensownie opisanymi narzędziami, zasobami i promptami.
  • Przygotujesz drugi, równoległy przykład serwera MCP w TypeScript i porównasz idiomy obu SDK.
  • Podłączysz serwer MCP do workflow z OpenAI Responses API oraz do narzędzi typu Claude Code i desktop clients.
  • Będziesz testować i debugować serwery przez MCP Inspector, logi i scenariusze awaryjne zamiast zgadywać, czemu agent nie używa narzędzia.
  • Zaimplementujesz bezpieczne wystawianie narzędzi: auth, approval flow, ograniczenia zakresu działania i minimalizację ryzyka wycieku danych.
  • Wystawisz remote MCP server przez publiczny endpoint HTTP i przygotujesz go do użycia przez zewnętrznych klientów.
  • Złożysz mini-projekt końcowy: agent, który łączy repozytorium, dokumentację i zewnętrzne API w jednym przepływie pracy.
  • Nauczysz się oceniać jakość MCP nie po tym, czy „działa”, ale po tym, czy agent wybiera właściwe narzędzia, zwraca użyteczne wyniki i da się go utrzymać produkcyjnie.

Wymagania wstępne

Biegłość w Pythonie na poziomie codziennej pracy developerskiej, podstawowa znajomość TypeScript/Node.js, doświadczenie z REST/HTTP i JSON, umiejętność pracy z terminalem, Git oraz środowiskiem wirtualnym. Mile widziane: podstawy FastAPI/Express, Docker i dowolny klient AI typu Claude Code, Cursor, VS Code Agent lub własny skrypt korzystający z API.

Program kursu

  • MCP vs function calling vs ręcznie spięte API: trzy architektury na jednym zadaniu agenta
  • Case review: dlaczego agent z samym function calling gubi kontekst narzędzi i uprawnień
  • Checklist decyzyjny: kiedy MCP upraszcza integrację, a kiedy jest overengineeringiem
  • Anatomia ekosystemu MCP: host, client, server, tools, resources, prompts, transports
  • Quiz decyzyjny: wybierz właściwy wzorzec integracji dla 8 scenariuszy produktowych
  • Bootstrap repo: struktura projektu, env, zależności i skrypty dev dla warsztatu MCP
  • Pierwszy server w Pythonie: minimalny FastMCP ze stdio, który naprawdę odpowiada
  • Nie tylko tool: dodanie resource i prompt, żeby agent miał coś więcej niż akcje
  • Pełny artefakt do porównania: słaba vs dobra definicja toola i opis parametrów
  • Pierwsze uruchomienie z klientem lokalnym: co powinieneś zobaczyć, zanim pójdziesz dalej
  • Quiz błędów startowych: rozpoznaj problem po objawie, logu i zachowaniu klienta
  • Framework projektowy dla MCP tools: nazwa, kontrakt wejścia, wynik, błędy, side effects
  • Warsztat kontraktów: przebudowa 3 narzędzi z wersji „demo” do wersji „agent-friendly”
  • Resources jako warstwa kontekstu: kiedy lepsze są URI i odczyt niż kolejny tool
  • Prompts jako gotowe procedury: jak pakować workflow bez twardego kodowania logiki w modelu
  • Krytyka artefaktów: porównanie before/after odpowiedzi agenta na tych samych zadaniach
  • Quiz jakościowy: wskaż, który opis toola zwiększa szansę poprawnego wyboru przez model
  • MCP Inspector od środka: jakie pytania zadasz serwerowi, zanim odpalisz klienta AI
  • Debug sesji lokalnej: enumeracja tools/resources/prompts i weryfikacja capability handshake
  • Praca na błędach: schema mismatch, wyjątek w toolu, zły content type, timeout
  • Za duże odpowiedzi i za dużo tokenów: jak ciąć payload, stronicować i zwracać sensowne wyniki
  • Logi, ślady i checklista reprodukcji: jak zgłaszać błąd MCP tak, by ktoś inny go naprawił
  • Quiz diagnostyczny: dopasuj symptom do najbardziej prawdopodobnej przyczyny
  • Dlaczego drugi przykład w TypeScript nie powinien być kopią Pythona 1:1
  • Budowa serwera w TypeScript: start projektu, SDK, transport i pierwszy tool
  • Przykład integracyjny: serwer dokumentacji/projektu z resource templates i filtrowaniem wyników
  • Porównanie Python vs TypeScript: ergonomia dekoratorów, typy, walidacja i struktura kodu
  • Code review dwóch implementacji: które decyzje przenieść między repozytoriami, a których nie
  • Quiz porównawczy: wybierz lepszy stack dla lokalnego helpera, serwera zespołowego i publicznego endpointu
  • Mapa integracji: lokalny klient MCP, Claude Code, desktop clients i zdalne konektory API
  • OpenAI i MCP w praktyce: jak wpiąć dokumentację i własne narzędzia w workflow z Responses API
  • Claude Code + lokalny serwer: konfiguracja, selekcja narzędzi i approval expectations
  • Desktop client workflow: uruchomienie tego samego serwera w konfiguracji użytkownika końcowego
  • Scenariusz end-to-end: agent czyta resource, odpala tool i składa odpowiedź z cytowalnym kontekstem
  • Quiz integracyjny: wskaż, które ograniczenia wynikają z klienta, a które z serwera
  • Threat model dla MCP: co może pójść źle przy odczycie plików, repo, sekretów i akcjach mutujących
  • Approval flow w praktyce: które operacje wymagają potwierdzenia człowieka i jak to wymusić
  • Auth do remote servera: tokeny, bearer flow i oddzielenie tożsamości użytkownika od serwera
  • Least privilege by design: ograniczanie zakresu repo, endpointów, parametrów i formatów odpowiedzi
  • Przegląd antywzorów: narzędzia z ukrytymi side effects, sekrety w payloadzie, zaufanie do nieoficjalnych proxy
  • Quiz bezpieczeństwa: oceń ryzyko i wybierz minimalny bezpieczny kontrakt narzędzia
  • STDIO vs Streamable HTTP: decyzja transportowa przed deployem i konsekwencje dla architektury
  • Wystawienie remote MCP servera: endpoint publiczny, konfiguracja środowiska i smoke test po deployu
  • Checklist produkcyjny: health checks, limity, obserwowalność, wersjonowanie i rollback
  • Mini-projekt cz. 1: agent do pracy z repo, dokumentacją i zewnętrznym API — plan i kontrakty
  • Mini-projekt cz. 2: implementacja przepływu oraz testy scenariuszy sukcesu i porażki
  • Mini-projekt cz. 3: krytyka wyników, refaktor kontraktów i poprawa jakości odpowiedzi agenta
  • Quiz końcowy: decyzje architektoniczne i debugowe na podstawie jednego case study produkcyjnego

Najczęściej zadawane pytania

Nauczysz się krok po kroku budować produkcyjny ekosystem MCP od pustego repozytorium do działającej integracji dla agentów AI. Uporządkujesz różnice między MCP, function calling i klasycznymi integracjami API, wdrożysz architekturę client-server z tools, resources i prompts, uruchomisz lokalny serwer MCP w Pythonie, stworzysz drugi serwer w TypeScript, a całość przetestujesz i zdebugujesz w MCP Inspector. Kurs ma formę intensywnego warsztatu build-along, więc zamiast samej teorii tworzysz realne komponenty, które można dalej rozwijać w projekcie firmowym.

Bo rynek agentów AI szybko dojrzewa, a interoperacyjność staje się kluczowa. OpenAI pozycjonuje Responses API jako kierunek rozwoju budowy agentów i narzędzi, a Anthropic rozwija Model Context Protocol jako otwarty standard pracy z narzędziami i kontekstem dla agentów. To oznacza, że kompetencje związane z MCP, integracjami narzędzi i bezpiecznym orkiestracją agentów są coraz bardziej praktyczne i poszukiwane, zwłaszcza w zespołach budujących własne workflow AI. Kurs pomaga wejść w ten obszar nie przez ogólne hasła, ale przez implementację działającej architektury.

Zdecydowanie na praktyce. To kurs warsztatowy typu build-along: uczestnik zaczyna od pustego repozytorium i razem z prowadzącym buduje kompletne rozwiązanie. Każdy element — od architektury MCP, przez tworzenie serwera w Pythonie i TypeScript, po testowanie, debugging, bezpieczeństwo i ograniczanie uprawnień — jest wdrażany na żywo. Dzięki temu po kursie masz nie tylko zrozumienie koncepcji, ale też kod, strukturę projektu i wzorce wdrożeniowe, które można wykorzystać we własnych agentach AI.

Dla programistów Pythona, backend developerów, AI engineerów, twórców automatyzacji i osób budujących agentów AI, które chcą wyjść poza proste demo z function calling. Sprawdzi się także dla zespołów produktowych i technicznych, które potrzebują zrozumieć, kiedy wystarczy zwykłe wywołanie funkcji, a kiedy lepiej zaprojektować pełny ekosystem MCP z kontrolą dostępu, approval flow i czytelnym modelem integracji.

Nie. Kurs porządkuje fundamenty od samego początku i pokazuje praktyczne różnice między MCP, function calling oraz klasycznym API. Jeśli znasz podstawy Pythona i rozumiesz, czym są integracje HTTP/API, wejdziesz w materiał płynnie. Jednocześnie tempo i zakres są na tyle konkretne, że również bardziej zaawansowani uczestnicy zyskają gotowe wzorce implementacyjne i lepsze podejście do projektowania agentów.

Głównym językiem jest Python, w którym uruchamiasz lokalny serwer MCP i budujesz praktyczne integracje dla agentów AI. Dodatkowo tworzysz drugi serwer w TypeScript, dzięki czemu rozumiesz, jak projektować środowisko wielojęzyczne i jak przenosić wzorce między stackami. W kursie pojawia się też MCP Inspector do testów i debugowania oraz zagadnienia związane z bezpieczeństwem, kontrolą uprawnień i przepływami akceptacji.

Tak — i to jest jedna z jego najmocniejszych stron. Oprócz samego uruchomienia serwera uczysz się dodawać mechanizmy bezpieczeństwa, approval flow oraz ograniczania uprawnień. To szczególnie ważne dziś, gdy narzędzia agentowe potrafią wykonywać akcje w systemach zewnętrznych, a platformy takie jak OpenAI rozwijają coraz bardziej zaawansowane narzędzia i pętle orkiestracji agentów. Kurs pokazuje więc nie tylko jak coś podłączyć, ale jak zrobić to odpowiedzialnie i w sposób gotowy do dalszego rozwoju.

Function calling uczy model wywoływać konkretne funkcje, ale MCP wprowadza szerszy, bardziej uporządkowany model współpracy agenta z narzędziami, zasobami i promptami. W praktyce oznacza to lepszą skalowalność integracji, czytelniejszą architekturę client-server i większą przewidywalność rozwoju środowiska agentowego. Ten kurs nie kończy się na pojedynczym wywołaniu narzędzia — pokazuje, jak zaprojektować cały ekosystem integracyjny, testować go w MCP Inspector i rozwijać w realnych zastosowaniach.

MCP w praktyce: budowa serwerów i integracji dla AI agentów w Pythonie
179,00 PLN
  • 12 godzin
  • Średniozaawansowany
  • Certyfikat po ukończeniu
  • Dostęp natychmiast po zakupie

Korzystamy z plikow cookies, aby zapewnic najlepsza jakosc uslug. Szczegoly w polityce cookies