MCP Servers: de USB-poort voor je AI-agent
AI-agents worden steeds krachtiger maar ze missen context. Vraag je agent iets over een lopend project, en hij weet niet welke taken er open staan. Vraag hem iets over jouw interne systemen, en hij heeft geen toegang tot die data. Die context zit verspreid over tientallen applicaties: je projecttool, je documentatieplatform, je ticketsysteem. Een API koppelen helpt, maar levert inconsistente resultaten afhankelijk van wie de integratie bouwt. Dat is exact het gat dat MCP-servers dichten.
Snelle links 🔗:
Wat is MCP?
Elke gebruikersgroep heeft zijn eigen interface. Mensen werken met een grafische user interface knoppen, schermen, visuele feedback. Machines spreken via een API. En AI-agents? Die communiceren via een MCP-server.
MCP staat voor Model Context Protocol, een open standaard die door Anthropic werd gelanceerd en ondertussen omarmd door Microsoft, OpenAI, Google en eigenlijk alle grote spelers. Waar een traditionele API simpelweg functies aanbiedt, voegt een MCP-server daar een cruciale laag aan toe: gestructureerde context over wat elke functie doet en hoe die correct gebruikt moet worden.
USB als universeel protocol
USB is precies wat de naam zegt: een universele standaard. Jouw laptop hoeft niet te weten of er een harde schijf, een muis, een scherm of een dockingstation aansluit het protocol regelt de handshake, de communicatie, de context. Het apparaat meldt zichzelf aan: “ik ben een opslagapparaat, dit zijn mijn mogelijkheden, zo communiceer je met mij.”
MCP doet hetzelfde voor AI-agents. Een agent hoeft niet vooraf geprogrammeerd te zijn voor elke tool. De MCP-server meldt zichzelf aan: “ik ben een CRM-koppeling, dit zijn mijn functies, zo roep je ze correct aan.”
De dockingstation-laag
Dat is eigenlijk de mooiste parallel. Een dockingstation is op zichzelf geen eindbestemming het is een aggregator van interfaces. Je plugt één kabel in, en plots heb je toegang tot schermen, netwerk, opslag, audio. Een MCP-server kan precies die rol spelen: één gestandaardiseerde ingang voor een agent, met achterliggend toegang tot meerdere systemen.
Waarom niet gewoon een API?
Een API is krachtig, maar de kwaliteit van de integratie hangt volledig af van de persoon die hem implementeert. Iemand met diepgaande kennis van de API bouwt een robuuste koppeling. Iemand die minder vertrouwd is met de endpoints, struikelt over parameters, foutafhandeling en authenticatie. De uitkomst: twee identieke API’s met radicaal andere resultaten
Klassieke API-integratie
- Kwaliteit afhankelijk van de implementator
- Geen gestandaardiseerde tool-context
- Elke agent bouwt zijn eigen koppeling
- Moeilijk te onderhouden bij API-wijzigingen
- Geen native agent-begrip van de functies
MCP-integratie
- Eén server, consistente output voor iedereen
- Tools worden automatisch ontdekt op runtime
- Plug-and-play voor elke compatibele agent
- Beschrijvingen sturen het gedrag van de agent
- Secure by design met OAuth, API keys, Managed Identity
MCP lost dit op door de organisatie zelf de tools te laten definiëren inclusief beschrijvingen, voorbeeldrequests en prompttemplates. Iedereen die daarna die MCP-server integreert, krijgt exact dezelfde, betrouwbare werking.
"MCP maakt agent-functionaliteit een soort van plug-and-play. Het is de USB-poort voor AI-agents."
Wat doet een MCP-server?
Tools
Concrete acties zoals een bestand lezen, een e-mail versturen of data ophalen uit een extern systeem.
Resources
Gedeelde documenten, configuraties of datasets die de agent kan raadplegen als context
Prompttemplates
Vooraf gedefinieerde prompts die de maker toevoegt om de agent optimaal te sturen bij specifieke taken.
Request samples
Voorbeeldaanvragen zodat de agent begrijpt hoe elke tool correct moet worden aangeroepen.
Logging
Gedetailleerde logs zodat je precies ziet wat er misgaat wanneer een tool niet het verwachte resultaat geeft.
Security layer
Authenticatie via OAuth, API keys of Managed Identity zodat alleen geautoriseerde gebruikers toegang krijgen
Een MCP-server bundelt meerdere lagen die samen een rijke interface vormen voor je AI-agent
STDIO vs. Streamable HTTP
Er bestaan twee fundamenteel verschillende types MCP-servers, met dezelfde functionaliteit maar een andere uitrolstrategie:
STDIO (Standard Input/Output)
- Draaien lokaal op de machine van de gebruiker
- Ideaal voor filesystem-servers of lokale tools
- Worden niet ondersteund door Copilot Studio
Streamable HTTP
- Gehost in de cloud, bereikbaar via internet
- Schaalbaar en multi-tenant beschikbaar
- Volledig ondersteund in Copilot Studio
Wil je bestaande STDIO-servers inzetten binnen Copilot Studio? Dan zet je ze eenvoudig om naar een Streamable HTTP server bijvoorbeeld door ze te hosten in Azure Functions. Dat is precies wat wij deden met een publieke DevOps MCP-server om die bruikbaar te maken binnen de Copilot Studio-omgeving.
Vendor-managed vs. self-hosted
Naast het technische onderscheid tussen STDIO en Streamable HTTP is er een tweede, meer strategische keuze: wie beheert de MCP-server?
Vendor-managed
- Aangeboden door leveranciers zoals Microsoft of andere SaaS-vendoren
- Technisch minder complex, snel operationeel
- Geen controle over implementatie, updates of authenticatie
- Ideaal om snel te starten of te experimenteren
Self-hosted
- Volledige controle over welke tools en functies beschikbaar zijn
- Koppeling met elke databron: interne API's, datawarehouses, legacy-systemen, databases
- Zelf beheer van toegangsrechten en security
- De meest toekomstgerichte keuze voor organisaties die AI strategisch inzetten
Veel organisaties starten met vendor-managed MCP-servers om het concept te leren kennen, en bouwen daarna stapsgewijs zelf-gehoste servers voor hun kritieke bedrijfsprocessen. De twee sluiten elkaar niet uit je kunt ze perfect naast elkaar draaien in Copilot Studio.
Veilig hosten in Azure
Azure biedt meerdere opties om je MCP-server te hosten, elk met hun eigen trade-offs op vlak van schaalbaarheid, beheer en kosten.
Azure Functions
Serverless, kostenefficiënt, ideaal voor event-driven MCP-endpoints
Container Apps
Maximale flexibiliteit voor complexere, containerized MCP-servers
Azure App Service
Managed hosting met ingebouwde schaalbaarheid en deployment slots
Azure Kubernetes Service
Voor enterprise-schaal orchestratie van meerdere MCP-services
Een voorbeeld: Microsoft Learn MCP-server
De server stelt drie tools beschikbaar
Een mooi voorbeeld van een productie-MCP-server is de Microsoft Learn MCP Server, gelanceerd in juni 2025. Het doel was simpel: AI-agents toegang geven tot betrouwbare, actuele Microsoft Learn-documentatie op dezelfde manier als mensen in een browser zoeken, maar dan agent-native.
microsoft_docs _search
Geeft titels, inhoudssecties en URL’s terug op basis van een zoekopdracht.
microsoft_docs_ fetch
Haalt het volledige artikel op voor extra context en grounding.
microsoft_code _sample_search
Geoptimaliseerd voor het vinden van codevoorbeelden binnen de Learn-documentatie.
De server draait op Microsoft Azure en gebruikt dezelfde kennisbron als Microsoft Learn zelf (zoals “Ask Learn”). Daardoor krijgen agents altijd actuele, goed gefilterde en relevante informatie, met een brede dekking van alle beschikbare content.
Een praktisch voorbeeld
Stel je voor: je bent projectmanager en je team werkt in Azure DevOps. In plaats van aan iedereen afzonderlijk te vragen waar het project staat, vraag je het gewoon aan je agent: “Welke epics staan er nog open in sprint 4? Welke taken zijn geblokkeerd?” en je krijgt een overzicht met directe links naar je DevOps-omgeving.
Of een developer die niet meer switcht tussen zijn IDE en een browsertabblad vol documentatie. De Learn MCP Server brengt de officiële Microsoft-documentatie rechtstreeks naar de agent in zijn development environment.
Dat is de kracht van MCP: context die vóór niet beschikbaar was, wordt nu native toegankelijk voor je AI-agent. En omdat het een open standaard is, bouw je vandaag iets wat morgen werkt met elke MCP-compatibele agent op de markt.