Zum Inhalt springen

Model Context Protocol – wie KI-Modelle mit Tools und Daten verbunden werden

Sprachmodelle sind leistungsstark – aber ohne Anbindung an interne Systeme bleiben sie Insellösungen. Das Model Context Protocol (MCP) schließt diese Lücke. Was dahintersteckt, wo es hilft und worauf Organisationen achten sollten.


27. 04. 2026

Wer im Arbeitsalltag mit KI-Sprachmodellen arbeitet, kennt den Ablauf: Daten werden aus Sharepoint, Excel oder Google zusammengesucht, in das Chat-Fenster kopiert und der Output wird wieder in MS Planner, eine E-Mail oder ein Dokument übertragen. So nützlich Sprachmodelle auch sind – ohne direkten Zugang zu internen Systemen und aktuellen Daten bleiben sie Insellösungen. Genau diese Herausforderung zu bewältigen war der Ausgangspunkt des Civic Data Lab Espresso-Talks vom 23. April, in dem Jens Preußner das Model Context Protocol (MCP) vorstellte.

Was ist eigentlich MCP?

MCP ist ein offener Standard, der von Anthropic entwickelt wurde, um Sprachmodelle strukturiert mit externen Anwendungen und Datenquellen zu verbinden. Eine gute Analogie ist: MCP funktioniert wie ein USB-Hub für Sprachmodelle. So wie ein USB-Hub verschiedene Geräte an einen Computer anschließt, verbindet MCP ein Sprachmodell mit Tools wie Slack, Google-Diensten oder internen Datenbanken – ohne dass für jede Verbindung eine eigene, aufwendige Integration entwickelt werden müsste.

Technisch gesehen besteht die Architektur aus drei Bausteinen:

  • MCP-Host: Die KI-Anwendung selbst (z. B. Claude oder Codex), die Anfragen stellt.
  • MCP-Client: Die Komponente im Host, die die Verbindung zum MCP-Server aufbaut.
  • MCP-Server: Die Gegenstelle, die mit den eigentlichen Anwendungen und Datenquellen kommuniziert – und zwar in beide Richtungen.

Die Verbindung zwischen Client und Server erfolgt entweder lokal über stdio-Datenströme oder remote über eine HTTPS-Verbindung.

Innerhalb eines MCP-Servers gibt es drei zentrale Bausteine: Tools (ausführbare Funktionen wie Dateioperationen oder API-Aufrufe), Ressourcen (Datenquellen, die dem Modell Kontextinformationen liefern, z. B. Dateiinhalte oder Datenbankabfragen) sowie Prompt Templates (wiederverwendbare Vorlagen, die helfen, Interaktionen mit dem Sprachmodell zu strukturieren). Das Sprachmodell erhält über MCP die Beschreibung der Bausteine und kann dann je nach Bedarf Tools, Ressourcen oder Prompt Templates abrufen.

Was sind konkrete Anwendungsfälle für Non-Profit-Organisationen?

Jens stellte uns drei praxisnahe Use Cases in seinem Vortrag vor, die sich besonders für wiederkehrende Aufgaben eignen:

  1. Quartalsweise Datenauswertung: Ein Sprachmodell analysiert aktuelle Geschäftszahlen und erstellt daraus automatisiert einen Report – gesteuert durch ein vordefiniertes Prompt-Template mit klaren Zielen und einem Tool, das die Quartalsdaten abruft.
  2. Erstellung von Dienstplänen: Aus Mitarbeiteranwesenheiten und organisatorischen Rahmenbedingungen generiert das Modell einen fertigen Dienstplan. Inputs sind Kalenderwoche und Jahr, das entsprechende Tool ruft die Anwesenheitsdaten ab.
  3. Berichte für Fördermittelgeber: Auf Basis einer bestehenden Vorlage und dokumentierten Projektaktivitäten erstellt das Modell strukturierte Förderberichte – reduzierter manueller Aufwand bei gleichbleibender Qualität.

Worauf man unbedingt achten sollte!

MCP ist kein Allheilmittel, und Jens machte deutlich, dass es einige wichtige Einschränkungen und Risiken zu kennen gilt.

Das Context-Window: Sprachmodelle verarbeiten nur eine begrenzte Menge an Informationen gleichzeitig (Tokens). Werden zu viele Tools über MCP an das Sprachmodell angebunden – beispielsweise mehr als 100 – kann bereits ein erheblicher Teil des verfügbaren Kontextfensters allein durch die Tool-Beschreibungen belegt sein, bevor die eigentliche Aufgabe beginnt. Die Kapazität reicht folglich häufig nicht aus, um eine Anwendung vollständig durchzuführen.

MCP vs. direkte API-Aufrufe: Sprachmodelle sind mittlerweile sehr gut darin, Anweisungen direkt zu folgen. Direkte Aufrufe können in einfachen Szenarien die schlankere Lösung sein. MCP macht besonders dann Sinn, wenn Tool-Chains komplexer werden, Authentifizierungen erforderlich sind oder keine eigene API vorhanden ist.

Datenschutz: Daten, die über MCP-Server fließen, verlassen unter Umständen die eigene Infrastruktur. Für sensible Informationen – etwa Dienstpläne mit Personaldaten – empfiehlt sich das Deployment einer lokalen Lösung, z. B. Open WebUI über Docker mit lokalen Modellen. Alternativ gibt es für in der EU operierende Organisationen sogenannte EU-Router, die sicherstellen, dass Daten im europäischen Rechtsraum verbleiben.

Achtung: Auf vertrauenswürdige Quellen achten! Bestehende MCP-Server sollten nur aus vertrauenswürdigen Quellen eingebunden werden. Untersuchungen von öffentlich zugänglichen MCP-Servern finden regelmäßig etliche Sicherheitsrisiken, die von Angreifern im schlimmsten Fall genutzt werden können, um sensible Daten, wie z.B. Passwörter oder personenbezogene Daten, abzugreifen.

Was können erste Schritte in der eigenen Organisation sein?

Wer MCP ausprobieren möchte, kann mit drei überschaubaren Schritten starten:

  1. Einen MCP-fähigen Host auswählen – z. B. Claude Code oder Microsoft Copilot.
  2. Ein einfaches Zielsystem identifizieren (CRM, Projektmanagement-Tool) oder eine mehrteilige Aufgabe über verschiedene Systeme. Als Einstieg eignen sich webbasierte Systeme besonders gut.
  3. Einen vertrauenswürdigen MCP-Server nutzen oder einen eigenen aufsetzen.

Lokal lässt sich MCP z. B. über Claude Desktop einrichten, wo MCP-Server über Extensions oder JSON-Konfigurationen eingebunden werden. Für Systemadministratoren besteht die Möglichkeit, Einstellungen auf verschiedenen Ebenen zu definieren und so zu vermeiden, dass Kontextinformationen unkontrolliert zwischen Bereichen „schwimmen“.

Fazit

MCP ist kein Hype-Thema ohne Substanz – aber auch keine fertige Lösung von der Stange. Es ist ein sehr hilfreiches und sinnvolles Werkzeug, das allerdings gut überlegt eingesetzt werden muss: mit Blick auf Datenschutz, Komplexität und die tatsächlichen Anforderungen der eigenen Organisation. Für Non-Profits, die wiederkehrende Datenprozesse vereinfachen oder vorhandene Systeme besser nutzbar machen wollen, bietet MCP einen vielversprechenden Ansatz.

Der Espresso Talk „Model Context Protocol (MCP) – Wie der neue Standard KI-Anwendungen mit Daten und Tools verbindet“ mit Jens Preußner fand am 23. April von 12 bis 12.30 Uhr statt. Den Espresso-Talk könnt Ihr hier im Video nachschauen. Mehr Informationen zu unseren Espresso Talks und die nächsten Themen findet Ihr bei HumHub.

Jens Preußner (er/ihm)

Generalist mit einem Doktortitel in Bioinformatik und vielfältigen Interessen, u.a. in den Bereichen Datenwissenschaften. Kontakt in HumHub

Präsentation MCPs in NGOs

Autor*in

Stephanie Agethen (sie/ihr)

Kommunikation Kontakt in HumHub

Mehr aus dem Blog

  • #CDL News
  • #Lernen
  • #Machen
  • #Vernetzen

Espresso-Talk: Einstieg ins Web-Scraping

Im Rahmen des Espresso-Talks beleuchtete Datenwissenschaftler Benjamin Senst das Thema Web-Scraping. Die Veranstaltung bot einen fundierten Überblick über die Grundlagen, die technischen Hintergründe und die Einsatzmöglichkeiten dieser Technologie. Der Fokus lag darauf, den Community-Mitgliedern die Potenziale und Herausforderungen des Web-Scrapings verständlich zu machen.
Weiterlesen
  • #CDL News
  • #Vernetzen

Espresso-Talk: Künstliche Intelligenz in Nichtregierungsorganisationen

In unserer vergangenen Ausgabe des Espresso-Talks konnten wir Maximilian Schultz und Franziska Hauer als Gast in der Civic Data Lab Community begrüßen. Sie gaben uns spannende Einblicke in ihr Forschungsprojekt „KINiro – Künstliche Intelligenz in NROs“ am Institut für Sozialforschung und Technikfolgenabschätzung (IST) der OTH Regensburg. Gemeinsam mit ihnen ging es über die von ihnen durchgeführte neue Studie zu Bedarf, Akzeptanz und Umsetzungsmöglichkeiten von KI in Nichtregierungsorganisationen (NROs) .
Weiterlesen
  • #CDL News
  • #Gastbeiträge

Wo sind die Daten der Zivilgesellschaft? Ein Portal, das Antworten gibt.

Gemeinnützige Organisationen, Vereine und Stiftungen erheben ständig Daten. Umfragen, Messwerte, Projektberichte – ein riesiges Reservoir an Wissen, das täglich entsteht. Und trotzdem: Wer nach diesen Daten sucht, tappt oft im Dunkeln. Die Datensätze existieren, aber sie sind dezentral verteilt, gar nicht veröffentlicht, schwer auffindbar oder und damit für andere praktisch unsichtbar.
Weiterlesen