Bahnhof St. Gallen Dach
KI-Agentent mit MCP, Human Review und Guardrails

KI-Workflows und Agents – v2

Ausgangslage

Seit der ersten Version unseres Agenten für SentinelOne hat sich die Technologie rasant weiterentwickelt. Während wir damals mit einzelnen Tools und einem Sub-Workflow arbeiteten, setzen wir heute auf MCP (Model Context Protocol), erweiterte Human Review Nodes und Guardrails, um die Flexibilität, Sicherheit und Zuverlässigkeit unserer Workflows zu steigern.

MCP als zentrale Schnittstelle

Was ist MCP?

Das Model Context Protocol (MCP) ist ein offener Standard, der die Kommunikation zwischen KI-Modellen und externen Tools standardisiert. Statt jedes Tool einzeln zu konfigurieren, bietet ein MCP Server eine vereinheitlichte Schnittstelle für alle integrierten Dienste.

Praktische Umsetzung

In unserem aktualisierten SentinelOne-Agenten ersetzt der MCP-Server die bisherigen einzelnen Tools. Statt vier separater Nodes für jeden API-Call kommuniziert der Agent nun über den MCP Client Node mit dem MCP Server, der mehrere Funktionen bündelt. Das vereinfacht den Aufbau des Workflows und macht ihn skalierbarer.

sentinelone mcp


MCP Server werden noch nicht von jedem Hersteller vergleichbar mit einer REST oder GraphQL API als Service angeboten. Im Falle von SentinelOne wird der Server zum aktuellen Zeitpunkt selbst gehostet. Atlassian bietet mit dem Atlassian Rovo MCP Server bereits einen Service an.

Human Review Node

Im ersten Artikel nutzten wir für den Approval einen eigenen Workflow für die Deaktivierung von Agents. Heute setzen wir auf einen erweiterten Human Review Node, der es ermöglicht gleich für mehrere mögliche Aktionen zuerst einen Approval einzuholen.

human review

Testlauf

Der Agent nutzt den MCP-Server, um Daten aus SentinelOne abzurufen – formatiert und mit weiteren Informationen.

winclient1 status

Der Human Review Node prüft den Kontext und sendet die Genehmigungsanfrage.

winclient1 deaktivierung

Guardrails

Ein häufiges Problem bei KI-Agenten sind falsche oder missbräuchliche Eingaben – sei es durch Tippfehler, unvollständige Daten oder böswillige Absichten. Mit Input-Guardrails setzen wir klare Regeln für die Interaktion.

guardrails node

Im vorliegenden Falle verletzt eine Eingabe die Guardrails, wenn das Wort aushebeln benutzt wird.

guardrails result

Fazit

Die Einführung des Model Context Protocol (MCP) vereinfacht die Interaktion mit dem KI-Agenten deutlich, da viele bisher manuell zu definierende Tools, Beschreibungen und API-Calls entfallen. Allerdings birgt MCP auch Risiken: Durch neue Funktionen oder Updates könnte der Agent plötzlich Fähigkeiten entwickeln, die über den geplanten Einsatz hinausgehen – eine regelmässige Überprüfung der verfügbaren Funktionen ist daher unerlässlich.

Der Human Review Node macht den Freigabeprozess flexibler, indem er die Kombination mehrerer Tools an einem Node oder die Nutzung verschiedener Nodes für unterschiedliche Freigabestufen ermöglicht. Dies erlaubt eine präzisere Anpassung an individuelle Workflows und Verantwortlichkeiten.

Der Guardrail Node fungiert als Sicherheitsinstanz und agiert wie eine Firewall für den Chat, um unerwünschte Anfragen oder Aktionen zu blockieren. Dennoch bleiben Fragen zur Datenhoheit weiterhin relevant: Es muss klar geregelt werden, welche Daten zwischen Chat-Modell, Tools und Memory ausgetauscht werden und ob diese für das Training des Modells genutzt werden dürfen, um Compliance- und Datenschutzanforderungen vollständig zu erfüllen.

Info

  • MCP vereinfacht die Nutzung verschiedener Tools
  • Human Review wird vereinfacht
  • Guardrails für einfache Sicherheitsfeatures

 

Dieser Beitrag basiert auf unserem ersten Artikel Eigene KI-Workflows und Agents vom März 2025.