Ausgangslage
Seit der ersten Version unseres Agenten für SentinelOne hat sich die Technologie rasant weiterentwickelt. Während wir damals mit einzelnen Tools und einem Sub-Workflow arbeiteten, setzen wir heute auf MCP (Model Context Protocol), erweiterte Human Review Nodes und Guardrails, um die Flexibilität, Sicherheit und Zuverlässigkeit unserer Workflows zu steigern.
MCP als zentrale Schnittstelle
Was ist MCP?
Das Model Context Protocol (MCP) ist ein offener Standard, der die Kommunikation zwischen KI-Modellen und externen Tools standardisiert. Statt jedes Tool einzeln zu konfigurieren, bietet ein MCP Server eine vereinheitlichte Schnittstelle für alle integrierten Dienste.
Praktische Umsetzung
In unserem aktualisierten SentinelOne-Agenten ersetzt der MCP-Server die bisherigen einzelnen Tools. Statt vier separater Nodes für jeden API-Call kommuniziert der Agent nun über den MCP Client Node mit dem MCP Server, der mehrere Funktionen bündelt. Das vereinfacht den Aufbau des Workflows und macht ihn skalierbarer.

MCP Server werden noch nicht von jedem Hersteller vergleichbar mit einer REST oder GraphQL API als Service angeboten. Im Falle von SentinelOne wird der Server zum aktuellen Zeitpunkt selbst gehostet. Atlassian bietet mit dem Atlassian Rovo MCP Server bereits einen Service an.
Human Review Node
Im ersten Artikel nutzten wir für den Approval einen eigenen Workflow für die Deaktivierung von Agents. Heute setzen wir auf einen erweiterten Human Review Node, der es ermöglicht gleich für mehrere mögliche Aktionen zuerst einen Approval einzuholen.

Testlauf
Der Agent nutzt den MCP-Server, um Daten aus SentinelOne abzurufen – formatiert und mit weiteren Informationen.

Der Human Review Node prüft den Kontext und sendet die Genehmigungsanfrage.

Guardrails
Ein häufiges Problem bei KI-Agenten sind falsche oder missbräuchliche Eingaben – sei es durch Tippfehler, unvollständige Daten oder böswillige Absichten. Mit Input-Guardrails setzen wir klare Regeln für die Interaktion.

Im vorliegenden Falle verletzt eine Eingabe die Guardrails, wenn das Wort aushebeln benutzt wird.

Fazit
Die Einführung des Model Context Protocol (MCP) vereinfacht die Interaktion mit dem KI-Agenten deutlich, da viele bisher manuell zu definierende Tools, Beschreibungen und API-Calls entfallen. Allerdings birgt MCP auch Risiken: Durch neue Funktionen oder Updates könnte der Agent plötzlich Fähigkeiten entwickeln, die über den geplanten Einsatz hinausgehen – eine regelmässige Überprüfung der verfügbaren Funktionen ist daher unerlässlich.
Der Human Review Node macht den Freigabeprozess flexibler, indem er die Kombination mehrerer Tools an einem Node oder die Nutzung verschiedener Nodes für unterschiedliche Freigabestufen ermöglicht. Dies erlaubt eine präzisere Anpassung an individuelle Workflows und Verantwortlichkeiten.
Der Guardrail Node fungiert als Sicherheitsinstanz und agiert wie eine Firewall für den Chat, um unerwünschte Anfragen oder Aktionen zu blockieren. Dennoch bleiben Fragen zur Datenhoheit weiterhin relevant: Es muss klar geregelt werden, welche Daten zwischen Chat-Modell, Tools und Memory ausgetauscht werden und ob diese für das Training des Modells genutzt werden dürfen, um Compliance- und Datenschutzanforderungen vollständig zu erfüllen.