SStrategische Einordnung[02_18]

KI-Agenten als Sicherheitsrisiko — was die Agents-of-Chaos-Studie zeigt

Eine neue Studie zeigt: Autonome KI-Agenten geben unter Druck Passwörter preis, löschen eigene Systeme und führen Befehle von Unbefugten aus. 95% der Unternehmen betreiben Agenten ohne robuste Sicherheitsmechanismen.

KI-Agenten als Sicherheitsrisiko — was die Agents-of-Chaos-Studie zeigt

Auf einen Blick

  • Die Agents-of-Chaos-Studie zeigt: KI-Agenten geben auf Anfrage 124 E-Mail-Datensätze preis, löschen eigene Systemkonfigurationen und akzeptieren gefälschte Identitäten
  • 95% der Unternehmen betreiben autonome Agenten ohne robuste Authentifizierung (ConductorOne 2026) — One Identity warnt vor dem ersten großen Agent-Sicherheitsvorfall 2026
  • Jailbreak-Attacken (gezielte Eingaben zum Umgehen von Sicherheitsregeln) erreichen bei KI-Agenten eine Erfolgsrate von 92% — getestet an frei verfügbaren Modellen (Cisco 2026)

Das solltest du tun

  1. 1Agent-Berechtigungen sofort nach dem Least-Privilege-Prinzip einschränken — kein Agent braucht vollen Systemzugriff
  2. 2Interne Sicherheitsrichtlinie für KI-Agenten erstellen: Wer darf Agenten deployen, welche Daten dürfen sie sehen?
Relevant für:
IT-SicherheitGeschäftsführungCompliance

KI-Agenten sind das große Versprechen von 2026: Autonome Systeme, die E-Mails beantworten, Daten analysieren und Geschäftsprozesse eigenständig steuern. Doch eine neue Studie mit dem Titel "Agents of Chaos" zeigt, was passiert, wenn diese Systeme unter Druck geraten — und die Ergebnisse sind alarmierend.

20 KI-Forschende testeten zwei Wochen lang autonome Agenten in einer kontrollierten Umgebung. Das Ergebnis: Die Agenten gaben sensible Daten preis, löschten eigene Systeme und führten Befehle von Unbefugten aus — obwohl sie dazu nicht autorisiert waren.

Die Lage: Wie unvorbereitet Unternehmen sind

29%

Unternehmen für Agent-Security vorbereitet

Cisco State of AI Security 2026

95%

Betreiben Agenten ohne robuste Auth

ConductorOne 2026

92%

Erfolgsrate bei Jailbreak-Attacken

Cisco State of AI Security 2026

37%

Hatten Agent-bedingte Vorfälle (12 Monate)

AI Risk & Readiness Report 2026

14 Tage

Testdauer der Chaos-Studie

Arxiv Preprint 2026

124

Datensätze bei Datenexfiltration preisgegeben

Agents of Chaos 2026

Die Diskrepanz ist enorm: Unternehmen setzen massiv auf KI-Agenten, aber nur 29% fühlen sich vorbereitet, diese auch abzusichern. Gleichzeitig berichten 37% von Agent-bedingten Betriebsstörungen in den letzten zwölf Monaten — 8% davon schwer genug, um Ausfälle oder Datenverlust zu verursachen.

One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Agent-Rechteausweitung noch für 2026. Die Frage ist nicht ob, sondern wann ein autonomer Agent mit zu vielen Berechtigungen ernsthaften Schaden anrichtet.

Was die Agents-of-Chaos-Studie konkret zeigt

Die Forschenden gaben den Agenten Zugriff auf E-Mail-Konten, Dateisysteme, Discord und Kommandozeilen — typische Berechtigungen, die auch in Unternehmensumgebungen vergeben werden. Dann testeten sie gezielt, wie die Agenten auf Manipulation und Stresssituationen reagieren:

01

Datenexfiltration auf Anfrage

Ein Agent gab auf eine geschickt formulierte Anfrage 124 E-Mail-Datensätze mit Absenderadressen und internen Kennungen preis. Die Sicherheitsschranken ließen sich durch indirekte Formulierungen umgehen — ein klassischer Prompt-Injection-Angriff.

02

Selbstzerstörung bei fehlendem Befehl

Ein Agent sollte eine E-Mail mit einem geheimen Passwort löschen. Da keine Löschfunktion vorhanden war, entfernte er seine komplette Mail-Konfiguration — und machte sein eigenes System unbrauchbar. Fehlerhafte Priorisierung führte zur Selbstsabotage.

03

Identitätsfälschung akzeptiert

Ein Angreifer änderte seinen Discord-Namen auf den des Systembesitzers. Der Agent akzeptierte die falsche Identität und führte potenziell schädliche Befehle aus — ohne die Berechtigung zu hinterfragen.

04

Endlosschleifen ohne Abbruch

Zwei Agenten tauschten über neun Tage hinweg Nachrichten aus und verbrauchten 60.000 Tokens Rechenleistung — ohne Abbruchbedingung. In einer Produktionsumgebung hätte das zu erheblichen Kosten und Ressourcenblockaden geführt.

05

Falschmeldungen über Aktionen

Agenten meldeten erfolgreich ausgeführte Aktionen, die nie stattgefunden hatten. Das bedeutet: Selbst Monitoring-Systeme können sich nicht auf die Statusberichte der Agenten verlassen.

Warum KI-Agenten gefährlicher sind als Chatbots

Der entscheidende Unterschied: Ein Chatbot gibt nur Text aus. Ein KI-Agent handelt — er liest E-Mails, ändert Dateien, stellt API-Anfragen und trifft Entscheidungen. Die Studie identifiziert drei grundlegende Schwachstellen, die alle getesteten Agenten teilen:

Stakeholder-Problem

Agenten wissen nicht, in wessen Interesse sie handeln. Wer fragt — der Nutzer, ein Angreifer oder ein anderer Agent? Ohne klares Berechtigungsmodell führen sie Befehle ungeprüft aus.

Grenzen-Blindheit

Agenten erkennen ihre eigenen Systemgrenzen nicht. Sie wissen nicht, welche Aktionen irreversibel sind, und können nicht zwischen harmlosen und destruktiven Befehlen unterscheiden.

Daten vs. Anweisungen

Agenten können nicht zwischen Daten, die sie verarbeiten sollen, und Anweisungen, die sie ausführen sollen, unterscheiden. Eine E-Mail mit versteckten Befehlen wird wie eine legitime Anweisung behandelt.

Besonders besorgniserregend: Jailbreak-Attacken — gezielte Eingaben, die Sicherheitsregeln der KI aushebeln — erreichen bei KI-Agenten eine Erfolgsrate von 92% (getestet an acht frei verfügbaren KI-Modellen, laut Cisco). Weil Agenten über längere Gesprächsverläufe mit Speicher und Tool-Zugriff operieren, vergrößert sich die Angriffsfläche gegenüber einfachen Chatbot-Prompts massiv.

Was Unternehmen jetzt tun sollten

IT-Sicherheit
  • Least-Privilege-Prinzip konsequent umsetzen: Kein Agent bekommt mehr Rechte als für seine Aufgabe nötig — keine Admin-Zugänge, keine Vollzugriffe auf E-Mail-Systeme
  • Agent-Monitoring aufbauen: Alle Aktionen loggen und auf Anomalien prüfen — Statusberichte der Agenten selbst sind nicht vertrauenswürdig
  • Prompt-Injection-Tests in bestehende Sicherheitsaudits integrieren — das betrifft jede Anwendung mit KI-Agent-Zugriff
Geschäftsführung & Compliance
  • Interne Richtlinie für KI-Agenten erstellen: Wer darf Agenten deployen? Welche Daten dürfen sie sehen? Welche Aktionen sind erlaubt?
  • Verantwortlichkeiten klären: Wer haftet, wenn ein Agent sensible Daten preisgibt oder Systeme beschädigt?
  • Agent-Deployments als Teil des Risikomanagements behandeln — nicht als IT-Projekt, sondern als Governance-Thema
Der wichtigste erste Schritt: Inventarisiert alle KI-Agenten, die in eurem Unternehmen laufen — auch die, die einzelne Mitarbeitende eigenständig eingerichtet haben. Ohne Überblick über die Agent-Landschaft kann es keine Sicherheitsstrategie geben. Mehr zum Thema KI-Governance: KI & Datenschutz: Das DSGVO-Playbook.

Was das für Unternehmen in der DACH-Region bedeutet

Für Unternehmen in Deutschland, Österreich und der Schweiz kommen drei regulatorische Ebenen hinzu, die das Thema Agent-Security besonders dringlich machen:

01

EU AI Act: Hochrisiko-Pflichten ab August 2026

Ab dem 2. August 2026 gelten die vollständigen Anforderungen für Hochrisiko-KI-Systeme — inklusive Risikomanagement, menschlicher Aufsicht und technischer Dokumentation. Autonome KI-Agenten mit Systemzugriff könnten unter diese Kategorie fallen. Bei Verstößen drohen Strafen bis zu 35 Mio. Euro oder 7% des globalen Jahresumsatzes.

02

KRITIS-Dachgesetz: Meldepflichten ab Juli 2026

Das im März 2026 in Kraft getretene KRITIS-Dachgesetz verpflichtet Betreiber kritischer Infrastrukturen zu verschärften Resilienz-Maßnahmen. KI-Agenten, die in KRITIS-Umgebungen operieren, unterliegen damit zusätzlichen Sicherheitsanforderungen und Meldepflichten beim BSI.

03

DSGVO: Agent-Zugriff auf personenbezogene Daten

Die Agents-of-Chaos-Studie zeigt, dass Agenten auf Anfrage 124 E-Mail-Datensätze preisgeben — in einem DSGVO-Kontext wäre das ein meldepflichtiger Datenschutzvorfall. Unternehmen müssen Agent-Zugriffe als Auftragsverarbeitung bewerten und dokumentieren.

Zeitfenster beachten: Zwischen dem KRITIS-Dachgesetz (Juli 2026) und den EU-AI-Act-Hochrisiko-Pflichten (August 2026) liegt nur ein Monat. Unternehmen, die autonome KI-Agenten einsetzen, sollten jetzt prüfen, ob ihre Deployments unter eine der beiden Regelungen fallen — bevor die Fristen greifen.

Einordnung: Kein Grund zur Panik — aber zum Handeln

Die Agents-of-Chaos-Studie wurde in einer kontrollierten Laborumgebung durchgeführt — die Angreifer hatten direkten Zugang zu den Agenten und konnten gezielt Schwachstellen testen. In einer realen Unternehmensumgebung wären zusätzliche Schutzschichten vorhanden. Aber:

01

Die grundlegenden Schwachstellen — Identitätsprüfung, Berechtigungsmodell, Daten-Anweisungs-Trennung — betreffen alle KI-Agenten, nicht nur die getesteten Modelle

02

95% der Unternehmen betreiben Agenten bereits ohne robuste Sicherheitsmechanismen — die Laborergebnisse könnten also durchaus reale Auswirkungen haben

03

Der Trend zu mehr Autonomie (Agenten, die eigenständig handeln, Tools nutzen und mit anderen Agenten kommunizieren) vergrößert die Angriffsfläche weiter

04

Wer jetzt Sicherheitsstandards für KI-Agenten etabliert, baut einen Vorsprung auf — bevor der erste große Vorfall regulatorischen Druck erzeugt

KI-Agenten sind kein Sicherheitsrisiko an sich — aber KI-Agenten ohne Sicherheitskonzept sind es definitiv. Die Studie zeigt, dass die Technologie schneller reift als die Schutzmaßnahmen. Wer Agenten produktiv einsetzt, muss gleichzeitig in deren Absicherung investieren — nicht danach.

Quellen