SCompliance-Playbook[02_05]

KI & Datenschutz

DSGVO, EU AI Act und Enterprise-Compliance – der vollständige Praxisleitfaden

Auf einen Blick

  • Europäischer Datenschutzausschuss (EDPB): KI-Modelle, die mit personenbezogenen Daten trainiert wurden, sind nicht automatisch anonym – jeder Fall muss einzeln geprüft werden
  • EU AI Act und DSGVO arbeiten zusammen: Bis 35 Mio. Euro oder 7 % Umsatz Bußgeld bei Verstößen gegen Anforderungen für Hochrisiko-KI
  • Deutsche Behörden: Klare Checklisten verfügbar – eine Datenschutz-Folgenabschätzung (DPIA) ist bei Hochrisiko-Systemen praktisch immer Pflicht

Das solltest du tun

  1. 1Vertrag zur Auftragsverarbeitung (DPA) mit allen KI-Anbietern abschließen – ohne diesen Vertrag ist die Nutzung nicht DSGVO-konform
  2. 2Datenschutz-Folgenabschätzung (DPIA) für alle Hochrisiko-KI-Systeme durchführen (Persönlichkeitsprofile, Bewertungen, Personalentscheidungen)
  3. 3Schutzmaßnahmen nach Artikel 22 einführen: Menschliche Überprüfung, Erklärbarkeit der KI-Entscheidung, Widerspruchsrecht für Betroffene
Relevant für:
DatenschutzbeauftragteITGeschäftsführung

78 % der Unternehmen nutzen bereits KI – aber nur 14 % haben ihren Datenschutz vollständig angepasst. Das bedeutet: 4 von 5 Unternehmen nutzen KI, aber nur jedes siebte ist rechtlich auf der sicheren Seite. Die Konsequenzen: 2025 stiegen Bußgelder im Gesundheitswesen auf durchschnittlich 203.000 Euro pro Verstoß – hauptsächlich wegen fehlender Datenschutz-Folgenabschätzungen bei KI-Systemen.

Seit Februar 2025 ist der EU AI Act teilweise in Kraft. In Kombination mit der DSGVO entstehen neue Compliance-Anforderungen, die viele Unternehmen noch nicht auf dem Schirm haben. Dieses Playbook zeigt, was jetzt zu tun ist.

Die neue Regulierungslandschaft 2025

Zwei Regulierungen, ein Ziel: Der EU AI Act und die DSGVO arbeiten komplementär – aber mit unterschiedlichen Perspektiven.

DSGVO

Fundamentalrechts-Gesetz: Gibt Individuen weitreichende Rechte über ihre personenbezogenen Daten.

  • • Fokus: Betroffene Personen und ihre Rechte
  • • Adressaten: Verantwortliche (die entscheiden, was mit Daten passiert) und Auftragsverarbeiter (die Daten im Auftrag verarbeiten)
  • • Sanktionen: Bis 20 Mio. Euro / 4 % Umsatz

EU AI Act

Produktsicherheits-Gesetz: Stellt sicher, dass KI-Systeme technisch sicher entwickelt und eingesetzt werden.

  • • Fokus: Sichere KI-Entwicklung und -Nutzung
  • • Adressaten: Anbieter (die KI entwickeln) und Betreiber (die KI einsetzen)
  • • Sanktionen: Bis 35 Mio. Euro / 7 % Umsatz

"Der EU AI Act erwähnt die DSGVO mehr als 30 Mal. Die beiden Gesetze sind darauf ausgelegt, Hand in Hand zu funktionieren." – Taylor Wessing Global Data Hub

Wichtige Überschneidungen

Bias & Diskriminierung

Beide Regulierungen adressieren faire Datenverarbeitung

Risikobewertungen

Datenschutz-Folgenabschätzung (DSGVO) + Grundrechte-Folgenabschätzung (AI Act) bei Hochrisiko-KI

Automatisierte Entscheidungen

Art. 22 DSGVO + menschliche Aufsicht (AI Act)

Timeline: Was gilt wann?

Februar 2025: Verbote in Kraft

Unacceptable Risk Systeme verboten: Social Scoring, manipulative Techniken, biometrische Echtzeit-Überwachung. AI Literacy Pflicht für Anbieter.

Q3

August 2025: GPAI-Anforderungen

Anforderungen für General-Purpose AI Modelle (wie GPT-4, Claude) treten in Kraft.

August 2026: High-Risk vollständig durchsetzbar

Alle Anforderungen für High-Risk-Systeme: Risk Management, technische Dokumentation, FRIA, Human Oversight, EU-Datenbank-Registrierung.

EDPB Opinion 28/2024: Die Klarstellungen

Am 17. Dezember 2024 veröffentlichte der Europäische Datenschutzausschuss (EDPB) die wegweisende Stellungnahme 28/2024. Sie beantwortet drei kritische Fragen, die für jedes Unternehmen mit KI relevant sind.

1

Sind KI-Modelle anonym?

Nein, nicht automatisch. Der EDPB stellt klar: "AI models trained with personal data cannot, in all cases, be considered anonymous."

Kriterien für Anonymität: Es muss "sehr unwahrscheinlich" sein, dass (1) Individuen direkt oder indirekt identifiziert werden können, und (2) personenbezogene Daten durch Queries extrahiert werden können. Das Wort "case by case" erscheint 16 Mal in der Opinion.

2

Ist "Berechtigtes Interesse" als Rechtsgrundlage möglich?

Grundsätzlich ja – aber mit Drei-Stufen-Test nach Art. 6(1)(f) DSGVO:

1. Legitimes Interesse

identifizieren

2. Erforderlichkeit

nachweisen

3. Interessenabwägung

dokumentieren

3

Was wenn Training rechtswidrig war?

Folgen für nachgelagerte Verarbeitung. Der EDPB stellt klar: Wenn die Entwicklung eines KI-Modells auf unrechtmäßiger Datenverarbeitung basierte, kann dies die Rechtmäßigkeit aller nachfolgenden Nutzungen beeinflussen – die Interessenabwägung kippt zugunsten der Betroffenen.

Was das für die Praxis heißt: Beim Einkauf von KI-Modellen oder deren Programmierschnittstellen (APIs) sollte vertraglich geklärt werden, dass die Trainingsdaten rechtmäßig erhoben wurden. Andernfalls droht eine "vererbte Rechtswidrigkeit" – die Unrechtmäßigkeit des Trainings überträgt sich auf deine Nutzung.

Risiko-Klassifizierung nach EU AI Act

Der AI Act kategorisiert KI-Systeme in vier Risikoklassen. Je höher das Risiko, desto strenger die Anforderungen.

Unacceptable RiskVERBOTEN ab 02/2025

Social Scoring durch Behörden, manipulative Unterschwellen-Techniken, Emotionserkennung am Arbeitsplatz, biometrische Kategorisierung nach Rasse/Religion, ungezielte Gesichtserkennung aus Internet/CCTV.

High RiskCOMPLIANCE ab 08/2026

Kritische Bereiche: Biometrische Identifikation, kritische Infrastruktur, Bildung & Berufsausbildung, Beschäftigung & HR, Zugang zu essenziellen Diensten, Strafverfolgung, Migration, Rechtspflege.

Beispiele: KI für Kredit-Scoring, Bewerbungsscreening, Leistungsbeurteilung, Zulassung zu Bildungseinrichtungen.

Limited RiskTRANSPARENZPFLICHT

Chatbots, Deepfakes, Emotion Recognition (außerhalb High-Risk). Pflicht: Nutzer müssen informiert werden, dass sie mit KI interagieren.

Minimal RiskKEINE SPEZIELLEN PFLICHTEN

Spam-Filter, Empfehlungssysteme, KI-gestützte Videospiele, interne Produktivitätstools ohne signifikante Auswirkungen auf Individuen.

Artikel 47 AI Act: Provider von High-Risk-Systemen müssen eine Konformitätserklärung erstellen, die explizit DSGVO-Compliance bestätigt, wenn das System personenbezogene Daten verarbeitet.

Datenschutz-Folgenabschätzung (DPIA) für KI

Die CNIL (französische Datenschutzbehörde) stellt klar: Für alle High-Risk-Systeme nach AI Act wird eine DPIA praktisch immer erforderlich sein, wenn personenbezogene Daten verarbeitet werden.

EDPB: 9 Kriterien für High-Risk-Verarbeitung

Bei mindestens 2 zutreffenden Kriterien ist eine DPIA erforderlich:

1Evaluation oder Scoring
2Automatisierte Entscheidungen mit rechtlicher Wirkung
3Systematische Überwachung
4Sensible Daten oder vulnerable Gruppen
5Großmaßstäbliche Verarbeitung
6Kombination von Datensätzen
7Innovative Technologien
8Verhinderung von Rechtsausübung
9Grenzüberschreitende Übermittlung

Die 4 Pflicht-Elemente einer DPIA

1. Verarbeitungsbeschreibung

Welche Daten, warum, wer ist beteiligt, Systemarchitektur und Datenflüsse.

2. Erforderlichkeit & Verhältnismäßigkeit

Rechtfertigung, warum diese Verarbeitung nötig ist und ob weniger invasive Alternativen existieren.

3. Risikobewertung

Potenzielle Schäden identifizieren: Diskriminierung, Datenlecks, finanzielle Verluste, Rufschädigung.

4. Risikominderungsmaßnahmen

Verschlüsselung, Anonymisierung, Zugriffsbeschränkungen, menschliche Überprüfung etablieren.

KI-spezifische DPIA-Anforderungen

  • Transparenz & Erklärbarkeit: Wie werden diese Ziele erreicht?
  • Fehlermargen: Statistische Genauigkeit und Auswirkungen auf Fairness dokumentieren
  • Menschliche Kontrolle (Human-in-the-Loop): Wann und wie findet menschliche Beteiligung statt?
  • Qualitätsverlust über Zeit (Concept Drift): Wie wird überwacht, ob das KI-Modell mit der Zeit schlechtere Ergebnisse liefert?
Lebendiges Dokument: Die DPIA ist kein einmaliges Projekt. Sie muss regelmäßig überprüft und aktualisiert werden – insbesondere bei KI-Systemen, die sich über Zeit verändern.

Artikel 22 DSGVO: Automatisierte Entscheidungen

Artikel 22 DSGVO gibt Betroffenen das Recht, nicht einer Entscheidung unterworfen zu werden, die ausschließlich auf automatisierter Verarbeitung beruht – wenn diese Entscheidung rechtliche Wirkung oder ähnlich erhebliche Auswirkungen hat.

Wegweisendes Urteil: SCHUFA (EuGH C-634/21)

Der Europäische Gerichtshof entschied 2023: Automatisierte Bonitätsbewertungen, die von Dritten für Vertragsentscheidungen genutzt werden, fallen unter Artikel 22. Betroffene haben Anspruch auf Erklärung, menschliche Überprüfung und Widerspruchsrecht. Das Urteil zeigt, wie stark der Schutz vor automatisierten Entscheidungen das Unternehmensverhalten beeinflusst.

Drei Ausnahmen nach Art. 22(2)

Vertragserfüllung

Entscheidung ist für Vertragsschluss oder -erfüllung erforderlich

Gesetzliche Ermächtigung

EU- oder Mitgliedstaatsrecht erlaubt es mit angemessenen Schutzmaßnahmen

Ausdrückliche Einwilligung

Betroffener hat explizit zugestimmt

Pflicht-Safeguards

Menschliche Intervention

Recht auf Überprüfung durch eine natürliche Person

Standpunkt äußern

Betroffene können ihre Sicht darlegen

Entscheidung anfechten

Formelles Widerspruchsrecht gegen die automatisierte Entscheidung

Wichtig: "Echte menschliche Überprüfung" bedeutet nicht einfach, dass ein Mensch die Daten eingibt. Die menschliche Beteiligung muss nach der automatisierten Entscheidung stattfinden und sich auf das konkrete Ergebnis beziehen. Blindes Abnicken reicht nicht aus.

KI-Werkzeuge für Unternehmen: Datenschutz-Check

Ohne Vertrag zur Auftragsverarbeitung (DPA) ist die Nutzung externer KI-Werkzeuge schlicht nicht DSGVO-konform. Sobald ein externer Anbieter personenbezogene Daten verarbeitet, ist ein solcher Vertrag verpflichtend. Stell dir den DPA vor wie einen Mietvertrag: Er regelt, was der Vermieter (KI-Anbieter) mit deinen Möbeln (Daten) tun darf und was nicht.

ChatGPT (OpenAI)

Stand: Januar 2026

DPA verfügbar über OpenAI Ireland Ltd.
Standardvertragsklauseln (SCCs) für Datenübermittlung in die USA inkludiert
Geschäftskunden: Garantie, dass deine Daten nicht zum KI-Training verwendet werden
Keine formelle DSGVO-Zertifizierung
Eingaben können für KI-Training gespeichert werden (kostenlose / Privat-Version)

Claude (Anthropic)

Stand: Januar 2026

Vertrag zur Auftragsverarbeitung (DPA) für Geschäftskunden verfügbar
Schnittstellen-Protokolle: werden nach 7 Tagen gelöscht (ab 09/2025)
Zusatzvereinbarung "Keine Datenspeicherung" (ZDR) optional verfügbar
Kein KI-Training mit Nutzerdaten (standardmäßig)
Keine öffentlichen Audit-Zertifikate (ISO 27001, SOC 2)
M365 Copilot + Claude: Die Claude-Integration in Microsoft 365 Copilot (seit September 2025) fällt nicht unter Microsofts EU Data Boundary Commitments. Separate Prüfung und DPA erforderlich.

Checkliste für Geschäftskunden

1
Vertrag zur Auftragsverarbeitung (DPA) unterzeichnet und dokumentiert
2
Prüfung der Auswirkungen bei Datenübermittlung in die USA (Transfer Impact Assessment) durchgeführt
3
Vertraglich gesichert, dass deine Daten nicht zum KI-Training verwendet werden
4
In Eingaben an die KI keine personenbezogenen Daten (Namen, Adressen, etc.) verwenden
5
Mitarbeiter geschult, welche Daten sie in KI-Werkzeuge eingeben dürfen und welche nicht
6
Prüfrechte im Vertrag zur Auftragsverarbeitung verankert

Deutsche Behörden: Praktische Guidance

Am 17. Juni 2025 veröffentlichten die deutschen Datenschutzbehörden umfassend überarbeitete Leitlinien für technische und organisatorische Maßnahmen bei KI-Systemen. Die Guidance orientiert sich an vier Phasen des KI-Lebenszyklus.

Design

Anforderungen definieren, Risiken identifizieren

Entwicklung

Datenaufbereitung, Modelltraining

Implementierung

Testing, Validierung, Deployment

Betrieb

Monitoring, Wartung, Weiterentwicklung

Die 7 Datenschutzziele (DSK)

1

Datenminimierung

Nur erforderliche Daten erheben und verarbeiten

2

Verfügbarkeit

System und Daten müssen zugänglich sein

3

Vertraulichkeit

Unbefugter Zugriff verhindern

4

Integrität

Daten vor Manipulation schützen

5

Intervenierbarkeit

Eingriffsmöglichkeiten für Betroffene

6

Transparenz

Nachvollziehbarkeit der Verarbeitung

7

Nichtverkettbarkeit

Zweckbindung durchsetzen

Verfügbare Ressourcen der deutschen DPAs

Bayern: Flyer und Checkliste für DSGVO-konforme KI
Hamburg: Checkliste für LLM-basierte Chatbots
Baden-Württemberg: Paper zu Rechtsgrundlagen bei KI
CNIL (FR): Open-Source PIA-Software für DPIAs

Implementierungs-Checkliste

Eine strukturierte Vorgehensweise für KI-Datenschutz-Compliance in deinem Unternehmen.

1Governance etablieren

Interne KI-Richtlinie erstellen (AI Act Art. 4 verlangt KI-Grundwissen für alle Beteiligten)
Verantwortlichkeiten definieren (DSB einbinden)
Betriebsrat bei HR-relevanter KI konsultieren
KI-Ethik-Gremium / Prüfprozess einrichten

2Bestandsaufnahme & Klassifizierung

Alle KI-Systeme inventarisieren
Risikoklasse nach AI Act bestimmen
Personenbezogene Daten identifizieren
Rechtsgrundlagen pro System dokumentieren

3Verträge & DPAs

Verträge zur Auftragsverarbeitung (DPAs) mit allen KI-Anbietern abschließen
Prüfung der Auswirkungen bei Datenübermittlung in Drittländer durchführen
Vertraglich sichern, dass deine Daten nicht zum KI-Training genutzt werden
Prüfrechte verankern

4DPIAs & Dokumentation

DPIA für High-Risk-Systeme durchführen
Technische & organisatorische Maßnahmen dokumentieren
Transparenz-Informationen für Betroffene erstellen
Verarbeitungsverzeichnis aktualisieren

5Operational Excellence

Mitarbeiter-Schulung: Welche Daten dürfen in KI-Werkzeuge eingegeben werden?
Betroffenenrechte-Prozesse anpassen
Überwachung einrichten, ob KI-Qualität über Zeit abnimmt (Concept Drift)
Regelmäßige DPIA-Reviews planen

Fazit: Die 3 kritischen Prioritäten

1

DPAs jetzt abschließen

Ohne Vertrag zur Auftragsverarbeitung ist jede Nutzung externer KI-Werkzeuge ein Datenschutzverstoß. Prüfung der Datenübermittlung in die USA nicht vergessen.

2

High-Risk-Systeme identifizieren

KI im Personalwesen, Bonitätsbewertung, Zugangskontrollen – für diese Systeme greifen ab August 2026 umfassende Pflichten nach dem AI Act. Datenschutz-Folgenabschätzungen jetzt vorbereiten.

3

Artikel-22-Safeguards implementieren

Bei automatisierten Entscheidungen: Echte menschliche Überprüfung, Erklärbarkeit und Widerspruchsrecht sind keine Kür, sondern Pflicht.

Quellen & Weiterführende Ressourcen