KI-Lexikon

DSGVO: Datenschutzanforderungen für KI-Systeme im Unternehmen

Die Datenschutz-Grundverordnung (DSGVO) ist das verbindliche EU-Rechtsrahmenwerk für die Erhebung, Verarbeitung und Speicherung personenbezogener Daten. Sobald Unternehmen KI-Systeme einsetzen - von der Dokumentenautomatisierung über Chatbots bis hin zu Large Language Models - gilt die DSGVO für jeden Schritt im Datenlebenszyklus. Wer KI-Systeme in Europa betreibt oder für europäische Märkte entwickelt, kommt um ein tiefes Verständnis der DSGVO-Anforderungen im KI-Kontext nicht herum.

Kernpunkte
  • Die kumulierten DSGVO-Bußgelder übersteigen 7,1 Milliarden Euro - allein 2025 wurden 2,3 Milliarden Euro verhängt, 38 Prozent mehr als im Vorjahr.
  • Europäische Datenschutzbehörden erhalten täglich 443 Meldungen über Datenschutzverletzungen - 22 Prozent mehr als im Vorjahr.
  • 90 Prozent der Unternehmen nutzen KI im Tagesbetrieb, aber nur 18 Prozent haben vollständig implementierte KI-Governance-Frameworks (EDPB, 2025).
  • DSGVO und EU-KI-Verordnung sind parallele Pflichten - Compliance mit einer Verordnung erfüllt nicht die andere.
  • LLMs, die als Auftragsverarbeiter eingesetzt werden, benötigen eine Rechtsgrundlage nach Artikel 6, eine Datenschutz-Folgenabschätzung bei Hochrisikoverarbeitung und nachweisbare Herkunft der Trainingsdaten.

Definition: DSGVO

Die Datenschutz-Grundverordnung (DSGVO, EU 2016/679) ist das verbindliche EU-Rechtsrahmenwerk für die Erhebung, Verarbeitung, Speicherung und Übermittlung personenbezogener Daten von Personen im Europäischen Wirtschaftsraum - unabhängig davon, wo das verarbeitende Unternehmen ansässig ist.

Kernmerkmale der DSGVO

Die DSGVO definiert Grundsätze, die für jede Organisation gelten, die personenbezogene Daten von EU-Bürgern verarbeitet. Diese Grundsätze sind nicht verhandelbar und können vertraglich nicht ausgeschlossen werden.

  • Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz - jede Datenverarbeitung benötigt eine Rechtsgrundlage nach Artikel 6
  • Zweckbindung - für einen Zweck erhobene Daten dürfen nicht ohne neue Rechtsgrundlage für andere Zwecke genutzt werden
  • Datensparsamkeit - es dürfen nur die Daten erhoben werden, die für den angegebenen Zweck tatsächlich erforderlich sind
  • Speicherbegrenzung - personenbezogene Daten müssen gelöscht werden, sobald sie für den ursprünglichen Zweck nicht mehr benötigt werden

DSGVO vs. EU-KI-Verordnung

DSGVO und EU-KI-Verordnung werden häufig als austauschbare Compliance-Aufgaben behandelt, regeln aber unterschiedliche Sachverhalte. Die DSGVO schützt die Rechte von Personen über ihre personenbezogenen Daten - wer sie verarbeitet, zu welchem Zweck und auf welcher Grundlage. Die EU-KI-Verordnung reguliert die Risikoklassifikation, technische Sicherheit und Transparenzanforderungen an KI-Systeme als Produkte. Ein KI-System kann die Transparenzanforderungen des AI Act erfüllen und gleichzeitig gegen die DSGVO verstoßen, wenn die Datenverarbeitung ohne Rechtsgrundlage erfolgt. Beide Verordnungen gelten gleichzeitig und unabhängig voneinander.

Bedeutung der DSGVO im Enterprise-KI-Umfeld

Nahezu jeder KI-Einsatz im Unternehmen - ob kundenseitig oder intern - verarbeitet personenbezogene Daten und unterliegt damit der DSGVO. Die kumulierten Bußgelder übersteigen 7,1 Milliarden Euro, allein 2025 wurden 2,3 Milliarden Euro verhängt, 38 Prozent mehr als im Vorjahr (Kiteworks, 2026). Wer KI-Agenten im Unternehmen einsetzt, trägt eine dauerhafte operative Compliance-Verantwortung - nicht nur bei der Einführung, sondern über den gesamten Betriebszeitraum.

Methoden und Verfahren für DSGVO-Compliance bei KI

Drei Kernverfahren sind verpflichtend, wenn KI-Systeme personenbezogene Daten verarbeiten.

Datenschutz-Folgenabschätzung (DSFA)

Eine DSFA ist nach DSGVO Artikel 35 erforderlich, wenn ein KI-System voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen darstellt. Dies umfasst automatisiertes Profiling, großangelegte Verarbeitung sensibler Datenkategorien und systematische Überwachung von Mitarbeitenden oder Kunden. Die DSFA muss vor dem Produktivbetrieb abgeschlossen sein.

  • Beschreibung der Verarbeitungstätigkeit, ihrer Zwecke und der verfolgten berechtigten Interessen
  • Beurteilung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitung
  • Identifikation und Bewertung der Risiken für Rechte und Freiheiten der Betroffenen
  • Dokumentation der Maßnahmen zur Risikominderung

Rechtsgrundlagen-Assessment

Bevor ein KI-System personenbezogene Daten verarbeitet, muss das Unternehmen eine Rechtsgrundlage nach Artikel 6 DSGVO identifizieren und dokumentieren. Für die meisten betrieblichen KI-Anwendungen - Dokumentenautomatisierung, intelligente Dokumentenverarbeitung, operative Analysen - ist dies entweder Vertragserfüllung (Art. 6(1)(b)) oder berechtigte Interessen (Art. 6(1)(f)). Letztere erfordern eine dokumentierte Interessenabwägung, die nachweist, dass die Unternehmensinteressen die Rechte der Betroffenen nicht überwiegen.

Auftragsverarbeiter-Prüfung

Wenn ein Unternehmen ein Large Language Model eines Drittanbieters einsetzt, handelt der Anbieter typischerweise als Auftragsverarbeiter nach Artikel 28 DSGVO und erfordert einen Auftragsverarbeitungsvertrag (AVV). Viele Anbieterverträge sind in der Frage unklar, ob Eingaben (Prompts) für das Modelltraining verwendet werden. Ist das der Fall, ist der Anbieter möglicherweise kein Auftragsverarbeiter, sondern ein gemeinsam Verantwortlicher - mit deutlich weitreichenderen Pflichten auf beiden Seiten.

Wichtige Kennzahlen für die DSGVO-Compliance im KI-Einsatz

Die Compliance-Reife über KI-Deployments hinweg lässt sich in drei Kategorien messen.

Compliance-Positionsmetriken

  • Abgeschlossene DSFAs: 100 Prozent der Hochrisiko-KI-Anwendungsfälle vor Produktivgang
  • Unterzeichnete AVVs: 100 Prozent der KI-Anbieter, die personenbezogene Daten verarbeiten
  • Dokumentierte Rechtsgrundlagen: 100 Prozent der KI-Verarbeitungstätigkeiten im Verarbeitungsverzeichnis (Art. 30)
  • Antwortzeit bei Betroffenenrechten: unter 30 Tagen (gesetzliche Maximaldauer)

Vorfalls- und Meldemetriken

Europäische Datenschutzbehörden erhalten täglich 443 Meldungen über Datenschutzverletzungen - 22 Prozent mehr als im Vorjahr (Kiteworks, 2026). Das gesetzliche Meldefenster beträgt 72 Stunden ab Kenntnisnahme. Unternehmen sollten die mittlere Erkennungszeit und die mittlere Meldezeit an die Aufsichtsbehörde als operative KPIs verfolgen.

Governance-Reifemetriken

Nur 18 Prozent der Unternehmen haben vollständig implementierte KI-Governance-Frameworks, obwohl 90 Prozent KI im Tagesbetrieb nutzen (EDPB, 2025). Die Reife lässt sich messen an der Vollständigkeit des Verarbeitungsverzeichnisses, der dokumentierten Datenherkunft für KI-Systeme und der Regelmäßigkeit von Datenschutzschulungen für KI-Betriebsteams.

Risikofaktoren und Kontrollen bei der DSGVO im KI-Kontext

Drei Risikobereiche sind für KI-Systeme spezifisch und werden durch Standard-DSGVO-Programme nicht ausreichend adressiert.

Rechtmäßigkeit der Trainingsdaten

KI-Modelle, die ohne gültige Rechtsgrundlage auf personenbezogenen Daten trainiert wurden, setzen das Unternehmen selbst dann Bußgeldrisiken aus, wenn die spätere Nutzung rechtskonform ist. Die EDPB stellte in ihrem Gutachten vom April 2025 fest, dass Anonymisierung von Trainingsdaten in der Praxis selten ausreichend ist - Daten aus dem Training sind in aller Regel noch personenbezogen und unterliegen der DSGVO.

  • Anbieter zur Vorlage einer dokumentierten Rechtsgrundlage für Trainingsdatenquellen verpflichten
  • Anonymisierungsmethodik anhand EDPB-Standards prüfen, nicht nur Anbieterbehauptungen vertrauen
  • Risiko des Memorierens personenbezogener Daten im Modell (Rekonstruierbarkeit aus Ausgaben) bewerten

Drittlandtransfers zu KI-APIs

Die Übermittlung personenbezogener Daten an KI-APIs außerhalb des EWR erfordert einen Übermittlungsmechanismus nach Kapitel V DSGVO. Am häufigsten eingesetzt werden Standardvertragsklauseln (SCCs), die eine Transfer-Folgenabschätzung (TFA) erfordern. Beim Einsatz US-amerikanischer KI-Dienste muss das CLOUD-Act-Risiko - der Zugriff US-amerikanischer Behörden auf Daten bei US-Providern - konkret bewertet werden. Hier treffen Data-Governance-Richtlinien und KI-Beschaffung am direktesten aufeinander.

Schatten-KI und unkontrollierte Nutzung

Mitarbeitende, die private KI-Konten für dienstliche Zwecke nutzen, erzeugen DSGVO-Risiken, weil kein AVV zwischen Arbeitgeber und KI-Anbieter existiert. Maßnahmen: genehmigte KI-Tool-Liste einführen, Zugangskontrollen für dienstliche Daten auf privaten Konten durchsetzen und Mitarbeitende schulen, welche Tools für welche Datenkategorien zugelassen sind.

Praxisbeispiel

Ein mittelständisches Logistikunternehmen mit 800 Mitarbeitenden führte ein KI-System zur Rechnungs- und Zolldokumentverarbeitung ein. Vor dem Produktivgang erstellte das Compliance-Team eine DSFA und stellte fest, dass Lieferantennamen und -adressen in den Dokumenten personenbezogene Daten darstellen. Als Rechtsgrundlage wurden berechtigte Interessen dokumentiert, ein AVV mit dem KI-Anbieter unterzeichnet, der Prompt-Nutzung für Modelltraining explizit ausschließt, und eine automatische Löschroutine nach 90 Tagen konfiguriert. Innerhalb von acht Wochen war das Unternehmen vollständig prüfbereit.

  • DSFA abgeschlossen und freigegeben vor jeder Verarbeitungstätigkeit
  • Rechtsgrundlage im Verarbeitungsverzeichnis nach Artikel 30 dokumentiert
  • AVV unterzeichnet mit explizitem Verbot der Prompt-Nutzung für Training
  • Automatische 90-Tage-Löschroutine konfiguriert und getestet
  • Mitarbeitende geschult, welche Dokumenttypen in das System eingegeben werden dürfen

Aktuelle Entwicklungen und Auswirkungen

Drei Entwicklungen prägen die DSGVO-Compliance für KI-Systeme im Jahr 2026.

EDPB-Gutachten zu LLMs (April 2025)

Das EDPB-Gutachten vom April 2025 zu Datenschutzrisiken bei Large Language Models stellte fest, dass Anonymisierung von Trainingsdaten in der Praxis selten ausreicht und dass Unternehmen, die Drittanbieter-LLMs einsetzen, vor der Verarbeitung personenbezogener Daten eine Interessenabwägung dokumentieren müssen.

  • Anonymisierungsbehauptungen von Anbietern erfordern nachweisbare Belege, keine bloße Zusicherung
  • Interessenabwägung muss bei jedem Modellversionswechsel überprüft werden
  • Personenbezogene Daten in Prompts begründen eine eigenständige Rechtsgrundlagenpflicht

Doppelbelastung durch EU-KI-Verordnung

Die Hochrisiko-Anforderungen des AI Act treten im August 2026 in Kraft. Hochrisiko-KI-Systeme - etwa in Beschäftigungsentscheidungen, Kreditbewertung oder systematischer Überwachung - müssen gleichzeitig DSGVO und AI Act erfüllen. Der AI Act verlangt eine Konformitätsbewertung, die DSGVO eine DSFA. Beide Dokumente müssen erstellt werden; keines ersetzt das andere. Workflow-Automatisierung in HR oder im Finanzbereich ist am stärksten von dieser Doppelpflicht betroffen.

Enforcement-Fokus verschiebt sich auf KI-spezifische Fälle

Die DSGVO-Durchsetzung konzentrierte sich bis 2024 primär auf Big Tech und Adtech. Ab 2025 haben Datenschutzbehörden in Deutschland, Frankreich, Italien und Irland Untersuchungen gezielt gegen betriebliche KI-Deployments eingeleitet - darunter generative KI-Tools und automatisierte Entscheidungssysteme im operativen Betrieb.

Fazit

Die DSGVO gilt für jeden KI-Einsatz, der personenbezogene Daten verarbeitet - was in der Praxis nahezu alle Unternehmens-KI-Projekte betrifft. Die Anforderungen an Rechtsgrundlage, DSFA, Datensparsamkeit und Auftragsverarbeitung sind seit Jahren etabliert, aber ihre Anwendung auf KI schafft neue Komplexität: Trainingsdatenherkunft, LLM-Anbieter-Accountability und das Zusammenspiel mit dem EU AI Act. Unternehmen, die DSGVO als einmaliges Projekt statt als operative Daueraufgabe behandeln, geraten zunehmend ins Visier von Aufsichtsbehörden. Datenschutzkonforme KI entsteht durch Privacy by Design - nicht durch nachträgliches Flickwerk nach Bußgeldbescheid.

Häufig gestellte Fragen

Gilt die DSGVO auch für KI-Systeme, die nur interne Mitarbeiterdaten verarbeiten?

Ja. Mitarbeiterdaten - Namen, Arbeitszeiten, Kommunikation, Leistungsdaten - sind personenbezogene Daten im Sinne der DSGVO, unabhängig davon, dass es sich nicht um Kundendaten handelt. Interne KI-Systeme wie HR-Automatisierung, Produktivitätsauswertung oder interne Chatbots benötigen eine gültige Rechtsgrundlage und häufig auch eine DSFA. Als Rechtsgrundlage kommt in der Regel Vertragserfüllung oder berechtigte Interessen in Betracht, nicht Einwilligung.

Was ist der Unterschied zwischen einer DSFA und der Konformitätsbewertung des AI Act?

Eine DSFA prüft nach DSGVO Artikel 35 die Risiken einer konkreten Datenverarbeitungstätigkeit für die Rechte und Freiheiten natürlicher Personen. Eine Konformitätsbewertung nach dem EU AI Act prüft, ob ein Hochrisiko-KI-System die technischen und Governance-Anforderungen der Verordnung erfüllt. Beide Dokumente sind separat, bewerten unterschiedliche Risiken und können einander nicht ersetzen - obwohl sie gemeinsame Eingaben nutzen können.

Wann ist ein LLM-Anbieter Auftragsverarbeiter und wann gemeinsam Verantwortlicher?

Ein Anbieter ist Auftragsverarbeiter, wenn er personenbezogene Daten ausschließlich nach Weisung des Unternehmens und für keine eigenen Zwecke verarbeitet. Er wird gemeinsam Verantwortlicher, wenn er Eingabedaten - etwa Prompts - für eigene Zwecke wie Modelltraining nutzt. Viele kommerzielle LLM-Verträge lassen diese Frage offen. Unternehmen sollten im AVV eine explizite Bestätigung fordern, dass Prompts nicht für das Training verwendet werden, oder den Anbieter als gemeinsam Verantwortlichen behandeln.

Muss für jede Aktualisierung unseres KI-Systems eine neue DSFA erstellt werden?

Die DSFA muss überprüft und aktualisiert werden, wenn sich Zweck, Datenkategorien, Verarbeitungsumfang oder Risikoprofil des Systems wesentlich ändern. Ein Wechsel auf eine neue Modellversion, die Anbindung einer neuen Datenquelle oder die Erweiterung auf einen neuen Anwendungsfall erfordern typischerweise eine DSFA-Überprüfung. Eine beim Start erstellte DSFA bleibt nicht dauerhaft gültig.

Welcher Übermittlungsmechanismus ist beim Einsatz einer US-amerikanischen KI-API erforderlich?

Datenübermittlungen an US-amerikanische KI-APIs erfordern einen Mechanismus nach Kapitel V DSGVO, am häufigsten Standardvertragsklauseln (SCC). Diese müssen durch eine Transfer-Folgenabschätzung (TFA) ergänzt werden, die bewertet, ob das US-Rechtssystem - einschließlich des CLOUD Acts - die SCC-Schutzgarantien in der Praxis untergräbt. Die TFA ist kein einmaliger Akt, sondern muss aktuell gehalten werden.

Was muss ein KI-spezifischer Auftragsverarbeitungsvertrag enthalten?

Ein KI-spezifischer AVV sollte die verarbeiteten Datenkategorien benennen, den Verwendungszweck durch den Anbieter festlegen (mit explizitem Verbot der Prompt-Nutzung für Training), die eingesetzten Unterauftragsverarbeiter auflisten, Löschfristen, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Datenschutzverletzungen (innerhalb von 24 bis 48 Stunden, damit der Verantwortliche die 72-Stunden-Frist einhalten kann) und die Kooperationspflicht bei Betroffenenanfragen regeln.

Bessere Software bauen Kontakt gemeinsam