SBS Firmengruppe Logos

| Compliance

DSGVO und Künstliche Intelligenz


Mit dem Einsatz Künstlicher Intelligenz (KI) und insbesondere einer automatisierten Datenauswertung entstehen für Unternehmen neue datenschutzrechtliche Pflichten. Gerade im Umgang mit personenbezogenen Daten ist die DSGVO der Maßstab. Fehlende Kontrolle über KI-Systeme oder mangelnde Transparenz können nicht nur empfindliche Bußgelder, sondern auch gravierende Imageschäden zur Folge haben.

Wer sich rechtlich absichern will, benötigt genaue Kenntnis der aktuellen Datenschutzvorgaben und klare Verantwortlichkeiten. Wie Unternehmen trotz komplexer Regularien handlungssicher agieren und welche Fallstricke sich im Zusammenspiel von KI und DSGVO ergeben, stellt sich als eine der wohl zentralsten Fragen der Gegenwart.

Datenschutzrechtliche Herausforderungen bei der Entwicklung und Nutzung von KI-Systemen

Insbesondere im Bereich großer Sprachmodelle (Large Language Models, LLMs) rücken datenschutzrechtliche Fragen besonders in den Fokus, da für das Training und die Optimierung der Systeme regelmäßig umfangreiche, teils höchst sensible Datensätze verarbeitet werden.

Bereits im Stadium der Entwicklung eines KI-Systems werden entscheidende Weichen im Hinblick auf den Datenschutz gestellt. Das zugrunde liegende neuronale Netzwerk, welches das Herzstück moderner KI-Anwendungen bildet, ist auf qualitativ hochwertige und vielfältige Trainingsdaten angewiesen. Die Erhebung, Auswahl und Verarbeitung der Daten unterliegen strengen regulatorischen Anforderungen, die in jedem Abschnitt, von der Beschaffung bis zur aktiven Nutzung, zu berücksichtigen sind. Die Verantwortlichkeit für die Einhaltung der DSGVO bleibt dabei stets beim Unternehmen und kann nicht auf technische Dienstleister oder die KI selbst abgewälzt werden.

Typische Datenkategorien, die im Rahmen von KI-Projekten verarbeitet werden, umfassen:

  • Personenbezogene Basisdaten wie Name, Anschrift, Geburtsdatum und Kontaktdaten
  • Nutzungs- und Verhaltensdaten, etwa Surf- oder Kaufverhalten, Interaktionsprotokolle
  • Kommunikationsinhalte, etwa E-Mails, Chatverläufe oder Sprachaufzeichnungen
  • Besondere Kategorien personenbezogener Daten im Sinne des Art. 9 DSGVO, insbesondere Gesundheitsdaten oder biometrische Informationen
  • Technische Metadaten wie IP-Adressen, Gerätekennungen und Standortdaten
  • Bild- und Videomaterial, einschließlich Aufnahmen von Personen

Aktuelle Stellungnahmen des Europäischen Datenschutzausschusses (EDSA) sowie die Empfehlungen nationaler Datenschutzbehörden unterstreichen, dass Unternehmen verpflichtet sind, von Beginn an geeignete technische und organisatorische Maßnahmen zu implementieren. Speziell die Prinzipien „Privacy by Design“ und „Privacy by Default“ gewinnen im KI-Kontext an zentraler Bedeutung.


Wann unterliegt die KI-Datenverarbeitung im Unternehmen der DSGVO?

Unternehmen, die Künstliche Intelligenz einsetzen, geraten immer dann in den Anwendungsbereich der DSGVO, wenn sie mit Daten arbeiten, die eine Identifizierung natürlicher Personen ermöglichen. Bereits das Sammeln, Strukturieren oder Anonymisieren von personenbezogenen Informationen im Vorfeld des KI-Trainings stellt eine Verarbeitung im Sinne der DSGVO dar. Ebenso ist jeder Einsatz des KI-Systems, bei dem personenbezogene Daten verarbeitet, analysiert oder ausgegeben werden, datenschutzrechtlich relevant.

Besonders komplex wird es, wenn das trainierte KI-Modell Rückschlüsse auf einzelne Personen zulässt oder auf Anfrage spezifische personenbezogene Daten wiedergeben kann. In diesen Fällen können die Betroffenenrechte nach Art. 12 ff. DSGVO greifen. Unternehmen müssen dann unter Umständen Auskunft, Berichtigung oder Löschung ermöglichen.

Die Datenschutzaufsichtsbehörden verfügen über weitreichende Befugnisse, um Verstöße zu sanktionieren. Neben Bußgeldern können sie die Nutzung des KI-Systems einschränken, die Löschung rechtswidrig genutzter Datensätze oder – im Extremfall – die vollständige Entfernung des Modells anordnen.

Praxisbeispiele:

  • Ein Unternehmen trainiert ein Sprachmodell mit echten Kunden-E-Mails. Werden nach dem Training beispielhaft originale Nachrichteninhalte wiedergegeben, greift die DSGVO und kann Löschungsansprüche nach sich ziehen.
  • Im Personalbereich werden KI-Systeme zur Auswertung von Bewerbungsunterlagen eingesetzt. Schon das automatisierte Sichten und Bewerten personenbezogener Informationen – auch nach deren Anonymisierung – fällt unter die DSGVO.
  • Ein KI-gestütztes Marketing-Tool analysiert das Surfverhalten einzelner Nutzer und personalisiert Werbeinhalte. Da dabei Profile erstellt werden, ist die gesamte Datenverarbeitung DSGVO-pflichtig.

Die datenschutzkonforme Nutzung von KI setzt daher voraus, dass Unternehmen sämtliche Datenflüsse kritisch prüfen, technische und organisatorische Maßnahmen implementieren und die Rechte der Betroffenen jederzeit gewährleisten. Andernfalls drohen erhebliche rechtliche und wirtschaftliche Konsequenzen.

Art. 12 ff. DSGVO

  1. Der Verantwortliche trifft geeignete Maßnahmen, um der betroffenen Person alle Informationen gemäß den Artikeln 13 und 14 und alle Mitteilungen gemäß den Artikeln 15 bis 22 und Artikel 34, die sich auf die Verarbeitung beziehen, in präziser, transparenter, verständlicher und leicht zugänglicher Form in einer klaren und einfachen Sprache zu übermitteln; dies gilt insbesondere für Informationen, die sich speziell an Kinder richten.
  2. Die Übermittlung der Informationen erfolgt schriftlich oder in anderer Form, gegebenenfalls auch elektronisch. 3Falls von der betroffenen Person verlangt, kann die Information mündlich erteilt werden, sofern die Identität der betroffenen Person in anderer Form nachgewiesen wurde.
  3. Der Verantwortliche erleichtert der betroffenen Person die Ausübung ihrer Rechte gemäß den Artikeln 15 bis 22. 2In den in Artikel 11 Absatz 2 genannten Fällen darf sich der Verantwortliche nur dann weigern, aufgrund des Antrags der betroffenen Person auf Wahrnehmung ihrer Rechte gemäß den Artikeln 15 bis 22 tätig zu werden, wenn er glaubhaft macht, dass er nicht in der Lage ist, die betroffene Person zu identifizieren.
  4. Der Verantwortliche stellt der betroffenen Person Informationen über die auf Antrag gemäß den Artikeln 15 bis 22 ergriffenen Maßnahmen unverzüglich, in jedem Fall aber innerhalb eines Monats nach Eingang des Antrags zur Verfügung. 2Diese Frist kann um weitere zwei Monate verlängert werden, wenn dies unter Berücksichtigung der Komplexität und der Anzahl von Anträgen erforderlich ist. 3Der Verantwortliche unterrichtet die betroffene Person innerhalb eines Monats nach Eingang des Antrags über eine Fristverlängerung, zusammen mit den Gründen für die Verzögerung. 4Stellt die betroffene Person den Antrag elektronisch, so ist sie nach Möglichkeit auf elektronischem Weg zu unterrichten, sofern sie nichts anderes angibt.
  5. Wird der Verantwortliche auf den Antrag der betroffenen Person hin nicht tätig, so unterrichtet er die betroffene Person ohne Verzögerung, spätestens aber innerhalb eines Monats nach Eingang des Antrags über die Gründe hierfür und über die Möglichkeit, bei einer Aufsichtsbehörde Beschwerde einzulegen oder einen gerichtlichen Rechtsbehelf einzulegen.
  6. Informationen gemäß den Artikeln 13 und 14 sowie alle Mitteilungen und Maßnahmen gemäß den Artikeln 15 bis 22 und Artikel 34 werden unentgeltlich zur Verfügung gestellt. 2Bei offenkundig unbegründeten oder – insbesondere im Fall von häufiger Wiederholung – exzessiven Anträgen einer betroffenen Person kann der Verantwortliche entweder ein angemessenes Entgelt verlangen, bei dem die Verwaltungskosten für die Unterrichtung oder die Mitteilung oder die Durchführung der beantragten Maßnahme berücksichtigt werden, oder sich weigern, aufgrund des Antrags tätig zu werden.
  7. Der Verantwortliche hat den Nachweis für den offenkundig unbegründeten oder exzessiven Charakter des Antrags zu erbringen.
  8. Hat der Verantwortliche begründete Zweifel an der Identität der natürlichen Person, die den Antrag gemäß den Artikeln 15 bis 21 stellt, so kann er unbeschadet des Artikels 11 zusätzliche Informationen anfordern, die zur Bestätigung der Identität der betroffenen Person erforderlich sind.
  9. Die Informationen, die den betroffenen Personen gemäß den Artikeln 13 und 14 bereitzustellen sind, können in Kombination mit standardisierten Bildsymbolen bereitgestellt werden, um in leicht wahrnehmbarer, verständlicher und klar nachvollziehbarer Form einen aussagekräftigen Überblick über die beabsichtigte Verarbeitung zu vermitteln. 2Werden die Bildsymbole in elektronischer Form dargestellt, müssen sie maschinenlesbar sein.

Der Kommission wird die Befugnis übertragen, gemäß Artikel 92 delegierte Rechtsakte zur Bestimmung der Informationen, die durch Bildsymbole darzustellen sind, und der Verfahren für die Bereitstellung standardisierter Bildsymbole zu erlassen.


Anonymität von KI-Modellen und datenschutzrechtliche Einordnung

Die Antwort auf die Frage, ob ein KI-Modell als anonym einzustufen ist, ergibt sich daraus, ob sich aus den enthaltenen Informationen Rückschlüsse auf einzelne Personen ziehen lassen. Die DSGVO findet immer dann Anwendung, wenn Daten sich auf eine identifizierte oder identifizierbare natürliche Person beziehen lassen. Werden Daten dagegen derart verarbeitet oder anonymisiert, dass eine Identifizierung ausgeschlossen ist, greift das Datenschutzrecht nicht mehr.

Lange Zeit herrschte die Meinung vor, dass KI-Modelle wie Large Language Models (LLMs) keine personenbezogenen Daten enthalten, da sie mit hochabstrakten Tokens und mathematischen Mustern arbeiten. Man ging davon aus, dass die im Modell gespeicherten Strukturen so weit entfernt von den ursprünglichen Daten sind, dass ein Personenbezug ausgeschlossen erscheint.

Diese Sichtweise wird mittlerweile durch neue regulatorische Entwicklungen und wissenschaftliche Erkenntnisse infrage gestellt. Der Europäische Datenschutzausschuss (EDSA) betont in einer aktuellen Stellungnahme, dass auch ein scheinbar anonymes Modell, das ursprünglich mit personenbezogenen Daten trainiert wurde, unter bestimmten Umständen Informationen rekonstruierbar machen kann.

Ob ein Modell tatsächlich anonym ist, lässt sich daher nicht pauschal beantworten. Vielmehr ist im Einzelfall zu prüfen, ob durch Output, Rückschlüsse oder technische Angriffe ein Personenbezug wiederhergestellt werden kann.

Leitfaden für Unternehmen: Umgang mit KI-Modellen und Anonymität

  • Bereits bei der Konzeption von KI-Projekten sollte geprüft werden, ob und in welchem Umfang personenbezogene Daten für das Training verwendet werden.
  • Es empfiehlt sich, Anonymisierung und Pseudonymisierung konsequent einzusetzen und deren Wirksamkeit regelmäßig zu evaluieren.
  • Die Dokumentation der Datenflüsse und Anonymisierungsschritte ist unerlässlich, um Nachweispflichten gegenüber Aufsichtsbehörden erfüllen zu können.
  • Unternehmen sollten sich nicht allein auf technische Argumente verlassen, sondern auch juristische Bewertungen einholen, ob ein Modell tatsächlich als anonym einzustufen ist.
  • Die Einbindung externer Datenschutzexperten und die frühzeitige Abstimmung mit den zuständigen Behörden können helfen, rechtliche Risiken zu minimieren und Rechtssicherheit zu schaffen.

Abgrenzung: Wann gilt ein KI-Modell als anonym?

Die Bestimmung, ob ein KI-Modell als anonym einzustufen ist, erfordert eine differenzierte und mehrstufige Prüfung, die sowohl technische als auch rechtliche Aspekte berücksichtigt. Nach aktuellen Leitlinien, insbesondere den Vorgaben des Europäischen Datenschutzausschusses (EDSA), genügt es nicht, dass ein Modell keine unmittelbar erkennbaren personenbezogenen Daten speichert. Entscheidend ist vielmehr, dass die Wahrscheinlichkeit, personenbezogene Informationen direkt oder indirekt – etwa durch gezielte Anfragen oder probabilistische Methoden – zu extrahieren, für jede betroffene Person vernachlässigbar gering ist. Dies gilt sowohl für vorsätzliche als auch für unbeabsichtigte Offenlegungen.

Auch wenn KI-Modelle typischerweise keine originalen Datensätze, sondern nur abstrakte Parameter und Beziehungen speichern, bleibt das Risiko bestehen, dass sich durch statistische oder technische Angriffe – wie Membership Inference, Attribute Inference oder Regurgitation – personenbezogene Daten rekonstruieren lassen. Die Prüfpflicht erstreckt sich daher auf sämtliche Mittel und Techniken, die nach aktuellem Stand und nach allgemeinem Ermessen genutzt werden könnten, um eine Identifizierung herzustellen.

Für die Bewertung der Restwahrscheinlichkeit einer Identifizierung müssen verschiedene Kriterien herangezogen werden:

  • Eigenschaften und Einmaligkeit der Trainingsdaten
  • Qualität und Genauigkeit der verwendeten Datensätze
  • Technische und organisatorische Maßnahmen zur Begrenzung der Identifizierbarkeit, wie Regularisierungsmethoden oder der Einsatz von Differential Privacy
  • Ergebnisse von Sicherheitstests, die die Widerstandsfähigkeit des Modells gegen Angriffe auf Trainingsdaten überprüfen
  • Kontext der Modellausgabe: öffentliche Verfügbarkeit versus interne Nutzung
  • Zusätzliche Informationen, die Dritte zur Re-Identifizierung nutzen könnten

Die Verantwortlichen sind verpflichtet, sämtliche getroffenen Maßnahmen zur Minimierung des Identifizierungsrisikos sowie verbleibende Restrisiken detailliert zu dokumentieren. Die Dokumentation ist sowohl für die interne Compliance als auch für die Überprüfung durch die Aufsichtsbehörden wesentlich. Nur wenn die Behörde nach Prüfung der Unterlagen und der implementierten Schutzmaßnahmen zu der Einschätzung gelangt, dass das Modell tatsächlich anonym ist, entfällt die Anwendbarkeit der DSGVO. Andernfalls gilt das Modell weiterhin als datenschutzrechtlich relevant und unterliegt sämtlichen Pflichten der Verordnung, einschließlich der Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO.


SBS LEGAL – Kanzlei für Compliance Recht

Fragen Sie sich, ob Ihr Unternehmen beim Einsatz von Künstlicher Intelligenz und im Umgang mit der DSGVO ausreichend rechtssicher aufgestellt ist? Möchten Sie wissen, welche Compliance-Pflichten für Ihre Branche und Ihre digitalen Prozesse gelten – oder möchten Sie Ihr Unternehmen gezielt vor Bußgeldern und Reputationsschäden schützen?

Bei Fragen zum Compliance Recht sind Sie bei SBS LEGAL genau richtig! 

Unser Team aus erfahrenen Rechtsanwälten begleitet Sie umfassend in allen Fragen rund um Datenschutz, Compliance und die rechtssichere Nutzung von KI-Systemen. Wir analysieren gezielt die für Ihr Unternehmen relevanten gesetzlichen Vorgaben und entwickeln individuelle Strategien, um Ihr Haftungsrisiko zu minimieren und nachhaltige Rechtssicherheit zu schaffen.

Für weitere Rückfragen zum Compliance Recht stehen wir Ihnen jederzeit gerne auch telefonisch zur Verfügung. Wünschen Sie die Rechtsberatung von dem erfahrenen Team aus Fachanwälten und Spezialisten von SBS LEGAL?

Der Erstkontakt zu SBS LEGAL ist immer kostenlos.

SBS Direktkontakt

telefonisch unter (+49) 040 / 7344086-0 oder
per E-Mail unter mail@sbs-legal.de oder
per unten angebotenem SBS Direktkontakt.

Ich habe die Datenschutzhinweise gelesen und stimmen diesen hiermit zu.

Zurück zur Blog-Übersicht