Künstliche Intelligenz (KI) ist überall – vor allem in Unternehmen. Angefangen von der Rechtschreibprüfung bis hin zu selbstlernenden Systemen, die gerade in großen Unternehmen die Kundenkorrespondenz vereinfachen sollen. Doch genau hier geht es los: Das Datenschutzrecht ist sofort bei KI in Unternehmen betroffen. Zwei zentrale Dokumente beleuchten diese Thematik umfassend, wenn auch natürlich nicht verbindlich: die jüngst von der Europäischen Datenschutzbehörde (EDPB) veröffentlichte Stellungnahme 28/2024 und die Orientierungshilfe „KI und Datenschutz“ der Datenschutzkonferenz (DSK). Gemeinsam liefern sie wertvolle Einblicke für Softwareentwickler und das Management von Unternehmen.
Beide Dokumente ergänzen sich in ihrer Zielsetzung. Während die EDPB tiefgehende rechtliche Analysen und abstrakte Prinzipien bietet, liefert die DSK praxisnahe Leitlinien zur konkreten Umsetzung. Gemeinsam verdeutlichen sie die Notwendigkeit eines ganzheitlichen Ansatzes, der technische, organisatorische und rechtliche Aspekte gleichermaßen berücksichtigt Softwareentwickler sollten vor allem die technischen Empfehlungen beider Dokumente beachten, etwa zur Minimierung von Identifikationsrisiken und zur Gestaltung transparenter Systeme.
Das EDPB-Gutachten 28/2024: Datenschutzfragen im Fokus
Auf Antrag der irischen Datenschutzbehörde untersuchte die EDPB mehrere Fragestellungen zur Verarbeitung personenbezogener Daten während der Entwicklung und des Einsatzes von KI-Modellen. Die Analyse konzentrierte sich insbesondere auf drei Kernthemen: die Möglichkeit der Anonymisierung von KI-Modellen, die Zulässigkeit der Verarbeitung auf Grundlage berechtigter Interessen und die Auswirkungen rechtswidriger Datenverarbeitung in früheren Entwicklungsphasen auf die spätere Nutzung solcher Modelle.
Das Gutachten stellt klar, dass KI-Modelle, die mit personenbezogenen Daten trainiert wurden, nicht per se als anonym angesehen werden können. Entscheidend ist eine sorgfältige Bewertung der technischen und organisatorischen Maßnahmen, die getroffen wurden, um Identifikationsrisiken zu minimieren. Bei der Nutzung berechtigter Interessen als Rechtsgrundlage müssen Unternehmen zudem einen dreistufigen Test durchführen, um die Rechtmäßigkeit der Verarbeitung sicherzustellen.
Ein sensibler Punkt betrifft die rechtlichen Folgen einer rechtswidrigen Verarbeitung personenbezogener Daten während der Entwicklungsphase. Die EDPB unterscheidet mehrere Szenarien, unter denen die spätere Verarbeitung dennoch zulässig sein könnte, etwa bei wirksamer Anonymisierung.
Checkliste: Datenschutzkonforme Nutzung von Künstlicher Intelligenz (KI)
Planung und Konzeption
- Rechtsgrundlage bestimmen: Identifizieren, welche rechtliche Grundlage (z. B. berechtigtes Interesse, Einwilligung) für die Datenverarbeitung herangezogen wird.
- Anwendungszweck festlegen: Klare und spezifische Definition des Einsatzzwecks der KI, einschließlich der geplanten Datenverarbeitung.
- Datenschutz-Folgenabschätzung (DSFA): Prüfen, ob eine DSFA erforderlich ist, insbesondere bei hohen Risiken für die Rechte und Freiheiten der Betroffenen.
- Sensible Daten vermeiden: Einsatz von Techniken zur Datenminimierung, wie Pseudonymisierung und Aggregation, prüfen.
Entwicklung der KI
- Datenqualität sicherstellen: Sicherstellen, dass die Trainingsdaten angemessen, relevant und auf das Notwendige beschränkt sind.
- Anonymisierung evaluieren: Prüfung, ob und wie die Anonymisierung von Daten gewährleistet werden kann. Sicherstellen, dass keine Rückverfolgbarkeit möglich ist.
- Technische Maßnahmen implementieren: Einsatz von Schutzmaßnahmen wie Differential Privacy oder robusten Regularisierungstechniken, um Identifikationsrisiken zu minimieren.
- Dokumentation: Umfassende Dokumentation der Datenquellen, technischen Maßnahmen und des gesamten Entwicklungsprozesses.
Einsatz der KI
- Transparenz sicherstellen: Betroffene Personen klar über die Datenverarbeitung informieren, insbesondere bei automatisierten Entscheidungen.
- Betroffenenrechte gewährleisten: Rechte wie Auskunft, Berichtigung, Löschung und Widerspruch umsetzen.
- Ergebnisse überwachen: Regelmäßige Überprüfung der KI-Ergebnisse auf Diskriminierungsfreiheit und technische Genauigkeit.
- Eingabe- und Ausgabekontrollen: Sicherstellen, dass sensible Daten nicht unbeabsichtigt verarbeitet oder weitergegeben werden.
Organisatorische Maßnahmen
- Schulungen: Mitarbeitende über datenschutzkonforme Nutzung und Risiken von KI-Systemen schulen.
- Vertragliche Regelungen: Auftragsverarbeitungsverträge mit Drittanbietern abschließen und sicherstellen, dass diese DSGVO-konform handeln.
- Risikoüberwachung: Kontinuierliches Monitoring von Datenschutzrisiken im Zusammenhang mit der KI-Nutzung.
Prüfung und Kontrolle
- Regelmäßige Audits: Durchführung interner und externer Audits zur Überprüfung der Einhaltung datenschutzrechtlicher Anforderungen.
- Mitigation-Maßnahmen: Gezielte Maßnahmen zur Schadensbegrenzung und Risikominimierung ergreifen, falls Risiken für Betroffene identifiziert werden.
- Kommunikation: Proaktive Information der Betroffenen über mögliche Datenschutzprobleme und ergriffene Gegenmaßnahmen.
DSK-Orientierungshilfe „KI und Datenschutz“: praxisnahe Leitlinien
Ergänzend zur Analyse der EDPB bietet die Orientierungshilfe der DSK konkrete Handlungsempfehlungen für Unternehmen, die KI-Anwendungen einsetzen. Die DSK adressiert drei zentrale Phasen:
- Konzeption: Hierbei liegt der Fokus auf der Festlegung von Einsatzfeldern und der Klärung der Rechtsgrundlagen für die Datenverarbeitung. Die Orientierungshilfe betont die Bedeutung geschlossener Systeme, die eine sicherere Verarbeitung gewährleisten, und verweist auf die Notwendigkeit, die Anforderungen der DSGVO wie Transparenz und Datenminimierung zu erfüllen.
- Implementierung: Unternehmen müssen klare Verantwortlichkeiten festlegen, interne Regelungen schaffen und technische sowie organisatorische Maßnahmen implementieren, um Datenschutz „byz Design“ sicherzustellen. Eine Risikoabschätzung und ggf. Datenschutz-Folgenabschätzungen sind unerlässlich.
- Nutzung: Hier liegt der Schwerpunkt auf der korrekten Handhabung von Eingabe- und Ausgabedaten sowie der Überprüfung der Ergebnisse auf Richtigkeit und Diskriminierungsfreiheit. Besonders hervorgehoben wird die Notwendigkeit, die Rechte der Betroffenen sicherzustellen.
Datenschutz und KI im Unternehmenskontext: Praktische Handlungsempfehlungen
Unternehmen, die KI-Systeme nutzen möchten, müssen eine Vielzahl von Anforderungen beachten, um datenschutzkonform zu handeln. Zu den wichtigsten, in jedem Fall gebotenen, Maßnahmen gehören:
- Identifikation geeigneter Rechtsgrundlagen: Unternehmen müssen für jede Verarbeitung personenbezogener Daten eine tragfähige Rechtsgrundlage gemäß Artikel 6 und 9 der DSGVO definieren. Besonders im Beschäftigungskontext gilt es, zwischen Vertragserfüllung, berechtigtem Interesse und Einwilligung abzuwägen.
- Transparenz und Betroffenenrechte: Es ist essenziell, Mitarbeitende und Kund:innen umfassend über die Datenverarbeitung zu informieren, inklusive der involvierten Logik, der Tragweite und der Auswirkungen automatisierter Entscheidungen. Hierzu gehört auch die Bereitstellung von Auskunftsrechten, Löschmöglichkeiten und der Datenübertragbarkeit.
- Technische und organisatorische Schutzmaßnahmen (TOMs): Unternehmen sollten Datenschutz durch Technik und datenschutzfreundliche Voreinstellungen (Privacy by Design und Default) implementieren. Dazu gehören die Verschlüsselung personenbezogener Daten, regelmäßige Risikoanalysen und Schutzmechanismen gegen Datenlecks.
- Schulungen und interne Regelungen: Mitarbeitende müssen über den sicheren Umgang mit KI-Systemen aufgeklärt werden. Interne Richtlinien sollten den Einsatz von KI regeln und klare Vorgaben machen, welche Daten eingegeben werden dürfen. Sensible oder vertrauliche Daten wie Geschäftsgeheimnisse sollten konsequent ausgeschlossen werden.
- Datenschutz-Folgenabschätzung (DSFA): Der Einsatz von KI erfordert in vielen Fällen eine DSFA, um potenzielle Risiken für Betroffene zu bewerten und angemessene Gegenmaßnahmen zu entwickeln.
- Vertragliche Regelungen mit Drittanbietern: Die Zusammenarbeit mit externen KI-Anbietern sollte durch Auftragsverarbeitungsverträge gemäß Artikel 28 DSGVO geregelt sein. Bei grenzüberschreitenden Datenübermittlungen sind die Vorgaben der DSGVO zu Drittstaatentransfers einzuhalten.
Imemr wieder für Diskussionen und erhebliche Wissenslücken sorgt dabei die Datenschutz-Folgenabschätzung, die im Regelfall aber wirklich zwingend ist: Die DSFA soll sicherstellen, dass Risiken identifiziert, bewertet und durch technische und organisatorische Maßnahmen (TOMs) minimiert werden, bevor die Verarbeitung beginnt. Sie dient auch als Nachweis der Rechenschaftspflicht des Verantwortlichen.
Datenschutz-Folgenabschätzung (DSFA) bei KI
Die Datenschutz-Folgenabschätzung (DSFA) ist ein zentraler Mechanismus der DSGVO, der gemäß Art. 35 DS-GVO angewendet wird, um Risiken für die Rechte und Freiheiten natürlicher Personen bei der Verarbeitung personenbezogener Daten zu bewerten und einzudämmen.
Sie ist insbesondere bei Verarbeitungsvorgängen mit einem voraussichtlich hohen Risiko verpflichtend. Dies ist häufig der Fall, wenn neue Technologien wie Künstliche Intelligenz (KI) zum Einsatz kommen, insbesondere wenn die Datenverarbeitung automatisierte Entscheidungen oder große Mengen sensibler Daten umfasst.
Warum ist eine DSFA bei KI erforderlich?
KI-Systeme, insbesondere solche wie Large Language Models (LLMs), bringen spezifische Datenschutzrisiken mit sich, darunter:
- Memorization: Speicherung und unkontrollierte Reproduktion personenbezogener Daten aus Trainingsdaten.
- Bias und Diskriminierung: Verzerrte Ergebnisse, die auf unzureichend diversifizierten oder diskriminierenden Trainingsdaten beruhen.
- Transparenzprobleme: Die oft als „Blackbox“ bezeichneten KI-Systeme erschweren es, nachzuvollziehen, wie Ergebnisse zustande kommen.
- Unrichtige Ausgaben („Halluzinationen“): KI-Systeme können plausible, aber falsche Ergebnisse erzeugen.
- Eingeschränkte Umsetzung von Betroffenenrechten: Schwierigkeiten, Auskunfts- oder Löschanfragen bei KI-Modellen zu erfüllen.
Die DSFA ist notwendig, um gerade solche Risiken systematisch zu bewerten und präventiv gegenzusteuern. Sie schafft eine Grundlage, um sicherzustellen, dass KI-Systeme datenschutzkonform und vertrauenswürdig eingesetzt werden.
Wie wird eine DSFA bei KI durchgeführt?
Die DSFA folgt einem strukturierten Ansatz, der mehrere Schritte umfasst:
- Beschreibung der Verarbeitungstätigkeit: Detaillierte Dokumentation der Datenquellen, des Verarbeitungszwecks und der eingesetzten Technologien + Angabe der technischen Details, z. B. der Modellarchitektur (wie LLMs) und der Art der Trainingsdaten.
- Risikobewertung: Identifikation von Risiken wie Bias, unbefugtem Zugriff, Datenverlust und Diskriminierung. Zudem Bewertung der Eintrittswahrscheinlichkeit und der möglichen Auswirkungen auf Betroffene.
- Maßnahmen zur Risikominderung: Technische Maßnahmen: Einsatz von Verschlüsselung, Anonymisierung, Filterung von Trainingsdaten und Nachtraining zur Beseitigung von Verzerrungen. Organisatorische Maßnahmen: Mitarbeiterschulungen, interne Richtlinien zur sicheren Nutzung und Dokumentation aller Prozesse.
- Ergebnisse dokumentieren und veröffentlichen: Die DSFA-Ergebnisse müssen nachvollziehbar dokumentiert und im Falle von hohen Restrisiken mit den Datenschutzbehörden konsultiert werden.
- Kontinuierliche Überwachung: Regelmäßige Audits und Anpassungen der DSFA, um neue Risiken oder technologische Entwicklungen zu berücksichtigen.
Rechte der Betroffenen sicherstellen
Um die Rechte betroffener Personen bei der Nutzung und Entwicklung von KI-Systemen zu gewährleisten, müssen Unternehmen mehrere datenschutzrechtliche Herausforderungen meistern. Das Ziel besteht darin, sicherzustellen, dass Personen ihre gesetzlichen Ansprüche wie Auskunft, Berichtigung, Löschung oder Widerspruch effektiv geltend machen können. Die praktische Umsetzung dieser Rechte im Kontext von KI, insbesondere bei Modellen wie Large Language Models (LLMs), erfordert ein spezifisches Vorgehen (im Folgenden auf Basis der Checkliste des BayLDA):
- Verantwortlichkeiten klären: Im ersten Schritt muss das Unternehmen klären, wer für die Verarbeitung personenbezogener Daten verantwortlich ist. Im KI-Bereich unterscheidet man zwischen dem Anbieter des KI-Modells und dem Nutzer, der die KI-Anwendung einsetzt. Der Verantwortliche nach Art. 4 Nr. 7 DSGVO ist verpflichtet, die Betroffenenrechte sicherzustellen.
- Auskunft und Transparenz sicherstellen: Personen haben ein Recht darauf zu erfahren, ob ihre Daten verarbeitet wurden, welche Daten dies sind und zu welchem Zweck dies geschah. Unternehmen können dies erleichtern, indem sie die Herkunft und Verwendung personenbezogener Daten in KI-Systemen umfassend dokumentieren. Die Protokollierung von Trainings- und Verarbeitungsdaten ist hierbei essenziell.
- Löschung und Berichtigung umsetzen: Ein häufiges Problem bei LLMs besteht darin, dass personenbezogene Daten in den internen Wahrscheinlichkeitsparametern der Modelle gespeichert sind. Die Umsetzung eines Löschungsersuchens kann durch sogenanntes „Nachtraining“ erfolgen, bei dem die entsprechenden Daten gezielt aus dem Modell entfernt oder neutralisiert werden. Dabei ist sicherzustellen, dass die Löschung einzelner Datenpunkte das Gesamtmodell nicht beeinträchtigt.
- Technische Maßnahmen einführen: Technische Lösungen wie Filter können verhindern, dass bestimmte personenbezogene Daten in den Ausgaben des Modells erscheinen. Diese Filter ersetzen jedoch nicht die Löschung im Modell selbst, sondern bieten nur eine Barriere gegen ungewollte Datenfreigaben. Ergänzend können Algorithmen zur automatischen Datenbereinigung oder Anonymisierung eingesetzt werden.
- Prozesse für Betroffenenanfragen etablieren: Unternehmen sollten standardisierte Prozesse schaffen, um Anfragen von Betroffenen effizient zu bearbeiten. Hierzu gehören:
- Kontaktmöglichkeiten für Betroffene, um Rechte geltend zu machen.
- Klare Fristen zur Bearbeitung der Anfragen.
- Ein interdisziplinäres Team, das technische, rechtliche und organisatorische Aspekte vereint.
- Fehlertoleranz und kontinuierliche Verbesserung: Da KI-Systeme oft fehleranfällige Ausgaben produzieren können („Halluzinationen“), sollten Unternehmen regelmäßig überprüfen, ob personenbezogene Daten korrekt verarbeitet wurden. Iterative Nachtrainings und Anpassungen der Modelle gehören zu einer datenschutzfreundlichen Praxis.
- Sensibilisierung und Schulung: Mitarbeitende, die KI-Systeme entwickeln oder nutzen, sollten umfassend geschult werden. Ziel ist es, ein Bewusstsein für Datenschutzrisiken und die Einhaltung von Betroffenenrechten zu schaffen.
Datenbeschaffung: Scraping & Crawling
Scraping und Crawling sind Techniken, die bei der Entwicklung von KI-Systemen eine Schlüsselrolle spielen. Beim Scraping werden gezielt bestimmte Inhalte von Webseiten, wie Text oder Bilder, extrahiert und gespeichert. Crawling hingegen analysiert umfassend Webseiten und erstellt oft nur Verweise zu deren Inhalten. Beide Methoden sind essenziell für die Sammlung großer Datenmengen, die für das Training von KI-Systemen benötigt werden. Gleichzeitig werfen sie erhebliche datenschutzrechtliche Fragen auf.
Im Kontext der DSGVO wird jede Handlung, die mit personenbezogenen Daten verbunden ist, als Verarbeitung definiert. Das umfasst das Erheben, Speichern, Ordnen, Anpassen oder Löschen solcher Daten. Beim Scraping und Crawling ist es kaum vermeidbar, dass auch personenbezogene Daten erfasst werden, beispielsweise durch Metadaten in Bildern oder personenbezogene Informationen in Texten. Diese Daten werden oft ohne Zustimmung der Betroffenen gesammelt, was datenschutzrechtlich problematisch ist. Die Rechtfertigung solcher Datenverarbeitungen ist komplex, da eine Einwilligung der betroffenen Personen praktisch nicht einholbar ist, besonders bei der Verarbeitung großer und unstrukturierter Datenmengen.
Die DSGVO verlangt, dass jede Verarbeitung personenbezogener Daten auf einer Rechtsgrundlage basiert. Besonders relevant ist dabei Art. 6 Abs. 1 lit. f DSGVO, der die Verarbeitung erlaubt, wenn sie zur Wahrung berechtigter Interessen erforderlich ist und keine Interessen oder Grundrechte der Betroffenen überwiegen. Doch selbst bei sorgfältiger Interessenabwägung können Rechtsverstöße eintreten, etwa wenn sensible Daten unrechtmäßig verarbeitet werden.
Die Risiken gehen über rechtliche Implikationen hinaus. Die DSGVO sieht bei Verstößen hohe Bußgelder vor, die bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes eines Unternehmens betragen können. Diese Sanktionen stellen für Unternehmen nicht nur ein finanzielles Risiko dar, sondern können ihre gesamte Geschäftstätigkeit gefährden. Besonders kritisch wird es, wenn Verstöße systemisch oder über einen längeren Zeitraum auftreten, da dies zu einer Rufschädigung und einem Vertrauensverlust bei Kunden und Partnern führt.
Es zeigt sich, dass Unternehmen bei der Nutzung von Scraping und Crawling sowie bei der Verarbeitung personenbezogener Daten durch KI-Systeme sehr sorgfältig vorgehen müssen. Datenschutz muss von Anfang an berücksichtigt werden, und es sind Maßnahmen wie Pseudonymisierung, Anonymisierung und transparente Prozesse notwendig, um die Risiken zu minimieren und den rechtlichen Anforderungen zu genügen.
Die Anfragen bei mir zeigen: Sehr viele sind bislang nicht in der Realität angekommen … da werden Unmengen von Daten gesammelt, Systeme werden trainiert und kurz bevor man dann das System einsetzen möchte, wird pro Forma beim Anwalt angefragt, der das abnicken soll. Wenn man dann das Haftungsrisiko erklärt, wird es still. Gerade bei KI-Systemen gilt: Der juristische Berater muss von Anfang an dabei sein, wer hier geizt, zahlt am Ende um ein vielfaches drauf.
KI & Datenschutz: Ausblick
Die Orientierung an diesen Leitlinien stellt sicher, dass Unternehmen KI verantwortungsvoll einsetzen und gleichzeitig den Schutz personenbezogener Daten gewährleisten. Sie zeigen, dass Datenschutz nicht als Hindernis, sondern als integraler Bestandteil nachhaltiger Innovation verstanden werden sollte.
Die DSFA ist ein unverzichtbares Instrument, um den Einsatz von KI datenschutzkonform zu gestalten. Sie hilft Unternehmen nicht nur, regulatorische Anforderungen zu erfüllen, sondern trägt auch dazu bei, das Vertrauen der Nutzer und Partner in die Integrität der KI-Systeme zu stärken. Durch die Kombination aus technischer Sorgfalt und rechtlicher Absicherung können Unternehmen sicherstellen, dass KI nicht nur innovativ, sondern auch verantwortungsvoll eingesetzt wird.
Die Gewährleistung der Betroffenenrechte in KI-Systemen erfordert eine Kombination aus rechtlichen, organisatorischen und technischen Maßnahmen. Transparenz, Dokumentation und technische Anpassungen wie Nachtraining sind zentrale Elemente, um den Anforderungen der DSGVO gerecht zu werden. Unternehmen sollten dies als Chance sehen, das Vertrauen der Nutzer zu stärken und gleichzeitig rechtliche Risiken zu minimieren. So wird Datenschutz ein integraler Bestandteil der Innovationsstrategie.
- Gewährleistungsrecht bei KI-Systemen: Worauf Unternehmen achten sollten - Januar 5, 2025
- Datenschutz und Künstliche Intelligenz - Dezember 23, 2024
- Künstliche Intelligenz und Vertragsrecht - Dezember 21, 2024