Zum Inhalt springen

KI und Datenschutz – Prof. Dr. Tobias Keber im Datenschutz Talk Podcast

    KI und Datenschutz - Prof. Tobias Keber im Datenschutz Talk Podcast
    Moderation:
    avatar
    Heiko Gossen
    Zu Gast:
    avatar
    Prof. Dr. Tobias Keber

    Prof. Dr. Keber hat in diesem Jahr die Nachfolge von Stefan Brink als Landesbeauftragter für den Datenschutz in Baden-Württemberg angetreten. Im Datenschutz ist er aber bei weitem kein Unbekannter, sondern lehrte bisher sogar als Professor zu dem Thema an der Hochschule für Medien in Stuttgart.
    In dieser Themenfolge spricht Heiko Gossen mit Prof. Keber über die Herausforderungen, die künstliche Intelligenz im Unternehmenseinsatz mit sich bringt. Es geht ihm aber nicht darum, KI zu verteufeln, sondern konstruktiv mit dem rechtlichen Möglichkeiten den Einsatz datenschutzseitig zu begleiten und zu unterstützen.

    Behandelt werden u.a.:

    • KI-Trainingsdaten und kompatible Zwecke
    • Personenbezogene Daten im KI-Model
    • Bias und Datenschutz
    • Auskunft über automatisierte Entscheidungen
    • Datensparsamkeit bei Einsatz von KI
    • Beispiel Grap & Go
    • Anforderungen an die Datenschutzhinweise
    • AI Act (KI Verordnung)
    • Grenzen der Zulässigkeit beim Einsatz von KI
    • Anwendung der Datenschutzgrundsätze

    Aufzeichnungen der KI Woche des LfDI Baden-Württemberg: https://tube.bawü.social/c/ki_woche_lfdi/videos

    Weitere Infos, Blog und Newsletter finden Sie unter: https://migosens.de/newsroom/

    Twitter: https://twitter.com/DS_Talk

    Übersicht aller Themenfolgen: https://migosens.de/datenschutz-podcast-themenfolgen/
    (als eigener Feed: https://migosens.de/show/tf/feed/ddt/)

    Instagram: https://www.instagram.com/datenschutztalk_podcast/

    Folge hier kommentieren: https://migosens.de/ki-und-datenschutz-prof-dr-keber-im-datenschutz-talk-podcast

    #TeamDatenschutz #TeamInfoSec #DSTalk

    Transkript zur Folge: Herzlich willkommen zum Datenschutztalk, Ihrem Podcast für die Themen Datenschutz und Informationssicherheit, Mein Name ist Heiko Gossen und ich begrüße Sie heute wieder recht herzlich hier bei einer neuen Themenfolge. Es ist schon eine Weile her. Deswegen ist es halt umso schöner, dass wir heute einen besonderen Gast hier bei uns begrüßen dürfen und gleichzeitig auch ein sehr aktuelles und Spannendes Thema uns vorgenommen haben. In diesem Sinne begrüße ich ganz herzlich Herrn Professor Doktor Keeper seines Zeichens Landesdatenschutzbeauftragter in Baden-Württemberg. Herzlich willkommen Herr Professor Keeper. Ja, hallo zusammen. Freue mich, dass ich hier sein kann. Herr Keber, ich darf Sie kurz vorstellen. Sie sind schon sehr lange im Datenschutz äh tätig, auch wenn Sie, Vielleicht äh im Rahmen der Aufsichtsbehördlichen Tätigkeit neu sind. Sie haben schon äh Ende der 90er Jahre Rechtswissenschaften studiert und zweitausendacht promoviert. Wenn ich das äh richtig sehe, sind sie 2tausend3zehn, also jetzt seit zehn Jahren Mitglied des Herausgeberbeirats der RDV, der Zeitschrift für, Datenschutzinformations- und Kommunikationsrecht, sowie Mitglied des wissenschaftlichen Beirats der Gesellschaft für Datenschutz und Datensicherheit der GTD, ein unter Datenschützern glaube ich doch äh sehr wohl bekannter Verein und sie wurden im Mai 24. Mai diesen Jahres, also einen Tag vor fünfjährigem DSGVO Geburtstag, dann äh im Landtag Baden-Württemberg zum Landesdatenschutzbeauftragten gewählt. Und wenn ich das jetzt auch hier richtig zitiere, hat Direktor der Hochschule, wo sie bis dato als Professor tätig waren, sie gelobt und gesagt, dass sie temporär ähm man sie gehen lassen möchte. Das heißt also, sie planen dann nach ihrer Tätigkeit als Landedatenschutzbeauftragter wieder Die Rückkehr an die Hochschule. Genau, also ich bin beurlaubt formal und habe das immer sehr gerne gemacht. Also ich war sehr sehr gerne Hochschullehrer und ähm war auch, gut ganz ganz früher im in meinem vorigen Leben auch mal als Anwalt tätig, das habe ich auch gerne gemacht ähm also von daher es ist immer so ein bisschen schade, wenn man wenn man eine Tätigkeit aufgibt und äh ja, also vor dem Hintergrund würde ich’s würde ich gerne wieder zurück in die Lehre, ja. Ja, wir hoffen natürlich, Sie trotzdem eine Zeit lang natürlich dann auch äh regelmäßig in ihrer Tätigkeits-, Landsdatenschutzbeauftragte zu sehen und zu hören. Ich habe Sie gehört, auf der Konferenz dieses Jahr und da haben Sie zum Thema künstliche Intelligenz gesprochen und ein paar Use Cases vorgestellt. Was äh ich sehr spannend fand, weil sie doch glaube ich dahingehend erst mal das ganze Thema nicht verteufelt haben. Sondern durchaus Chancen sehen, dass auch datenschutzkonform hinzukriegen. Und da habe ich mir gedacht, das ist auch eine eine gute Basis, um halt auch für die Praxis vielleicht Hilfestellung zu geben. Das ist ja das, was wir uns hier im Datenschutz-Talk auferlegt haben. Für die Praxis halt auch Hilfestellungen zu geben, also sehr. Praxisnahe Themen zu behandeln und von daher freue ich mich sehr, dass sie zugesagt haben heute hier mit mir die das Thema KI einmal durchzugehen und Ja, an der ein oder anderen Stelle vielleicht ein bisschen tiefer zu legen. Ja, sehr gerne und vom vom Grundsatz her tatsächlich der Ansatz kann ja nicht sein, alles direkt verbieten, sondern man muss tatsächlich überlegen und das müssen wir als Europäer, glaube ich, tun, versuchen ähm sowohl innovativ zu sein als auch unsere Werte äh in die Innovation reinzukriegen. Das heißt also KI mit Datenschutz, nicht gegen, sondern sondern sondern sondern mit das ist nicht immer einfach ne und da gibt’s ganz viele Fragen, die auch noch offen sind, aber ich glaube, es lohnt sich, dadrüber nachzudenken, ja. Ich hoffe, wir können das ein oder die eine oder andere Frage heute vielleicht äh uns ein wenig nähern, auch wenn wir sie sicherlich nicht alle abschließend beantworten können. Wie Sie schon sagen, es ist natürlich ein innovatives Thema und damit auch eins, was wahrscheinlich auch nicht mehr wegzudenken sein wird. Also von daher finde ich den Ansatz erstmal natürlich gut zu sagen, wir kriegen das halt hin, dass wir das Thema in der Wirtschaft, Nicht direkt verteufeln. Auch das ist ja in den letzten Monaten immer wieder mal ein ein Thema, was halt durch ja auch Befragungen auch von Bitcom jetzt noch mal zutage gefördert wurde, inwieweit halt Datenschutz oft als Verhinderer wahrgenommen wird. Und wir glaube ich hier heute vielleicht auch dafür nochmal eine Lanze brechen können, dass man das nicht unbedingt als Verhinderer äh sehen muss, sondern im Gegenteil, dass Datenschutz halt durchaus sich vereinbaren lässt, auch mit moderner Technik und Innovation. Bevor wir einsteigen in die in die rechtlichen Fragestellungen, vielleicht noch mal so ein bisschen beleuchtet, wo fängt denn überhaupt dieses Datenschutzthema an, weil wir natürlich, wenn wir über KI sprechen, sehr viele Menschen jetzt grade durch die jüngsten, Chad GPT vielleicht vor Augen haben, also generative KI, aber tatsächlich ist es ja ein Thema, was sowohl in der Anwendung von sehr vielen Tools und Systemen und auch Onlinetools, die man heute zur Verfügung hat, natürlich schon Einzug gefunden hat, also vielleicht auch an vielen Stellen heute schon unmerklich im Hintergrund werkelt. Und neben der reinen Nutzung, die natürlich datenschutzrechtliche Fragen aufwirft, der durchaus auch in der Vorbereitung ein Thema ist, weil auch das, Haben wir in den letzten ja Jahren ja immer wieder als Thema ist halt das ganze Thema Trainingsdaten und vielleicht Fangen wir da mal an bei dem Thema äh Trainingsdaten, da kommt man ja an vielen Stellen einfach zu dem Thema, dass man oder zu der Fragestellung, welche Daten darf ich denn da überhaupt verwenden und unter welchen Voraussetzungen kann ich denn überhaupt, Als Trainingsdaten verwenden. Wie sehen Sie da als Aufsichtsbehörde erst mal äh drauf und äh welche Erfahrungen haben Sie vielleicht auch schon bisher in diesem Bereich gemacht? Ja, also um das Ganze zunächst mal so ein bisschen einzuordnen, weil bei der aktuellen Debatte dann immer sehr schnell geschaut wird, na ja, was sind eigentlich die Regeln der KI-Verordnung, die momentan ausverhandelt wird oder beziehungsweise auf der letzten Meile, wenn’s gut geht? Ausverhandelt sein könnte Ende des Jahres, Aber das Erste, was man sich ganz klar machen muss, also KI und Datenschutz ist jetzt sozusagen äh im Sinne von die KI-Verordnung wird da einiges regeln, das ist ganz klar, gerade für Hochrisiko, KI und so weiter, Aber solche Fragen, wie sie wie sie ansprechen, Trainingsdaten, das äh bestimmt sich, nach Maßgabe der der Datenschutzgrundverordnung. Also ist erst mal eine ganz wichtige Erkenntnis. Die Datenschutzgrundverordnung ist technisch neutral. Aufgesetzt. Äh so hat man sich das damals überlegt und das war eigentlich auch eine gute Idee. Äh das bedeutet, äh man muss diese Techniken in die Datenschutzgrundverordnung ähm hineinlesen beziehungsweise subsumieren. So und dann kommt’s eben drauf an, das ist jetzt das Nächste, was man sich klarmachen muss, was ist überhaupt KI und da könnte ich jetzt natürlich sagen, wie definiert das die KI-Verordnung Da ist sie ganz umstritten diese Definition, ja? Äh welche nimmt man da, aber für die Anwendung der Datenschutzgrundverordnung brauchen wir das erst mal gar nicht. Weil bei uns im Prinzip einfach fragen müssen, okay, was macht ein Dienst, wie geht der mit bestimmten Daten um und dann kann man, um sich das Ganze ein bisschen klarer zu machen, noch verschiedene Verarbeitungsschritte unterscheiden, kann also überlegen, na ja so ein KI-System, was macht das mit Daten, wann, ne? Und dann wäre die erste Phase tatsächlich. Das Training. Ne, also das heißt das Modell, das dann später genutzt wird äh bei diesem KI-System muss ja in irgendeiner Weise trainiert worden sein. Und dann ähm kommt der Datenschützer und stellt erstmal ganz berechtigt äh die Frage, tja, wo kommen denn die Daten eigentlich her? Ja und äh das kommt jetzt auf den Dienst an. Das kann das große und freie Internet sein. Ja, also da liegen ja wahnsinnig viele Daten rum. Jetzt könnte ich als Diensteanbieter sagen, nehme ich das doch, dann scrape ich Internetseiten, um’s jetzt mal ganz platt zu formulieren, greife darauf zu, Oder es kann natürlich auch spezifisch äh trainiert werden mit bestimmten Daten in einem Unternehmen zum Beispiel, äh dass ich sage, na ja, ich habe zu einem bestimmten Zweck Daten erhoben im Kontext Personal zum Beispiel, Dann habe ich da bestimmte Verträge äh der Mitarbeitenden liegen und jetzt komme ich auf die Idee, ach, mit den Daten könnte ich ja noch was machen Das heißt, also da muss man erst mal gucken, wo kommen die Trainingsdaten her und dann ist man schon beim ersten Problem, zu welchem Zweck sind sie mal erhoben worden und ist das, was ich jetzt damit tun möchte im Rahmen der KI ein ganz anderer Zweck, ist das ein Kompatibler Zweck? Jetzt Gehen wir dann schon in die Details zu sechs, Absatz vier, aber tatsächlich also bei dieser man muss sich die Phasen sich genau angucken. Man muss genau sagen, was passiert, also welche Daten werden erhoben. Und äh in welchem Kontext sind die erhoben worden? Das ist mal die allererste Frage. Die äh ist immer vielen Dank. Also die Frage natürlich ist ja immer vor allen Dingen davon abhängig, wofür trainiere ich eigentlich meine KI. Wir haben das so ein richtiger oder dankeswerterweise nochmal kurz erläutert, dass wir hier über Modelle sprechen die also nachher ja bestimmten ja in der Regel ja ähm neuronalen Netzen funktionieren, die also letztendlich, brauchen, um um trainiert zu werden und jetzt hängt’s natürlich sehr genau vom Zweck ab, wofür möchte ich nachher diese KI auch verwenden. Zumindest wäre das jetzt bei mir erstmal der Ansatzpunkt, zu sagen, wenn ich über kompatiblen Zweck spreche und ich gehe jetzt mal vielleicht in dem, was im Unternehmen, Wenn ich jetzt überlege, die meisten Unternehmen werden wahrscheinlich weniger jetzt vielleicht selber KIs entwickeln, sondern viel mehr auf der Anwenderseite sein. Und wollen jetzt vielleicht eine KI-Einführung, die Ihnen helfen, bestimmte operative Prozesse im Unternehmen zu verbessern? Oder zu erleichtern und dafür möchte ich jetzt in meinem Unternehmen meine eigenen Daten verwenden, um so eine KI anzulernen. Also das heißt, ich habe jetzt vielleicht eine große Personaldatenbank und möchte jetzt auf diesen Personaldaten meine KI anlernen, um danach bestimmte Vielleicht zu automatisieren oder zumindest zu supporten wären wir dann aus Ihrer Sicht oder kämen, wer ist da sozusagen denkbar, dass wir da tatsächlich in so einem Bereich von einem kompatiblen Zweck kommen, weil es halt unterm Strich. Im weitesten Sinne auch um Personaldatenverarbeitung gehen würde. Ja, das ist da kommt’s auf den Einzelfall natürlich sehr stark an. Äh was war der ursprüngliche Zweck und ähm wir haben ja diese Kompatibilitätsprüfung im Artikel sechs, Absatz vier der Datenschutzgrundverordnung und da muss man sich das im Einzelfall muss man das durchdeklinieren und muss sich aber anschließend die Frage stellen dieser dieser Streit ist ja in der Kommentarliteratur nicht neu. Mir ist aber in letzter Konsequenz noch nicht so richtig gelöst. Ähm man muss sich die Frage stellen, tja Dieser sechs Absatz vier mal unterstellt, ich kriege das hin mit dem Kompatibilitätstest, ja? Ähm taugt er als Rechtsgrundlage oder, Brauche ich immer noch zusätzlich zu diesem sechs Absatz vier. Eine Rechtsgrundlage aus sechs Absatz eins ne und das das ist ja traditionell relativ umstritten und die Aufsichtsbehörden, soweit ersichtlich haben dann eine relativ strenge Auffassung, sagen also, dass der sechs Absatz vier alleine nicht rechtfertigen kann. Nach meinem Verständnis geht’s ja vor allen Dingen darum, immer um die Frage inwieweit ändert sich die Rechtsgrundlage, also wenn ich jetzt eine ähnliche Rechtsgrund oder einen ähnlichen Zweck habe, kann ich die gleiche Rechtsgrundlage eventuell weiterverwenden oder, muss ich gegebenenfalls, wenn ich eine ganz andere Rechtsgrundlage habe, dann gehe einfach mal informieren, richtig? Da da liegt eigentlich der Hase im Pfeffer, ne? Also wenn wenn dieser Zweckwechsel ähm äh ja vorliegt ähm dann müssen sie den Menschen das erklären, ne, also das, Problem der der Informations- und Transparenzpflichten und wenn man das macht ähm muss ich sagen, dann ist ja eigentlich wenn wenn Zweck der Datenschutzgrundverordnung ist, Betroffene zu schützen und ja ihnen bestimmte Datenverarbeitungsvorgänge auch zu erklären, damit sie gegebenenfalls, Einwilligen können, aber das ja spielt auch bei bei äh sechs F, also bei dem, Dem ähm Interesse an der Datenverarbeitung eine Rolle. Und wenn man wenn man das äh ausreichend erklärt, dann trägt das ja zu dem Schutz der Betroffenen schon ja bei und äh wenn wenn das erfolgt, wenn ich das dann erkläre, dass ich das jetzt zu einem anderen Zweck, verarbeite, dann ist ja viel ja oder ein gutes Stück der der der DSGVO schon Rechnung getragen. Wenn wir jetzt so eine KI trainiert haben, dann kommt ja irgendwann natürlich der der Anwendungsfall und was ja immer auch ein Stück weit diskutiert wird, ist natürlich inwieweit innerhalb einer KI denn nachher noch personenbezogene Daten enthalten sind oder erhalten bleiben, selbst wenn ich jetzt zum Training abgeschlossen habe, kann ich ja nie ganz ausschließen, dass natürlich auch in so einem äh neuronalen Netzwerk nachher natürlich noch bestimmte Informationen sich wieder auch extrahieren lassen. Wir sehen’s ja unter anderem auch an so Fällen, wie wir sie jetzt auch bei JPT mal immer wieder in der Diskussion hatten, wo es halt Leute auch drauf anlegen. Wieder irgendwelche Daten zu extrahieren. Jetzt ist das natürlich eine KI, die laufend weiter, lernt und entwickelt. Wenn ich aber mal jetzt mal etwas einfacher gestrickten Fall vielleicht nehme und sage, ich habe sie trainiert und jetzt ist sie habe ich mein Modell sozusagen entwickelt und das ist halt trainiert und ich schließe jetzt diesen Lernzyklus ab. Wie wie blicken Sie darauf? Wie wie intensiv muss ich jetzt als Unternehmen mich mit dieser Frage tatsächlich beschäftigen, welche Daten können denn überhaupt noch dann in so einem Modell drin sein oder auch nicht und vor allen Dingen natürlich die ganzen Fragen, die ja dann im im Hintergrund sozusagen auch noch dadran hängen, ist natürlich die Frage, was mache ich eigentlich, wenn Betroffene nachher noch mal Sinnrecht geltend macht wie muss ich denn eigentlich mir da Gedanken zu machen, ob in so einem Netzwerk, in so einem Modell nachher noch personenbezogene Daten enthalten sein können? Ja, über die Frage des personenbezugs, damit sie sich immer Gedanken machen, weil je nachdem, äh also wenn sie’s ausschließen können, dann haben sie kein Problem. Das ist ja eine Binse, eine datenschutzrecht Wenn echte Anonymisierungen vorlege, dann dann ja, werden wir im Anwendungsbereich äh gar nicht mehr unterwegs, aber äh natürlich ist das meistens nicht so Ich will gar nicht ausschließen, dass ähm nur ein bisschen überlegen, weil was könnte denn der Kontext im ja im Unternehmen sein? Wir nehmen mal an, Sie haben einen einen Sprachmodell, das Sie einsetzen über eine Schnittstelle, also über eine API. Und wenn sie das äh durch Procys äh oder welcher Techniken sie auch immer äh sich bedienen, äh so verschleiern jetzt mal ganz einfach erklärt, Dass eine personenbeziehbarkeit zu den zu den Eingaben, die sie machen, nicht mehr hergestellt werden kann, dann mag es auch äh durchaus möglich sein, äh ein solches Sprachmodell über eine Schnittstelle letztlich einzusetzen, aber sie müssen sich immer über diese Frage des Personenbezugs äh letztlich Gedanken machen. Und wenn man jetzt die Frage stellt, wann, also die die Vorfrage wäre ja, ist trainiert worden mit personenbezogenen Das ist die allererste Frage. Ja und jetzt könnte Ihnen der Anbieter an der Stelle schon sagen, ja nö, ist gar nicht so. Habe ich alles anonymisiert ne? Und dann ist natürlich die Frage, kann ich mich dadrauf verlassen? Darf ich mich da drauf verlassen, ja? Äh oder ja wenn ich davon ausgehen äh muss, Das große, weite Internet äh wurde zum Training äh benutzt, dann muss ich eigentlich davon ausgehen, ja da werden wohl personenbezogene Daten dabei gewesen sein und wenn die nicht anonymisiert wurden, ähm dann äh ja, ist eigentlich der ganze Datenbestand potenziell, personenbezogen oder personenbeziehbar. Das heißt, ich bin grundsätzlich äh hier äh in der Problematik drin. Erste Phase Training. So, jetzt sind die aber in das Modell überführt worden. Liegen also nicht mehr eins zu 1 vor. Jetzt kommt so ein bisschen drauf an, welcher Technik sie sich bedienen beim maschinellen Lernen. Aber ähm jetzt äh wird sozusagen der Personenbezug äh zumindest ein Stück weiter entfernt. Die Frage, die große und spannende Frage ist nur, wie weit Also die personenbezogenen Daten aus den Trainingsdaten auch im Modell noch drin sind. Ja und da streiten sich die Datenschützer jetzt äh schon, darüber und ähm man wird vielleicht sagen können, auch das ähm das sind alles Fragen, die im Wesentlichen im Maschinenraum äh geklärt werden, wie ich immer sozusagen pflege. Also da müssen sie sich genau angucken, ähm wie die Techniken sind. Und ja, dann wird man, wenn man da jetzt die Rechtssprechung drüberlegt, äh das, was man also so hat, äh an Rechtssprechung zu Anonymisierung und Pseudonymisierung, also EuGH, äh Breier und EuG Deloid. Und äh bei allen offenen Fragen, die wir da noch haben, aber da wird man dann sagen können, na ja, also ähm wenn eine Person Beziehbarkeit noch im Raum steht, dann sind wir noch in der DSGVO unterwegs. Und dann kann man sich an der Stelle die Frage stellen, tja, komme ich denn irgendwie an die personenbezogenen Daten wieder ran? Äh und dann, Sie haben’s angesprochen, das liest man immer wieder. Sie haben bestimmte Angriffsmethoden, Auf äh diese diese Modelle, also ähm diese diese Modelattacks, die gibt’s in verschiedenen Szenarien, also Model-Inversion und und wie die alle heißen. Einfach gesprochen, ich versuche äh über einen über einen Anwendungsserio, dass äh eigentlich eine irreguläre Nutzung ist im weitesten Sinne, würde ich fast mal sagen, dass man also ähm auf dass man die Trainingsdaten wieder rauskriegt. Ja, also ich ich kitzle das Modell mit mit pfiffigen Prompts, um äh auf die personenbezogenen Trainingsdaten wieder schließen zu können, Ja und wenn ich das machen kann und das auch noch einigermaßen wahrscheinlich ist, dass es passiert, dann bin ich wohl noch im Rahmen des Personenbezugs, ne? Mhm. Wenn wir jetzt mal in Anwendungsfälle gehen, die vielleicht weniger mit so Proms arbeiten, wo ich quasi solche Attacken jetzt als User wirklich fahren kann, vielleicht mal eher zu so Modellen, wo ich mit, Bilderkennung zum Beispiel arbeite, wie sie ja in in äh Videosystemen teilweise ja auch genutzt werden, wo ich also vielleicht gar nicht so eine so eine freie Eingabe habe. Vielleicht ganz gutes Beispiel, wenn ich so eine Bilderkennungssoftware nehme, die mir halt den äh die Person identifiziert, dann habe ich natürlich in so einem Modell im Zweifelsfall ja, bestimmte, Parameter, die ist ja in irgendeiner Art und Weise nachher biometrische Daten sein können, die es ja in irgendeiner Art und Weise ermöglichen können das mit anderen Quellen wieder abzugleichen, um überhaupt eine Person zu identifizieren. Wie oder haben sie da eine Idee, wie wie kriegt man das halt unter Datenschutzgesichtspunkten irgendwie gegriffen so ein Modell, wenn ich sage, da sind halt, wie gesagt, für Trainingsdaten natürlich personenbezogene Daten zwangsläufig eingeflossen. Ja also, wie gesagt, man man wird sich das bei den verschiedenen Techniken und bei den verschiedenen Anwendungen angucken müssen, die personenbeziehbarkeit, wenn ich’s jetzt mal versuche, sehr, sehr allgemein zu zu formulieren, wenn sie da die Rechtsprechung drüberlegen, äh die, die, die wir haben, dann ähm ja haben wir ja schon ein ein relativ enges äh Konzept, das also grundsätzlich davon ausgeht, dass eine personenbeziehbarkeit noch möglich ist, es einen Anonymisierung, Pseudonymisierung. Wir haben da momentan Guidelines, die vom extra entwickelt werden, wo alle eigentlich drauf warten, dass man da so bisschen was Klärendes bekommt. Vielleicht wird man ein bisschen enttäuscht sein, denn diese diese Papiere oder das Papier, ist schon seit Jahren in der Mache, wo man also wirklich versucht, auch use cases äh äh zu zu äh zu bilden wo man noch von Personenbezug oder schon von Anonymisierung sprechen kann. Dieses Papier, wenn es jetzt mal fertig ist, äh das ist demnächst wohl so und die nächsten Monate kann man damit rechnen und dann wird aber die KI schon wieder Fragen aufgeworfen haben, Die das Ganze schwer ja für die für die Praxis machen. Man kann also das wird wohl politisch jetzt nicht unbedingt, Tja ähm realistisch sein, aber man könnte mit guten Gründen sagen, wir brauchen eigentlich äh so etwas wie eine spezielle. KI-Datenschutzverordnung. Also wir haben ja auch die Datenschutzgrundverordnung als allgemeines Konzept Und für den Bereich ähm elektronischer Kommunikation, Internet gab es damals schon unter Geltung der Datenschutzrichtlinie eine spezielle E-Privacy, ähm dann hätte es geben sollen, die E-Privacy-Verordnung, also die zu Zuhörenden kennen wahrscheinlich diese ganze Problematik Und wenn man aber da sagt, ähm die die äh elektronische Kommunikation, die hat so spezielle Fragen, die man am besten auch in einem Rechtsakt speziell adressiert, weil es überwiegend technisch ist. Sprechen mindestens genauso viele Gründe dafür, zu sagen, Ja im im Bereich der KI brauchen bräuchten wir eigentlich eine spezielle KI-Datenschutz äh Verordnung, die grade diese technischen Fragen personenbezug bei einem Modell. Vielleicht versucht an an ein bisschen konkreter zu greifen. Ähm politisch ist das allerdings äh glaube ich, ja äh nicht nicht realistisch. Äh von daher müssen wir uns mit dem behelfen, ähm was wir haben, Und da sind allerdings auch, muss man sich an die eigene Nase greifen, äh auch die Aufsichtsbehörden gefordert durch Orientierungshilfen, Diskussionspapiere oder Ähnliches ähm ein bisschen zu helfen. Wenn wir den nächsten Schritt uns betrachten, also den den Trainingsteil einmal abhaken, und jetzt schauen, inwieweit wir im Bereich der Nutzung von KI, letztendlich auch Datenschutzthemen ja typischerweise haben können. Hm, Da habe ich ja oder beziehungsweise vielleicht so die Brücke, die auch oft diskutiert wird, wenn es um das Thema Trainingsdaten geht und nachher die Nutzung. Ich glaube, das ist an der Stelle ähm tatsächlich dann dann ein guter Übergang. Ist natürlich das ganze Thema, Bios, also, Wie schaffe ich es, letztendlich auch nachher Trainingsdaten zu haben, die eine gewisse Neutralität haben, um halt nicht durch alleine schon einen gewissen äh Vorurteile oder Fehler, die in in den Trainingsdaten liegen nachher auch natürlich in dem, was die KI mir an, Outscome andern sozusagen Outputs liefert, genau die gleichen Themen, hat. Wir kennen die Fälle, mit der er zum Beispiel Einstellungsverfahren bei Amazon, wo halt ein ähm sehr lange es gedauert hat, bis aufgefallen ist, dass zum Beispiel ja bestimmte Geschlechter bevorzugt wurden. Wie weit würden Sie das auch unter einem Datenschutzaspekt sehen oder ist es ein Thema, was vielleicht auch gar nicht so sehr in erster Linie ein ein Datenschutzaspekt darstellt? Also wie weit muss ein Datenschützer sich dieses Themas annehmen? Hm ja, das ist eine gute Frage. Die die Datenschutzgrundverordnung, Kann flankieren, glaube ich. Äh es gibt natürlich spezielles Antidiskriminierungsrecht, ähm AGG oder auch die KI-Verordnung hat da einen deutlicheren Fokus sage ich mal, bei dem Problem, weil es aber, Auch die Datenschutzgrundverordnung ähm sieht zum Teil Probleme, wenn wir im Kontext zum Beispiel von Artikel 22 unterwegs sind Dann gibt es in der äh Datenschutzgrundverordnung äh auch mit Blick auf Auskunft und Informationspflichten ja die Regel. Dass, wenn solche Systeme zum Einsatz kommen, die involvierte Logik zumindest zu erklären ist und das äh kann dann durchaus auch Effekte haben, die, einem bei ist zumindest entgegenwirken. Aber als echtes ähm Antidiskriminierungsrecht vollwertig äh würde ich die Datenschutzgrundverordnung jetzt nicht, abschließend ja bewerten wollen, aber die kann tatsächlich helfen. Also ähm im Zuge des des äh des 2zwanzig und ähm der der involvierten Logik Was ganz interessant ist in diesem Zusammenhang und meines Erachtens nach, einfach auch in der öffentlichen Diskussion. Ja vielleicht deutlicher zum Ausdruck, kommen könnte meines Erachtens. Weil wir zum Teil abwägen müssen oder häufiger abwägen müssen zwischen verschiedenen Rechtsgütern, und das die informationelle Selbstbestimmung und ja der Datenschutz ist, ganz wichtig in diesem Kontext, aber es gibt eben auch noch andere. Ja Aspekte, die konfigieren können. Und in diesem Zusammenhang, gerade mit, ist eine Regelung, die ist noch nicht ausverhandelt, aber äh sie ist interessant in dem Entwurf der. KI-Verordnung, da gibt’s ja mittlerweile eine eine Parlamentposition, die das an der Stelle noch mal so ein bisschen ja ähm modifiziert, aber schon im im, Aufschlag der Kommission ähm ist das Problem äh adressiert worden äh und zwar in Artikel 10 ähm der KI-Verordnung. Da geht es um Hochrisiko-KI Systeme, Und als Datenschützer findet man dann einen Absatz 5 des des Entwurfs, äh zumindest sehr interessant, ähm das zur Kenntnis zu nehmen, denn dort heißt es, wenn es für die Beobachtung Erkennung und Korrektur von Verzerrungen, Das ist genau dieser Ball ist, ne, Verzauberung. Im Zusammenhang mit Hochrisiko-KI-Systemen unbedingt erforderlich ist, dürfen die Anbieter solcher Systeme besondere Kategorien personenbezogener Daten. Ich vereinfache jetzt ein bisschen Verarbeiten. Heißt, Manchmal braucht man ja Daten, um Diskriminierungsfrei ein System äh ausgestalten zu können, ja? Das heißt, die die Vorschrift, die sagt hier und äh wenn ich diese Daten brauche, dass das dürfen sogar sensible Daten, also Artikel 9 Daten sein, wenn ich diese Daten brauche, um ein ordentliches, nicht diskriminierendes System zu bauen, Dann darf ich diese Daten benutzen. Das ist äh eine ganz interessante ähm eine ganz interessante Aspekt, die man sich einfach mal klarmachen muss. In der Tat spannend, dass hatte ich gar nicht so aufm Schirm, dass es da halt äh dafür eine Erlaubnisermächtigung tatsächlich in der KI-Verordnung gibt. Ich würde nochmal ganz kurz auf dieses Thema Artikel 22 und automatisierte Einzelentscheidungen beziehungsweise des Auskunftsrecht äh kommen. Sie haben ja in ihrer in ihrem Vortrag auf der Konferenz auch da berichtet, dass ihre Behörde schon auch konkrete Anwendungsfälle geprüft und äh ja letztendlich aufm Tisch hatte. Und da ist natürlich für mich so ein bisschen schon die Frage, wie sieht das in der Praxis aus, wenn halt die äh DSGVO halt letztendlich den Betroffenen hier bestimmtes Auskunftsrecht einräumt, auch über die Logik eines Algorithmus und nachher dann tatsächlich einer KI-basierten Verarbeitung, wo halt diese, Logik ja im Zweifelsfall gar nicht so extraierbar ist. Ja die also da gibt’s jetzt mehrere Punkte. Also einmal muss man sich den den 22 natürlich genau anschauen und sich auch die Frage stellen, was ist überhaupt eine eine automatisierte Entscheidung äh in diesem Kontext und da gibt es ja, Wie wir wissen, ein interessantes Verfahren beim EuGH, das noch nicht ganz abgeschlossen ist. Ich glaube, das soll aber demnächst, also in den nächsten Wochen, Spätestens Dezember, ich habe ich hatte neulich mal geguckt, ähm wann ähm EuGH Schufa, Jetzt eigentlich äh ja äh vorliegen wird. Das ist nicht mehr so lange hin. Ähm jedenfalls gibt’s ja Ausführungen des Generalanwalts, der ähm sich da schon mit der Frage auseinandersetzt, was ist eigentlich eine eine Entscheidung und ähm tja wie viel Mensch muss an der Stelle überhaupt noch im Loop sein, um ja hier von einem Verbot absehen zu können, ne? Also die die die Datenschutzgrundverordnung sagt ja, in dem zwoundzwanzig, also wenn wenn nur noch die Maschine entscheidet, ne und und und der Mensch da so gar nicht mehr äh irgendwas äh dazu sagt, dann dann ist das eigentlich erst mal nicht zulässig. Ja und ähm wie war das bei Scoring dann der Fall ist, dass das werden wir jetzt ähm äh bei der bei dem EuGH-Verfahren uns natürlich noch ein bisschen genauer angucken müssen, Das nächste äh was Sie sagen tja wie kann ich denn überhaupt Auskunft geben zu einer involvierten Logik? Es versteht doch sowieso kein Mensch. Ja und ähm also man man wird dann natürlich sagen können, na ja also ähm erklären ähm ganz technisch ähm äh wird’s vielleicht nicht bis bis in die letzte Konsequenz gehen. Ähm äh es muss erklärbar sein. Ja, also dass dass man zumindest grob hier versteht, was passiert. Und und das ist ja auf der Metaebene, also äh wenn sie’s, wenn sie’s nicht komplett erklären können, weil sie sagen, na ja, dann wär’s ja keine KI mehr. Das ist ein Stück weit ist es eine Blackbox. Das macht ja gerade diese diesen intelligenten Teil an, dass sie’s nicht vorhersagen kann. Da müssen sich’s ja trotzdem rechtlich irgendwie in den Griff kriegen und äh das machen wir an anderer Stelle, haben wir das ja auch schon gemacht. Also im im Medienrecht gab’s diese diese Diskussion äh ja auch schon lange. Wie ist das eigentlich mit Algorithmen, Algorithmen von von Google, YouTube und Co, die bestimmte Videos vorschlagen und so weiter. Das ist ja meinungs-bildungsrelevant und da müsste man’s auch erklären können und das Regelsystem sagt dann ja ist auch so, muss man erklären, nicht bis ins letzte Detail. Aber so eine Algorithmen, Transparenz light, die gibt es, ne, also so die Grundzüge der der der Logik, äh was grundsätzlich da alles in in dem Algorithmus ähm, berücksichtigt wär’s grob. Äh das kann man schon erklären, auch, Ohne, was ja übrigens auch eine Frage ist, Geschäftsgeheimnisse äh preiszugeben, denn äh diese Systeme ja sind natürlich auch ein Stück weit, Beim Geschäftsgeheimnis. Also da da gibt’s schon Mittelwege, ne? Die die man sich dann im Einzelfall angucken, Und das Nächste, was hier noch hineinspielt, weil Sie ja gefragt haben, ja, gab’s denn auch schon Beratungskontext und ja, wir haben ja in in Baden-Württemberg. Sogar schon Ansätze in der Verwaltung, also das ist noch nicht ähm final ausgerollt, dass ein Pilotprojekt F13 heißt das. Das ist eine eine KI, die in der Verwaltung Pilotmäßig, wie gesagt, eingesetzt wird, eines Heidelberger Unternehmens, ähm Alef Alpha. Dass ja eine Funktionalität hat, die so ein bisschen ähnlich ist wie wie ähm aber doch einigen Punkten abweicht, ähm auch in den Features, Und was da im im Zuge der Beratung ähm also das war dankenswerterweise so, dass man uns ganz früh gebeten hat und uns da auch ja einzubringen. Da ist einmal die die Frage natürlich der Verantwortlichkeit. Äh also was ist das eigentlich alles? Ähm ist das eine Auftragsdatenverarbeitung? Ist das ein Stück weit äh joint control. Wer hat die die Verantwortlichkeit bei Eingaben in die also Eingaben in die in die Promts, Wie viel Verantwortlichkeit trägt eigentlich der Endnutzende? Also der, der dann wirklich ähm in der Verwaltung sitzt und und da die Abfragen macht, Dem kann man natürlich sagen, pass mal auf, äh die ist schon bewusst, dass du keine personenbezogenen Daten aus irgendwelchen Akten da eingeben musst absolut richtig, äh dass dass man das verbietet und das machte dann im Zweifelsfall auch nicht der Nutzende, aber ja äh die die Frage, die die Infrastruktur, die dahinter steckt, äh wie funktioniert die KI? Ähm ist das auch ein Problem des Nutzenden oder ist das ein Problem letztlich der Institution, die die diese dieses System ausrollt, ja? Im unternehmerischen Kontext, also derjenige, der ja das System einkauft. Und ähm das heißt, äh da wird man genau differenzieren müssen, ähm welcher Verantwortungsbereich wird von wem bespielt. Äh wer ja haftet am Ende des Tages ehrlicherweise auch für was? Äh und das wird man sehr genau, aufsplitten müssen und das kann im Einzelfall relativ komplex sein, ja. Es bringt mich zu dem nächsten Punkt und Sie haben’s gerade eben ja schon angesprochen, wünschenswert wäre natürlich so eine, Spezielle Regelungen für KI, was DSGVO-Regelungen ins besondere dann angeht, ob sie datenschutzrechtlichen Regelungen. Jetzt haben wir die natürlich nicht. Das heißt, wir sind heute in der Situation, dass wir natürlich gucken müssen, wie wir mit den Mitteln, die uns zur Verfügung stehen am Ende in der Bewertung kommen. Und, Meine da fängt’s ja schon relativ früh an, wenn ich mir jetzt bei einer KI wenn man erstmal diese Trainingsphase hinter uns lassen, aber nachher auch in der Anwendung. Ich bin ja schon irgendwie Gedanken machen muss, wie viel, brauche ich denn, also wie viel Input gebe ich denn in so eine KI rein? Das Thema Stichwort Erforderlichkeit versus Datensparsamkeit. Wie sind da Ihre Erfahrungen aus? In dem Beispiel, was Sie auf der Privacy Konferenz berichtet haben, hatte ich so rausgehört, dass Sie da schon auch A sehr kritisch hingeguckt haben, B aber auf der anderen Seite durchaus auch, Chancen sehen, dass man halt bestimmte Dinge auch als erforderlich durchaus definieren kann. Genau, also wir haben ja Tatbestände in der DSGVO, die viel Abwägung zulassen, ja, also dass zum Beispiel also der der Grundsatz der Erforderlichkeit spielt ja in vielen Rechtsgrundlagen eine Rolle. Ähm aber er spielt auch und vor allem natürlich in dem Sex eins F eine Rolle. Und da kann man ja denke ich schon, mit an einigen Stellen sagen, ähm was ist eigentlich das Ergebnis, das ich erreichen möchte? Man könnte mir jetzt auch sogar überlegen, so so ein 6F, äh was ist das Das berechtigte Interesse des verarbeitenden, da kann man viel hineinlesen, da kann man sagen, na ja, Dienst soll soll besser werden, aber man könnte vielleicht sogar so ein ganz klein bisschen Recht auf Fortschritt, ja Erwägungsgrund vier der Datenschutzgrundverordnung sagt ja auch, das soll alles im Dienste des Menschen passieren und das könnte man an der Stelle sagen, ja, bei KI auch so und trotzdem konfigierend natürlich äh die die die Rechte des des Betroffenen. Und ähm dann in diesem Zusammenhang muss man sich dann überlegen, ja, was erwartet denn eigentlich so so ein Betroffener? Kann der damit rechnen, dass äh jetzt in einem bestimmten Anwendungssenario KI, eingesetzt wird, hat man’s ihm ein bisschen erklärt. An der Stelle, tja, wächst natürlich auch so ein bisschen äh äh etwas in der Gesellschaft. Also man erwartet ähm, momentan vielleicht noch weniger KI, als man das nächstes Jahr tun wird, ne? Da wird es sich wahrscheinlich schon weiter äh entwickelt haben, Aber die die Datenschutzgrundverordnung ist ja schon ähm ja abwägungsoffen an an an vielen Stellen und man muss dann immer fragen, ja, wie viele Daten brauche ich, zu welchem Zweck Und äh brauche ich wirklich so viel, also dieses viel hilft viel, ist ja nicht besonders pfiffig, ja? Äh sondern ich kann ja dann schon sagen, ich ich kann ja auch KIs zum Teil benutzen, um um um weniger. Ähm und mit weniger Daten hinzukommen. Also da fällt mir jetzt ein Beispiel ein Videoüberwachung können sie auch sehr unterschiedlich ausgestalten. Sie können das aber zum Teil auch sehr intelligent machen, indem sie, die Aufnahme von bestimmten Bildern an ja bestimmte Bewegungsabläufe und dazu müssen sie auch nicht fotorealistisch einen ganzen Menschen aufnehmen, sondern vielleicht nur äh Skeleton Tracking ähm seine Gelenke und erst dann wird eine Aufzeichnung äh zum Beispiel, ausgelöst, ja und und und vorher wird gar nichts aufgenommen. Das heißt also, man kann diese Techniken durchaus auch zum Schutz des des Datenschutzes ähm gebrauchen, wenn man das intelligent macht. Also von daher, da da sind schon auch Chancen. Das heißt, wenn ich mir jetzt einmal, was ich eben schon mal an Sprachen auch bezüglich Verantwortlichkeiten mir das angucke, dann muss ich mir natürlich, die gesamten Grundlagen anschauen, welche Daten brauche ich wirklich, aber das ist ja natürlich wichtig sie sehen durchaus Chancen, dass man natürlich auch über eine Interessenabwägung genau dahin kommt, dass man das halt letztendlich alles in die Waagschale wirft. Wenn wir mal konkret werden, sie hatten äh über ein Beispiel gesprochen, glaube ich, was sie was sie sich auch genauer angeguckt haben, wo sie auch zum Ergebnis gekommen sind, dass es da durchaus Möglichkeiten gibt, dass man das Datenschutzkonform abbildet. Das war so ein, glaube ich personalloser Supermarkt Wenn ich das richtig in Erinnerung habe, können sie uns da vielleicht noch mal ganz kurz skizzieren wie sie da quasi zu dem Ergebnis gekommen sind, was wichtig wichtige Voraussetzungen waren, damit man nachher auch zu dem Ergebnis kommt, Datenschutzrechtlich funktioniert das. Ja Grap and Go ähm ist ein System, das es mir erlaubt. Ohne Kasse einkaufen zu gehen. Das heißt, stirbt da im Store und da sind eben die die Lebensmittel, In den Regalen und ich muss mich in diesem Store einmal anmelden, dazu gibt’s eine App, Und äh das mache ich also, bevor ich den den Laden betrete und dann bin ich da registriert Und ähm dann gehe ich in diesen Laden hinein und dann fällt mir möglicherweise auf, idealerweise hätte ja draußen auch schon ein Schild darauf hingewiesen, dass das Ganze passiert. Da sind relativ viele Kameras, äh die im Prinzip schauen, was ich mache und dann nehme ich etwas aus dem aus dem Regal und ähm stecke das in meinen Rucksack, Und ich verlasse den Laden wieder und das System registriert A, der Keber war einkaufen, er hat rausgenommen eine Dose Cola, Und hat damit den Store verlassen und dann wird das in der App da habe ich natürlich meine Bezahldaten hinterlassen, Entsprechend abgebucht. Was man dazu braucht ist, es gibt ganz viele Videokameras, die dann aber und da fängt jetzt das Ganze an, ein bisschen komplexer zu werden, die kein Foto realistisches Bild, aufnehmen, sondern, Dieses sogenannte Skeletton Tracking, also das heißt, ähm ich werde reduziert auf meine Extremitäten und äh auf Gelenke und was die so tun und dann werden auch weiter Datenverarbeitungsvorgänge miteinander verknüpft, also das System. Schaut also, was mache ich, trackt mich beim Einkaufs äh Vorgang, Und äh auf der es werden auch Daten zusammengeführt, nämlich zum Beispiel äh sind in den Regalen also jedenfalls ist das oft so. Wagen verbaut Und das heißt, wenn etwas rausgenommen wird, dann wird das Regal leichter und diese Information wird äh verknüpft äh mit der Information, dass ähm meine Gelenke in eine bestimmte Richtung gegriffen haben und diese Cola eben äh rausgenommen haben und dann, äh diese Cola bei mir verbleibt und ich die auch, als ich den Laden verlassen habe, äh eben noch bei mir hatte, Ja und und diese Vorgänge, ähm das kann man mit dem ähm Artikel sechs, Absatz eins F durchdeklinieren und ähm man könnte jetzt zunächst mal an eine Einwilligung denken ja und äh das Problem bei der Einwilligung ist natürlich dann immer, dass sie widerrufen werden kann und äh was das dann mit so einem ja Vorgang macht, ähm ist aus jedenfalls aus Betreibersicht nicht so ganz, ja einfach, wenn da widerrufen wird. Ähm also überlegt man natürlich, brauche ich die wirklich, die Einwilligung und dann sagt man, nee, brauche ich eigentlich nicht. Äh wenn ich wenn ich das über den ähm äh über die Interessenabwägung äh hinbekomme, Und äh je nach Ausgestaltung, ne, also wenn das minimalinvasiv ohne fotorealistische Aufnahmen, ohne dass mein mein Verhalten. Fünf Monate lang gespeichert wird, ja? Also da braucht man auch ein Löschkonzept und so weiter. Aber das ist äh das ist durchaus denkbar, dass man hier mit dem 6F ähm operiert und sagt, äh dieses System, das kann man machen, wenn man die Leute entsprechend informiert äh auch vorher, dass das passiert. Interessant wird’s dann natürlich, was ist denn mit Menschen, die beim Einkaufsvorgang nur dabei sind und gar nichts selbst kaufen? Ne, dann ähm äh ist vielleicht die die die Abwägung schon ein bisschen eine andere oder äh was ist eigentlich bei Beschäftigten, die den ganzen Tag in diesem Store noch drin sind und die die die ja die diese Regale befüllen, ist bei denen die Abwägung dieselbe oder kann ich das über den Absatz eins äh sechs, Absatz eins B mit Vertrag äh äh machen, indem ich sage, ja das gehört halt hier bei uns zum zum Guten Beschäftigten dazu. Guck mal in deine Arbeitsvertrag. Da muss man also äh differenzieren. Aber am Ende des Tages kann man hier äh zum Ergebnis kommen, dass bei entsprechender Ausgestaltung dieses Systeme möglich sind. Das Thema Erklärung beziehungsweise Datenschutzhinweise ist natürlich noch mal eins, was äh dann, ja glaube ich auch nochmal eine besondere Aufmerksamkeit bedarf, wie erklärt man einem betroffenen KI, weil im Artikel zwölf haben wir ja äh zwei Anforderungen. Einmal, es muss irgendwie transparent sein, aber es soll auch anderen Seite auch eine leichte und verständliche Sprache sein. Was sind da Ihre Erwartungen an so eine an so einen Datenschutzhinweis? Ja, da gibt’s ganz, ganz viel Luft nach oben, ganz ehrlich. Also, wir wissen ja alle, dass äh als die die die Datenschutzgrundverordnung 20018 dann unmittelbar anwendbar wurde, dann war das eine Zeit lang ganz stark in der Diskussion dieser Icons ähm durch durch die man also bestimmte Datenvorgänge erklärt kriegt. Die sind dann aber irgendwie, tja, so ein bisschen äh versandet und dann gab’s immer mal wieder einzelne Vorschläge, auch unsere Behörde vor unserer Zeit hatten mal Iconson vorgeschlagen, aber das ist ja tatsächlich, das ist ja genau der Punkt Also Datenschutzerklärung und das ist auch so ein bisschen an an Glaubensstreit ehrlich gesagt zwischen Juristinnen und Juristen und und und den anderen. Ne, also der der Jurist sagt dann immer, na ja, also ihr müsst das ordentlich erklären und ihr müsst das sauber erklären und wenn man das macht, dann sind das fünf Seiten Text. Äh und jeder normale Mensch sagt, ähm das ist schön, aber ich lese keine fünf Seiten Text, wenn ich mir eine Cola kaufen will. Und äh diese Menschen haben natürlich recht. Ja das heißt ähm äh oder eigentlich muss man’s beiden recht machen und das kann man eigentlich nur, indem man Informationen auf verschiedenen Ebenen versteckt. Also es gibt einmal eine Langversion, die dann eben derjenige liest, der sich dafür interessiert. Äh es muss aber auch kürzere und zugänglichere Versionen geben. Und mein Einkaufsbeispiel, da würde ich mir dann schon wünschen und das fehlt. Das haben wir bis jetzt noch gar nicht. Ähm was wir kennen, sind diese Piktogramme äh zu zu kamera Überwachung. Ist halt so eine Kamera drauf auf blauem Grund. Äh da sind wir alle gewohnt, das kennen wir. Aber dass ein Kamerasystem so arbeitet, dass keine fotorealistischen Bilder aufgenommen werden, äh sondern diese Skeleton-Tracking erfolgt, ja? Dafür haben wir noch gar kein Icon Und äh das bräucht’s aber, ne? Das heißt also, ähm gerade wenn wir so komplexe Vorgänge wie bei KI haben, müssten wir eigentlich überlegen, was kann denn eine Visualisierung sein, die den den Verbraucherinnen und Verbrauchern das so erklärt, dass man’s, auf die Schnelle versteht, weil weil sich keiner äh tagelang damit äh beschäftigen will, sondern der will schnell sehen, worum geht’s da eigentlich und da sind dann ähm ja Informationsdesigner oder wer auch immer das äh sehr sehr gut kann mit solchen Visualisierungen arbeiten, die sind gefragt, das brauchen wir. Wenn wir noch mal kurz auf die richtigen Grundlagen oder beziehungsweise sie haben die KI Verordnung ja angesprochen, den AI-Act, der ja in absehbarer Zeit ja wahrscheinlich dann auch kommen wird. Auch kurz zitiert, dass zumindest in der aktuellen Diskussion ja auch Ermächtigungsgrundlagen drinstehen. Wo würden sie den Mehrwert für daten aus datenschutzrechtlicher Sicht äh noch weiter sehen bei der KI-Verordnung? Wo hilft uns die nachher, wenn es darum geht, Datenschutz und KI miteinander zu vereinbaren? Ja, also als als Datenschützer findet man’s vielleicht erst mal wichtig, dass äh bestimmte rote Linien in der KI-Verordnung diskutiert werden. Also die sind im Einzelnen, zum Teil noch so bisschen umstritten äh im Trilog, weil zum Beispiel, Die äh die die starten, wenn es um biometrische Fernidentifikation und solche Verfahren geht, zum Teil aus Sicherheitsgründen eine etwas andere Vorstellung haben, als vielleicht ein Parlament, Aber äh jedenfalls nach dem letzten Stand ähm äh enthält äh die die KI-Verordnung so ein paar rote Linien, wo man sagt, das hätten wir gerne nicht. Und wenn dort äh Dinge wie ähm Social Scoring äh oder eben diese diese biometrische Fernidentifikation, Als rote Linien ja äh gebrandmarkt werden sozusagen, dann findet man das an der Stelle als Datenschützer erst mal gut und wichtig. Und dann gibt es aber einige Punkte oder in der KI-Verordnung gibt es auch sehr interessante Ansätze, äh wo ich glaube, dass da auch richtig Potenzial drin ist. Die Reallabore, dass man also äh vereinfacht jetzt stark vereinfacht äh äh sagt, na ja und diese diese innovativen Start-ups, ähm die die die sollen erstmal machen mit ihrer KI. Und dann äh sollen die vielleicht zusammen mit der Aufsichtsbehörde sich zusammensetzen und in einem solchen Reallabor ähm also überlegen, wie kann man denn hier neue Use Cases möglichst datenschutzkonform ausgestalten, ne? Und die kriegen dann, ich vereinfache jetzt natürlich wieder sehr stark, So eine Art Spielwiese, wo man ja zusammenarbeitet und wo ja ähm vielleicht jetzt nicht die ganz hohe Sanktion droht gleich, also über die einzelne Ausgestaltung muss, muss man da auch nochmal reden, aber ähm also die Grundidee ist also, dass man zusammenarbeitet und solche Piloten erstmal macht, ne? In diesem Realab Das ist das ist erstmal eine gute Idee und glaube ich auch hat hat viel Potenzial, An den anderen Stellen muss man als Datenschützer fragen, tja, was kommt da eigentlich auf uns zu? Kennen wir das schon? Ist das was anderes? Ähm ist das jetzt was Zweites? Und äh da also bei manchen Sachen sagt sich vielleicht der Datenschützer, ja okay, das kenne ich. Äh das ist äh Risiko, risikobasierter Ansatz. Das kenne ich, zumindest von Teilen, von Vorschriften äh der Datenschutzgrundverordnung. Damit kann ich erstmal arbeiten. Aber wenn man dann hat, äh ja, da gibt’s so eine Grundrechte Folgenabschätzung. Bei Foundation Models zum Beispiel. Ja und dann kann man sich die die die Frage stellen, Das kenne ich doch. Ist das ist das nicht die Datenschutz äh Folgenabschätzung? Ist das dasselbe oder ist es was anderes äh und das weiß man noch nicht so ganz genau, ne? Also und da wird man also jetzt erst mal abwarten müssen, wie ist der finale Text? Überschneidet sich das. Kann das Eine in das andere übergehen oder kann ich dann sagen ähm äh also wenn’s eine ordentliche Datenschutzfolgenabschätzung gibt, dann kann ich die schon mal meiner Grundrechtsfolgenabschätzung zugrunde legen als Baustein oder so. Da wird man also noch noch ähm ja so so ein bisschen hingucken äh äh müssen, Denn äh also das das Worst-Case-Szenario aus aus Sicht eines eines Unternehmens wäre ja sicherlich, Man hat die Datenschutzfolgenabschätzung nicht gemacht. Äh kriegt ein Bußgeld aus der DSGVO und aus der äh KI-Verordnung kriegt man noch ein weiteres Bußgeld. Äh da geht’s ja glaube ich, wenn ich’s richtig im Kopf habe, sogar bis zu sechs Prozent. Hm, des weltweiten Jahresumsatzes und dann kriegt man aus der noch mal eins Das das darf ja nicht passieren, ne? Also das wäre ja sicherlich ein Worst Case und das heißt, diese beiden Rechtskreise müssen dann auch noch aufeinander abgestimmt. Ein Thema, was ja sicherlich viele Datenschutzbeauftragte in Unternehmen beschäftigt, ist ja mhm wie weit kommt Das ganze Thema KI vor Ordnung im Zweifelsfall sowieso dann nachher auch im Betrieb mir auf den Tisch, weil, wie Sie schon sagen, es gibt halt bestimmte Dinge, die kommen einem bekannt vor und vielleicht ist dann auch ein Unternehmensleitung sehr schnell dann die Idee da, dass man das halt dem Datenschutzbeauftragten zusätzlich auch geben könnte. Auf der anderen Seite das ganze Thema Aufsicht Nicht bei der KI Verordnung, ist ja, glaube ich, auch noch eins, was diskutiert wird. Wie sehen Sie das? Würden Sie das begrüßen, wenn man auch den Landesdatenschutzbehörden dann die Aufsicht über die KI-Verordnung zuweist? Tja, da bin ich noch gar nicht so so ganz sicher, ob man das wirklich wollen würde. Aus verschiedenen Gründen. Man kann natürlich erstmal sagen, na ja, KI hat was mit Daten zu tun, Daten, das machen die Aufsichtsbehörden, das können die, das machen die gut, Das ist erstmal richtig. Allerdings muss man da natürlich sehen die die die Fragen bei den Maschinen, bei den Maschinellen lernen, wie’s genau funktioniert, ähm das sind sehr technische, sehr sehr schwierige Fragen. Da brauchen Sie auch Leute, die das können in ihrer Behörde, Und ähm wenn sie noch keine haben, dann müssten Sie welche einstellen können. Das müsste haushaltsmäßig äh ja, natürlich äh möglich sein. Und äh zweitens, fast häufiger noch das größere Problem, Sie müssten Leute finden, die einem dann auch noch zu ihnen kommen. Und äh da bin ich noch nicht abschließend sicher, ob das, ob das realistisch ist. Ähm die die Aufsichtsbehörden, auch die die die Aufsichtsbehörden der Länder sind ja auch sehr unterschiedlich ausgestattet und äh das sieht also in Baden-Württemberg anders aus als in Bayern als in Sachsen, Sachsen-Anhalt ähm ist sehr unterschiedlich, Ob die dann jeder für sich ähm äh einen Teil KI-Aufsicht äh machen könnten. Ich bin nicht ganz sicher, ja? Ähm ich bin aber auch nicht sicher, ob das zum Beispiel der Bundesdatenschutzbeauftragte könnte. Der hat zwar mehr Stellen, aber auch da kann man natürlich sagen, wenn das ganz spezifisch technisch ist, ist es nicht vielleicht doch eher das Das BASI, ne? Also das das wird man sich sehr genau angucken müssen, äh weil die Herausforderungen technisch sind. Das machen übrigens die die Länder auch sehr unterschiedlich. Also in Frankreich äh die die Knil, die hat eine eine sehr starke KI-Abteilung. Wir hier in Baden-Württemberg haben auch einige gute Leute, die die sich da schon äh äh kümmern. Thematisch Schleswig-Holstein ist da auch vorne. Ähm also von daher ähm ja ähm aber ob ob man das jetzt äh sich wünschen würde, das kommt komplett äh zu zu den äh Datenschutzbehörden ähm ich bin nicht abschließend sicher. Wenn man in das Unternehmen guckt, da wird man sagen müssen, tja, so ist das, ne. Die die die äh Datenschutzbeauftragten kriegen zum Teil mehr Aufgaben, anderes Thema für die Zuhörenden sicherlich auch schon Hinweisgeberschutzgesetz, ne und dann muss man das umsetzen und dann wird man vielleicht gebeten, das auch noch mitzumachen mit allen Problemen, ja, Interessenkonflikten, die das möglicherweise auslöst, Ähm aber äh das wird passieren und äh in den Unternehmen äh und es ist ja nicht übrigens nicht nur die KI-Verordnung, äh die steht sondern auch äh Datagonance äh Act ist schon äh in Kraft ähm Data-Act äh wird ausverhandelt, kommt auch noch. Ähm das heißt, da gibt’s noch einige Schnittstellen äh und äh auf die auf die internen DSBs äh wird man zunehmend äh drauf zukommen und sagen, pass mal auf, endet bei der Digitalisierung, da hat sich doch noch was getan. Da müsstest du es vielleicht auch noch mitmachen, ja? Und dann wird man sagen müssen äh und dann müssen auch die internen Datenschutz ähm Beauftragten sagen, nee. Ich habe jetzt keine Kapazität mehr, ganz ehrlich. Ähm und äh es ist ja häufig so, dass auch ja zu wenig Kapazität zur Verfügung gestellt äh bekommen, und dann würde man äh dann auch sagen müssen, ich ich habe schon genug zu tun, ich kann das jetzt nicht auch noch mitmachen. Ich glaube, das ist tatsächlich noch mal ein ganz wichtiger Punkt, die man, den man sozusagen auch als Datenschutzbeauftragte im Unternehmen sich halt vor Augen führen muss. Das ist halt nicht nur, sie nicht zumutbar sein muss, auch mit Interessenskonflikten, sondern am Ende ja auch eine Kapazitätsfrage ist, wenn ich dann halt andere Aufgaben vernachlässigen muss. Hinzu natürlich dann auch noch einer entsprechenden ja Wissensaufbau, der in der Regel auch noch damit einhergeht, wie Sie schon sagen, man muss ja auch dann für bestimmte Dinge einfach auch eine gewisse Expertise haben oder zumindest mal auch das technisch soweit äh durchdringen können, dass man das halt auch nachher, versteht und bewerten kann, Jetzt haben wir eben schon über ein Beispiel gesprochen, wo Sie sagen, da könnte man halt über 6 eins F hinkommen. Jetzt wollte ich gerne zum Abschluss vielleicht noch mal gucken, wo sie Grenzen sehen. Hatten sie in ihrer Beratung vielleicht auch Fälle, wo sie sagen, Da ist halt KI vielleicht mit dem, wie man es einsetzen wollte mit den Mitteln, die wir heute zur Verfügung haben hinsichtlich Bewertung erforderlichkeit und so weiter, sind aber auch Grenzen erreicht worden, die man auf aus Aufsichtsbehördlicher Sicht vielleicht auch nicht akzeptieren konnte. Ja, auf der einen Seite kommt’s natürlich oder was man auf jeden Fall verhindern müsste, bei so einem einfachen ähm Szenario, wie ähm ich stelle ein ein ein Sprachmodell zur Verfügung. Und ähm darüber ist es möglich, ähm auch personenbezogene Daten, Am besten noch äh in unsichere Drittstaaten zukabeln. Äh also das wäre natürlich ein absolutes äh das gibt gar nicht, ja und und selbst wenn ich dann in einem Unternehmen vielleicht reinschreibe äh in einer internen Richtlinie, bitte gebt keine personenbezogene Daten aus den Akten ein. Da muss man das natürlich auch kontrollieren. Da braucht man technisch organisatorische Maßnahmen, dass es auch tatsächlich nicht passiert und so weiter, ja? Also Da muss man schon dafür sorgen, dass. Ja, auch keine personenbezogene Daten für Weitertraining eines, eines irgendwie gestalteten Drittanbieters äh dienen. Also das äh darf an der Stelle nicht passieren Wenn man aber die Kontrolle hat äh über ein KI-System, weil das läuft, weil wir keinen Drittstaaten-Transfer haben und so weiter, dann ist Denke ich relativ viel möglich. Äh dann muss man sich aber auch tatsächlich wieder Gedanken machen, ähm dass man diese Verantwortlichkeiten gut und fair zuweist, ne. Also ich habe’s vorhin schon mal gesagt. Also nicht nicht, mit mit dem Risiko darf nicht der einzelne Einsetzende Arbeitnehmer, Arbeitnehmerinnen ähm nach Hause gehen, sondern eben nur so weit, äh wie er auch äh ja die Kontrolle darüber also Eingabe von Personen bezogene Daten in Prompt, Aber äh für die die Sicherheit der Infrastruktur und für die Funktionsfähigkeit und für die für die Frage äh taugt das System einigermaßen in dem Sinne, dass es nicht nur vor sich hin halluziniert. Da äh ist dann eben äh das Unternehmen verantwortlich, ja und ähm man man muss äh oder sollte vielleicht äh als Unternehmen, also für mich ist das fast trivial Aber die erste Frage als Unternehmen müsste doch auch dann immer sein oder auch für eine Behörde, die, die irgendwas einsetzt. Was genau ist eigentlich der Use Case? Ne, also wo genau wozu möchte ich die KI jetzt einsetzen? Was soll sie besser machen als äh der der Status, ja? Also man hat ja manchmal das Gefühl, Alle sind so bisschen getrieben. KI ist irgendwie, muss man haben. Ja, wenn man modern sein will, dann sollte man aber schon sagen, also was genau will ich damit tun? Für welchen Zweck möchte ich das einsetzen und wo ist eigentlich der Benefit? Also wo wird’s tatsächlich besser damit? Ähm was kann es besser? Und wenn ich zum Ergebnis komme, dass das System, das ich einsetze, schlechter ist als äh der Mensch, den ich da vorher sitzen hatte, weil es halluziniert und weil die die Daten ständig unrichtig sind, Dann ähm habe ich eigentlich ein Problem an der Stelle. Ich glaube, das ist nochmal ganz wichtiger Punkt. Äh vielen Dank, dass sie dir noch mal klargestellt haben. Natürlich, muss ich natürlich diese Erforderlichkeit, einschließlich Zweckgenau definieren und dann würde ich tatsächlich nochmal schauen, also wenn wir das jetzt einmal versuchen noch mal alles zusammenzu äh führen, was wir besprochen haben. Also ich muss mir natürlich genau über diesen Zweck, ich muss mir über die Förderlichkeit Gedanken machen. Ich muss die Verantwortlichkeiten klar haben, das heißt, ich muss also schauen, Wenn ich mitm Dienstleister zusammenarbeite, bei wem liegt nachher welche Verantwortung für welche Datenverarbeitung? Ich Denke mal, wir werden an vielen Stellen sicherlich auch über gemeinsame Verantwortlichkeiten wahrscheinlich nachdenken müssen. Dann muss ich natürlich die Rechtsgrundlagen dafür definieren. Ich muss schauen, dass ich das in den Datenschutzhinweisen wiederum sauber abgebildet habe, wenn ich dann natürlich nachher zu dem Ergebnis komme, dass ich das auch so tun darf. Bis hin zu, ich muss nachher in irgendeiner Art und Weise auch Entscheidungen, die vielleicht KI basiert getroffen wurden, Im Rahmen einer ja Beschwerde oder einer Nachfrage von Betroffenen natürlich auch gegebenenfalls darlegen, erklären können bis hin zu, ich muss natürlich auch mehr über die anderen Betroffenenrechte Gedanken machen und schauen, dass ich dafür natürlich auch meine Prozesse und auch die systemischen Voraussetzungen schaffe, dass ich das nachher alles, Auskünften kann. Was wir jetzt noch nicht angesprochen haben, explizit. Sie haben uns eben kurz angesprochen bei dem Thema Grundrechte, Folgeabschätzung im Rahmen vom äh KI, von der KI-Verordnung das Thema Datenschutzfolgenabschätzung. Würden Sie sagen, dass Immer, wenn ich einen KI einsetze, eine Datenschutzfolgenabschätzung notwendig ist, weil es sich halt um eine neue Technologie handelt oder gibt’s hier auch eventuell je nach Usecase und den Daten, die verarbeitet werden, Abstimmung Abstufungen oder wie würden Sie das Thema DSFA sehen als Basis für den Einsatz in der KI. In aller Regel wird man eine machen müssen. Allerdings klar, man auch da wieder, man nimmt das übliche äh Handwerkszeug, ähm also da dazu gibt’s ja äh workingpapers, es gibt Äh dazu Listen je nach ja Landesaufsichtsbehörde, also Baden-Württemberg hat auch eine eigene Liste, Und dann kann man schauen, wie viele dieser Punkte sind denn ausgelöst, ja äh und in aller Regel äh wird man aber äh bei diesem ja Systemen äh zum Ergebnis kommen, dass man eine machen muss. Also es mag mag Konstellationen geben, wo man sagt, was soll dir schon großartig passieren? Äh was sind’s denn für Daten? Die sind gar nicht sensibel, äh wenn sie äh eine KI irgendwie in Getränkeautomat einbauen, der dann entscheidet, ob er ihnen eine Cola gibt oder eine Limo oder so was. Dann äh ja, mag sein, dass man ausnahmsweise mal keine äh Keime machen muss, aber in aller Regel äh wird man eine machen müssen und man wird auf jeden Fall eine machen müssen, äh weil ich das in der Datenschutz-Bubble neulich gelesen habe in sozialen Netzwerken, so ist sie dann noch nutze, Dass äh ja bestimmte Unternehmen jetzt mit, äh ich sage mal, ich nenne keine Namen, aber wenn das ein Unternehmen ist, der das auch sensible Daten hat. Äh wenn die dann sagen, na ja, Microsoft 365 benutzen wir schon lange und wir freuen uns, dass ab ersten 11ten Der Co-Pilot auch noch dabei ist. Also ähm äh Microsoft äh äh noch mal aufgeschaut wird durch durch KI, dann würde man ja schon fragen, ja, gut vielleicht ja, aber. Gab’s denn eine Datenschutzfolgenabschätzung? Also die die Frage würde man zumindest mal in den Raum stellen, ne? Also wenn wenn hier in in sehr großflächiger ähm Anwendung, doch sehr sensible Daten durch KI durch einen Anbieter, der nicht in Europa sitzt. Gut, nach einem Angemessenheitsbeschluss an der Stelle ein ein ganz klein bisschen äh Problem rausgenommen, aber trotzdem ist ja noch die Frage, Was machen die mit den Daten? Wird damit weitertrainiert? Äh also sind das auch Daten, die zu eigenen Zwecken des des Auftragsverarbeiters benutzt werden oder nicht? Also da muss man dann schon genau hingucken und jedenfalls eine Datenschutzfolgenabschätzung wünscht man sich da da schon. Also ich glaube schaden wird sie sowieso nie an so einer Stelle, weil sie sicherlich dann noch mal einen dazu auch, Verpflichtet, vielleicht noch mal das ein oder andere sich genauer anzugucken, auch in in einem Fachbereich, der so was dann einsetzt und plant, aber ich nehme auch mit, dass es halt eventuell auch Fälle geben kann, wo man halt von der Kategorie her nicht die Voraussetzungen zwingend erfüllt. Ganz herzlichen Dank erstmal für für ihre Erläuterungen und Ausführungen, haben wir irgendwas aus ihrer Sicht wichtiges noch vergessen, was ihnen auf der Seele brennt, was auf jeden Fall unsere Zuhörenden auch wissen sollten zu dem Thema. Ich schaue mal aber auf meinem Zettel, so das haben wir eigentlich so, ich meine, man kann jetzt könnte noch vieles vertiefen, Personenbezug und so weiter, aber ähm ich denke so als Überblick denke ich ähm haben wir alles zumindest mal angesprochen, ja. Ich nehme auf jeden Fall abschließend mit und korrigieren Sie mich, wenn Sie das anders sehen, aber, grundsätzlich kann man schon sagen, eine datenschutzkonforme Entwicklung und orientalisch-konformer Betrieb von KI-Anwendungen ist nicht ausgeschlossen, wenn man halt bestimmte Grundsätze erst mal berücksichtigt genau prüft und natürlich am Ende auch immer wieder auf die angemessen Händeforderlichkeit schaut. Das ist ein ein gutes, ein gutes Ergebnis, das denke ich schon. Und ähm also Der Datenschutz wird ja vor allem deshalb sehr gerne als als Verhinderer falsch dargestellt, weil weil er zu spät eingebunden wird, weil man zu spät fragt, ja? Ähm und wenn man aber früh gefragt wird, ähm dann ist, denke ich, denke ich, vieles äh möglich und die Datenschutzgrundverordnung ist, technik neutral, arbeitet an ganz vielen Stellen mit Abwägungen und ähm im Rahmen dieser Abwägungsprozesse, kann man auch innovationsfreundlich sein. Man darf den datenschutz nicht vergessen und auch die Betroffenen nicht, aber das muss ja nicht passieren. Dann, Ganz herzlichen Dank. Ich glaube, wir können mit Erkenntnisgewinn hier rausgehen heute. Unsere Zuhörenden hoffentlich auch und von daher ganz, ganz, ganz lieben Dank für ihre Zeit und ihren Input. Sehr gerne, vielen Dank. Und äh damit möchte ich natürlich auch Ihnen, liebe Zuhörende danken, Sie können gerne im Nachgang natürlich auf unserer Folgenseite, die Sie in den Shownotes äh finden, auch gerne kommentieren zur Folge, Wenn Sie Fragen haben, wenn Sie noch an Ergänzungen, Anregungen haben zum Thema Einsatz von künstlicher Intelligenz im Unternehmen, Freuen wir uns sehr und außerdem finden Sie in den Shownotes auch den Link zu den Anfang Oktober stattgefundenen I Woche, die der Landesbeauftragte für Datenschutz und Informationsfreiheit in Baden-Württemberg äh durchgeführt hat, ähm wie letztes Jahr auch schon. Und die in Vorträge, glaube ich, sind auch noch mal ganz hilfreich für die ein oder andere Fragestellung. Sind spannende Beiträge dabei. Von daher seien sie eingeladen, da auch mal reinzusehen, wenn sie an dem Thema weiterhin interessiert sind. In diesem Sinne, bleiben sie uns gewogen und auf bald.

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert