Moderation:
Zu Gast:
Weitere Episoden mit Friedhelm Peplowski:
In der heutigen Episode des Datenschutz-Talks, die vor gespanntem Live-Publikum aufgenommen wurde, steht der Microsoft Co-Pilot für M365 im Fokus. Moderator Heiko Gossen hat dazu erneut Friedhelm Peplowski eingeladen, der als Modern Work Global Black Belt bei Microsoft arbeitet und über umfangreiche Erfahrungen im Bereich Datenschutz verfügt. In dieser besonderen Episode diskutieren die beiden Experten die datenschutzrechtlichen Herausforderungen und Chancen, die mit der Implementierung des Co-Piloten einhergehen. Das Video zur Folge findet ihr hier.
Im ersten Teil diskutieren Heiko und Friedhelm die grundlegenden Funktionen des Microsoft 365 Co-Piloten, der als KI-gestützte Lösung konzipiert ist, um Mitarbeitern zu helfen, ihre Arbeitsabläufe effizienter zu gestalten. Dabei wird aufgezeigt, wie der Co-Pilot auf Daten zugreifen kann und welche spezifischen Informationen benötigt werden, um effektive Ergebnisse zu liefern. Sie gehen auch darauf ein, wie Unternehmen die Zugriffsmöglichkeiten auf ihre Daten regulieren können, um sicherzustellen, dass nur berechtigte Informationen verarbeitet werden.
Ein zentrales Thema der Episode ist die Sensibilität im Umgang mit personenbezogenen Daten. Friedhelm hebt hervor, dass Microsoft verschiedene Schutzmaßnahmen implementiert hat, um sicherzustellen, dass Daten innerhalb der Grenzen des Unternehmens (Tenant-Boundary) behandelt werden. Sie diskutieren, wie Co-Pilot mit externen Datenquellen umgehen kann und welche Maßnahmen erforderlich sind, um die Vertraulichkeit und Integrität der verarbeiteten Informationen zu gewährleisten.
Das Gespräch wendet sich dann den datenschutzrechtlichen Aspekten bei der Nutzung von KI-Technologien zu. Friedhelm erläutert, dass beim Einsatz des Co-Piloten eine sorgfältige Abwägung der datenschutzrechtlichen Implikationen vorgenommen werden sollte. Die beiden Experten unterstreichen die Bedeutung eines effektiven Rechtemanagements, um sicherzustellen, dass keine unbefugten Zugriffe auf sensible Daten erfolgen.
In einer detaillierten Erörterung beantwortet Friedhelm auch Fragen rund um das Thema Datenlöschung und -speicherung im Kontext von Microsoft 365 Co-Pilot. Darüber hinaus wird das Thema der Klassifizierung von Daten behandelt, wobei betont wird, dass ein durchdachtes Klassifizierungssystem die datenschutzrechtlichen Anforderungen unterstützen kann.
Im Laufe der Diskussion gehen die beiden Experten schließlich auch auf spezifische Fragen des Live-Publikums ein, in denen es unter anderem um die rechtlichen Anforderungen und die Versetzung von Datenschutzinformationen geht.
Zusammenfassend bietet diese Episode tiefgehende Einblicke in die datenschutzrechtlichen Aspekte des Einsatzes von Microsoft Co-Pilot für M365 und bietet sowohl für Datenschutzbeauftragte als auch für technische Entscheidungsträger wertvolle Informationen zur verantwortungsvollen Nutzung von KI in ihrem Unternehmen.
Es geht insbesondere um diese Themen:
- Wichtige Funktionen von Copilot
- Zugriffsmöglichkeiten auf Daten
- Historisierung der Prompts und Ausgaben
- Speicherorte der Benutzereingaben und Löschfristen
- Rechtemanagement
- Klassifizierung
- Der Index
- Mitarbeiterüberwachung, Schutzmechanismen und Klassifizierung
- DSGVO Art 15: Auskunft mit Copilot?
- Das DPA – was ändert sich?
- DSFA – ja oder nein?
- Duplikate mit Copilot finden
- Bing Chat Enterprise
- Kennzeichnungspflicht bei Nutzung von Copilot
- AI Act / KI Verordnung
Weitergehende Infos kann man in den allgemeinen Microsoft FAQs zum M365 Copilot nachlesen.
Weitere Infos, Blog und Newsletter finden Sie unter: https://migosens.de/newsroom/
Twitter: https://twitter.com/DS_Talk
Übersicht aller Themenfolgen: https://migosens.de/datenschutz-podcast-themenfolgen/
(als eigener Feed: https://migosens.de/show/tf/feed/ddt/)
Instagram: https://www.instagram.com/datenschutztalk_podcast/
Folge hier kommentieren: https://migosens.de/https://migosens.de/der-m365-copilot-und-datenschutz-friedhelm-peplowski-im-datenschutz-talk/
#TeamDatenschutz #TeamInfoSec #DSTalk
Transkript zur Folge:
Herzlich Willkommen zum Datenschutz-Talk, eurem Podcast für Datenschutz und
Informationssicherheit.
Nach längerer Pause haben wir heute mal wieder eine Themenfolge und die sogar
in einem ganz besonderen Format, Denn heute nehmen wir mit Live-Publikum auf ein echtes Novum.
Und das Thema heute ist Microsoft Co-Pilot für M365.
Und wir schauen heute auf alles das, was datenschutzrechtlich dabei besonders wichtig ist.
Als Gast, ja, ein Gast, den wir schon mal bei uns auch mehrfach hatten im Datenschutz-Talk,
freue ich mich ganz besonders heute, dass wir Friedhelm Pervlowski wieder für
uns gewinnen konnten. Heute auch in Präsenz einmal.
Friedhelm ist Modern Work Global Black Belt für M365 Co-Pilot.
Da kannst du uns sicherlich noch einen Satz zu sagen, was das genau bedeutet.
Du bist seit über drei Jahren bei Microsoft, aber das Wesentliche,
glaube ich, und das macht es halt auch für uns natürlich so wertvoll,
du warst auch vorher schon im Datenschutz unterwegs und als Auditor und Datenschützer,
glaube ich, lange Berufserfahrung.
Das ist natürlich, gerade wenn wir halt über diese Themen sprechen,
ganz besonders wertvoll, weil wir halt wissen, auf der anderen Seite ist halt
auch jemand, der versteht, was unsere Fragen sind.
Und du hast mir im Vorfeld gesagt, du wirst immer dann gerufen,
wenn es nicht mehr weitergeht.
Genau, wenn es brennt. Ja, ist natürlich, erst mal vielen Dank und auch von
meiner Seite herzlich willkommen.
Ja, es stimmt. Ich werde immer dann gerufen, wenn die normale Salesforce oder
auch von der Technik nicht mehr unbedingt weiter weiß oder auch wenn Aufgabenstellung,
ich will jetzt nicht sagen Problem, aber in Aufgabenstellung da sind,
Anforderungen von Kundenseite, die nicht unbedingt einfach zu beantworten sind.
Hängt auch ein bisschen damit von der Historie. Du hast es schon gesagt,
ich war auch mal Datenschützer, Datenschutzauditor, rede sehr viel mit Betriebsräten
und habe auch eine relativ lange Erfahrung im Bereich Compliance.
Damit beste Voraussetzungen für unser Thema heute.
Jetzt ist es ja so, dass Microsoft einen ganzen Zoo an Co-Pilots hat.
Ich glaube, du sagtest irgendwann mal, es sind sogar über 70.
Mittlerweile ja.
Mittlerweile. Von daher vielleicht mal so ganz kurz, was sind die wesentlichen
und über welche sprechen wir jetzt heute konkret?
Die wesentlichen Co-Pilot-Funktionalitäten, die wir haben, ist natürlich in
Verbindung mit der Microsoft 365 Umgebung.
Dann, was jetzt in letzter Zeit auch umgeändert wurde, das X-Bing Chat Enterprise
in Microsoft Co-Pilot und natürlich dann als Hauptthema Sales Co-Pilot und die Möglichkeit,
über Co-Pilot Studio auch als Unternehmung einen eigenen Co-Pilot,
eine eigene KI-Anwendung, Chatbot oder ähnliches aufbauen zu können.
Wenn wir jetzt heute über den M365-Copiloten in erster Linie sprechen,
ich glaube, das ist auch der, der wahrscheinlich für die meisten Unternehmen
der Einstiegspunkt vielleicht sein wird oder der vielleicht die größte Breite
sozusagen adressiert in seinen Funktionalitäten.
Jetzt weiß ich natürlich nicht von unserem Publikum und auch nicht von unseren
Zuhörern, wer da wirklich schon konkret eigene Erfahrungen mit gesammelt hat.
Vielleicht, was sind so ein, zwei Use Cases, wo du sagst, die sind eigentlich
so für die Unternehmensarbeit eigentlich besonders wertvoll.
Das sind tolle Sachen, die man damit machen kann.
Was ist sozusagen das Kernfeature, wo du sagst, da sollte man auf jeden Fall hingucken?
Vielleicht nochmal ein, zwei Schritte vorweg. Was häufig passiert ist oder was
häufig gemacht wird in Unternehmen, man setzt sich mit KI auseinander.
Nutzt dann vielleicht schon den ein oder anderen KI-gestützten Chatbot oder
ähnliches oder als Unternehmensplattform.
Was aber immer gefehlt hat oder was nicht ganz so einfach umzusetzen ist,
mit den ganzen Informationen, die ich als Benutzer in der Verwaltung habe,
sei es mein Dokument, meine PowerPoint-Präsentation, E-Mail, Teams-Nachrichten,
da stellt sich natürlich unweigerlich die Frage, was kann man damit anstellen.
Und hier kommt dann der Co-Pilot für Microsoft 365-Spiel, um den Benutzer in
die Lage zu versetzen, seine Informationen, wo er Zugriff hat.
Und das ist auch wichtig, da werden wir vielleicht nachher noch das eine oder andere zu erzählen.
Es ist wichtig, dass das, was der Benutzer im Zugriff hat, dann auch mit KI
verarbeitet werden kann.
Es gibt da so ein paar Klassiker, zum Beispiel, was ich häufig gerne mache.
Fast jeden Morgen, fast jeden Abend, mittlerweile auch automatisiert,
weil man das über einen Scheduler dann auch starten kann.
Ich frage den Co-Pilot immer jeden Morgen und jeden Abend, welche E-Mails sind
für mich wichtig und welche habe ich vielleicht noch nicht beantwortet.
Also dass ich dann immer relativ schnell auch einen Überblick dazu bekomme und
auch was Termine angeht.
Aber es ist natürlich immer die Frage, wie mein Arbeitsverhältnis ist,
was ich mache, was meine Verarbeitung ist.
Und an der Stelle ist es dann schon wichtig für Benutzer, dann mehr aus den
Informationen rausziehen zu können und dann vielleicht doch die eine oder andere,
wenn ich sage mal, tägliche Arbeit, die immer wiederholt werden muss,
über Co-Pilot, über KI zu vereinfachen.
Zusammenfassend von Meetings zum Beispiel. Wer hat welche Aufgaben?
Das macht das Leben dann viel, viel einfacher.
Wenn wir jetzt erstmal Co-Pilot technisch einsortieren, dann ist es ein Large
Language Model, so wie wir das von ChatGPT zum Beispiel wahrscheinlich alle kennen.
Jetzt ist es aber ja bei ChatGPT zum
Beispiel so, da arbeite ich mit den Informationen, die die KI gelernt hat,
sei es aus dem Weltwissen oder sei es halt aus Benutzereingaben,
aber es greift in der Regel ja nicht auf meine eigenen Daten zu.
Also jetzt hast du gerade schon angedeutet, du fragst natürlich danach,
welche E-Mails sind eingegangen.
Also das heißt bei Copilot ist es halt so, da habe ich schon einen direkten
Zugriff auch auf die Daten, die in meinem Unternehmen sind, auf die ich auch
zugriffsberechtigt bin. Die werden sozusagen angebunden.
Betrifft das Daten, die sowieso in der Microsoft Cloud liegen,
wie halt im Exchange-Postfach, im Outlook-Postfach oder vielleicht auch im OneDrive?
Oder geht das auch mit Daten, die ich vielleicht lokal in meinem Unternehmen gespeichert habe?
Das kommt natürlich immer darauf an, was ich machen möchte. Also primär ist
der Gedanke bei dem Microsoft 365 Co-Pilot, erstmal die Daten zu nutzen,
die in der Microsoft 365 Umgebung auch sind.
Weil das ist für uns natürlich von der Architektur am einfachsten zu handeln.
Wir kennen die Zugriffsrechte, wir
kennen vielleicht Label, andere Schutzmechanismen, die schon in Use sind.
Und wir wissen immer ganz genau, wer hat auf was Zugriff, sodass wir genau regeln
können, dass nur die Informationen, wo der Benutzer auch Zugriff drauf hat,
dafür genutzt werden. Es besteht aber über das sogenannte Corporate Extensions
auch externe Quellen anzuschließen.
Das ist natürlich dann interessant, vom Use Case das zu betrachten.
Das geht zum einen über Konnektoren, aber auch über Plugins.
Und dann ist natürlich immer die Frage, was nutzt man dafür?
Da gibt es eine kleine Faustformel, wenn man sagt, okay, ich habe jetzt Daten,
die sich nicht permanent verändern.
Wenn ich eine Wissensdatenbank habe, wir haben zum Beispiel bei Air India,
die machen über Extensions mit einem Konnektor, stellen die den Mitarbeitern
das ganze Vielfliegerprogramm und alle internen Dokumente zur Verfügung,
wo vielleicht nicht jeder darauf Zugriff hat.
Und sowas kann man dann mit entsprechenden Konnektoren machen,
weil was passiert, wenn ich einen Konnektor nehme, dann werde diese Information
auch in den Index überführt, auch in den semantischen Index.
Und bei einem Plugin, das ist eher für sich ständig änderbare Daten,
zum Beispiel Datenbanken oder ähnliches.
Was passiert jetzt, wenn ich so einen Connector oder ein Plugin habe,
was passiert dann mit den Daten?
Also werden die jetzt sozusagen zum Training dann von dem Modell genutzt oder
wird das sozusagen nur im Zugriff gehalten? Wie sieht das technisch aus?
Technisch sieht es so aus, erstmal generell, wir nutzen keine Daten,
um ein Modell weiterzutrainieren, um das Large Language Modell weiterzutrainieren.
Das ist immer statisch und wird niemals mit Kundendaten weiter trainiert.
Wenn ich allerdings jetzt Daten über einen Connector anbinde,
landen diese in Anführungszeichen auch im Extrakt, das heißt für die Suche,
für Keyword-Suche, für den semantischen Index, auch in der sogenannten Tenant-Boundary.
Aber nicht irgendwo in der Microsoft-Umgebung, sondern nur in der Umgebung,
die ausschließlich den Kunden gehört.
Ich übersetze es jetzt mal für mich. Ich habe also Mandanten innerhalb von der
Microsoft 365 Umgebung, die ich als Unternehmen typischerweise habe,
sobald ich halt Unternehmensvertrag mache und alles einrichte mit meiner Domain und so weiter.
Und das heißt, alles, was sozusagen der Co-Pilot dann braucht,
um seine Arbeit zu machen, das wird in diesem Mandanten gespeichert.
Also nicht eins zu eins, habe ich jetzt rausgehört. Also es wird halt ein Extrakt gebildet.
Das heißt also, es wird sozusagen ein Index oder eine Art Katalog gebildet, wo was zu finden ist.
Und von da aus kann ich dann in dem Moment, wo ich eine Abfrage starte,
wird dann im Hintergrund anhand des Katalogs geguckt, welche Informationen dafür genutzt werden.
Genau, so ist es vom Grundprinzip her, sodass wir sicherstellen können,
dass Kundeninformationen oder Kundendaten nie die sogenannte Tenant-Boundary
verlassen und das ist auch wichtig.
Wenn man sich die Erflichtektur ein bisschen genauer anschaut als Microsoft,
wir sind ein typischer Hyperscaler,
das heißt wir haben immer gesharte Infrastrukturen, das heißt mein SharePoint-Server,
mein Team-Server, der Exchange-Online-Server sind alles gesharte Infrastrukturen,
Aber wenn es auf Basis der Kundendaten
geht, das ist immer isoliert in der sogenannten Tenant-Boundary.
Der Rest läuft in der sogenannten Service-Boundary.
Sodass wir immer sicherstellen können, dass die Zugriffsrechte immer nur so
vergeben werden, dass auch Kundendaten nur im Bereich der Kundeninfrastruktur
dann gespeichert und dann auch abgerufen werden können.
Das heißt, wenn wir mal davon ausgehen, ich habe jetzt so eine Extension,
mit der binde ich meinen eigenen Datenbestand an Und da sind vielleicht Kundendaten
mit dabei, da sind vielleicht auch Mitarbeiterdaten dabei.
Die würden zumindest teilweise auch als Extract dann in diesem Index landen.
Also da kann ich wahrscheinlich nicht ganz ausschließen, dass da auch personenbezogene
Daten bei sind. Oder wie muss ich das verstehen?
Wenn ich es als Connector mache, ja. Über ein Plugin kann ich das umgehen,
weil dann wird immer nur live abgefragt.
Da ist natürlich immer die Frage, über welche Informationen oder über welche
Verarbeitung wir reden.
Das ist natürlich insbesondere aus datenschutzrechtlicher Sicht interessant,
nicht nur die eigentliche Datenverarbeitung zu betrachten, sondern auch die
Verarbeitungstätigkeit an sich.
Und je nachdem, was das für Informationen sind, wenn es zum Beispiel besonders
schützenswerte Informationen sind, wo ich auch als Kunde jetzt sagen würde oder als Datenschützer,
In der Cloud hätten wir die gerne nicht, aber in Verbindung mit Co-Pilot würden
wir sie gerne nutzen wollen.
Dann wäre ein Plugin dafür das optimale Thema, weil dann bleiben die Originaldaten
immer da, wo sie heute sind.
Und sie werden dann nur für die Transaktionen des einzelnen Promptes angefragt,
aber nicht in den Index überführt.
Okay, also da kann ich drüber steuern, was dann nachher wirklich im Index drin
ist, wobei man auf der anderen Seite auch sagen muss, wenn ich eine Datenbank
habe, dann habe ich in der Regel auch irgendeine Art von Index oder wenn ich
meinen lokalen Datenbestand indexieren lasse, um die Suche zu beschleunigen,
dann kann ich das halt auch an der Stelle natürlich nicht ausschließen,
dass da auch personenbezogene Daten drin landen.
Also ich sag mal, es ist vielleicht ein bisschen umfassender,
aber am Ende ist es auch nicht neu, also nicht ganz neu zumindest.
Es ist natürlich immer die Frage, wie ich das von der Verarbeitung her betrachte.
Was aus meiner Sicht, aus datenschutzrechtlicher Sicht noch interessant ist,
wo dann auch die Verarbeitung stattfindet und hier gehen wir als Microsoft einen
gesonderten Weg, was das Thema KI angeht.
Wir garantieren für unsere Kunden in Europa, dass die Verarbeitung und Speicherung
der Informationen ausschließlich in Europa stattfindet.
Auch wenn ich Infrastrukturen habe, die normalerweise Multi-Geo sind,
also über mehrere Länder auch verteilt sein können, dann garantieren wir trotzdem
für die europäischen Mitarbeiter,
also da wo die Preferred Data Location richtig ausgewählt wurde,
auch genau die Verarbeitung.
Das bedeutet aber, dass ich, sobald ich den Co-Piloten nutze,
ich sozusagen immer auch die Online-Verbindung brauche.
Also das heißt, ein Teil der Datenverarbeitung in dem Moment findet auch online
statt. Ich kann das jetzt nicht rein lokal nutzen.
Also ich kann jetzt nicht sagen, ich möchte gerne den Co-Piloten nutzen,
aber ich mache das rein lokal, ohne dass ich da irgendwie einen Cloud-Service für brauche.
Im Moment nein. Es gibt ein paar Entwicklungen, auch auf Hardware-Basis,
aber das will, glaube ich, heute den Podcast komplett sprengen.
Aber alles das, was den Standard-Microsoft-Ansatz ansieht, in der Microsoft
365-Umgebung, ist es immer online.
Kennen wir das vielleicht von auch anderen Large Language Models.
Man hat dann dieses berühmte Prompting, wo ja mittlerweile auch sehr viel darüber
diskutiert wird und auch sehr viele Schulungsangebote bestehen.
Ich glaube, das ist wahrscheinlich hier auch nicht anders, dass man da auch
gewisse Erfahrungen wahrscheinlich sammeln muss.
Typischerweise ist aber ja das, was ich dort eingebe, ist ja etwas,
was jetzt bei anderen auch oft dann in so einer Chronologie erhalten bleibt.
Und auch das, was wieder ausgegeben wird von der KI oder jetzt in dem Fall von
Copilot, das wird dann auch historisiert.
Das ist so wahrscheinlich. Und wo wird sowas dann gespeichert?
Also ist das halt auch was, was ich lokal habe oder was dann in der Cloud liegt? Und wenn ja, wo?
Bei dem Microsoft 365 Copilot ist es so, dass jeder Prompt und jede Antwort
immer auch in der Mailbox, also in der Exchange Online Mailbox des Benutzers
landet und zwar in dem versteckten Ordner, wo wir auch heute schon Teams Nachrichten ablegen.
Was wir ja gemacht haben im Bereich Copilot, wir haben uns die Technologie zunutze
gemacht, die wir für Teams haben,
um dann auch die Prompts und auch die Antworten dort ablegen zu können.
Das ist natürlich interessant, weil zum einen habe ich dann die Möglichkeit,
das für Recherchezwecke wieder zu nutzen, weil ein Prompt und eine Antwort könnte
ja unter Umständen auch durchaus relevant sein für eine Anbahnung von einem Rechtsgeschäft.
Und damit wäre ich auch in der Notwendigkeit, diese Information noch länger vorzuhalten.
Nichtsdestotrotz kann man die
Prompts und auch die Antworten zu jeder Zeit löschen, wenn man das will.
Es gibt auch eine Historie. Die Historie kann man immer löschen,
wenn man will, aber das hat keine Auswirkung auf die gespeicherten Informationen,
die in der Mailbox des Benutzers liegen.
Das kann ich aber auch zentral steuern. Also ich kann dann auch da Retention
Time, also Aufbewahrungsfristen und auch Löschfristen hinterlegen als Unternehmen.
Korrekt.
Du hast es angesprochen, die Speicherung in der lokalen Mailbox oder in der
Mailbox des Users, das hatten wir auch in der Teams-Folge schon gemacht.
Die kann ich an der Stelle auf jeden Fall nochmal verweisen.
Ich glaube, da hast du es auch sehr gut erklärt, wie letztendlich die Datenspeicherung dann passiert.
Und ich vermute jetzt mal, es ist dann genauso, wie wir das da auch hatten.
Also in dem Moment, wo ein Mitarbeiter zum Beispiel ausscheidet und ich seine
Mailbox lösche, sind halt auch all diese Informationen, die darin gespeichert
waren, dann auch ebenfalls gelöscht.
Genau, das unterliegt den ganz normalen Löschwürsten, die wir auch vertraglich
zusagen zu unseren Kunden.
Also es ist auch im DPA geregelt, in Verbindung mit den Product- und Service-Terms.
Je nachdem, wie das Setup ist, welchen Weg ich wähle, wenn ich einen Benutzer lösche.
Das geht in der Regel los bei 90 Tagen, abhängig von dem Setup.
Jetzt haben wir noch den Index eben angesprochen und gesagt,
da kann auch nicht ausgeschlossen werden, dass da auch personenbezogene Daten drin sind.
Der Index ist aber natürlich etwas, was ja im Zweifelsfall dann auch irgendwie
gelöscht werden muss, wenn ich jetzt vielleicht die Originaldaten lösche.
Gibt es da eine gewisse, also wie häufig wird der aktualisiert?
Ist das etwas, was sehr zeitnah passiert? Oder muss ich da jetzt nochmal extra
hingucken und sagen, naja, wenn ich jetzt meine Originaldaten lösche,
dann muss ich den Index irgendwie separat nochmal was veranlassen?
Nein, ich muss hier nichts nochmal veranlassen, das passiert alles vollautomatisiert.
Man muss natürlich ein bisschen genauer drauf schauen.
Ich mache jetzt mal ein Beispiel, ich hatte letztens einen Termin und dann hat
mich ein Datenschützer gefragt.
Ich habe jetzt hier ein Dokument, was ich an den Herrn Müller geschickt habe
und ich lösche das für mich als Datenschützer. Was passiert denn?
Die Antwort darauf ist relativ einfach, nichts.
Weil der Herr Müller ist ja noch da und er hat ja noch das Objekt.
Das heißt, hier bleibt dann die Information noch im Index bestehen.
Aber sollte der Herr Müller das Dokument löschen, dann wird es auch aus dem Index entfernt.
Das heißt, solange ein Dokument von einem Mitarbeiter, also von einem Benutzer
in Use ist, bleibt der Index bestehen.
Und sobald der letzte dann das
Objekt gelöscht hat, dann wird auch der Eintrag aus dem Index gelöscht.
Was allerdings sofort Auswirkungen hat, wenn ich das Dokument jetzt lösche,
für mich selber, habe ich über den Index und auch über das Thema Co-Pilot keine
Möglichkeit, das Dokument mit Co-Pilot noch weiter zu nutzen.
Also ich persönlich, der Herr Müller, sehr wohl.
Damit eine gute Brücke zum Thema Rechtemanagement.
Wir haben ja in der Vergangenheit gab es auch schon Medienfälle,
wo behauptet oder gesagt wurde oder berichtet wurde, dass über Co-Pilot zum
Beispiel dann Mitarbeiter Daten sehen konnten oder Informationen zumindest gewinnen konnten,
die sie halt typischerweise eigentlich nicht im Zugriff hatten oder hätten haben sollen.
Vielleicht kannst du da mal was zu sagen, wie ist das entstanden?
Ist es ein Fehler im Co-Pilot gewesen? Ist es ein Fehler in der Konfiguration gewesen?
Ist es eine Frage des Rechtemanagements und wenn ja, worauf sollte man da halt auch besonders achten?
Generell ist es so, dass über den Co-Pilot das Rechtemanagement nicht ausgehebelt werden kann.
Das heißt, ich kann nicht über die Grenzen auf das, was ich Zugriff habe, zugreifen.
Was hier in den Fällen mit Sicherheit passiert ist, man hat einen Prompt abgesetzt,
hat dann ein Dokument als Referenz bekommen, wo man nicht wusste,
dass es existiert, man aber schon lange Zugriff drauf hatte.
Und das ist auch das Hauptthema, was wir bei allen Projekten sehen in Verbindung mit KI.
Die erste Frage, die man sich stellen muss, habe ich mein Rechtemanagement im Griff, ja oder nein?
Das Beispiel, der Intern, der hat in der Regel immer sehr viele Zugriffsrechte,
weil der kommt dann irgendwann an, fängt mit der Poststelle an,
dann hat er die Zugriffe von der Poststelle nach drei Wochen,
sagt man, jo, hat er gut gemacht, jetzt geht er Richtung Sales.
Was macht man? Die Rechte von der Poststelle nimmt man natürlich nicht weg,
sondern man gibt ihm die von der Sales-Abteilung.
Und so geht es dann weiter, dann irgendwann landet er bei HR und Entwicklung
und nach sechs Monaten hat er mehr Zugriff wie zum Beispiel ein CEO.
Aber das ist kein Problem der KI, sondern habe ich mein Rechte-Management im Griff?
Ich glaube, das ist eine ganz wichtige Botschaft, weil natürlich,
wie du sagst, entweder werden Rechte nicht entzogen oder aber auch das kennen
wir natürlich aus der Praxis.
Wir haben sehr große Ordnerstrukturen und Dateistrukturen, Ablagestrukturen,
die dann auch letztendlich manchmal einfach gar nicht so gut durchdrungen sind,
wie die Berechtigungen am Ende wirklich aussehen und das ist halt das Risiko, was man halt hat,
dass dann mit Co-Pilot-Informationen natürlich sehr viel besser zusammengesammelt
werden und dann halt auch der Eindruck entsteht, ich habe plötzlich Zugriff
drauf, aber in Wirklichkeit, wie du schon sagst, hat er halt vorher bestanden.
Ich habe es halt nur nicht gewusst oder nicht rausgefunden, weil es in den Tiefen
der Dateistrukturen einfach gar nicht auffindbar war.
Ja, das ist auch das Thema, was wir immer wieder sehen.
Man muss halt ja auch schauen, wenn ich jetzt ein gutes Rechtemanagement habe,
ich habe mein SharePoint Online, ich habe das super im Griff,
ich habe meine Teamsgruppen super im Griff.
Die Frage ist natürlich immer, was ist mit dem Objekt, was da drin liegt in
der SharePoint Library?
Ich mache jetzt mal ein Beispiel, jetzt haben wir HR, die haben ihre SharePoint
Library, da darf nur HR darauf zugreifen, dann haben wir einen Managementprozess,
dann kommt eine Bewerbung rein, die Unterlagen kommen rein, was macht man?
Vielleicht eine Teamsgruppe generieren, dann nimmt der HR-Mitarbeiter ein Dokument
und kopiert das in die Teamsgruppe rein.
Das heißt, hier habe ich jetzt zwar mein Rechtemanagement auf HR,
weil es ist geregelt, aber aufgrund der Tatsache, dass das Objekt sich verschiebt,
kann es durchaus dann wieder in andere Berechtigungen reinschauen oder reinrutschen.
Deswegen ist es immer empfehlenswert, nicht nur die Quelle sich anzuschauen
von dem Rechtemanagement, sondern insbesondere bei kritischen Dokumenten das Dokument selber.
Das heißt, kann ich Schutzmechanismen an das Dokument heften,
selbst wenn es kopiert wird, wenn es irgendwo anders hintransferiert wird oder
per E-Mail gesendet wird.
Wie sieht es dann mit der rechten Struktur aus? Und da gibt es viele Möglichkeiten,
das zu tun, über Rechte-Management, über Label, über Verschlüsselungen und so weiter.
Also Stichwort Klassifizierung ist hier, glaube ich, das, was natürlich, auch das sehen wir.
Wir haben natürlich im Bereich Management-Systeme, wenn es um eine ISO 27001
geht, gibt es das halt natürlich als Anforderung, dass ich eine Klassifizierung haben muss.
Aber in der Praxis ist es halt in sehr vielen Unternehmen auch immer noch sehr begrenzt.
Und man hat halt letztendlich das Thema, also man muss es halt irgendwie technisch
labeln und klassifizieren, damit dann eine KI es halt auch vernünftig auswerten
beziehungsweise berücksichtigen kann.
Aber das verstehe ich. Also ich kann halt über Klassifizierung,
über eine entsprechende Kenntlichmachung, was sind vertrauliche Dokumente,
was sind interne Dokumente,
was sind öffentliche Dokumente, darüber kann ich auch steuern,
was Copilot verarbeiten darf, ausgeben darf und was gegebenenfalls auch nicht.
Ja gut, nicht unbedingt, was ein Co-Pilot herausgeben darf, sondern man muss
das von der anderen Seite betrachten.
Was kann im Rahmen von Co-Pilot genutzt werden, um zu der Entscheidung zu kommen?
Das heißt, in dem gesamten Prozess, wenn ich den Datenfluss mir anschaue,
in dem Moment, wo der Co-Pilot Orchestrator mit den internen Modulen zu der
Entscheidung kommt, ein Dokument kann oder Inhalte von einem Dokument können
relevant sein für eine Antwort,
dann muss natürlich unweigerlich an der Stelle gefragt werden,
darf der Benutzer auf diese Information zugreifen?
Und das ist im Prinzip der Schlüssel.
Wenn an der Stelle der Zugriff nicht möglich ist über Rechtevergabe,
Klassifizierung, also über das Rechtemanagement, was ich zum Beispiel mit Labeln
machen kann oder anderen Mechanismen, dann kann ich dadurch auch den Zugriff steuern.
Das ist auch das, was viele Kunden fragen.
Wie kann man einzelne Objekte, einzelne Dokumente aus der Nutzung von KI fernhalten?
Nehmen wir mal den Fall, wir haben festgestellt, wir hatten unser Recht im Management
nicht im Griff und jetzt ist halt der Fall eingetreten, Mitarbeiter haben plötzlich
Informationen, die sie gar nicht haben sollten.
Wenn ich jetzt aber hingehe und Rechte entziehe, wie lange dauert das dann,
bis das dann auch bei Copilot angekommen ist und diese Informationen dann auch
nicht wieder weiterverarbeitet werden?
Sofort.
Sofort.
Ja, das hängt damit zusammen, wenn wir den Index erstellen, der wird natürlich
auch zentrisch für den User erstellt.
Das heißt, den Index, den wir an sich erstellen, selbst wenn ich Änderungen durchführe,
kann das, in der Regel passiert das sofort, aber wenn jetzt größere Änderungen
stattfinden, jetzt sage ich zum Beispiel, wir haben das mit dem Rechte-Management,
wir haben zum Beispiel bei einem Kunden, der hat 100.000 SharePoint-Library, jetzt stellt man fest,
500 User dürfen auf die Hälfte gar nicht zugreifen, dann ändere ich das ab,
dann kann ich das im Index gar nicht so schnell nachziehen.
Das heißt, die Veränderung oder die Latenzzeit, bis die Änderung eintritt, wäre zu groß.
Und das ist auch der Grund, warum wir immer Point in Time überprüfen,
habe ich Zugriff auf ein Dokument.
Deswegen, unabhängig, was der Index intern zur Verfügung stellt,
ist die Nutzung des Dokuments durch die Änderung sofort aktiv,
dass ich das Dokument dann in der Verbindung mit Copilot nicht mehr nutzen kann.
Heißt auch, dass ich damit sicherstelle, dass immer der aktuelle Inhalt auch
herangezogen wird, also selbst wenn ein Dokument sich geändert hat?
Jein, jein.
Jein, ganz klar. Jein?
Ja, gut, hängt natürlich damit zusammen, wenn ich das aktuelle Dokument ja,
ist natürlich auch immer die Frage, wie lege ich das Dokument ab.
Wenn ich natürlich nur mich auf Änderungen beziehe, das Dokument einfach speichere,
dann weiß ich, dann habe ich immer das aktuelle Dokument.
Wenn ich allerdings aktiv Versionen speichere, dann muss ich natürlich für das
Thema Co-Pilot wissen, dass dann auch die Versionen, die ich physisch speichere,
also nicht das, was SharePoint generiert, sondern das, was ich physisch generiere,
dann auch im Zugriff wieder in Verbindung mit Copilot wäre.
Und damit kann ich auch veraltete Informationen dann wieder…
Ja.
Ja, okay.
Aber wichtig oder interessant,
Ich sehe immer, welche Dokumente der Co-Pilot referenziert.
Das heißt, wenn ich die Antwort sehe, dann sehe ich auch immer,
auf welche Dokumente hat der Co-Pilot sich referenziert.
Wenn ich natürlich dann zwei, drei Dokumente habe mit dem gleichen Namen,
dann sollte man sich die am liebsten nochmal anschauen.
Wenn wir über den Einsatz von überhaupt KI-Systemen im Unternehmen mal ganz allgemein sprechen,
ist ja immer auch natürlich eine große Sorge, dass darüber Mitarbeiter Auswertungen
passieren können, dass darüber Daten analysiert werden können,
die vielleicht, wie gesagt, ich sonst nicht analysiere, weil ich vielleicht
den Aufwand dafür scheue oder mir die KI das vielleicht sogar anbietet. Wie ist es da geregelt?
Also gibt es da Schutzmechanismen? Kann ich bestimmte, zum Beispiel Promptfilter setzen?
Kann ich irgendwie technisch irgendwas unterbinden oder muss ich das organisatorisch regeln?
Es ist vielschichtig. Es ist eine Kombination aus allem.
Also zum einen organisatorisch, dann was wir machen mit Contentfilter und dann
am Ende noch reaktive Informationen.
Aber ich würde das einmal kurz ein bisschen beleuchten. Was ich natürlich machen
muss, und das habe ich auch immer in den Gesprächen mit den Betriebsräten,
auch mit dem einen oder anderen Datenschützer.
Man macht sich dann über eine Betriebsvereinbarung Gedanken,
wie ist die Nutzung für KI zugelassen, was darf ich, was darf ich nicht,
zum Beispiel Mitarbeiterüberwachung und ähnliches, ist normalerweise immer sofort
per se verboten, auch im Bereich der Betriebsvereinbarung.
Wir als Microsoft haben das Responsible AI, wo wir uns schon sehr lange mit
beschäftigen, Was die wenigsten wissen, für viele ist das so,
wir haben mit Copilot angefangen, dann haben wir auch Responsible AI, so war es aber nicht.
Bereits seit 2016 arbeiten wir im Hintergrund daran.
Und zwar über das Responsible AI haben wir als Microsoft so ein paar Spielregeln,
wenn man das so sagen darf, festgelegt über Content Filter, dass bestimmte Prompts
und Antworten auch nicht zugelassen werden.
Da gehört natürlich unter anderem auch Bewertungen dazu, alles was offensichtlich
auch einen kriminellen Charakter, wie kann ich eine Bombe bauen oder wie kann
ich eine Pistole bauen oder ähnliches, solche Sachen werden dann generell unterbunden.
Aber nichtdestotrotz kann man offen darüber reden, man wird nicht jeden Prompt unterbinden können.
Das ist nahezu unmöglich. Wir sind schon auf einem guten Weg,
auch in anderen Bereichen, aber man wird nicht jeden Prompt unterbinden können.
Aber was ich als Unternehmen habe, ich kann immer noch definieren für mich selber,
was sind denn Prompts, die ich nicht zulassen will, die ich aber auch dann in
der Betriebsvereinbarung schon so definiert habe oder auch in dem Prozess definiert habe.
Und über ein Modul in der Microsoft 365 Umgebung Communication Compliance kann
ich meine eigenen Policies definieren, um genau diese nicht erwünschten Prompts auch zu erkennen.
Wir können sie nicht verhindern, sie werden nicht abgeblockt,
aber man kann sie erkennen und auch die Antworten daraus werden erkannt.
Und hier habe ich dann die Möglichkeit, im Nachhinein mir das anzuschauen.
Das ist natürlich ideal für Recherchezwecke oder wenn schon kritische Sachen dabei sind.
Das kann natürlich auch, muss jetzt nicht unbedingt immer aus Sicht vom Betriebsrat
sein, das kann ja auch ein geheimes Projekt rein, wo man dran arbeitet, mit Deckmantel,
irgendeinem Namen, mit dem man sich ausdenkt, dann baut man eine Policy,
die genau nach diesem Namen sucht oder das immer auffängt.
Und in dem Moment, wo dann einer Co-Pilot in Verbindung mit diesem Namen nutzen
will, wird ein Alert generiert und ein Benutzer oder ein Administrator,
der die Zugriffrechte darauf hat, kann das dann entsprechend überprüfen.
Also man ist nicht komplett auf Blindflug, aber man sollte schon überlegen,
was man machen möchte und wie man die Information dann auch verarbeiten und nutzen will.
Wobei da natürlich auch wieder datenschutzrechtlich einmal sauber durchgeprüft werden soll.
Wie mache ich das? Gibt es dafür auch eine Erforderlichkeitsgrenze,
Notwendigkeit, damit wir das Datenschutzrecht auch legitimieren können?
Und wie du schon sagst, es brauchen dann auch spezielle Leute,
die Berechtigungen dann auch dauernd auch Prozesse. Also ich glaube,
das ist halt auch wichtig, dass man die Prozesse hat.
Wie geht man damit um, damit halt auch nicht eine Mitarbeiterüberwachung über
den Weg wieder stattfindet, was wir natürlich auch am Ende nicht wollen und
auch Betriebsräte ja typischerweise nicht wollen.
Korrekt. Ist so, da wird man auch nie von losgesprochen oder freigesprochen werden.
Ich muss mir Gedanken darüber machen, wie die Nutzung an sich schon eingesetzt
werden kann und dann auch die entsprechenden Prozesse beschreiben.
Das war das eben schon angesprochen. Viele Firmen haben das Thema Klassifizierung
nicht unbedingt Und umgesetzt, was ich sehe aus meiner Erfahrung,
also ich habe bis jetzt noch keine Firma gefunden, die sich nicht damit beschäftigt hat.
Viele haben ein Konzept, wie die Klassifizierung aussehen soll,
meistens so drei, vier, fünf verschiedene Klassen.
Aber sehr häufig liegt das Konzept in der Schublade.
Da gebe ich dir völlig recht. Wie gesagt, in der Praxis sieht man es oft.
Manchmal findet man halt schon Ansätze, wie man sagt, okay, das alles,
was halt kein Label hat, ist halt irgendwie intern und dann werden besonders
vertrauliche Dokumente noch klassifiziert.
Aber dann gibt es halt oft auch so Regeln, die sagen, alle Personaldaten sind
grundsätzlich das Vertrauliche anzuhaben.
Das funktioniert organisatorisch, aber das funktioniert natürlich nicht für
eine KI erstmal, wenn man das in dieser Pauschalität definiert.
Oder irgendwie, ja, kommt drauf an. Also aus meiner Sicht wird es funktionieren,
kann man schon umsetzen.
Das ist natürlich immer die Frage, wo ich ansetze und wie man es umsetzen will.
Weil gerade was das Thema Klassifizierung angeht, sehe ich immer bei den Projekten,
wo ich auch mit unterwegs bin, das Hauptproblem ist, man steht vor dem Mount
Everest und sagt, okay, wie komme ich jetzt da hoch?
Mein Ansatz wäre viel einfacher. Gut, ich bin jetzt kein Bergsteiger,
aber was ich nehmen würde, ich würde den Hubschrauber nehmen,
nach oben fliegen und mich um das obere Drittel kümmern, weil das ist das,
was wichtig ist, das, was wehtut.
Das heißt, die Informationen zu erkennen, die wehtun am Ende des Tages,
die kritisch sind und genau an der Stelle mit der Klassifizierung anfangen,
weil das ist immer das Hauptproblem, was ich sehe.
Man sieht, oh, Klassifizierung, wir müssen jetzt public, private,
online, confidential, highly confidential.
Die ersten drei, die kann ich, was das Thema Co-Pilot angeht,
erstmal unter Umständen nicht vergessen, aber erstmal an die Seite schieben
und mich nur um confidential und highly confidential kümmern.
Dann hat man schon sehr viel gewonnen.
Ja, das ist risikoorientiert genau der richtige Ansatz, weil ich muss ja erstmal
die hohen Risiken mitigieren, bevor ich mich dann um die etwas mittleren und
kleineren vielleicht kümmere.
Weil jetzt als Datenschutzperspektive gedacht, wenn ich jetzt so ein System
Co-Pilot, Co-Pilot habe,
kann ich das auch als Datenschützer zum Beispiel nutzen, um jetzt vielleicht,
wenn ich eine Betroffenen anfrage, da auch Vorauskunft Artikel 15 habe,
um mir sowas auch zusammenstellen zu lassen?
Oder scheitere ich dann sozusagen wiederum genau an diesen Berechtigungsfragen?
Also von der Theorie her, da muss man schon sehr viel kreativ theoretisch denken.
Wenn ich Zugriff auf alles habe, dann ja, aber von der Praxis nein.
Meine Antwort darauf als Global Black Belt für Koblenz, nein.
Weil der Risikofaktor dahinter, der wäre viel zu groß. Ich müsste dem Datenschützer
Zugriff auf alles gewähren.
Aber davon abgesehen, Co-Pilot ist nicht dafür vorgesehen, genau sowas zu tun.
Weil das wird er auch nicht können.
Das ist auch was viele erst noch lernen müssen. Viele setzen Co-Pilot oder KI
auch ein Stück weit mit einer besseren Suchmaschine gleich.
Davon muss man sich verabschieden.
Die künstliche Intelligenz ist keine Suchmaschine on steroids,
sondern die gibt mir Informationen, die von Wert sind, wo ich auch wieder neue
Entscheidungen darauf treffen kann.
Und ansonsten kann ich ganz normal mit dem Index weiterarbeiten.
Dann hast du eben eingangs auch schon mal angesprochen das Thema DPA,
also Datenschutzvereinbarung, Datenschutzvertrag mit Microsoft.
Muss ich jetzt, wenn ich als Unternehmen Co-Pilot einsetzen möchte,
muss ich da nochmal ein separates DPA abschließen? Ist das durch das Standard-DPA
abgedeckt und sozusagen alles abgebildet? Ist aber nicht extra erwähnt, Co-Pilot?
Oder ist es ein extra Punkt da drin?
Nein, im DPA sind eh keine Produkte abgebildet, sondern das Data Privacy Addendum,
was wir haben, ist immer das Data Privacy Framework, was wir haben für alle Produkte.
Die Wahrheit, was die Produkte angeht, sind in den sogenannten Product- und Service-Terms.
Und da sieht man, dass der Microsoft
365 Co-Pilot ein Core-Service aus der Microsoft 365 Umgebung ist.
Was natürlich aus datenschutzrechtlicher Sicht jetzt interessant wird, weil ich weiß, aha,
in dem Moment, wo der Microsoft 365 Co-Pilot ein Core-Service ist von der Microsoft 365 Umgebung,
ist es keine komplett neue Infrastruktur, keine komplett neue Verarbeitung,
sondern wenn ich jetzt meine Datenschutz-Folgeabschätzung für die Microsoft
365 Umgebung gemacht habe,
kann ich hier, ich will jetzt nicht sagen vieles abkürzen, aber vereinfachen,
weil ich viele von meinen Hausaufgaben schon gemacht habe und dann im Rahmen
der Verarbeitung nur noch das Thema KI betrachten muss.
Ja, kommen wir gleich nochmal drauf, wenn wir das DPA jetzt nochmal nehmen,
dass wir auch in der Vergangenheit von den Aufsichtsbehörden auch mal wieder beanstellet wurden.
Die haben da immer wieder auch sozusagen darauf reagiert und das wieder versucht auch nachzubessern.
Das ist aber schon so, dass du auch sagst, da ist auch jetzt im Moment der Stand
mit den Aufsichtsbehörden so, dass wir haben ja vereinzelt auch Aufsichtsbehörden,
die auch sagen, nee, man kann das jetzt auch so einsetzen.
Niedersachsen zum Beispiel, glaube ich, hat sich da ja auch sehr positiv geäußert.
Das hat sich auch durch Co-Pilot nicht geändert. Also das ist jetzt auch nicht
so, dass da jetzt irgendwie nochmal extra Kritik kommt, dass es irgendwo fehlt.
Nein, aus meiner Sicht nicht. Wir haben jetzt auch bis jetzt nichts gehört in der Richtung.
Hängt damit natürlich zusammen, weil der Microsoft 365 Co-Pilot genau die gleiche
Infrastruktur ist wie die Microsoft 365 Umgebung.
Weil das Interessante war ja, die Verarbeitung und Speicherung von Informationen,
das wurde ja von den Landesdatenschützern so in der Art und Weise nicht kritisiert,
sondern in der Regel immer nur das, was das Thema Diagnosedaten angeht und das
Verwenden zu eigenen Zwecken.
Zum Beispiel Abrechnungsdaten oder ähnliches. Da haben wir, was das Wording
angeht, einiges verändert, dass es auch ein bisschen transparenter wird.
Was Diagnosedaten angeht und gerade die Informationen, die für Abrechnungszwecke gehen,
sind mittlerweile auch im Bereich der EU Data Boundary, sodass wir hier viele
Fragen beantworten konnten, die mitunter vor Jahren noch beanstandet wurden,
aber heute eher weniger.
Jetzt haben wir ja einige Aufsichtsbehörden noch, die so eine Pauschalannahme
treffen zum Thema Datenschutzfolgenabschätzung beim Einsatz von KI,
wenn es um personenbezogene Daten geht.
Das KI-Paper von der DSK, glaube ich, ist da ein bisschen offener,
sagt das nicht mehr mit dieser Pauschalität, aber grundsätzlich,
wenn ich jetzt das Unternehmen meine,
ich bin da vielleicht zu angehalten, weil ich das halt vielleicht auch von den
Datenarten, die ich verarbeite oder von den Mengen her für angeraten sehe.
Gibt es da von eurer Seite Informationen, auf die ich mich da stützen kann?
Gibt es Hilfestellungen, die ich halt heranziehen kann, um dann so eine DSFA durchzuführen?
Ja, auf jeden Fall. Ich habe natürlich immer wieder Gespräche auch mit dem einen
oder anderen Landesdatenschützer.
Letztes Mal saßen wir zusammen und dann war natürlich die Frage,
können wir eine Muster-Datenschutz-Forgabschätzung zur Verfügung stellen?
Theoretisch könnten wir das. Das macht aber wenig Sinn, weil ich ja nie weiß
oder wir als Microsoft nie wissen, wie ist denn die Verarbeitung geplant,
wie will ich meine KI nutzen.
Weil hier ist dann immer entscheidend, die Verarbeitung als erstes zu betrachten,
was die ganze Technologie, Verarbeitung und auch zusätzliche Informationen angeht.
Da stehen wir immer mit Rat und Tat zur Seite.
Und was natürlich die Verarbeitung angeht und auch was die Rechtsgrundlage angeht,
das muss immer auch von der Kundenseite dann entschieden werden.
Wir werden aber ein paar Links auch in die Shownotes packen,
wo man noch weitere Informationen auch findet, gerade auch wenn es um das Thema geht.
Aber ich gebe dir natürlich völlig recht, Risiken müssen natürlich unternehmensspezifisch
aufgrund der Daten und der betroffenen Gruppen identifiziert werden.
Und natürlich auch, wie wir es eben schon gesehen haben, wir können natürlich
auch viel Maßnahmen ergreifen, sei es Klassifizierung, sei es Einschränkung von Rechten.
Also da sind natürlich dann die Dinge, die halt auch in jedem Unternehmen konfiguriert werden müssen.
Ich glaube, das ist auch nochmal ein ganz entscheidender Punkt.
Also so wie wir es bei M365 ja insgesamt haben und am Ende muss man ja auch
sagen, bei jeder anderen Anwendung auch,
ich muss mich halt mit der Konfiguration auseinandersetzen und die halt vernünftig
machen und gucken, was ist halt notwendig und sei es Datensparsamkeit,
Datenminimierung, sei es Zugriffsrechte,
Privacy by Design, das sind halt die Dinge, die ich halt im Unternehmen auf
jeden Fall tun muss und die dann auch in so eine DSFA natürlich reinfließen.
Auf jeden Fall. Was interessant ist, du hast gerade ein Stichwort gesagt mit
der Datensparsamkeit, Datenminimierung.
Ich tausche mich nach wie vor noch mit externen Datenschützern aus.
Ich sage immer scherzhaft auch, weil ich bei Microsoft bin. Sie reden immer
noch mit mir, da wir ja in der Regel immer die Bösen sind.
Ich sehe das ein bisschen anders, aber gut, das ist ein anderes Thema.
Aber auch hier tausche ich mich immer wieder mit Datenschützern aus und da ist
zum Beispiel auch der eine oder andere geht auch den Weg, dass man sagt,
in Verbindung mit Co-Pilot kann ich das Thema der Datensparsamkeit,
Datenminimierung auch mit forcieren,
weil ich mir an der Stelle dann unter Umständen auch erkennen kann,
dass ein Dokument drei- oder viermal auftaucht, um dann daraus wieder entsprechend
dann Schlüsse zu ziehen.
Okay, das klingt tatsächlich interessant. Also wenn ich darüber natürlich dann
mehrfach Datenhaltung sozusagen identifizieren kann, dann kann ich darüber natürlich,
wie du schon sagst, Datensparsamkeit wiederum auch versuchen anzuschreiben und
vor allen Dingen auch Konsistenz.
Also ich meine, das ist ja oft das Thema, was wir haben, wenn wir Daten mehrfach
halten, dass wir dann oft mehrere Wahrheiten haben, aber wie gesagt,
in der Regel ist nur eine die echte Wahrheit und,
Verstehe ich. Gibt es sonst noch Punkte, die du jetzt aus deiner Beratungserfahrung
im Bereich Datenschutz siehst, wo du sagst, da haben wir jetzt noch gar nicht
drüber gesprochen, aber sind häufig gestellte Fragen, sind vielleicht auch wichtige Punkte?
Ja gut, was in letzter Zeit häufiger immer wieder gekommen ist,
gerade wenn wir über Co-Pilot reden oder über Microsoft, wir haben halt immer
die Intention, auch unter Umständen verschiedene Produkte mit dem gleichen Namen
zu versehen, die dann auch vielleicht ein bisschen anders von der Ausrichtung waren.
Das war das Ex-Bing Chat Enterprise, was Richtung Microsoft Co-Pilot dann umbenannt wurde.
An der Stelle war eine ganze Zeit lang, haben die Kunden sich immer wieder beschwert,
warum fällt der Microsoft Co-Pilot nicht unter das DPA, weil es nicht in den
Product- und Service-Dirms war.
Der Hintergrund dafür war recht einfach, so wie die Infrastruktur vorher war,
war Microsoft an der Stelle offiziell der Controller.
Und damit war keine Möglichkeit gegeben, das mit ins DPA reinzuführen,
weil ich muss dann, weil ich der Controller bin, die Privacy-Vereinbarung mit
dem Endbenutzer realisieren, was wir dann über die entsprechenden Links,
über die Mitteilungen, die wir auch dann publizieren,
dann auch entsprechend absichern.
Das wurde jetzt verändert. Mitte letzten Monat wurde der Microsoft Co-Pilot,
also das Ex-Bing Chat Enterprise, in die Infrastruktur des Microsoft 365 Co-Pilot
jetzt nicht komplett integriert, aber wir gehen hier exakt den gleichen Weg.
Das heißt, der gesamte KI-Teil ist jetzt mittlerweile über das DPA geregelt,
auch über die Product- und Service-Terms.
Der Microsoft Co-Pilot taucht auch in den Product- und Service-Terms als eigenes Produkt auf.
Damit habe ich natürlich aus datenschutzrechtlicher Sicht jetzt wieder eine
Verbesserung, weil als Unternehmung weiß ich, wenn ich den Microsoft Co-Pilot
zulasse, dann ist die KI-Nutzung dafür zu 100% über das DPA mit abgedeckt.
Das Web-Grounding bleibt so, wie es ist, weil das kann man nicht verändern,
weil in dem Moment, wo wir das Web-Grounding machen, das heißt,
wo Anfragen in Richtung Web auch übergeben werden,
sind wir wieder der Controller, da ist dann wieder die individuelle Privacy-Vereinbarung,
aber in der Art und Weise, dass wir auch hier nach wie vor die Zusage haben
und auch die Garantie haben, dass wir die Informationen nicht dafür nutzen,
den Service zu verbessern oder Modelle zu trainieren oder ähnliches,
das bleibt davon komplett unangetastet.
Das ist ja durchaus auch eine Verbesserung dann für die Anwender,
zu wissen, dass es auch da nicht fürs Training genutzt wird.
Das ist ja immer doch eine große Sorge, wenn ich halt bestimmte Daten eingebe
und wenn ich es halt dann im DPA drin habe, dann kann ich, wie gesagt,
auch natürlich ein bisschen mehr vielleicht das nutzen.
Rat ist natürlich trotzdem dafür, Richtlinien im Unternehmen zu schaffen,
entsprechenden Rahmen zu schaffen.
Wofür nutzen wir auch dann den Microsoft Co-Pilot?
Auch für den M365 Co-Pilot, glaube ich, bietet es sich an, natürlich entsprechende
Vorgaben zu machen, Rahmenleitplanken zu setzen, damit man halt neben allen
technischen Schranken, die wir vielleicht konfigurieren können,
unterm Strich aber trotzdem noch auch organisatorische Rahmenbedingungen haben
und die Mitarbeiter auch nicht aus der Pflicht lassen, zu überlegen, was sie da tun.
Weil auch da, das werden wir jetzt heute in der Kürze der Zeit natürlich nicht
mehr vertiefen können. Vielleicht machen wir dazu nochmal eine eigene Folge.
Das ist natürlich das Thema Rechtsgrundlagen. Also wie weit nutze ich halt diese
Systeme, diese Funktionalitäten eigentlich für den originären Zweck?
Oder sind es halt eigene Zwecke, die ich legitimieren muss? Ich glaube,
das sind halt Fragen, die werden wir dann nochmal gesondert klären.
Ich möchte aber gerne die Gelegenheit natürlich nutzen, dass wir heute Publikum
haben und auf die Gefahr hin jetzt vielleicht eine wichtige Frage noch übersehen
zu haben, aber gibt es aus unserem Publikum heute Fragen?
Gibt es noch jemanden, der sich hier noch nicht ausreichend informiert fühlt,
noch irgendwas, vielleicht auch ein Detail wissen möchte, was wir heute hier
mit Friedhelm Wablowski nutzen können?
Die Frage war, wenn man Co-Pilot verwendet.
Muss man das kennzeichnen, muss man das sozusagen bekannt machen,
dass man es verwendet oder läuft das sozusagen unter den wahrscheinlich normalen
Datenschutzhinweisen, die man hat, letztendlich dann mit drunter?
Ja, es ist natürlich die Frage immer in dem Zusammenhang. In dem normalen Office-Umfeld
ist es natürlich abhängig davon, was man als Unternehmen als Richtlinie vorgibt.
Ob ich jetzt eine E-Mail per Co-Pilot schreiben lasse, dann muss ich jetzt nicht
unbedingt darunter schreiben, erstellt mit KI.
Wo es natürlich interessanter ist, wenn ich jetzt mit Bildern arbeite oder mit
Audio-Material, was der Co-Pilot aber nicht kann.
Sondern der Co-Pilot ist nur für reine Textinformationen, steht er zur Verfügung.
Also ja, man kann es machen.
Aus meiner Sicht, aus rechtlicher Sicht, nicht unbedingt zwingend erforderlich.
Aber wenn ich sie im Unternehmen als Richtlinie so vorgegeben habe,
dann müsste man es da hinzufügen.
Ergänzend dazu, ich glaube, es hängt auch sehr stark davon ab, was ich halt mache.
In dem Moment, wo ich natürlich KI-Systeme, ich sage es jetzt mal ein bisschen
allgemeiner, natürlich einsetze, um letztendlich Daten von Beschäftigten zum
Beispiel auswerte und darauf basierenden Einzelfallentscheidungen vielleicht treffe.
Ich glaube, dann sind wir auf jeden Fall da, dass man das halt in irgendeiner
Form kenntlich machen muss, weil wir dann eine automatisierte Einzelfallentscheidung sind.
Und ansonsten, glaube ich, ist es auch sehr stark vom Zweck abhängig.
Wenn wir natürlich nachher feststellen, wie gesagt, vielleicht nochmal in einer
separaten Folge, wir haben den gleichen Zweck, zu dem wir die Daten eigentlich
auch erhoben haben, der uns halt nur durch Copilot vielleicht leichter von der Hand geht.
Also Dinge, die wir halt sowieso tun, aber mit Copilot vielleicht einfach nur
ein bisschen effizienter tun. Ich glaube, da kann man auch am Ende vertreten,
dass das gar keine neue Verarbeitung ist, sondern dass wir hier eher im Bereich
der gleichen Verarbeitungszwecke sind, zu denen wir die Daten ursprünglich erhoben haben.
Wenn ich natürlich andere KI-Systeme vielleicht auch nutze, die jetzt ganz neue
Dinge machen oder da wird es dann sehr spannend,
wenn ich natürlich personenbezogene Daten zum Training nutzen möchte,
was du ja gesagt hast, macht ihr jetzt da nicht, aber kann ja vielleicht auch
in anderen Konstellationen dann mal der Fall sein.
Da sprechen wir natürlich über Zweckänderungen gegebenenfalls,
die gegebenenfalls auch Datenschutzinformationen nach sich ziehen müssten.
Dann würde ich vielleicht noch zum Schluss ein Thema kurz anreißen.
Es ist kein reines Datenschutzthema, aber es beschäftigt uns dieser Tage natürlich
auch sehr, ist der AI Act oder die KI-Verordnung, die wir ja jetzt seit kurzem haben.
Gibt es da von eurer Seite irgendwas, was ihr den Unternehmen mit an die Hand
gebt, worauf sie achten sollen oder wo sie sich vielleicht auch keine Sorgen drum machen müssen?
Ist nicht ganz so einfach zu beantworten. Hat natürlich verschiedene Gründe.
Hier würde ich jetzt sagen, da bin ich vielleicht doch Anwalt, kommt drauf an.
Spaß beiseite. Von dem AI-Act, wir beschäftigen uns intensiv mit dem ganzen Thema.
Man sieht das auch in der Entwicklung. Einige Sachen oder einige Entwicklungen,
die wir momentan vorantreiben, gerade was so Gefühlsanalysen angeht und ähnliches,
das geht schon so ein bisschen in die Richtung.
Aus der vertraglichen Seite ist es aus meiner Sicht relativ einfach zu beantworten.
Das heißt, wenn man einen Vertrag mit Microsoft hat über das DPA,
da verpflichten wir uns, die entsprechenden gesetzlichen Regelungen einzuhalten,
die in den Regionen auch gelten.
Heißt, hier im Umkehrschluss, was den AI-Act angeht, werden wir die rechtlichen
Anforderungen erfüllen.
Im Moment gibt es aber die Situation, dass in vielen Bereichen noch gar nicht
richtig definiert ist. Was heißt das überhaupt?
Das heißt, was sind die Messkriterien? Was sind vielleicht die notwendigen Konsequenzen daraus?
Es gibt jetzt das Framework und im Moment laufen auch auf EU-Basis noch sehr
viele Gespräche. Was heißt das denn wirklich in der Praxis? Und sobald solche
Sachen geklärt sind, werden wir uns dem auch sofort annehmen,
um das dann auch sofort umsetzen zu können.
Proaktiv machen wir auch immer von unserer Seite auch Sachen.
Momentan haben wir Technologien in der Entwicklung, die zum Beispiel,
wenn ich ein Transcription habe, Performanceüberwachung oder Gefühlsanalyse
nahezu unmöglich machen. Das machen wir heute schon.
Aber wir sind da dran. Da wird es auch Updates geben in den nächsten Wochen
und Monaten. Es ist natürlich immer die Frage, wie viele Informationen bekommen wir zurück.
Wir sind bei einigen Gesprächen auf Ebene der EU-Kommission auch mit involviert.
Sodass man hier auch die Informationen aus erster Hand bekommt,
um das vielleicht den einen oder anderen Denkanstoß zu geben,
weil von der reinen Verordnung und was nachher technologisch dahinter steckt,
kann ja durchaus sein, dass das zwei verschiedene Paar Schuhe sein.
Weil theoretisch kann ich mir immer sehr viel vorstellen.
Dann ist natürlich immer die Frage, kann ich das überhaupt auch umsetzen oder
was hat das am Ende des Tages auch für eine Konsequenz zur Folge.
Aber long story short, wir arbeiten dran und alles das, was als rechtliche Vorgabe
herangetragen wird, werden wir auch erfüllen.
Wunderbar. Ich glaube, das Thema AI Act ist wahrscheinlich eins,
was man zu späterer Zeit wahrscheinlich dann mal ein bisschen auseinandernehmen
kann, was für eventuell auch Pflichten geben sich für zum Beispiel dann auch die Kunden.
Aber es wird heute den Rahmen sprengen. Von daher sage ich ganz herzlichen Dank, Friedhelm.
Es war mir eine Freude und vor allen Dingen vielen Dank für deinen wertvollen Input.
Ich glaube, da können wir alle, auch unsere Zuhörer, viel daraus mitnehmen und
ich hoffe, das eine oder andere damit auch beleuchtet zu haben,
was vielleicht bei dem einen oder anderen vielleicht auch bisher einfach nur
Fragezeichen hat. Vielen, vielen herzlichen Dank.
Ja, ich möchte mich auch bedanken. Hat wie immer viel Spaß gemacht.
Ja, Ihnen hier im Saal auch ganz herzlichen Dank. Unseren Zuhörern,
die uns als Podcast hören, natürlich auch ganz herzlichen Dank.
Bleiben Sie uns gewogen und auf bald.
Vielen Dank.