Rechtlich und ethisch sicher mit KI
Mit diesen 6 Schritten navigieren Sie Ihr Unternehmen sicher durch die Ära der künstlichen Intelligenz!
Stellen Sie sich vor, Sie wachen eines morgens auf und sehen, dass alle Ihre firmeninternen Daten online aufzufinden und für jeden zugänglich sind. Direkt stellen Sie sich die Frage: „Wie konnte das passieren?“. Die Verwendung von künstlicher Intelligenz birgt Risiken, die Mitarbeitenden oft nicht bewusst sind und zu datenschutzrechtlichen und urheberrechtlichen Risiken führen können. Einige Beispiele zur näheren Verdeutlichung haben wir für Sie aufgelistet:
- Die Gehälter und personenbezogenen Daten Ihres Unternehmens sind veröffentlicht
Sie möchten eine Präsentation im Controlling zur Analyse der Personalkosten erstellen. Die KI verfügt nun über schützenswerte Daten und ist in der Lage diese zu speichern.
- Unternehmenseigene Produkte und Rezepturen werden veröffentlicht
Es soll eine neue Marketingkampagne zu Ihrem neu entwickelten Produkt generiert werden. Sie geben Herstellungsprozess und Produktdetails in ein KI-Tool ein. Dieses verarbeitet die Daten und speichert diese, womit sie für Dritte zugänglich sind.
- Sie veröffentlichen ein Plagiat
Sie generieren neuen Inhalt für Ihre Homepage anhand KI-generierter Bilder und merken nicht, dass die KI ein bereits bestehendes Werk reproduziert. Sie verstoßen unwissentlich gegen das Urheberrecht.
Alle diese Beispiele machen deutlich, wie schnell es passieren kann, dass wichtige Daten durch die Verwendung von KI nicht mehr geschützt sind oder sogar missbraucht werden.
Passieren solche Vorfälle, ist das Vertrauen in die Tools zunächst sehr eingeschränkt. In einer repräsentativen Umfrage des TÜV-Verbands von Mai 2023 gaben 76% der Befragten an, dass sie Bedenken bei der Sicherheit Ihrer persönlichen Daten haben im Zusammenhang mit künstlicher Intelligenz. 87% der Befragten gaben an, dass sie glauben die KI wird die Arbeitswelt von Grund auf ändern. [1]
Um diese Veränderung meistern zu können, empfehlen wir Ihnen einen Leitfaden mit folgenden Punkten für Ihr Unternehmen zu erstellen:
Abbildung 1: Ein Leitfaden zur Einhaltung rechtlicher und ethischer Richtlinien bei der Verwendung von KI
(Quelle: Eigene Darstellung, Kathrin Heilek)
Ein Leitfaden für die Verwendung von künstlicher Intelligenz
Mehrere namhafte Unternehmen haben bereits einen unternehmenseigenen Leitfaden für künstliche Intelligenz erstellt. Ein exemplarisches Beispiel hierfür ist der Automobilhersteller Audi, der in Kooperation mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO einen umfassenden Leitfaden mit Handlungsempfehlungen für den Einsatz von KI entwickelt hat. Das vorrangige Ziel dieser Initiative bestand darin, KI-Einsätze effizient zu dokumentieren und dabei sämtliche involvierten Mitarbeiterinnen und Mitarbeiter aktiv in den Entwicklungsprozess einzubeziehen.[2]
Bei der Verwendung künstlicher Intelligenz ist ein gewisses „Rahmenwerk“ von Vorteil, um allen Beteiligten etwas mit an die Hand zu geben.
1. Persönliche Daten sicher behandeln
Chatbots können dem Anwender gezielte Informationen entlocken, die dazu führen ein konkretes Bild von dem Nutzer zu erschaffen. [3] Werden interne Daten des Unternehmens in den Chatbot (z. B. ChatGPT) eingegeben, so besteht die Gefahr des Missbrauchs. Es können beispielsweise IT- Codes, patentgeschützte Inhalte oder auch Geschäftsgeheimnisse gespeichert werden und an die Öffentlichkeit gelangen.
Allerdings gibt es verschiedene Aspekte, die ein Unternehmen berücksichtigen kann, um mit Daten vertraulich umzugehen. Die Geschäftsführung eines Unternehmens kann den Zugriff der Daten nämlich einschränken und nur autorisierten Personen Zugriff gewähren. Dabei kann dann beobachtet werden, welcher Mitarbeitende auf welche Dateien Zugriff hat und nicht jeder ist in der Lage an vertrauliche Informationen kommen. Darüber hinaus können sensible Daten verschlüsselt werden. Somit können Daten, die unabsichtlich an die Öffentlichkeit kommen, für Unbefugte unlesbar bleiben. Zusätzlich sollte Ihr Unternehmen auf die regelmäßige Anpassung der Systeme achten. Dabei kann es sich um bestimmte Software handeln, die wichtig für die unbegrenzte Nutzung sein kann. Hierbei sollte auch auf Datensicherung geschaut werden. Damit wichtige Daten nicht verloren gehen, ist es von großer Bedeutung, die Daten anhand von Backups regelmäßig zu überprüfen und zu sichern.
2. Unternehmensleitung behält den Überblick
Die unregulierte Nutzung von generativer KI im Betrieb birgt Risiken. Die Nutzung eines Bildgenerators kann beispielsweise zu urheberrechtlichen Herausforderungen und zu Ansprüchen Dritter gegen das Unternehmen führen. [4]
Die Mitarbeitenden, welche mit den Systemen arbeiten, sollten sich anhand von Schulungen sowohl mit der Datensicherheit befassen als auch mit potenziellen Problemen vertraut werden. Die Unternehmensleitung sollte allerdings trotzdem über wichtige Entscheidungen und die genauen Einsatzgebiete der Systeme Bescheid wissen und als Navigator fungieren.
3. Einhaltung des rechtlichen Rahmens
Der „AI ACT“ (https://www.europarl.europa.eu/news/de/headlines/society/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz) wird noch in 2023 einen Rechtsrahmen zum Einsatz von KI bestimmen. Bis dahin sollte sich an DSGVO und Urheberrechte gehalten werden, denn diese spielen eine erhebliche Rolle in Deutschland. Erstellt die KI Inhalte, die gegen das Urheberrecht verstoßen, so besteht noch eine Grauzone. Die KI kann als nicht natürliche Person nicht belangt werden, ebenso wenig aber auch die Person, die den einfachen Eingabebefehl für die Erstellung gegeben hat. [5] Dennoch sollte hierbei kein Risiko eingegangen und erstellte Inhalte auf Urheberrechtsverletzungen überprüft werden.
Sind allerdings die Daten Dritter betroffen und werden diese ohne vorheriges Einverständnis verarbeitet oder genutzt, so stellt dies in jeder Hinsicht einen Verstoß gegen die DSGVO dar. In diesen Fällen ist es auch unerheblich, dass es keine spezifischen Gesetze über KI gibt. [6]
4. Regelmäßige Prüfung der KI
Vor der Einführung eines KI-Systems sollte zunächst geprüft werden, welches Ziel bei der Anwendung verfolgt wird. Den Beschäftigen Ihres Unternehmens sollten schon von Beginn an die Funktionsweisen der Systeme bereitgestellt werden. In einem zweiten Schritt sollten die Schnittstellen zwischen KI und Mitarbeitenden gestaltet werden, wobei die produktive Mensch-Maschine-Interaktion im Mittelpunkt steht. Kriterien wie Transparenz und Erklärbarkeit spielen hier eine große Rolle. Die Vorbereitung vor der Implementierung einer KI spielt zusätzlich eine entscheidende Rolle. Die neuen Systeme müssen erfolgreich in neue oder bereits bestehende Organisationsstrukturen integriert werden. Dazu müssen die Mitarbeitenden frühzeitig in Ihre neuen Aufgaben eingearbeitet werden. Eine Test- oder Pilotphase bietet sich hier an um bereits erste Erfahrungswerte sammeln zu können. Sind die KI-Systeme eingeführt, ist es unabdingbar, diese in regelmäßigen Abständen zu prüfen. Durch die Prüfung kann eine kontinuierliche Bewertung in Hinblick auf Anwendung und Design erfolgen. [7] Gemeinsam mit Ihren Beschäftigten können Sie so als gemeinsames Projekt an der stetigen Verbesserung Ihres Systems arbeiten. Die einzelnen Phasen sind in folgender Graphik noch einmal übersichtlich für Sie dargestellt:
Abbildung 2: Phasen des Einführungsprozesses von KI
(Quelle: Eigene Darstellung, Kathrin Heilek)
5. Transparente Anwendung von KI
Vertrauen und Transparenz spielen eine äußerst bedeutende Rolle im Einsatz von Künstlicher Intelligenz. Um dieses Vertrauen zu festigen, könnte ein KI-System oder -Werkzeug unterstützend wirken, insbesondere wenn die Anbieter sich verpflichten würden, sich einer "Transparenz"-Richtlinie zu unterwerfen. Ein Team aus den USA verfolgt eine Idee, die diesem Prinzip ähnelt, und zwar mit dem "The Foundation Model Transparency Index".
Dieser Index prüft und bestätigt, ob und wie bestimmte Indikatoren zur Transparenz erfüllt wurden. Anhand dieser Kriterien vergibt der „FMI“ Punkte an die jeweiligen Unternehmen. Mit diesem Prinzip liefern wir Ihnen eine Hilfestellung, wie Sie zukünftig KI-Tools transparenter nutzen können. Die Bemessung des Transparenz- Index folgt in drei Hauptkategorien: 1. Upstream, 2. Model und 3. Downstream (weitere Informationen verfügbar unter: https://crfm.stanford.edu/fmti/). Die FMI erstellt dadurch Leitlinien und/oder unterstützende Maßnahmen für Unternehmen, die auf dem Weg zur transparenten Nutzung und Bereitstellung von KI-Tools sind. [8]
In folgender Abbildung ist der FMI-Score dargestellt, welcher die größten KI-Tools in Hinblick auf Methodik, Risiken und weiteren Indikatoren bewertet. Unseren Schwerpunkten nach schauen wir uns gezielt den Kritikpunkt „Data“ an. ChatGPT ist weit verbreitet und enthält eine Fülle von Daten. Die Bewertung zeigt, dass ChatGPT nur mit 20 von 100 Prozent bewertet wird. Dies ist besorgniserregend, weil die Herkunft der Trainingsdaten für die Benutzer nicht transparent nachvollziehbar ist. Ein 20- prozentiger-Transparenzfaktor verspricht viel Raum zur Verbesserung.
Der Indikator 'Model Access' fällt zudem auf, da drei KI-Tools als 100% transparent bewertet wurden. Kriterien wie Datenschutz, Sicherheit, Ethik, Fairness und Transparenz sind eng mit dem Modellzugriff verbunden.
Abbildung 3: Foundation Model Transparency Index Scores
6. Einhaltung ethischer Richtlinien
Bei der Nutzung von KI gesteuerten Systemen darf nicht vergessen werden, dass diese von Menschen programmiert wurden. Menschen, die Vorurteile, ob bewusst oder unbewusst, in der Entwicklung eines Systems miteinfließen lassen. [9] Auch bei der Integration von Datensätzen für ein KI-System, beispielsweise im Recruiting zur Auswahl von Bewerbern, muss vorher überprüft werden, ob diese ethisch unvoreingenommen sind. Wurden beispielsweise Frauen in der Vergangenheit im Unternehmen benachteiligt, so spiegelt sich das auch im Datensatz wider. Denn der Algorithmus verknüpft anhand der Daten das Geschlecht mit einer geringeren Erfolgswahrscheinlichkeit, wodurch die Voreingenommenheit fortbesteht. [10] Ähnliche Situationen gibt es auch mit Gesichtserkennungsprogrammen, die größtenteils bei weißen Menschen getestet wurden und dadurch zu Fehlern bei der Erkennung von dunkelhäutigen Menschen führt. [11] Eine ausgiebige ethische Überprüfung der genutzten Programme ist daher unabdingbar, damit Ihr Unternehmen nicht unbewusst Vorurteilen unterliegt.
Zusammenfassend lässt sich festhalten, dass eine sorgfältige Strukturierung mithilfe eines Leitfadens dazu beitragen kann, Ihr Unternehmen vor den möglichen Risiken im Zusammenhang mit künstlicher Intelligenz zu schützen. Dies bietet sich vor allem bei kleinen und mittelständischen Unternehmen an, da diese durch kürzere Entscheidungswege gekennzeichnet sind. Wichtig zu erwähnen ist, dass der Leitfaden individuell an Ihr Unternehmen angepasst werden muss, um Ihnen zu ermöglichen, die Potenziale der KI optimal zu nutzen.
Autoren: Kathrin Heilek, Khawla Obeid, Faisa Askar, Cenk Liebezeit
Quellen
[1] Vgl. TÜV Verband e.V. (2023): Künstliche Intelligenz: Künstliche Intelligenz: Fast jede:r Vierte nutzt ChatGPT, https://www.tuev-verband.de/pressemitteilungen/kuenstliche-intelligenz-fast-jeder-vierte-nutzt-chatgpt#:~:text=Und%20fast%20jede%3Ar%20Vierte,Jährigen%20haben%20ChatGPT%20mittlerweile%20genutzt., zuletzt geprüft am 28.10.2023
[2] Fraunhofer IAO (2023): Neuer Leitfaden für den sicheren KI-Einsatz bei Audi, https://www.iao.fraunhofer.de/de/presse-und-medien/aktuelles/neuer-leitfaden-fuer-den-sicheren-ki-einsatzbei-audi.html, zuletzt geprüft am 28.10.2023
[3] Yeebase media GmbH (2023): Alter, Geschlecht, Wohnort: Wie GPT-4 anonyme Nutzer enttarnt, https://t3n.de/news/gpt-4-anonym-datenschutz-llm-1582860/, zuletzt geprüft am 28.10.2023
[4] Weimer MEDIA GROUP GmbH (2023): Regeln für ChatGPT&Co – so nutzen Unternehmen KI rechtssicher, https://www.marktundmittelstand.de/finanzierung/regeln-fuer-chatgpt-co-so-nutzen-unternehmen-ki-rechtssicher#:~:text=Die%20Nutzung%20von%20KI%2DSystemen,kostenpflichtige%20Pro%2DVersion%20von%20ChatGPT, zuletzt geprüft am 28.10.2023
[5] Openpr.de: ChatGPT – Warum der Einsatz von KI in Unternehmen eine Gratwanderung zwischen Chancen und Risiken ist (2023), https://www.openpr.de/magazin/rechtsteuern/chatgpt-chancen-rechtliche-risken, zuletzt geprüft am 28.10.2023
[6] Openpr.de: ChatGPT – Warum der Einsatz von KI in Unternehmen eine Gratwanderung zwischen Chancen und Risiken ist (2023), https://www.openpr.de/magazin/rechtsteuern/chatgpt-chancen-rechtliche-risken, zuletzt geprüft am 28.10.2023
[7] Lernende Systeme (2023): Einführung von KI-Systemen in Unternehmen, https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Zusammenfassungen/AG2_Change_Management_Paper_Kurzfassung.pdf, zuletzt geprüft am 02.11.2023
[8] Rishi Bommasani, Kevin Klyman, Shayne Longpre, Sayash Kapoor, Nestor Maslej, Betty Xiong, Daniel Zhang, Percy Liang (o.J.) https://crfm.stanford.edu/fmti/, 08.11.2023
[9] Hateaid.org: Rassismus im Code: Wie KIs Vorurteile verstärken (2023), https://hateaid.org/ki-rassismus/, zuletzt geprüft am 02.11.2023
[10] Tagesschau.de: Warum KI nicht frei von Vorurteilen ist (2023), https://www.tagesschau.de/wissen/ki-vorurteile-101.html, zuletzt geprüft am 02.11.2023
[11] Politische-medienkompetenz.de: Diskriminierung durch KI (2023), https://www.politische-medienkompetenz.de/unsere-schwerpunkte/kuenstliche-intelligenz/diskriminierung-durch-ki/, zuletzt geprüft am 02.11.2023