Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2023 | OriginalPaper | Buchkapitel

3. Fallbeispiele zur Corporate Digital Responsibility (CDR)

verfasst von : Patrick S. Renz, Bruno Frischherz, Irena Wettstein

Erschienen in: Integrität im Managementalltag

Verlag: Springer Berlin Heidelberg

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Das Kapitel stellt typische Dilemmas von Unternehmen im heutigen digitalen Zeitalter vor. Viele Unternehmen haben ihre Wertschöpfung explizit entlang einer digitalen Wertschöpfungskette entwickelt, andere sind an verschiedensten Stellen durch digitale Veränderungen und entsprechende Dilemmas betroffen. Das Ziel des dritten Kapitels ist es, typische ethische Dilemmas von Unternehmen im digitalen Kontext zu diskutieren.
Jedes der Dilemmas wird mit einem konkreten Beispiel illustriert und mit Hilfe von Spannungsfeldern analysiert. Es werden Vorschläge zur Lösung und zum Vorgehen formuliert sowie Hintergrundinformationen und weiterführende Links und Literatur aufgeführt. Die Dilemmas bzw. Fallbeispiele sind entlang einer digitalen Wertschöpfungskette geordnet, wie folgt:
Für die Phase der Datenerzeugung und -aquirierung werden folgende Fallbeispiele vorgestellt: Einsatz von Cookies und Daten-Zulieferkette.
Für die Phase der Datenspeicherung und -management wird das Fallbeispiel Datenverwendungsrichtlinien vorgestellt.
Für die Phase der Datenanalyse und der Wissensgenerierung werden folgende Fallbeispiele vorgestellt: Persönlichkeitsprofile und Dialog mit Stakeholdern.
Für die Phase der Nutzung von Produkten und Dienstleistungen werden folgende Fallbeispiele vorgestellt: KI-basierte Datenprodukte und People Analytics.

3.1 Übersicht zu den Fallbeispielen

In den letzten Jahren hat eine Digitalisierung aller Lebensbereiche stattgefunden. Im Bereich der Wirtschaft und Arbeit, in der Mobilität und Logistik, in der Kommunikation, in der Bildung, im Gesundheitswesen und auch in der Familie sind Daten und Algorithmen allgegenwärtig und selbstverständlich. In der Konsequenz wurden auch digitale Wertschöpfungsketten entwickelt, welche den Fokus auf Daten und deren Entstehung und Verwertung richten. Gleichzeitig hat das Nachdenken über die digitale Transformation aus ethischer Perspektive begonnen und es stellt sich die Frage, wie grundlegende Werte wie Menschlichkeit und Menschenrechte auch in einer digitalen Welt bewahrt werden können (Nida-Rümelin, 2018; Spiekermann, 2019; Kirchschläger, 2021).
Die digitale Ethik kann als Zweig der Ethik definiert werden, der moralische Probleme im Zusammenhang mit Daten untersucht und bewertet. Die digitale Ethik beschäftigt sich mit den Daten (Erzeugung, Speicherung, Pflege, Verarbeitung, Verbreitung, Weitergabe und Nutzung), den Algorithmen (künstlicher Intelligenz, künstlicher Agenten, maschinellen Lernens und Robotern) und den entsprechenden Praktiken (Innovation, Programmierung, Hacking, Berufskodizes), um ethisch gute Lösungen zu formulieren (Floridi & Taddeo, 2016, S. 3).
Auch aus der Sicht von Unternehmen stellen sich in Bezug auf die digitale Verantwortung grundlegende und auch ganz praktische Fragen. Welche Werte und Normen sollen die Tätigkeit eines Unternehmens im Zusammenhang mit digitalen Technologien leiten und wie lassen sich diese Werte und Normen konkret umsetzen. In Anlehnung an Corporate Social Responsibility (CSR) beginnt sich der Begriff Corporate Digital Responsibility (CDR) für diesen Aufgabenbereich durchzusetzen (Lobschat et al., 2019, S. 1). Zahlreiche Ethik-Kodizes helfen Unternehmen mittlerweile ihrer gesellschaftlichen Verantwortung nachzukommen (AlgorithmWatch, o. J.).
Die Analyse der folgenden Fallbeispiele stützt sich auf den Ethik-Kodex für datenbasierte Wertschöpfung, den eine Schweizer Expertengruppe entwickelt und frei zugänglich publiziert hat. Die Grundlage des Kodex bilden drei ethische Grundorientierungen (Schadenvermeidung, Gerechtigkeit, Autonomie) und drei prozedurale Werte (Kontrolle, Transparenz, Rechenschaft). Mit Hilfe eines Werterasters und einer digitalen Wertschöpfungskette können unterschiedliche ethische Probleme analysiert und einer Lösung zugeführt werden (Data Innovation Alliance, 2020a). Im folgenden Kapitel werden die sieben Fallbeispiele anhand der Wertschöpfungskette aus dem Ethikkodex vorgestellt (vgl. Abb. 3.1).

3.2 Fallbeispiele zur digitalen Unternehmensverantwortung

3.2.1 Einsatz von Cookies

Die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union regelt seit 2016 die Verarbeitung von personenbezogenen Daten durch private wie auch öffentliche Organisationen. Artikel 4 der DSGV listet sechs Grundsätze der Verarbeitung von personenbezogenen Daten auf: Rechtmäßigkeit, Zweckbindung, Datenminimierung, Richtigkeit, Speicherbegrenzung, Integrität und Vertraulichkeit. Organisationen müssen nachweisen können, dass sie bei der Verarbeitung von Daten diese Grundsätze einhalten, ansonsten drohen hohe Strafen (Europäisches Parlament und Rat, 2016).
Um Daten von anonymen Besucherinnen und Besuchern auf den Websites zu sammeln, setzen Unternehmen in der Regel Cookies ein. Die Websites fragen die Nutzerinnen und Nutzer in einem Pop-up-Fenster, ob sie einverstanden sind, dass Daten über die Benutzung der Website gesammelt werden. Die meisten klicken das Popup-Fenster weg, indem sie alle Einstellungen akzeptieren. Dabei sind aber wichtige Unterschiede zwischen verschiedenen Formen von Cookies zu beachten. Während Session Cookies nur für den einmaligen Besuch einer Website dienen, werden Persistent Cookies dauerhaft auf dem Computer der Nutzerinnen und Nutzer gespeichert, um weitere Besuche von Websites zu verfolgen. Zudem ist es wichtig, zwischen First- und Third-Party-Cookies zu unterscheiden. First-Party-Cookies stammen von der Betreiberfirma der Website, die der Nutzer oder die Nutzerin selbst aufgerufen hat. Third-Party-Cookies stammen von Drittanbietern, d. h. von anderen Websites als derjenigen, die der Nutzer oder die Nutzerin aufgerufen hat. Durch Third-Party-Cookies können die Drittanbieter in Zukunft Werbung für ihre Produkte auf Websites einblenden, die die Nutzerinnen und Nutzer später besuchen. Wenn Nutzerinnen und Nutzer nun alle Cookies akzeptieren, erlauben sie damit auch, dass Drittanbieter Third-Party-Cookies setzen. Normalerweise ist dies aber nicht deren Absicht. Vor allem Medien- und Unterhaltungsfirmen nutzen die Möglichkeit, um mit Third-Party-Cookies zusätzliche Einkünfte zu generieren.
Fallbeispiel
Daniel ist begeistert von den Möglichkeiten des Online-Marketings. Noch nie war es so einfach, so viele Informationen über Kundinnen und Kunden und deren Bedürfnisse zu erhalten, wie durch die systematische Auswertung von Verhaltensdaten von Nutzerinnen und Nutzern auf den Webseiten. Seine Agentur nutzt dabei Cookies auf den Websites von großen Medienhäusern und Unterhaltungsfirmen. Wenn Nutzerinnen und Nutzer die Website dieser Firmen besuchen, werden sie mit folgendem Hinweis auf den Einsatz von Cookies hingewiesen „Diese Website nutzt Cookies, um das Kundenerlebnis laufend zu verbessern. Wollen Sie die Cookies annehmen?“. Die meisten Nutzerinnen und Nutzer klicken „ja“ an. Kaum jemand klickt auf „Weitere Informationen“. Durch den Einsatz der Cookies erhält die Daniels Agentur die Möglichkeit, zu verfolgen, welche Websites die Nutzerinnen und Nutzer aufrufen und für welche Themen und Produkte sie sich interessieren. Diese Informationen sind für die Agentur Gold wert. Insgesamt erscheint ihm dies als eine Win-Win-Win-Situation. Die Betreiberfirma der Websites erhalten für die Platzierung von Cookies geschätzte Zusatzeinnahmen, die Nutzerinnen und Nutzer genießen ein besseres Kundenerlebnis und seine Agentur erhält Daten, mit denen sie die Nutzerinnen und Nutzer gezielter ansprechen kann. Wie kann man da nur gegen Cookies sein?
Analyse des Spannungsfeldes und Leitideen
Aus Sicht der Datenethik soll der Nutzerinnen und Nutzer selbst bestimmen, was mit seinen persönlichen Daten geschieht. Dies entspricht dem Grundsatz der Datenautonomie (R2). Das heißt, eine Unternehmung handelt dann ethisch korrekt, wenn diese Datenautonomie aufgrund der rechtlichen und politischen Anerkennung der Person hochhält. Für die Nutzung der Daten sollen die Nutzerinnen und Nutzer eine informierte Zustimmung geben, d. h. eine informierte und freie Entscheidung treffen. Personen haben das Recht, gesammelte Daten einzusehen, zu korrigieren, zu löschen, herunterzuladen und weiterzugeben. Manche Unternehmen betreiben auf ihren Websites Nudging, d. h. sie manipulieren die Nutzerinnen und Nutzer so, dass sie alle Cookies akzeptieren (müssen). Es fehlt oft eine einfache Möglichkeit, Cookies abzulehnen oder nur die für das Funktionieren der Website nötigen Cookies zu akzeptieren. Um dem Nutzerinnen und Nutzern eine wirkliche Wahlmöglichkeit zu geben, braucht er auch klare und verständliche Informationen darüber, was mit den gesammelten Daten geschieht. Zu einer transparenten Information gehören beispielsweise Angaben darüber, wozu die Daten gesammelt werden und ob sie weiterverkauft werden (D1). Datenverwendungsrichtlinien machen die Regeln bei der Datensammlung und -nutzung im Sinne der Selbstbindung öffentlich (D4). Grundsätzlich gilt „Do Not Track“ und, wenn Unternehmen Daten sammeln, müssen sie die Nutzerinnen und Nutzer darüber transparent informieren (vgl. Abb. 3.2).
Praxistipps zum Vorgehen
Unternehmen sollen auf Ihren Websites die Privatsphäre ihrer Nutzerinnen und Nutzern schützen (privacy by design) und selbstbestimmtes Handeln ermöglichen (Schritt 1). Dazu gehört beispielsweise, dass sie den Nutzerinnen und Nutzern eine einfache Möglichkeit bieten, nur erforderliche Cookies zu wählen, die nach dem Besuch wieder gelöscht werden (Schritt 4). Die Nutzerinnen und Nutzer sollen die Tracking-Einstellungen einfach verwalten können, z. B. mit folgenden Optionen: Erforderliche Cookies (Zugang zur Website), Funktional Cookies (Verbesserung der Website) und Marketing-Cookies (personalisierte Werbung). Zudem sollen Unternehmen ihre Richtlinien zur Datenverwendung in klarer und verständlicher Form publizieren und für die ganze Organisation als bindend erklären (Schritt 5).
Weiterführende Information

3.2.2 Daten-Zulieferkette

In der digitalisierten Welt basiert ein großer Teil der Wertschöpfung auf Daten. Unternehmen mit einer datenbasierten Wertschöpfungskette brauchen deshalb ein ethisches Framework, das die ganze Wortschöpfungskette umfasst. Ein solches Framework umfasst folgende drei Ebenen: die Datenstrategie, die Datengovernance und das Datenmanagement (Data Innovation Alliance, 2020b, S. 9). Es ist die Aufgabe der Geschäftsleitung, die Datenstrategie, d. h. die grundlegenden Ziele und die entsprechenden Prozesse zu definieren. Dazu gehört beispielsweise die Entscheidung, welche Daten selbst erhoben und welche Daten von Dritten gekauft werden und welche Risiken das Unternehmen beim Datenschutz eingehen will. Die Datengovernance ist das Herzstück des Frameworks und bestimmt die organisatorische und technische Umsetzung des operativen Datenmanagements. Sie definiert die Verantwortlichkeiten und Prozesse innerhalb des Unternehmens in Bezug auf Daten und initiiert nötige Veränderungen innerhalb der Unternehmenskultur. Das zentrale Dokument der Datengovernance stellt der sogenannte Ethik-Kodex dar. Das Datenmanagement schlussendlich umfasst die Vielzahl der konkreten Prozesse im Umgang mit Daten. Dazu gehört beispielsweise die Datenarchitektur, die Pflege von Metadaten sowie die zahlreichen Prozesse rund um die Speicherung, Qualitätssicherung und Nutzung von Daten. Digitale Unternehmensverantwortung als Managementaufgabe verlangt nach Klarheit in der Datenstrategie, in der Datengovernance und im Datenmanagement. Dabei sind prozedurale Werte wie Kontrolle, Transparenz und Rechenschaft von besonderer Bedeutung (Data Innovation Alliance, 2020a).
Fallbeispiel
Dagmar arbeitet in der Forschungsabteilung eines pharmazeutischen Unternehmens und ihre Aufgabe ist es, Daten zu Patientinnen und Patienten, Krankheiten und Wirkungen von Medikamenten zu beschaffen. Es handelt sich dabei nicht nur um Daten aus klinischen Studien, sondern auch um Daten aus der realen Welt, die Patientinnen und Patienten selbst auf Plattformen hinterlegt haben. Die Daten aus den Plattformen bilden in anonymisierter Form eine wertvolle Datenquelle für die Pharmaindustrie. Die Daten ermöglichen es Dagmars Firma, den Verlauf von Krankheiten und die Nebenwirkungen von Medikamenten zu erforschen und Medikamente auch für seltene Krankheiten zu entwickeln. Das Problem dabei ist nur, dass es für Dagmar nicht klar ist, ob und wie die Patientinnen und Patienten ihre Daten zur Verfügung gestellt haben. Sie hat beispielsweise keine Informationen darüber, ob die diese einverstanden sind, dass ihre Daten für pharmazeutische Forschung verwendet und auch verkauft werden. Die anonymisierten Daten aus den Patientenplattformen sind günstiger als eine eigene Datensammlung. Zudem werden die Daten laufend durch die Patientinnen und Patienten selbst aktualisiert. Soll Dagmar auf die Dienstleistungen der Patientenplattformen verzichten?
Analyse der Spannungsfelder und Leitideen
Die Herkunft der Daten ist im Fallbeispiel unbekannt. Das Unternehmen kann deshalb auch nicht kontrollieren, ob die Daten rechtmäßig mit Einwilligung der Patientinnen und Patienten erhoben wurden (R2). Falls das Unternehmen verantwortungsvoll handeln will, muss es die Herkunft der Daten kennen und diese kontrollieren (D3). Das heißt, da die Unternehmung nicht direkt mit den Patienten Rücksprache nehmen kann, übernimmt sie eine differenzierte Verantwortung (D3), indem die Herkunft geprüft wird (R2) und ein Kontrollprozess etabliert wird. Die Daten sind eventuell ohne Angaben über den Zweck und Weitergabe der Datensammlung gesammelt worden. In diesem Fall fehlt es an transparenter Information der Patientinnen und Patienten über die Verwendung deren persönlichen Daten, auch wenn die Daten später anonymisiert oder aggregiert werden (D1, D4). Unternehmen sind für die Zulieferkette mitverantwortlich. Im Fallbeispiel enthält die Zulieferkette aber unbekannte Stellen. Das Unternehmen sollte seine Datenlieferanten gezielt evaluieren und auswählen, so dass eine Rückverfolgbarkeit der Daten möglich ist. So kann es bei Regelverletzungen auch Maßnahmen ergreifen (D2) (vgl. Abb. 3.3).
Praxistipps zum Vorgehen
Verantwortungsvolle Unternehmen sollten sicherstellen, dass sie die Daten-Zulieferkette unter Kontrolle haben (Schritt 1). Dazu gehört, dass auch die von Dritten gesammelten Daten rechtmäßig erhoben wurden. Falls die Daten nicht aus vertrauenswürdigen Quellen stammen, sollten Unternehmen die Daten nicht nutzen (Schritt 3). Die Bedingungen, die bei der Datenerhebung deklariert wurden, sollten auch bei der späteren Nutzung der Daten transparent bleiben und z. B. in der Form von Metadaten erfasst werden (Schritt 4). Unternehmen mit einem datenbasierten Geschäftsmodell sollten auch einen Prozess zur Auswahl von Datenlieferanten definieren und bei den Datenlieferanten Audits durchführen (Schritt 5). So kann die Rückverfolgbarkeit und die Datenqualität am besten sichergestellt werden.
Weiterführende Information

3.2.3 Datenverwendungsrichtlinien

Datenverwendungsrichtlinien halten die Nutzerinnen und Nutzer von der unverzüglichen Verwendung der digitalen Produkte ab und sind deshalb sowohl bei den Unternehmen als auch bei den Konsumentinnen und Konsumenten unbeliebt. Doch das Kleingedruckte enthält meist die entscheidenden Dinge. Die zusammenkopierten Datenverwendungsrichtlinien manch großer Online-Plattformen sind länger als die Verfassungen von Staaten. Zudem ändern manche Plattformen ihre Datenverwendungsrichtlinien, sobald sich die Nutzerinnen und Nutzer an die Plattform gewöhnt haben. Sie haben dann die Wahl, entweder die geänderten Spielregeln zu akzeptieren oder ihre sozialen Kontakte zu verlieren. Dieses Vorgehen grenzt an Erpressung und die Aussage: „Wer digitale Dienstleistungen gratis nutzt, ist selbst der Preis dafür.“ ist eigentlich zynisch und widerspricht dem Grundsatz von Treu und Glauben. Die Nutzerinnen und Nutzer müssen in einer verständlichen Form über die Bedingungen zur Verwendung von digitalen Dienstleistungen informiert werden, damit sie ihre informierte Zustimmung geben können. Die Datenverwendungsrichtlinien sollen in verständlicher Form über Art, Umfang und Zweck der Datensammlung und -verarbeitung informieren. Der Mensch, d. h. die Kundinnen und Kunden, die Mitarbeitenden, die Bürgerinnen und Bürger sollen dabei im Mittelpunkt stehen und den primären Nutzen der Datenverarbeitung haben. Sie sollen die Kontrolle über die eigenen Daten behalten und die Selbstbestimmung soll bei allen Prozessen im Vordergrund stehen. Eine nachhaltige Verarbeitung personenbezogener Daten ist in der gesamten Organisation zu verankern (DataEthics, 2018, S. 9 ff.). Die Organisation AlgorithmWatch bietet eine Online-Datenbank an, auf der laufend ethische Richtlinien zur Datenverwendung gesammelt werden (AlgorithmWatch, o. J.).
Fallbeispiel
Anita ist in Ihrer Firma zuständig für die Online-Kommunikation und sie betreut neben der Website auch die Social-Media-Kanäle. Einerseits bietet die Online-Kommunikation den Besucherinnen und Besuchern Information, Nutzen und Unterhaltung und andrerseits ermöglicht sie auch, gezielt Kundendaten zu sammeln. Natürlich werden die Nutzerinnen und Nutzer über die Speicherung und Verwendung der Daten informiert. Doch wer liest schon Datenverwendungsrichtlinien? Auch die Datenverwendungsrichtlinien von Anitas Firma enthält lange, unverständliche Ausführungen über die Art und Weise der Datensammlung. Der Verwendungszweck ist weit gefasst und erlaubt die Nutzung der Daten für Marketingzwecke und auch den Verkauf der Daten. Die Datenverwendungsrichtlinien werden bei Bedarf wieder angepasst, damit das Unternehmen juristisch auf der sicheren Seite ist. Für Anita ist dies unproblematisch, da die Nutzerinnen und Nutzer ja detailliert über den Verwendungszweck informiert werden und es letztlich um die Verbesserung des Kundenerlebnisses geht. Wer die Datenverwendungsrichtlinien nicht liest, ist selbst schuld.
Analyse der Spannungsfelder und Leitideen
Datenverwendungsrichtlinien sollten eigentlich die Bedingungen klären, unter denen ein digitales Produkt oder eine Dienstleistung genutzt werden können. Stattdessen erleiden die Nutzerinnen und Nutzer häufig gerade durch Datenverwendungsrichtlinien einen Kontrollverlust über ihre Daten und geraten in Abhängigkeit der Anbieterfirmen. Verantwortungsvolle Unternehmen sollten ihren Kundinnen und Kunden bei der Konfiguration von digitalen Dienstleistungen die Wahlfreiheit lassen und informierte Zustimmung zur Datenverarbeitung einholen. Dies zeugt vom Respekt vor der Datenautonomie der Kundinnen und Kunden (R1, R2). Einige Online-Plattformen führen sich geradezu als Datenkraken auf und sammeln alles, was sie von ihren Nutzerinnen und Nutzern an Daten bekommen. Das Einverständnis der Kundinnen und Kunden holen sie sich über Updates bei den Datenverwendungsrichtlinien. Diese sollten eigentlich die Privatsphäre und die persönlichen Daten schützen (D2). Die Datenverwendungsrichtlinien sollen nicht zur Täuschung genutzt werden, in denen versteckte Informationen enthalten sind oder die laufend im Interesse der Anbieterfirmen nachgebessert werden. Nötig ist hier Transparenz darüber, wie die Würde und Privatsphäre der Kundinnen und Kunden respektiert werden (D1, D4, R1) (vgl. Abb. 3.4).
Praxistipps zum Vorgehen
Gute Datenverwendungsrichtlinien ermöglichen den Nutzerinnen und Nutzern eine einfache informierte Zustimmung oder auch Stufen der Zustimmung je nach Verwendung der Daten (Schritt 1). Unentbehrlich sind deshalb klare Information über den Schutz der Privatsphäre. Verantwortungsvolle Unternehmen täuschen und manipulieren nicht. Die Sprache der Datenverwendungsrichtlinien soll keine zusätzlichen Hürden aufbauen. Klarheit und Verständlichkeit sind Gütekriterien für Datenverwendungsrichtlinien (Schritt 3). Ein Test mit Nutzerinnen und Nutzern oder eine Begutachtung durch Expertinnen und Experten kann die Verständlichkeit sicherstellen (Schritt 4). Für die Weiterentwicklung der Unternehmung in Bezug auf Datenschutz eignet sich auch ein Fragebogen zur Selbstprüfung, wie er beispielsweise von der Organisation DataEthics angeboten wird (Schritt 5).
Weiterführende Information

3.2.4 Persönlichkeitsprofile

Privatsphäre ist ein Menschenrecht. Der Artikel 12 der UNO Menschenrechtserklärung besagt: „Niemand darf willkürlichen Eingriffen in sein Privatleben, seine Familie, seine Wohnung und seinen Schriftverkehr oder Beeinträchtigungen seiner Ehre und seines Rufes ausgesetzt werden. Jeder hat Anspruch auf rechtlichen Schutz gegen solche Eingriffe oder Beeinträchtigungen.“ (United Nations, 1948). In der aktuellen digitalen Wirtschaft wird häufig gegen dieses Grundrecht verstoßen. Es geht um die Kontrolle darüber, wer wann in welchem Masse auf die Daten zugreifen kann, die zu einer Person gehören. Die Person selbst soll den Zugang zu diesen Daten kontrollieren können. Privatsphäre oder Privatheit ist vom Kontext abhängig. Vorgesetzten, Ärztinnen und Ärzten, Freundinnen und Freunden, der Partnerin oder dem Partner erzählen wir nicht dieselben Dinge. Wir entscheiden je nach Lebensbereich, wem wir welche privaten Informationen zugänglich machen. Man kann deshalb von einem Zwiebelschalenmodell der Privatheit sprechen (Grimm et al., 2019, S. 32 ff.). In der heutigen digitalen Welt können mit Hilfe von Persönlichkeitsprofilen private Aspekte einer Person automatisch analysiert werden, um Vorhersagen über sie zu machen. Die Daten können sich auf die Arbeit, die finanzielle Situation oder die Gesundheit beziehen. Teilweise beschreiben Persönlichkeitsprofile sogar psychische Merkmale, die der Person selbst nicht bewusst sind und betreffen somit die innersten Schichten einer Person. Es handelt sich dabei um eine sehr intensive Form der Verarbeitung personenbezogener Daten. Ein ethisch vertretbares Datenprofil soll immer zum Nutzen einer Person erstellt werden und der Person die Möglichkeiten geben, die Daten und Regeln zu bestimmen, die bei der Profilerstellung verwendet werden (DataEthics, 2018, S. 35).
Fallbeispiel
Carmen arbeitet in einer Werbeagentur und sie weiß, dass die Beiträge der Nutzerinnen und Nutzer in Social-Media-Plattformen wie Facebook und Twitter für das Marketing äußerst nützlich sind. Einerseits lassen sich aus den Beiträgen durch Textmining und Sentiment-Analysis die Meinung der Nutzerinnen und Nutzer zu Produkten und Dienstleistungen herausfiltern. Andrerseits können über die Beiträge auch Persönlichkeitsprofile erstellt werden. Für die Werbeagentur ist dabei besonders das Modell der Big Five interessant, das Menschen nach fünf Faktoren analysiert und deren Ausprägung auf einer Skala festhält. Die fünf Faktoren sind Offenheit, Gewissenhaftigkeit, Geselligkeit, Verträglichkeit und Labilität. Aus den Persönlichkeitsmerkmalen lassen sich dann aussagekräftige Vorhersagen über Wünsche und Verhaltensweisen von Kundinnen und Kunden errechnen. Carmen sieht, dass die Persönlichkeitsprofile aus professioneller Sicht große Vorteile bieten, weil Kundinnen und Kunden gezielter angesprochen werden können. Trotzdem hat Carmen Bedenken, denn sie selbst möchte eigentlich auch nicht, dass Firmen über sie Persönlichkeitsprofile erstellen und diese für Marketingzwecke nutzen.
Analyse der Spannungsfelder und Leitideen
Persönlichkeitsprofile können sowohl für die Unternehmen als auch für Nutzerinnen und Nutzer von digitalen Dienstleistungen nützlich sein. Einerseits machen sie es einfach, Kundinnen und Kunden gezielt anzusprechen und ihnen passende Produkte vorzuschlagen, anderseits werden diese nicht mit unnötigem Werbematerial und Mails eingedeckt. Allerdings gibt es hier eine klare Grenze, nämlich die Privatsphäre zum Schutz der Persönlichkeit (D2, R1). Wird die Privatsphäre nicht eingehalten, respektiert die Unternehmung die Person als Person in ihrer Würde nicht (R1). Sie erleidet einen Kontrollverlust und das Menschenrecht auf Privatheit wird verletzt. Die Menschenrechte schützen die Privatsphäre des Einzelnen vor dem Zugriff der Unternehmen und auch des Staates. Kundinnen und Kunden oder Bürgerinnen und Bürger sollen selbst bestimmen, welche Schichten der Privatsphäre sie welchen Organisationen zugänglich machen. Sie sollen die Datenautonomie innehaben und informierte Zustimmung geben (R2). Falls die Privatsphäre nicht geschützt ist, kann eine Person auf verschiedene Arten Schaden erleiden. Es besteht das Risiko, dass sie eine Stelle nicht erhält oder dass der Zugang zu Krediten oder Versicherungen unmöglich wird. Auch anonymisierte Daten können zum Verlust der Privatsphäre führen, da es heute technische Möglichkeiten der De-Anonymisierung gibt. Wenn höchst persönliche Information an die Öffentlichkeit geraten, können auch psychische Verletzungen die Folge sein. Oberstes Ziel bei der Erstellung von Persönlichkeitsprofilen muss es deshalb sein, die Datenautonomie von Kundinnen und Kunden, Bürgerinnen und Bürgern und Mitarbeitenden zu respektieren und Schaden zu vermeiden (R1, R3, D3) (vgl. Abb. 3.5).
Praxistipps zum Vorgehen
Die Grundlage dafür, dass Unternehmen Persönlichkeitsprofile von Kundinnen und Kunden oder Mitarbeitenden erstellen, muss die informierte Zustimmung sein (Schritt 1). Die Unternehmen sollen technische Möglichkeiten anbieten, so dass die Kundinnen und Kunden und Mitarbeitenden die eigenen Daten managen können, d. h. gezielt freigeben, einsehen, korrigieren, herunterladen und übertragen können (Schritt 4). Kundinnen und Kunden andererseits sollten sich des Wertes der eigenen persönlichen Daten bewusst sein. Sie sollten für ihre Daten eine entsprechende Gegenleistung und/oder Entschädigung verlangen, so dass ein fairer Austausch stattfindet. Daten könnten auch in anonymisierter Form für bestimmte Zwecke z. B. universitäre oder privatwirtschaftliche Forschung gespendet werden. Die Vertrauenswürdigkeit der Plattformbetreiber spielt die entscheidende Rolle. Es liegt an den Unternehmen das Vertrauen der Kundinnen und Kunden zu gewinnen (Schritt 5).
Weiterführende Information

3.2.5 Dialog mit Stakeholdern

Bei der Erstellung von digitalen Produkten und Dienstleistungen sind verschiedene Stakeholder involviert: Kundinnen und Kunden, Mitarbeitende, Zulieferfirmen, die Konkurrenz, die natürliche Umwelt, die Standortgemeinde usw. Bei einem professionellen Management der Corporate Social Responsibility (CSR) werden die Stakeholder und ihre unterschiedlichen Interessen, Ansprüche und Rechte systematisch erfasst, evaluiert und priorisiert. In Anlehnung an die CSR kann man auch von Corporate Digital Responsibility (CDR) als Teil der umfassenden Unternehmensverantwortung sprechen. Neben der ökonomischen, ökologischen und sozialen Verantwortung haben Unternehmen heute auch eine digitale Verantwortung. CDR ist die freiwillige Selbstverpflichtung, dass ein Unternehmen ethische Standards erfüllt (Dörr, 2020, S. 39). Die beiden globalen Standards für Corporate Social Responsibility, ISO 26000 und der Global Reporting Initiative (GRI), berücksichtigen CDR nur am Rande. Für alle sieben Kernthemen der ISO 26000 lassen sich jedoch wichtige Handlungsfelder einer CDR formulieren (vgl. ISO, 2010, S. 3):
  • Organisationsführung: Datenstrategie, Datengovernance mit Verantwortungsstrukturen und Datenmanagement mit Verantwortungsprozessen
  • Menschenrechte: Datenschutz, Chancengleichheit, Diversity, politische, kulturelle und religiöse Rechte, Barrierefreiheit
  • Arbeitspraktiken: faire Löhne, Home Office, Überarbeitung, Überwachung
  • Umwelt: Umweltverschmutzung, Klimaschutz, Green IT, erneuerbare Energien
  • Geschäftspraktiken: Eigentumsrechte, Datenintegrität, Rückverfolgbarkeit der digitalen Wertschöpfungskette
  • Verbraucherfragen: Datenschutz, Datensicherheit, Transparenz, informierte Zustimmung, Unvoreingenommenheit
  • Einbeziehung der Gemeinschaft: Zugang zur Technologie, digitale Kluft, kooperative Projekte
Der systematische Dialog mit den Stakeholdern bietet den Unternehmen eine Möglichkeit, um problematische Themenfelder in der eigenen Geschäftspraxis zu identifizieren. Anschließend können die Unternehmen CSR-Strategien und Maßnahmen zur Umsetzung entwickeln.
Fallbeispiel
Sophie arbeitet in der CSR-Abteilung einer Telekommunikationsfirma mit mehreren hundert Mitarbeitenden. Die Digitalisierung ist für ihre Firma die Grundlage des Business-Modells und die Geschäftsleitung hat auch die Bedeutung der ethischen Aspekte der Digitalisierung erkannt. Das Vertrauen von KundInnen, Mitarbeitenden und Partnerfirmen in die digitalen Technologien ist auch in Zukunft ein wichtiges Kapital der Firma. Die CSR-Abteilung soll nun systematisch digitale Themen in die Nachhaltigkeitsstrategie aufnehmen und Sophie hat den Auftrag erhalten, einen ersten Entwurf für ein Konzeptpapier „Corporate Digital Responsibility“ zu entwerfen. Eine Telekomunternehmung hat zahlreiche Anspruchsgruppen mit unterschiedlichen Interessen, Ansprüchen und Rechten. Sophies provisorische Liste enthält Themen wie Datenschutz, Privatsphäre, Barrierefreiheit, Chancengleichheit, Arbeitsstress, Klimaschutz usw. Aus Sicht der Anspruchsgruppen sind die eigenen Ansprüche natürlich immer die wichtigsten. Aber wie soll Sophie nun konkret vorgehen? Wie soll sie die unterschiedlichen Ansprüche abwägen?
Analyse der Spannungsfelder und Leitideen
Gemäß der Diskursethik sollen Betroffene in den Prozess der ethischen Entscheidungsfindung einbezogen werden und die Entscheidungen grundsätzlich akzeptieren können. Wenn nun einzelne Stakeholder nicht angehört werden, fehlen wichtige Voraussetzungen für eine gute Entscheidung. Die Partizipation respektiert das Recht auf Selbstbestimmung und räumt den Betroffenen eine Mitsprache ein (R2, R3). Ein direkter Dialog mit Stakeholdern (D1) zeigt, dass das Unternehmen an einer transparenten Kommunikation und Öffentlichkeit (D4) interessiert ist. Wo ein direkter Austausch mit Stakeholdern oder einer Vertretung nicht möglich ist (bspw. mit zukünftigen Generationen), können Unternehmen eine ethische Reflexion mit fiktiven Diskursen durchführen (D3). Gleichzeitig bietet der Stakeholder-Dialog dem Unternehmen die Möglichkeit, aktuelle kritische Themenfelder zu identifizieren und anschließend gezielt zu bearbeiten. CSR und CDR sind Managementaufgaben und die Erkenntnisse aus dem Dialog mit den Stakeholdern sollen in Verantwortungsstrukturen und -prozessen umgesetzt werden, so dass die Prioritäten und Zuständigkeiten klar sind (D2) (vgl. Abb. 3.6).
Praxistipps zum Vorgehen
Der Dialog mit Stakeholdern eignet sich hervorragend dazu, regelmäßig die kritischen Themenfelder einer datenbasierten Wertschöpfung zu identifizieren, zu strukturieren und zu evaluieren (Schritt 1 und 2). Die kritischen Themen lassen sich anschließend mit Hilfe einer Wesentlichkeitsmatrix, einem Standardwerkzug der CSR priorisieren. Dabei werden die Themen nach zwei Dimensionen geordnet: Horizontal nach Relevanz für das Unternehmen und vertikal nach Relevanz für die Stakeholder. Diese Wesentlichkeitsmatrix lässt sich auch zusammen mit Vertretern der Stakeholdergruppen erstellen (Schritt 4). Zahlreiche andere Konzepte und Werkzeuge aus der Corporate Social Responsibility (CSR) lassen sich für Corporate Digital Responsibility (CDR) übernehmen und anpassen (Schritt 5). Dazu gehören beispielsweise die Kernthemen nach ISO 26000 oder der CSR-Planungszyklus mit den Phasen der Orientierung, Planung, Umsetzung und Überprüfung, der sich genauso auf CDR übertragen lässt (Brand & Winistörfer, 2016, S. 16).
Weiterführende Information

3.2.6 KI-basierte Datenprodukte

Heute werden zahlreiche Produkte und Dienstleitungen verkauft, die auf Technologien der Künstlichen Intelligenz (KI) basieren. Die Erwartungen an die KI sind hoch und die Antwort auf die philosophische Frage, ob es sich dabei überhaupt um „Intelligenz“ handelt, ist offen. Klar ist, dass Machine Learning oft zweckmäßig ist, wenn es darum geht, Muster zu erkennen und Vorhersagen zu machen. Die Europäische Union hat 2018 eine hochrangige Expertengruppe für Künstliche Intelligenz eingesetzt, die Empfehlungen für eine vertrauenswürdige KI erarbeitet hat. Die sieben Forderungen der Expertengruppe lauten:
  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollen Grundrechte schützen und die Autonomie der Menschen nicht verletzen.
  • Robustheit und Sicherheit: KI-Systeme sollen während allen Phasen des Lebenszyklus sicher funktionieren.
  • Privatsphäre und Datenqualitätsmanagement: KI-Systeme sollen den Betroffenen die volle Kontrolle über ihre eigenen Daten belassen.
  • Transparenz: KI-Systeme sollen die Rückverfolgbarkeit sicherstellen.
  • Vielfalt und Fairness: KI-Systeme sollen dem gesamten Spektrum menschlicher Fähigkeiten und Anforderungen Rechnung tragen.
  • Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollen einen positiven sozialen Wandel sowie ökologische Verantwortlichkeit fördern.
  • Rechenschaftspflicht: KI-Systeme sollen die Verantwortlichkeit und Rechenschaftspflicht gewährleisten.
Die Europäischen Kommission hat diese Anforderungen in ihrem „Weißbuch zur Künstlichen Intelligenz“ zu einem europäischen Konzept für Exzellenz und Vertrauen in der KI weiterentwickelt (Europäische Kommission, 2020, S. 9).
Für Unternehmen ergeben sich daraus mindestens drei Herausforderungen. Erstens müssen sie die Trainingsdaten für die KI-Systeme rechtmäßig, d. h. mit Zustimmung der betroffenen Personen erheben oder erwerben. Zweitens dürfen die KI-Systeme keine eingebaute Voreingenommenheit (Bias) enthalten. Voreingenommenheit entsteht unter anderem durch mangelhafte Trainingsdaten oder durch Kategorien, die soziale Stereotype wiedergeben. Drittens müssen die Ergebnisse der KI-Systeme erklärbar und für eine Überprüfung offen sein. Ein Unternehmen muss in der Lage sein zu erklären, wie eine bestimmte algorithmische Entscheidung getroffen wurde, einschließlich der Kriterien und Parameter für die Entscheidung (DataEthics, 2018, S. 25).
Fallbeispiel
Georg ist Data Scientist in einer Krankenversicherung, die Dienstleistungen im obligatorischen und überobligatorischen Bereich anbietet. Natürlich spielen Daten für die Krankenversicherung und ihre Modellberechnungen eine zentrale Rolle. Die Krankenkasse nutzt demographische Daten wie Alter, Geschlecht, Zivilstatus, Beruf, Wohnort, Ausländerstatus usw. Vor dem Abschluss eines Vertrags wird der allgemeine Gesundheitszustand erfasst, um bestimmte Risiken von der Police auszuschließen. Die Krankenkasse ist an zusätzlichen Verhaltensdaten wie sportliche Aktivitäten, Essgewohnheiten, Rauchen usw. interessiert. Durch eine spielerische App sollen nun Kundinnen und Kunden motiviert werden, ihre Fitnessdaten an die Krankenkasse weiterzuleiten. Kundinnen und Kunden, die regelmäßig Sport treiben, erhalten dabei Vergünstigungen bei den Prämien. Zur Auswertung der Daten und zur Vorhersage von Risiken werden Techniken des Machine Learning eingesetzt. Georg weiß, dass es dadurch für Menschen nicht mehr im Detail nachvollziehbar ist, nach welchen Regeln das Risiko genau berechnet wird. Es besteht die Möglichkeit, dass ältere Menschen, Frauen, Ausländern oder andere Gruppen durch die Auswertung benachteiligt werden. Die Zeit drängt. Das Wissen aus den Daten soll möglichst bald in attraktive Produkte umgesetzt werden. Was soll Georg tun?
Analyse der Spannungsfelder und Leitideen
Der Zusammenhang zwischen der spielerischen App und der Datenverarbeitung für die Risikoberechnung muss für die Nutzerinnen und Nutzer transparent sein. Der Zweck der App darf nicht verschleiert werden. Nur so wird der Mensch hinter dem Nutzer ernst genommen (R1), nur so können die Nutzerinnen und Nutzer ihre informierte Zustimmung zur Verwendung der Daten geben (D2, D4). Der Algorithmus darf auch keine voreingenommenen Ergebnisse aufgrund von mangelhaften oder einseitigen Trainingsdaten liefern. Die Zusammensetzung der App-Nutzerinnen und Nutzer entspricht vermutlich nicht der Zusammensetzung aller Versicherten. Vielfalt und Fairness müssen auch bei KI-Systemen gewährleistet sein. Zudem haben die Versicherten ein Recht auf eine Erklärung für Entscheidungen, die ein KI-System zu ihren Gunsten oder zu ihren Ungunsten fällt (R2, R3). Der Einsatz von KI-Systemen darf nicht dazu führen, dass Betroffene ungerechtfertigt Nachteile erleiden oder von Leistungen der sozialen Sicherheit ausgeschlossen werden. Die Nicht-Schädigung von Betroffenen muss garantiert sein (R3). (vgl. Abb. 3.7).
Praxistipps zum Vorgehen
Zunächst braucht es die Einsicht, dass KI-Systeme aus ethischer Sicht problematische Entscheidungen fällen können. Die Qualität der Entscheidungen ist von der Qualität der Daten abhängig. Wenn die Datenbasis einseitig ist oder von sozialen Stereotypen geprägt ist, wirkt sich dies auch auf die Ergebnisse aus (Schritt 1). Ein Unternehmen, das KI-basierte Datenprodukte verkauft, soll seine ethischen Standards und Praktiken allen kommunizieren, die von der Verwendung des Datenprodukts betroffen sind. Wenn das Unternehmen Daten, Modelle oder Produkte für Dritte produziert, soll es alle Informationen zur Verfügung stellen, die zum ethischen Einsatz der Produkte erforderlich sind (Schritt 4). Zur Dokumentation eines KI-basierten Produktes gehören Informationen über die Datengrundlage, den Algorithmus und die Kriterien und Parameter der Entscheidungen. Zudem sollen die Entscheidungen des KI-System systematisch überprüft, am besten durch gemischte Teams, um blinde Flecken zu vermeiden (Schritt 5).
Weiterführende Information

3.2.7 People Analytics

Die digitale Verantwortung der Unternehmen betrifft nicht nur Kundinnen und Kunden, sondern auch die Mitarbeitenden. Die Analyse von Daten aus dem Personalwesen in Verbindung mit anderen Unternehmensdaten nennt man People Analytics. Das Ziel von People Analytics ist es, Entscheidungen betreffend Mitarbeitende, Kooperation und Kommunikation datenbasiert zu fällen. Anwendungsbereiche sind beispielsweise Mitarbeitendenauswahl und -gewinnung, Talent- und Kompetenzanalyse, Training und Entwicklung, Mitarbeitendenzufriedenheit, Team Performance oder strategisches HR. People Analytics erfordert das Zusammenspiel von verschiedenen Unternehmensbereichen wie Personalwesen, Management, Marketing, Kommunikation, Controlling und IT. Daten werden dabei auf unterschiedlichen Bereichen und Ebenen zusammengeführt und ausgewertet: auf Unternehmensebene, auf Team- oder Abteilungsebene und auf Individualebene. Das Personalwesen ist datenintensiv und die Daten sind personenbezogen. Die Datenschutz-Grundverordnung (DSGVO) regelt die Verarbeitung von personenbezogenen Daten in allen Ländern der EU (Europäisches Parlament und Rat, 2016). In deutschen Unternehmen ist People Analytics mitbestimmungspflichtig. Wissen ist Macht und es besteht die Gefahr, dass sich das Machtgleichgewicht von Arbeitgebern und Arbeitnehmern durch People Analytics einseitig verschiebt und die Arbeitnehmer zu gläsernen Mitarbeitern werden. Entscheidend ist, dass die Datengovernance und das Datenmanagement auch für die unternehmensinternen Prozesse gelten. Datengovernance und Datenmanagement betreffen den sichtbaren Teil der Organisationskultur. Dazu zählen etwa Verantwortungsstrukturen mit klaren Aufgabenbeschreibungen für die Mitarbeitenden, offiziellen Ethik-Richtlinien und eventuell auch spezifische Stellen wie Datenschutzbeauftrage oder Ethikbeauftragte (Data Innovation Alliance, 2020b). Daneben gibt es auch einen unsichtbaren Teil der Organisationskultur wie das Menschenbild und unausgesprochene Werte. Dauerhafte Überwachung und Kontrolle sind Anzeichen für einen Mangel an Respekt gegenüber den Mitarbeitenden.
Fallbeispiel
Peter arbeitet im strategischen Personalmanagement eines Dienstleistungsbetriebs mit mehreren hundert Mitarbeitern. Mit der Digitalisierung verändern sich die Anforderungsprofile der Mitarbeitenden laufend. Für das Personalmanagement ist es besonders wichtig zu wissen, welche Kompetenzen die Mitarbeitenden haben und welche nicht – oder noch nicht. Das Personalmanagement hat Zugriff auf umfangreiche Daten über die Mitarbeitenden des Unternehmens. Die Auswertung der Mitarbeitendendaten mit Hilfe von Textmining- und Machine-Learning-Tools würde dem Unternehmen viel Wissen über die Kompetenzen aller Mitarbeitenden bieten. Mittelfristig plant das Unternehmen, ein Online-Lernangebot, aus dem sich die Mitarbeitenden maßgeschneidert Weiterbildungsangebote zusammenstellen können. Peter kennt die Befürchtungen der Mitarbeitenden, dass sie durch die Datennutzung zu „gläsernen Mitarbeitenden“ werden und dass die Daten auch bei Restrukturierungen mit Personalabbau verwendet werden. Für Peter stellt sich nun die Frage: Wie kann das Personalmanagement die Daten von Mitarbeitenden in einer ethisch vertretbaren Weise nutzen?
Analyse der Spannungsfelder und Leitideen
Wenn Arbeitgeber systematisch personenbezogene Daten auswerten, besteht die Gefahr, dass Entscheidungen einseitig und ohne Wissen und Mitbestimmung der Mitarbeitenden gefällt werden. Im schlimmsten Fall vergisst man, dass hinter dem Mitarbeitenden ein Mensch in seiner individuellen Würde steht und nicht eine Maschine (R1). Die Mitarbeitenden sollen in den Entwicklungsprozess von People Analytics involviert werden (R2, R3). Durch People Analytics könnten die Mitarbeitenden umfassend überwacht und kontrolliert werden. Sie werden so zu gläsernen Mitarbeitenden. Das Recht auf Selbstbestimmung auch in Bezug auf die eigenen Daten muss auch beim Einsatz von People Analytics gewährleistet sein (R2). Es besteht die Gefahr, dass Mitarbeitende aufgrund der eigenen Daten diskriminiert werden und Nachteile bei der Einstellung, Beförderung und Entlassung erleiden. Um Schaden zu vermeiden, muss bei People Analytics ein umfasster Datenschutz gewährleistet sein. Mitarbeitende sollten auch keine Nachteile erleiden, wenn Sie persönliche Daten nicht freiwillig teilen (R2, R3). Das Unternehmen soll eine Verantwortungsstruktur mit klaren Rollenverteilungen und Zuständigkeiten erstellen. Nur so kann es auch seiner Rechenschaftspflicht nachkommen (D2, D4) (vgl. Abb. 3.8).
Praxistipps zum Vorgehen
Verantwortungsvolle Unternehmen beziehen die Personalvertretung in die Entwicklung von People Analytics mit ein (Schritt 1 und 2). Für die Mitarbeitenden soll es eine Anlaufstelle für Fragen zu den personenbezogenen Daten geben wie beispielsweise Datenschutzbeauftragte oder Ethikbeauftragte. Um informiert zustimmen zu können, müssen die Mitarbeitenden wissen, welche Daten zu welchem Zweck ausgewertet werden. Zudem muss die Frage geklärt werden, wer Zugang zu den Daten hat. Die Mitarbeitenden sollten entscheiden können, ob nur das Personalwesen, die Vorgesetzten oder alle Mitarbeitenden Zugang zu den Daten haben (Schritt 3). Bei der Auswertung für Abteilungen und Teams sollte darauf geachtet werden, dass die ausgewerteten Gruppen genügend groß sind, damit die Anonymisierung nicht unterlaufen wird (Schritt 4). Idealerweise hat People Analytics Vorteile für alle Beteiligten. Für das Personalwesen bedeutet People Analytics eine bessere Planbarkeit der Belegschaft und der Weiterbildung und für die Mitarbeitenden eine bessere Planbarkeit der eigenen Karriere und Weiterbildung (Schritt 5).
Weiterführende Information
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur
Zurück zum Zitat Brand, F. S., & Winistörfer, H. (2016). Corporate responsibility management. vdf Hochschulverlag AG. Brand, F. S., & Winistörfer, H. (2016). Corporate responsibility management. vdf Hochschulverlag AG.
Zurück zum Zitat Dörr, S. (2020). Praxisleitfaden Corporate Digital Responsibility: Unternehmerische Verantwortung und … Nachhaltigkeitsmanagement für das Digitalzeitalter. Gabler.CrossRef Dörr, S. (2020). Praxisleitfaden Corporate Digital Responsibility: Unternehmerische Verantwortung und … Nachhaltigkeitsmanagement für das Digitalzeitalter. Gabler.CrossRef
Zurück zum Zitat Grimm, P., Keber, T., & Zöllner, O. (2019). Digitale Ethik. Leben in vernetzten Welten. Kompaktwissen XL. Reclam. Grimm, P., Keber, T., & Zöllner, O. (2019). Digitale Ethik. Leben in vernetzten Welten. Kompaktwissen XL. Reclam.
Zurück zum Zitat Kirchschläger, P. G. (2021). Digital transformation and ethics: Ethical considerations on the robotization and automation of society and the economy and the use of artificial intelligence. Nomos.CrossRef Kirchschläger, P. G. (2021). Digital transformation and ethics: Ethical considerations on the robotization and automation of society and the economy and the use of artificial intelligence. Nomos.CrossRef
Zurück zum Zitat Nida-Rümelin, J. (2018). Digitaler Humanismus: Eine Ethik für das Zeitalter der künstlichen Intelligenz (Originalausgabe). Piper. Nida-Rümelin, J. (2018). Digitaler Humanismus: Eine Ethik für das Zeitalter der künstlichen Intelligenz (Originalausgabe). Piper.
Zurück zum Zitat Spiekermann, S. (2019). Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. Droemer. Spiekermann, S. (2019). Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. Droemer.
Metadaten
Titel
Fallbeispiele zur Corporate Digital Responsibility (CDR)
verfasst von
Patrick S. Renz
Bruno Frischherz
Irena Wettstein
Copyright-Jahr
2023
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-66227-4_3

Premium Partner