Skip to main content

23.02.2023 | Corporate Social Responsibility | Schwerpunkt | Online-Artikel

Chat GPT und die Corporate Digital Responsibility

verfasst von: Andrea Amerland

5:30 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Chat GPT schürt Ängste. Der Text-Algorithmus könnte viele Jobs überflüssig machen. Rund um Künstliche Intelligenz wird daher der Ruf nach einem verantwortungsvollen Umgang lauter. Doch Corporate Digital Responsibility ist in deutschen Unternehmen noch rudimentär.

Microsoft hat vor ein paar Wochen die Integration von Chat GPT in seine Suchmaschine Bing bekannt gegeben und damit nicht nur die Konkurrenz, sondern auch viele Beschäftigte im Bereich Redaktion, Kommunikation oder Kundenservice in den Alarmmodus versetzt. Denn der KI-Bot des US-amerikanischen Unternehmens Open AI kann als textbasiertes Dialogsystem Fragen von Kunden oder Nutzern beantworten, aber auch Texte erstellen, die sich aus Zeitungartikeln, Büchern oder Online-Foren speisen.

Die Einführung des Chatbots sagt viel über die Corporate Digital Responsibility (CDR) von Microsoft und dessen Konkurrenten Google aus, der, wie viele Branchenkenner meinen, überhastet zum Gegenschlag ausholte und Bard als KI-Assistenten für die Google-Suche vorstellte. 

Empfehlung der Redaktion

2020 | Buch

Praxisleitfaden Corporate Digital Responsibility

Unternehmerische Verantwortung und Nachhaltigkeitsmanagement im Digitalzeitalter

Die Digitalisierung transformiert rasant die globale Wirtschaft – mit neuen Problemen für Individuen, Gemeinschaft und den Planeten. Doch was bedeutet dies praktisch für unternehmerische Verantwortung und Nachhaltigkeitsmanagement?

Der Begriff Corporate Social Responsibility (CSR) wurde bereits 1953 von dem amerikanischen Ökonomen Howard R. Bowen eingeführt, erklärt Carsten Skerra im Buchkapitel "Digitale Unternehmensverantwortung (Corporate Digital Responsibility, CDR) im Marketing der Zukunft". Es gehe dabei um die gesellschaftliche Verantwortung des Geschäftsmannes beziehungsweise von Unternehmen auf sozialer, ökologischer wie ökonomischer Ebene und steht für das nachhaltige Wirtschaften von Organisationen. Doch das CSR-Konzept müsse angesichts des technologischen Wandels um digitale Belange erweitert werden, betont der Professor für Computer Science. 

Das Corporate-Digitale-Responsibility-Konzept

So sieht es auch das Institut für ökologische Wirtschaftsforschung (IÖW). Deren Wissenschaftler Christian Lautermann und Vivian Frick argumentieren dabei auf Basis einer aktuellen Grundlagenstudie, die sie anhand der Nachhaltigkeitsberichte von 62 deutschen Großunternehmen sowie einer Auswertung aktueller Forschungsliteratur zu CDR durchgeführt haben. Sie gingen dafür den Fragen nach, wie die untersuchten Firmen des Nachhaltigkeitsberichtsrankings 2021 mit Datenschutz, ethischen Problemen rund um Künstliche Intelligenz oder ökologischen Auswirkungen digitaler Infrastrukturen umgehen. 

Demnach haben viele Unternehmen noch kein kritisches Bewusstsein bei den Risiken und Nebenwirkungen digitaler Technologien für die Mitarbeitenden, den Datenschutz oder den Klimawandel. Die IÖW-Wissenschaftler identifizieren drei zentrale Aspekte digitaler Verantwortung:

  • Umgang mit personenbezogenen Daten 
  • Automatisierte Entscheidungssysteme 
  • Sozial-ökologische Auswirkungen der Digitalisierung 

Wo Unternehmen ihr CDR-Management verbessern müssen

Handlungsbedarf auf dem Gebiet des gezielten CDR-Managements sehen Lautermann und Frick ihrer Analyse nach vor allem in folgenden Bereichen:

Digital Governance: Hier geht es um die "ordnungsgemäße Entwicklung, Nutzung und Verwaltung der Infosphäre". Insbesondere die Auswertung der Nachhaltigkeitsberichte zeige, dass die neu entstehenden Aufgaben und Rollen rund um digitale Verantwortung "von Unternehmen in der Digitalisierung in vielerlei Hinsicht noch entwickelt und ausgefüllt werden müssen."

Digital Accountability: Dadurch, dass Strukturen und Prozesse innerhalb der Organisation möglichst klar geregelt sind und eine gute Steuerung (Governance) erlauben, kann ein Unternehmen erst richtig Rechenschaft ablegen. Dies gelte insbesondere beim internen Datenmanagement, in der externen Berichterstattung und im öffentlichen Diskurs. 

Umgang mit digitaler Machtkonzentration: Die Konzentration von Macht über Daten, Märkte und Infrastrukturen in den Händen weniger großer Konzerne ist kennzeichnend für die Plattformökonomie. Kunden können nicht zwischen unterschiedlichen Angeboten wählen und werden mit einseitigen Änderungen der Verkaufsbedingungen ausgenutzt - auch in Hinblick auf die digitale Souveränität. In den untersuchten Berichten deutscher Unternehmen spielen die zuvor genannten Überlegungen zum Umgang mit der Machtkonzentration im digitalen Raum so gut wie keine Rolle. 

Digitale Formen von politischer Einflussnahme:  Wie bringen sich Unternehmen für eine verantwortungsvolle Gestaltung der Digitalisierung ein? Wie positionieren sie und ihre Interessenverbände sich rund um Regulierungsvorschläge zur digitalen Transformation? Sie können technologische Innovationen fördern, neue digitalpolitische Regulierungen beeinflussen sowie selbst digitale Möglichkeiten für das Lobbying nutzen. Gerade "die Berichterstattung über Aktivitäten der politischen Interessenvertretung ist in den Berichten generell eher lückenhaft". 

Beschäftigte brauchen klares CDR-Gerüst

"KI verlangt Corporate Digital Responsibility (CDR)", betont auch Springer-Autorin Saskia Dörr in einem gleichnamigen Buchkapitel. Sie legt bei dem Thema den Fokus auf die Beschäftigten. CDR entwickelt nach Ansicht der Expertin "einen Organisationsrahmen, der Vertrauen und Glaubwürdigkeit bei allen Stakeholdern, insbesondere bei Beschäftigten ermöglicht". Rund um KI-gestützte Arbeitsplätze ergeben sich nach ihrer Einschätzung folgende Handlungsfelder (Seite 47): 

  • Das KI-System muss den Codes of Conduct, Menschenrechtsgesetzen, ILO-Übereinkommen (internationale Arbeits- und Sozialstandards), Tarifverträgen sowie anderen geltenden Regelungen entsprechen.
  • Die Ansprüche der betroffenen Beschäftigten rund um eine KI-Lösung sollten berücksichtigt werden.
  • Es braucht Governance-Mechanismen zur Kontrolle. Das kann ein Gremium aus Beschäftigten, Herstellern, Programmierern, Personalabteilung und anderen Interessensgruppen sein.
  • Die Grenzen KI-basierter Entscheidungen im Betrieb sollten definiert und festgelegt werden, wann ein Mensch final entscheiden muss, etwa bei Personalfragen.
  • Das Ausmaß digitaler Verantwortung gehört in den Nachhaltigkeits- und/oder Geschäftsbericht, um gegenüber den Beschäftigten und anderen Stakeholdern Rechenschaft darüber abzulegen.
  • Zu einer digitalverantwortlichen Transformation gehört es, das Know-how mit KI-gestützten Arbeitsplätzen öffentlich zu teilen.

Wo Chat GPT Jobs kosten könnte

Hätten Unternehmen ihre Corporate Digital Responsibility bereits umfassend erkannt und Maßnahmen ergriffen, wären viele Arbeitnehmende vermutlich weniger ängstlich, ihren Arbeitsplatz durch Künstliche Intelligenz wie Chat GPT zu verlieren. Laut einer Studie von Sortlist, einer Vermittlungsplattform für Agenturen und Werbungtreibende, trifft das nämlich auf 23 Prozent von 500 im Januar befragten Beschäftigten in der Software- und Tech-Branche zu. 

Unbegründet sind die Befürchtungen keinesfalls. Denn 26 Prozent der Arbeitgeber in derselben Branche denken tatsächlich über einen Personalabbau auf Grund des neuen Bots nach. Vor allem Marketing- und PR-Abteilungen sehen eine Verschlankung ihrer Belegschaft nach (51 Prozent) im Bereich des Möglichen. Aber auch in der Finanzbranche sehen Entscheider durch Chat GPT große Potenziale. 

Der AI Act der EU

Unabhängig vom neuen Microsoft Chatbot arbeitet das Europaparlament seit Monaten an den Entwürfen für den sogenannten AI Act, mit dem KI-Anwendungen künftig reguliert werden sollen. Ziel der gesetzlichen Bemühungen ist es, Künstliche Intelligenz einen Rahmen zu geben, in der die Technologie ihre Möglichkeiten entfalten kann, ohne der Gesellschaft zu schaden. 

In einem Stufensystem werden dabei die Risiken von KI-Systemen nach den jetzigen Plänen bewertet. Gilt eine Anwendung als hochriskant, müssen die Betreiber Dritte für eine Gefahreneinschätzung ins Boot holen und menschliche Kontrollebenen einführen. Auch sollen gewisse Sicherheitsstandards in Hinblick auf die Transparenz und Datenqualität gelten. Gleichzeitig wäre ein ständiges Risiko-Monitoring demnach Pflicht. 

Diese Auflagen könnten dann auch für eine textgenerierende Anwendung wie Chat GPT gelten. Da nicht erkennbar ist, ob ein Text von einem Menschen oder einer Maschine erstellt wurde, fiele der Chatbot wohl in die höchste Risikokategorie und wäre ohne Transparenz und menschliche Überprüfung nicht zulässig.

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2021 | OriginalPaper | Buchkapitel

KI verlangt Corporate Digital Responsibility (CDR)

Den moralischen Kompass für Beschäftigte an KI-gestützten Arbeitsplätzen ausrichten
Quelle:
Arbeitswelt und KI 2030

11.03.2022 | HAUPTBEITRAG

Digitale Souveränität

01.07.2021 | Wissen — Künstliche Intelligenz — Compliance

Regulierung Künstlicher Intelligenz: Ein praktischer Ratgeber für die Praxis

Das könnte Sie auch interessieren

Premium Partner