Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 2/2024

Open Access 26.02.2024 | Schwerpunkt

Faire KI-basierte Sprachassistenten

Handlungsfelder und Maßnahmen zur Erzielung einer sozio-technischen Fairness von Sprachassistenten

verfasst von: Helena Weith

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 2/2024

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Obwohl Sprachassistenten Vorteile wie personalisierte Empfehlungen und Kommunikation, lediglich basierend auf Sprache, für Nutzer und Unternehmen mit sich bringen, besteht das Risiko, dass diese unfair agieren. Die technische und soziale Fairnessperspektive wurde bislang isoliert voneinander betrachtet. Es ist relevant eine gemeinschaftliche sozio-technische Fairnessperspektive vorzunehmen, mangelt allerdings an konkreten Maßnahmen, um diese sozio-technische Fairnes für Sprachassistenten zu erreichen. Daher liefert dieser Artikel basierend auf zwölf Experteninterviews ein Framework, welches fünf Handlungsfelder sowie dazugehörige konkrete Maßnahmen aufzeigt, die Unternehmen adressieren müssen, um die sozio-technische Fairness von Sprachassistenten zu erzielen. Dabei bauen die Ergebnisse auf dem Konzept der sozio-technischen Fairness auf, erweitern diese jedoch unter der Berücksichtigung der spezifischen Eigenschaften und Herausforderungen von Sprachassistenten um konkrete Maßnahmen. Unternehmen erhalten eine übergreifende Übersicht von Maßnahmen, um die sozio-technische Fairness von Sprachassistenten herzustellen.
Hinweise
Anmerkung: Im Text werden Begriffe wie „Experten“ und „Nutzer“ stellvertretend für die weibliche sowie männliche Form verwendet.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Technologische Fortschritte in Bezug auf Rechenleistungen, Big Data und Algorithmen ermöglichen die zunehmende Verbreitung Künstlicher Intelligenz (KI) über Branchen und Funktionen hinweg (Wirtz et al. 2018). Natural Language Processing (NLP; deutsch: die Verarbeitung natürlicher Sprache), eine KI-Methode, gestattet auf der Grundlange von Sprachmodellen die Verarbeitung von Text-zu-Sprache und Sprache-zu-Text (Diederich et al. 2022). Dadurch ermöglicht NLP bzw. das zugrunde liegende neuronale Netz die Interaktion über Sprache zwischen Nutzern und Sprachassistenten. Sprachassistenten wie beispielsweise Alexa von Amazon oder Siri von Apple (Janssen et al. 2020) kommen vermehrt zum Einsatz. Auch entwickeln Unternehmen zunehmend Sprachassistenten für spezifische Anwendungsfälle, beispielsweise den MBUX Sprachassistenten von Mercedes (Berton 2018).
Sprachassistenten bringen Vorteile für Unternehmen mit sich, da diese einen zusätzlichen Kommunikationskanal mit Nutzern darstellen, wodurch Unternehmen vielseitiger mit Nutzern in Verbindung treten können. Da Sprachassistenten in Endgeräte wie Smartphone integriert sein können, können diese eine sehr präsente Rolle im Alltag von Nutzern einnehmen (Janssen et al. 2020). Nutzer profitieren von Interaktionen, welche parallel zu anderen Aktivitäten stattfinden können (Larsen et al. 2020). Der Einsatz KI-basierter Sprachassistenten geht jedoch auch mit Risiken wie mangelnder Fairness einher (Weith und Matt 2023). Die mediale Berichterstattung der letzten Jahre hat diverse Beispiele von unfairen Sprachassistenten an das Tageslicht gebracht. Hierbei handelt es sich etwa um Sprachassistenten, die ohne das Wissen von Nutzern Daten sammeln (Brown 2022), beleidigende Formulierungen verwenden (Shearer et al. 2019), in ihren Entscheidungen Nutzer diskriminieren (Kordzadeh und Ghasemaghaei 2021) oder nur auf Nutzer mit akzentfreier Ausdrucksweise reagieren (Harwell 2018). Eine mangelnde Fairness kann jedoch negative ökonomische, reputationstechnische oder rechtliche Auswirkungen für Unternehmen haben (Dolata et al. 2021).
Die Forschung unterscheidet zwischen zwei Perspektiven von Fairness für KI: der sozialen und der technischen – zusammengefasst als sozio-technische Fairness (Dolata et al. 2021). Die technische Perspektive fokussiert sich auf mathematische Ansätze zur Vermeidung und Milderung von Verzerrungen in Daten und Algorithmen (Barocas et al. 2021; Feuerriegel et al. 2020). Bei der sozialen Perspektive stehen die Wahrnehmungen der Fairness von KI und daraus resultierende Verhaltensreaktionen im Fokus (Weith und Matt 2022; Kordzadeh und Ghasemaghaei 2021). Die aktuelle Forschung zu Fairness von KI weist einen umfangreichen Fokus auf die technische Fairnessperspektive auf (Kordzadeh und Ghasemaghaei 2021). Nachdem auch die soziale Fairnessperspektive langsam an Betrachtung gewinnt, kommt jedoch eine Betrachtung der gemeinschaftlichen sozio-technischen Fairness von KI noch zu kurz (Dolata et al. 2021). Neben einer gemeinschaftlichen Betrachtung und einer konzeptionellen Zusammenführung der sozio-technischen Fairnessperspektive fehlt eine praxisorientierte Übersicht an Maßnahmen für Unternehmen zur Erreichung einer sozio-technischen Fairness von Sprachassistenten (Dolata et al. 2021).
Basierend auf den bisherigen Erkenntnissen der aktuellen Forschung zur sozialen und technischen Fairness von KI sowie zwölf Interviews mit Experten für KI-basierte Sprachassistenten und Fairness von Künstlicher Intelligenz präsentiert dieser Artikel ein konzeptionell-empirisches Framework. Das Framework zeigt fünf Handlungsfelder (Fairnessambitionen, Daten, Algorithmen, Schnittstellendesign, Prozessdesign) auf und macht deutlich, inwiefern Unternehmen bei der Entwicklung und Gestaltung von Sprachassistenten diese für eine sozio-technische Fairness adressieren müssen. Spezifische, aus den Experteninterviews resultierende Maßnahmen ergänzen die Handlungsfelder. Das Framework verweist außerdem auf die Abhängigkeiten der Handlungsfelder sowie auf Maßnahmen.
Die Ergebnisse berücksichtigen die Eigenschaften und Herausforderungen von Sprachassistenten und bauen auf den Konzepten der sozialen und technischen Fairness von KI auf. Der vorliegende Artikel erweitert damit die bis dahin konzeptionelle Betrachtung der sozio-technischen Fairnessperspektiven um konkrete Maßnahmen spezifisch für Sprachassistenten. Unternehmen, die Sprachassistenten entwickeln, gestalten oder nutzen wollen, profitieren von dieser Darstellung. Denn der Artikel zeigt Maßnahmen auf, welche Unternehmen umsetzen können, um eine sozio-technische Fairness für ihre Sprachassistenten zu erreichen.
Der Artikel gliedert sich in sechs Kapitel. Nach der Einleitung folgt ein theoretischer Hintergrund mit einem Fokus auf Sprachassistenten in der Kundeninteraktion sowie die sozio-technische Fairnessperspektive von Künstlicher Intelligenz. In Kap. 3 wird das methodische Vorgehen anhand der Datenerhebung sowie der Datenanalyse erläutert. Kap. 4 gibt die Ergebnisse in Form des Frameworks, der Handlungsfelder und Maßnahmen wieder. Anschließend folgt in Kap. 5 eine Diskussion der Ergebnisse sowie eine Übersicht der theoretischen und praktischen Implikationen. Der Artikel schließt daraufhin mit einer kurzen Zusammenfassung, Limitationen und einem Ausblick ab.

2 Theoretischer Hintergrund

2.1 Sprachassistenten in der Kundeninteraktion

Natural Language Processing, als ein Zweig der Künstlichen Intelligenz, gestattet die Verarbeitung natürlicher Sprache sowie die Wiedergabe von Inhalten in Form von Sprache durch die Verarbeitung von Sprach-zu-Text- und Text-zu-Sprache (Diederich et al. 2022). Dies ermöglicht es, dass Sprachassistenten basierend auf Sprache mit Nutzern interagieren, im Vergleich zu Chatbots, welche beschränkt sind auf die Kommunikation in Textform (Knote et al. 2021). Sprachassistenten extrahieren relevante Inhalte von Befehlen von Nutzern, gleichen diese mit ihrem Wissen ab, identifizieren Antworten, die dann wiederum in auditive Nachrichten transferiert werden. Dabei handelt es sich um eine vereinfachte Erklärung von schnell ablaufenden Prozessschritten, welche für Nutzer nicht direkt ersichtlich sind (Dwivedi et al. 2023). Basierend auf aktuellen Vorhersagen wird die Anzahl genutzter Sprachassistenten von 4,2 Mrd. in 2020 auf 8,4 Mrd. in 2024 ansteigen (Statista 2023), wobei sich vielseitige Einsatzzwecke anbieten. Während Sprachassistenten beispielsweise auch für interne Unternehmenszwecke genutzt werden können, liegt der Fokus in diesem Artikel auf solchen mit einer direkten Kundeninteraktion wie Alexa von Amazon oder Siri von Apple (Janssen et al. 2020) sowie auf eigens von Unternehmen entwickelten und verantworteten Sprachassistenten wie MBUX von Mercedes (Berton 2018). KI-basierte Sprachassistenten können beispielsweise Aktivitäten im Kundenservice per Telefon eigenständig übernehmen oder Kaufprozesse über Sprache abwickeln (Janssen et al. 2020). Solche Sprachassistenten zeichnen sich vor allem durch die menschenähnliche und natürliche Kommunikation über Sprache aus (Pfeuffer et al. 2019). Für Nutzer von Vorteil ist vor allem, dass die Interaktion parallel zu anderen Aktivitäten, etwa während des Kochens oder Autofahrens, erfolgen kann (Larsen et al. 2020). Unternehmen profitieren dadurch von Sprachassistenten, dass sie Nutzern einen neuen Kommunikationsweg anbieten können, welcher im Vergleich zu Chatbots im Leben von Nutzern präsenter ist und diese vermehrt im Alltag begleitet (Janssen et al. 2020). Die Vorteile der Interaktion über Sprache bringen zugleich auch Risiken mit sich. Medial bekannt gewordene Beispiele haben gezeigt, dass Sprachassistenten ohne das Wissen von Nutzern Daten sammeln (Brown 2022), beleidigen (Shearer et al. 2019), Nutzer diskriminieren (Kordzadeh und Ghasemaghaei 2021) oder Nutzer aufgrund ihrer Aussprache nicht verstehen (Harwell 2018). Auch kann es für Nutzer aufgrund der KI „Black Box“ komplex sein, Handlungen und Entscheidungen von Sprachassistenten nachzuvollziehen (Natale und Cooke 2021; Ochmann et al. 2021). Zudem beschränken Sprachassistenten den Umfang an Informationen gegenüber einer visuellen Darstellung (Natale und Cooke 2021). Solche Beispiele können sich negativ auf die Fairness von Sprachassistenten auswirken, wobei diese von hoher Bedeutung für Unternehmen ist. Mangelnde Fairness kann negative rechtliche, ökonomische sowie reputationstechnische Auswirkungen für Unternehmen mit sich bringen (Dolata et al. 2021).

2.2 Sozio-technische Fairnessperspektive von Künstlicher Intelligenz

Fairness im Kontext von KI lässt sich in zwei Perspektiven unterteilen: die technische und die soziale, und daraus resultierend die sozio-technische Fairnessperspektive (Dolata et al. 2021; Kordzadeh und Ghasemaghaei 2021). Die technische Perspektive fokussiert sich auf statistische Verfahren, um beispielsweise Ungleichheiten und Verzerrungen in Daten und Algorithmen zu verhindern. Dabei liegt der Fokus zum Beispiel auf der Reduzierung von sensitiven Attributen wie Geschlecht, Herkunft oder Alter (Angwin et al. 2016). Die Forschung orientiert sich hier häufig an dem Konzept der „Equality“ (deutsch: Gleichberechtigung) nach Adams, welches besagt, dass alle Individuen das gleiche Resultat erhalten sollen (Colquitt und Rodell 2015). Neben „Equality“ liefert die Forschung weitere Konzepte wie beispielsweise „Equity“ (deutsch: Gerechtigkeit). „Equity“ bezieht sich auf das Resultat, welches jemand als Gegenleistung für einen geleisteten Beitrag erhält, zum Beispiel Waren im Tausch gegen Geld (Colquitt und Rodell 2015). Das Konzept „Need“ (deutsch: Bedürfnis) besagt, dass „Personen mit einem höheren Bedarf ein höheres Ergebnis erhalten sollen“ (Dolata et al. 2021; Leventhal 1980). Die soziale Fairnessperspektive legt einen Fokus auf ein nutzerzentriertes Vorgehen. Im Vordergrund steht dabei die Fairnesswahrnehmung seitens Nutzer sowie beeinflussende Faktoren und daraus resultierende Verhaltensweisen (Weith und Matt 2022; Dolata et al. 2021). Die soziale Fairnesswahrnehmung ist stark geprägt durch die individuellen Normen, Standards und Erwartungshaltungen von Nutzern und wird durch die Interaktion mit Sprachassistenten beeinflusst. Dies beinhaltet sowohl den Prozess der Interaktion als auch das Auftreten von Sprachassistenten und damit die Schnittstelle zum Kunden (Weith und Matt 2022; Feuerriegel et al. 2020). Geprägt wird die soziale Fairnessperspektive durch vier Dimensionen resultierend aus der Sozialforschung: prozessuale, distributive, interpersonelle und informative Fairness (Colquitt und Rodell 2015).
Prozessuale Fairness bezieht sich auf den Prozess, den es bedarf, um das Ergebnis eines Services oder einer Aufgabe zu erhalten. Distributive Fairness bezieht sich auf das Ergebnis des Prozesses. Dabei kann es sich um eine Entscheidung oder eine Empfehlung handeln. Interpersonale Fairness betrifft die soziale Seite des Prozesses und sein Ergebnis sowie den Einfluss auf den Empfänger. Die informative Fairness bezieht sich auf zur Verfügung gestellte Informationen über den Prozess, das Ergebnis sowie darauf, wie Entscheidungen getroffen werden (Weith und Matt 2023; Colquitt und Rodell 2015).
Während die gegenwärtige Forschung einen vermehrten Fokus auf die technische Fairnessperspektive legt (Barocas et al. 2021; Von Zahn et al. 2021), wird der sozialen und sozio-technischen Fairnessperspektive bis jetzt weniger Beachtung geschenkt (Kordzadeh und Ghasemaghaei 2021). Eine gemeinschaftliche Betrachtung der sozio-technischen Fairnessperspektive wird jedoch zunehmend von der Forschung gefordert (Dolata et al. 2021). Die sozio-technische Fairnessperspektive berücksichtigt gemeinschaftlich die soziale sowie technische Perspektive und greift Abhängigkeiten zwischen den beiden Perspektiven auf (Dolata et al. 2021). Die Nutzung technischer KI-basierter Systeme, etwa von Sprachassistenten, erfolgt in einem sozialen Umfeld, beispielsweise mit Nutzern. Die Nutzung technischer Systeme in einem sozialen Kontext bestärkt den Bedarf nach einer sozio-technischen Betrachtung der Fairness (Dolata et al. 2021).

3 Methodisches Vorgehen

Dieser Artikel betrachtet Sprachassistenten anhand des Konzepts der sozio-technischen Fairness und präsentiert ein Framework mit Handlungsfeldern. Vier Handlungsfelder resultierend aus der bisherigen Forschung (Daten, Algorithmen, Schnittstellendesign, Prozessdesign) bilden die Grundlage für das initiale Framework. Im Rahmen der Experteninterviews wurde das Framework validiert und erweitert sowie um konkrete Maßnahmen ergänzt.

3.1 Datenerhebung

Für die Anpassung und Validierung des Frameworks sowie die Identifikation von spezifischen Maßnahmen je Handlungsfeld wurden zwölf Experteninterviews geführt. Experteninterviews eignen sich hierfür, da es sich bei dem Framework um sehr spezifische Inhalte handelt, wofür spezifisches Fachwissen vorausgesetzt wird. Die Experten wurden aufgrund ihrer Expertise direkt (bspw. über LinkedIn und via E‑Mail) angefragt. Zum Teil bestand hier bereits ein Kontakt, zum Teil erfolgten die Anfragen ohne vorherigen Kontakt. Die Experten wiesen relevante praktische Expertise bezüglicher der Fairness von Künstlicher Intelligenz sowie der Entwicklung und Gestaltung von KI-basierten Sprachassistenten auf. Aufgrund der Vielseitigkeit der Handlungsfelder wurde bei der Interviewauswahl darauf geachtet, dass die Interviewten Expertise entsprechend den Handlungsfeldern besitzen. Die Expertise verteilte sich daher auf die Bereiche Technik, Gestaltung und Management von Sprachassistenten. Interviewt wurden Personen aus den Bereichen Forschung, Unternehmens- und Technologieberatung sowie von Konzernen. Die Interviews dauerten zwischen 45 und 60 min und wurden mit Hilfe von Online-Konferenztools durchgeführt und aufgezeichnet und im Anschluss für die nachfolgende Datenanalyse transkribiert.
Die semi-strukturierten Interviews unterteilten sich in drei Teile. Im ersten Teil lag der Fokus auf einer Einschätzung der allgemeinen Relevanz von Fairness für Sprachassistenten sowie dem derzeitigen Umgang damit seitens Nutzer, Unternehmen und Politik. Im zweiten Teil lag der Fokus auf der praktischen Bedeutung der Fairnessperspektiven und deren Zusammenspiel. Der dritte Teil fokussierte sich auf die Handlungsfelder und Maßnahmen sowie potenzielle Abhängigkeiten zwischen diesen. Zum Teil wurden die Interviews durch grafische Darstellungen des Frameworks unterstützt. Trotz der groben vordefinierten Interviewstruktur wurde ausreichend Flexibilität beibehalten, um entsprechend der Expertise der Interviewpartner den Fokus und Verlauf der Interviews anzupassen.

3.2 Datenanalyse

Zuerst wurden alle Interviews transkribiert und dann unterstützt durch MAXQDA in drei Stufen analysiert (Kuckartz 2018). Tab. 1 gibt ein Beispiel der dreistufigen Interviewanalyse wieder. Die Interviews wurden in einem kombinierten Vorgehen induktiv und deduktiv thematisch analysiert (Clarke und Braun 2021), wobei die vier vorab definierten Handlungsfelder bereits einen Teil der Themen bestimmten. Im ersten Schritt wurden alle Interviews mit Kodierungen versehen, um relevante Aussagen zusammenzufassen. Danach wurden Gemeinsamkeiten zwischen den Kodierungen identifiziert und diese zu Kategorien zusammengefasst. Zuletzt wurden die Kategorien in übergreifenden Themenbereichen zusammengefasst. Die Schritte wurden iterativ wiederholt, um sicherzustellen, dass alle Kodierungen einem Thema und einer Kategorie angehören. Während die Interviews durchweg von einer Person kodiert wurden, wurde durch ein strukturiertes sowie iteratives Vorgehen die Intracoderreliabilität sichergestellt (Mayring 2022).
Tab. 1
Beispiel Interviewanalyse
Zitat
Bildet das Sub-set an Daten, die ich habe, wirklich die Grundgesamtheit ab, die ich haben will?“ (Interviewpartner 09)
Schritt
1
Kodierung
Übereinstimmung Daten mit Grundgesamtheit und damit Fairnessambitionen prüfen
2
Kategorie
Maßnahme Datenexploration
3
Thema
Handlungsfeld Daten
Aus der qualitativen Inhaltsanalyse sind acht Themen hervorgegangen: Fairnessambitionen, Daten, Algorithmen, Schnittstellendesign, Prozessdesign, Adaption Praxis, Abhängigkeiten und Sonstiges. Die ersten fünf Themen stellen die relevanten Aspekte für Unternehmen dar und dienen daher als Handlungsfelder des Frameworks. Die letzten drei Handlungsfelder unterstützen das Framework mit praxisrelevanten Hintergründen sowie Abhängigkeiten. Die Kategorien stellen demnach die späteren Maßnahmen dar.

4 Ergebnisse

Die Ergebnisse in diesem Artikel unterteilen sich in zwei Bereiche: zum einen in ein Framework bestehend aus fünf Handlungsfeldern, die Unternehmen adressieren müssen, um eine sozio-technische Fairness von Sprachassistenten zu erreichen. Ein erster Entwurf der Handlungsfelder stammte aus der Literatur (Daten, Algorithmen, Schnittstellendesign, Prozessdesign). Das Framework wurde dann basierend auf den Interviews validiert und um ein weiteres Handlungsfeld (Fairnessambitionen), sowie Abhängigkeiten ergänzt. Neben dem Framework beinhalten die Ergebnisse eine Übersicht konkreter Maßnahmen je Handlungsfeld, welche aus den Interviews resultieren. Im Folgenden wird zuerst das Framework vorgestellt, gefolgt von den Maßnahmen je Handlungsfeld.

4.1 Framework „Handlungsfelder für eine sozio-technische Fairness von Sprachassistenten“

Das Framework umfasst fünf Handlungsfelder (Abb. 1), welche auf die sozio-technische Fairness von Sprachassistenten abzielen.
Jeweils zwei der Handlungsfelder zahlen spezifisch auf die technische oder soziale Fairnessperspektive ein. Während das Handlungsfeld Daten und Algorithmen zur technischen Fairness beisteuert, trägt das Handlungsfeld Schnittstellendesign und Prozessdesign zur sozialen Fairnessperspektive bei. Trotz der Strukturierung in vier Handlungsfelder zeigen diese jeweils Abhängigkeiten untereinander auf, wie Interviewpartner 8 erläutert: „Ich habe das Gefühl, dass alle miteinander zusammenhängen […] Ich habe das Gefühl, dass es mit den Daten anfängt, dann geht es weiter zum Algorithmus […].“ Im Rahmen der jeweiligen Handlungsfelder wird ebenfalls auf die wesentlichen Abhängigkeiten zwischen diesen eingegangen.
Je Handlungsfeld führt Tab. 2 konkrete Maßnahmen für Unternehmen auf. Die Maßnahmen stellen eine Orientierung für Unternehmen dar, um die sozio-technische Fairness von Sprachassistenten sicherzustellen. Die Details der Umsetzung der Maßnahmen, kann dabei von Unternehmen in Abhängigkeit des Anwendungsfalles und in Abwägung ökonomischer oder reputationstechnischer Interessen variieren.
Tab. 2
Handlungsfelder und Maßnahmen zur Erreichung sozio-technischer Fairness
Handlungsfelder
Maßnahmen
Details
Fairnessambition
Identifizieren von gesellschaftlichen Erwartungen an sozio-technische Fairness für Sprachassistenten
Berücksichtigen etablierter Fairnesskonzepte (Equality, Equity, Need), kultureller Gegebenheiten oder politischer Leitlinien, welche gesellschaftliche Erwartungen beeinflussen können
Definieren von sozio-technische Fairnessambitionen für Unternehmen und Anwendungsfälle
Berücksichtigen von Abweichungen zwischen unternehmensinternen und -externen Anwendungen für Sprachassistenten kommen
Anerkennen, dass definierte Ambitionen von gesellschaftlichen Erwartungen abweichen können
Berücksichtigen von rechtlichen Leitlinien
Daten
Verstehen der Herkunft und Beschaffenheit der Daten durch Datenexploration
Vorzugsweise Verwenden von unternehmenseigenen Daten, welche dem Unternehmen vertraut sind
Identifizieren von Ausreißern, Lücken, sensiblen Daten oder Untergruppen
Verändern des Datensatzes durch Datenmutation basierend auf der Datenexploration und im Einklang mit der Fairnessambition
Bereinigen etwaiger Daten in Einklang mit den Fairnessambitionen
Sicherstellen der Repräsentativität (bspw. Sprachprofile) entsprechend den Nutzern, die Unternehmen mit dem Sprachassistenten adressieren möchten
Algorithmen
Verstehen des Verhaltens und der Beschaffenheit des Modells durch Modellexploration
Verstehen, wie das Modell trainiert wurde und abgleichen, ob das Verhalten mit den Fairnessambitionen einhergeht
Berücksichtigen, dass es je nach Technologie Abweichungen gibt, inwiefern das Modellverhalten Nachvollziehbarkeit bietet
Veränderungen durch Modellmanipulation vornehmen
Anpassen des Modells in Einklang mit den Fairnessambitionen
Kontinuierliche Überwachung des Modells über die Zeit hinweg
Überwachen des Modells und der Resultate über die Zeit hinweg verbunden mit Anpassungen in Einklang mit den Fairnessambitionen
Schnittstellendesign
Gestaltung des Sprachassistenten unter Berücksichtigung anthropomorpher Aspekte
Berücksichtigen, dass Elemente wie Stimme, Tonalität oder Geschwindigkeit einen Einfluss auf die soziale Fairness haben
Anerkennen, dass sich ein freundlicher und respektvoller Umgang positiv auf die Fairness auswirken kann
Sicherstellen der Inklusion von Sprachassistenten gegenüber der Nutzerzielgruppe
Sicherstellen, dass die definierte Zielgruppe verstanden wird (bspw. Dialekte)
Ausgeben von Informationen entsprechend den Nutzerpräferenzen (bspw. Geschwindigkeit)
Sicherstellen, dass Endgeräte und damit verbunden die Kommunikation inklusiv sind
Prozessdesign
Festlegen des Niveaus an Nutzerautonomie und Proaktivität des Sprachassistenten
Berücksichtigen, dass die Präferenzen von Nutzern bzgl. der Autonomie und Proaktivität über Nutzer hinweg variieren können
Sicherstellen von Transparenz gegenüber Nutzern
Erzeugen von Transparenz über die Art und Weise, wie Sprachassistenten handeln
Erzeugen von Transparenz darüber, dass Nutzer mit technischen Sprachassistenten interagieren und nicht mit Menschen
Anbieten von alternativen Kommunikationskanälen
Sicherstellen, dass Nutzer die Möglichkeit haben, auf alternative Kommunikationskanäle auszuweichen

4.2 Handlungsfeld Fairnessambitionen

Das Handlungsfeld Fairnessambitionen ist in zwei Maßnahmen strukturiert. Zuerst müssen sich Unternehmen mit dem gesellschaftlichen Verständnis von Fairness auseinandersetzen und daraufhin die eigenen Ambitionen in Bezug auf Fairness definieren. Dabei ist es relevant zu verstehen, welches Verständnis die Gesellschaft und damit die Nutzer von Sprachassistenten von Fairness haben sowie welche Erwartungshaltungen damit verbunden sind. „Das Problem an der Geschichte ist aber, dass es hier keine feste Fairnessdefinition gibt, sondern dies immer nur für den Moment gilt“ (Interviewpartner 9). Gesellschaftliche Normen, kulturelle Kontexte sowie politische Leitlinien können das gegenwärtige Verständnis von Fairness für Sprachassistenten beeinflussen. Ein gesellschaftliches Fairnessverständnis kann sich beispielsweise an etablierten Konstrukten aus der Sozialforschung orientieren. Die Experteninterviews haben vor allem betont, dass in Abhängigkeit von den gesellschaftlichen Erwartungen Unternehmen individuell ihre Ambitionen im Einklang mit ihrer Unternehmensstrategie in Bezug auf die Umsetzung von Fairness definieren müssen. Unternehmen könnten beispielsweise als Teil ihrer Fairnessambitionen definieren, dass sie Nutzern möglichst viel Transparenz über Sprachassistenten bereiten wollen. Dafür bedarf es Maßnahmen über alle nachfolgenden vier Handlungsfelder hinweg. Dabei können die Ambitionen von den gesellschaftlichen Erwartungen abweichen, wobei sich Unternehmen etwaiger Risiken in Bezug auf die Reputation oder Wirtschaftlichkeit bewusst sein müssen. Auch gibt es keine universelle Lösung und Fairnessambitionen können sich im Zeitverlauf verändern. Sie sind „abhängig vom Produkt, den Nutzern, dem Unternehmen, dem Land […]“ (Interviewpartner 11). Rechtliche Leitlinien beeinflussen ebenfalls die Fairnessambitionen, wobei diese nicht im Ermessen der Unternehmen liegen, sondern entsprechend der Gesetzeslage berücksichtigt werden müssen. Das Handlungsfeld Fairnessambitionen stellt für die vier weiteren nachfolgenden Handlungsfelder eine Orientierungsgrundlage und Ausgangslage dar.

4.3 Handlungsfeld Daten

Daten in verschiedenen Varianten wie Trainingsdaten, Validierungsdaten, Testdaten oder auch Eingabedaten stellen eine essenzielle Basis für Sprachassistenten dar (Dolata et al. 2021). Das Handlungsfeld Daten wird von den vorgelagerten Fairnessambitionen seitens Unternehmen für Sprachassistenten beeinflusst und kann basierend auf den Interviews in die Maßnahmen Datenexploration und Datenmutation unterteilt werden. Ziel der Datenexploration ist es, sowohl die Herkunft der Daten detailliert zu verstehen als auch die Beschaffenheit der Daten. Bezüglich der Datenherkunft sind bekannte und unternehmensinterne Daten gegenüber unbekannten und externen Daten zu bevorzugen. „Der Goldstandard ist es, die Daten vom Unternehmen zu nehmen“ (Interviewpartner 5). Die Beschaffenheit von Daten kann anhand diverser Merkmale untersucht werden. Beispiele diesbezüglich umfassen die Identifizierung von Ausreißern, von Lücken im Datensatz, von sensiblen (Proxy‑)Daten oder auch von initial nicht ersichtlichen Untergruppen.
Bei der Datenmutation geht es darum, basierend auf den Erkenntnissen der Datenexploration, die Daten so zu bearbeiten, dass diese im Einklang mit den vorab definierten Fairnessambitionen stehen. Interviewpartner 9 ordnet dies wie folgt ein: „Es ist sehr wichtig, dass man Ausreißer identifiziert […] es ist dann die Frage, wie fair es ist, wenn man die Ausreißer herausnimmt oder nicht […] es ist immer auch abhängig vom Anwendungsfall.“ Ein Unternehmen könnte beispielhaft seine Fairnessambitionen am Konzept der Equality orientieren und festlegen, dass Personen unabhängig von ihrem Dialekt in der deutschen Sprache verstanden werden sollen. Wenn nun die Datenexploration aufzeigt, dass die Trainingsdaten nur Hochdeutsch als Sprache widerspiegeln, könnte dies dazu führen, dass Dialekte nicht verstanden werden. Repräsentativ wären Daten beispielsweise, „wenn sie die Grundgesamtheit abbilden, die man mit dem Sprachassistenten adressieren möchte“ (Interviewpartner 11). Das Handlungsfeld Daten und die damit einhergehenden Maßnahmen sind eng mit dem Handlungsfeld Algorithmen und den dazugehörigen Maßnahmen verbunden.

4.4 Handlungsfeld Algorithmen

Das Handlungsfeld Algorithmen umfasst drei Maßnahmen zur Erzielung der sozio-technischen Fairness von Sprachassistenten: Modellexploration, Modellmanipulation und Modellüberwachung. Ähnlich wie bei den datenbezogenen Maßnahmen ist es hier vorerst relevant, die Eigenschaften des Modells, sprich das Modellverhalten zu verstehen. Inwiefern dies möglich ist, hängt erheblich mit der verwendeten KI zusammen. Regelbasierte Künstliche Intelligenz ermöglicht beispielsweise mehr Transparenz und einfachere Nachvollziehbarkeit. Für Deep-Learning-Algorithmen ist es komplexer, das Verhalten von Modellen zu verstehen. „Im Deep-Learning-Bereich […] ist die Embeddings-Space-Analyse eine Möglichkeit, um das Modellverhalten zu verstehen“ (Interviewpartner 4). Wichtig ist dabei ebenfalls zu verstehen, worauf Algorithmen sensitiv oder robust reagieren und welche inhärenten Biases gegebenenfalls vorliegen. Nach dem Verständnis des Modells können Manipulationen des Modells in Einklang mit den zuvor definierten Fairnessambitionen vorgenommen werden. Gegebenenfalls ist dabei mit Abstrichen und Kompromissen zu rechnen, welche die Performance beeinflussen. Sollen Nutzer von Sprachassistenten beispielsweise unabhängig von Dialekten gleichbehandelt werden, sodass dies mit den Fairnessambitionen einhergeht, kann dies andererseits zu einer Beeinträchtigung der Genauigkeit führen. Ein weiteres Beispiel der Modellmanipulation stellt die Sicherstellung der Erklärbarkeit von Modellen für Sprachassistenten dar. Gelöst werden kann dies, „indem man sich auf einfache Algorithmen fokussiert, die nachvollziehbar sind“ (Interviewpartner 11). Neben dem Modellverhalten und der Modellmanipulation ist die Modellüberwachung eine entscheidende Maßnahme zur Sicherstellung sozio-technischer Fairness. Im Fokus stehen dabei vor allem die Robustheit von Algorithmen und damit das Ziel, dass „das Modell mit den gleichen Daten auch immer zur gleichen Entscheidung kommt und sich auch über die Zeit nicht verändert“ (Interviewpartner 8). Da Sprache kulturellem und zeitlichem Wandel unterliegt, ist es relevant, dies in Algorithmen und nicht zuletzt auch in den Daten zu berücksichtigen sowie basierend auf der Überwachung auch Anpassungen vorzunehmen. „Die Modellüberwachung, die Modellgüte ist enorm wichtig. Dazu zählt auch das Re-Training und dann das Vergleichen von dem neuen mit dem alten Modell“ (Interviewpartner 12).
Unter Berücksichtigung der Maßnahmen innerhalb der beiden Handlungsfelder Daten und Algorithmen können Unternehmen eine technische Fairness erzielen. Zur Erreichung der sozialen Fairness von Sprachassistenten bedarf es darüber hinaus zusätzlich der Berücksichtigung von zwei weiteren Handlungsfeldern: Schnittstellendesign und Prozessdesign.

4.5 Handlungsfeld Schnittstellendesign

Das Handlungsfeld Schnittstellendesign fokussiert sich auf die Schnittstelle und damit die Interaktion zwischen Sprachassistenten und Nutzern. Es umfasst im Kern zwei Maßnahmen, welche Unternehmen berücksichtigen müssen: Anthropomorphismus und Inklusion. In der Literatur bezeichnet Anthropomorphismus die Übertragung von menschlichen physischen oder nicht physischen Eigenschaften, Verhaltensweisen und Emotionen auf einen nicht menschlichen Assistenten (Epley et al. 2007). In Bezug auf Sprachassistenten beinhaltet dies das Gesprochene und das Verhalten. Unternehmen können dabei Geschlecht, Dialekt, Geschwindigkeit oder Tonalität für eine sozio-technische Fairness adressieren. „Mit der Stimme muss man sich überlegen, ob man weibliche oder männliche Stimmen nutzt“ (Interviewpartner 7). Ebenso müssen die Verhaltensweisen von Sprachassistenten berücksichtig werden. Dies umfasst beispielsweise einen höflichen, respektvollen und rücksichtsvollen Umgang.
Die Inklusion umfasst das Senden, aber auch Empfangen von Informationen und ist wiederum eng mit dem Handlungsfeld Daten verbunden. Bezüglich der Inklusion von Sprachassistenten sollte in Abhängigkeit von den Fairnessambitionen sichergestellt werden, dass alle vorgesehenen Nutzer mit dem Sprachassistenten interagieren können. Je nach Nutzer kann dabei beispielsweise Dialekt, Geschwindigkeit, Aussprache oder auch Eloquenz variieren. Hierbei sind repräsentative Trainingsdaten, wie zuvor im Handlungsfeld Daten erwähnt, relevant. Ebenso ist bei der Ausgabe von Informationen zu berücksichtigen, dass diese auf die Zielgruppe abgestimmt und verständlich sind. „Also wenn du bei Sprachassistenten bist und diese personalisieren möchtest […], dann ist bei dieser Generation aktuell ihre Sprache, ihr gesamtes Vokabular so geprägt von TikTok und YouTube, da brauchst du eine ganz andere Ansprache“ (Interviewpartner 12). Im Rahmen der Inklusion ist ebenfalls zu berücksichtigen, dass im Rahmen der Kanalauswahl sichergestellt wird, dass Nutzer mit Beeinträchtigung nicht benachteiligt werden (Interviewpartner 05).
Das Handlungsfeld Schnittstellendesign ist wiederum eng mit dem Prozessdesign verbunden.

4.6 Handlungsfeld Prozessdesign

Das zweite Handlungsfeld Prozessdesign ist in drei Maßnahmen gegliedert: Nutzerautonomie, Transparenz und alternative Kommunikationswege. Nutzerautonomie umfasst die Kontrolle über die Interaktion mit dem Sprachassistenten sowie über dessen Entscheidungen, auch die Möglichkeit, den Prozess zu beeinflussen, Korrekturen vorzunehmen oder den Umfang an Informationen, die ein Sprachassistent übermittelt, zu steuern. Ähnlich den Maßnahmen für das Schnittstellendesign müssen Unternehmen auch für das Prozessdesign individuell ausfindig machen, wann die soziale Fairness erreicht wird. Dies kann je nach Einsatzzweck von Sprachassistenten und Nutzerpräferenzen unterschiedlich ausfallen, wie von Interviewpartner 7 erwähnt: „Wann ist Autonomie fair? Wenn du zwei, drei Entscheidungsmöglichkeiten hast oder wenn dir der Sprachassistent sagt, was du kaufen sollst.“
Transparenz bezieht sich auf zwei Aspekte: zum einen auf die Transparenz Nutzern gegenüber, dass sich diese in der Interaktion mit einem Sprachassistenten befinden und nicht mit einem Menschen, wie von Interviewpartner 8 bestärkt: „Es ist wichtig, dass man den Nutzer auch darüber informiert, dass dahinter kein Mensch steckt, sondern eine künstliche Intelligenz.“ Zum anderen auf die Transparenz und Nachvollziehbarkeit von Handlungen der Sprachassistenten. Für Nutzer kann es von Relevanz sein, dass diese nachvollziehen können, warum und wie Sprachassistenten handeln und Entscheidungen treffen. Transparenz bringt eine starke Abhängigkeit mit dem Handlungsfeld Algorithmen mit sich. Der mögliche Rahmen von Transparenz gegenüber Nutzern ist von der Transparenz von Algorithmen abhängig.
Neben der Transparenz ist es relevant, alternative Möglichkeiten zur Kommunikation für Nutzer in Betracht zu ziehen, sodass diese nicht einzig dem Sprachassistenten als Kanal ausgesetzt sind und Inklusion über Benutzergruppen mit Einschränkungen hinweg sichergestellt wird. Dies ist vor allem dann von Relevanz, wenn es zu Problemen bezüglich der Kommunikation zwischen den Nutzern und Sprachassistenten kommt, beispielsweise wenn erstere nicht verstanden werden können. „Das System muss wissen, wann es einen Menschen mit einbinden muss“ (Interviewpartner 9).

5 Diskussion und Implikationen

5.1 Diskussion

Während das Framework aufzeigt, welche Handlungsfelder zu adressieren sind, um eine sozio-technische Fairness von Sprachassistenten zu erzielen, bezieht sich zugleich das erste Handlungsfeld auf die Festlegung der Fairnessambitionen seitens Unternehmen in Abhängigkeit von dem Anwendungsfall. Auch wenn sozio-technische Fairness das übergeordnete Ziel darstellt, müssen Unternehmen ihre Fairnessambitionen definieren. Dies weist daraufhin, dass es sich bei Fairness nicht um einen statischen Zustand handelt, sondern diese individuell je Anwendungsfall definiert werden muss und zudem Veränderungen unterworfen ist. Unternehmen müssen in einer ersten Instanz zunächst ihre Fairnessambitionen für Sprachassistenten definieren und dabei potenzielle Erwartungen von Nutzern berücksichtigen. Daraus lässt sich der Schluss ziehen, dass eine starke Involvierung von Menschen in Entscheidungen bezüglich der sozio-technischen Fairness benötigt wird und die Verantwortung nicht auf technische Parameter übertragen werden kann.
Allgemein haben die Experteninterviews gezeigt, dass die Adaption von Maßnahmen zur Erzielung der sozio-technischen Fairness von Sprachassistenten in der Praxis noch sehr gering ist. In der praktischen Adaption beschränkt sich die Anwendung von Fairness zumeist auf die technische Perspektive und damit vor allem die Vermeidung von Diskriminierung. Zwar sind sich Unternehmen zunehmend der Relevanz von Fairness bewusst, jedoch teilweise noch auf grundlegendere Fragen bezüglich der Nutzung von Sprachassistenten fokussiert. Die geringe Adaption in der Praxis kann dadurch erklärt werden, dass Unternehmen vor anderen höher priorisierten Herausforderungen stehen. Hierzu zählt beispielsweise die Identifizierung von Anwendungsfällen für Sprachassistenten. Fairness sollte jedoch keine nachgelagerte Relevanz bei der Entwicklung von Sprachassistenten spielen, sondern frühzeitig mit einbezogen werden (Dolata et al. 2021; Kordzadeh und Ghasemaghaei 2021).
Diverse Maßnahmen können Unternehmen darin unterstützen, die sozio-technische Fairness von Sprachassistenten zu adressieren. Unternehmensinterne Gremien in Form von Fairnesskommissionen können hilfreich sein, um Maßnahmen zur Erzielung der sozio-technischen Fairness zu institutionalisieren. Auch Lösungen, wie das Open-source-Projekt Fairlearn (Fairlearn n.d.), die Fairnessbibliothek AI Fairness 360 von IBM (Bhojwani et al. 2023), Fairnessbibliotheken für beispielsweise Python oder unabhängige Drittparteien wie CertifAI (PwC 2023) können Unternehmen darin unterstützen, sozio-technische faire Sprachassistenten zu entwickeln. Nicht zuletzt kann die Politik einen wesentlichen Beitrag liefern, indem eine „gesellschaftliche Kommission die Leitlinien festsetzt, welche in Unternehmensrichtlinien überführt werden können“ (Interviewpartner 9). Solche Leitlinien sollten mit Blick auf die Zukunftskraft von Sprachassistenten gestaltet werden und nicht der Innovationskraft im Wege stehen.
Das Framework zeigt auf, dass dem Schnittstellen- und Prozessdesign eine nachgelagerte Bedeutung zukommt. Fraglich ist, ob aufgrund von Maßnahmen resultierend aus den Handlungsfeldern Prozessdesign und Schnittstellendesign eine soziale Fairness seitens Nutzer hergestellt werden kann und diese unabhängig von einer technischen Fairness erfolgen könnte. Problematisch ist hierbei, dass für Nutzer von Sprachassistenten die technische Fairness nicht ersichtlich ist. Dies würde zwar keine sozio-technische Fairness erzeugen, könnte jedoch zum Missbrauch der Handlungsfelder Schnittstellen- und Prozessdesign seitens Unternehmen führen.

5.2 Theoretische Implikationen

Dieser Artikel liefert im Ergebnis ein Framework, welches diverse Handlungsfelder und Maßnahmen zur Erreichung einer sozio-technischen Fairness aufzeigt. Im Zuge dessen werden außerdem die Zusammenhänge zwischen den Handlungsfeldern und Fairnessperspektiven herausgestellt. Während sich die gegenwärtige Forschung vermehrt auf KI-basierte Entscheidungssysteme und Chatbots fokussiert (Kordzadeh und Ghasemaghaei 2021), adressiert dieser Artikel explizit die spezifischen Eigenschaften von Sprachassistenten und damit die Herausforderungen und Einschränkungen, die mit Sprache einhergehen.
Während die bestehende Forschung einen umfangreichen Fokus auf die technische Fairnessperspektive legt und die soziale Fairnessperspektive langsam ebenfalls an Aufmerksamkeit gewinnt (Dolata et al. 2021; Kordzadeh und Ghasemaghaei 2021), geht dieser Artikel der Forderung nach einer Betrachtung der gemeinschaftlichen sozio-technischen Fairnessperspektive nach (Dolata et al. 2021). Die Abhängigkeiten zwischen den Handlungsfeldern und Maßnahmen bestätigen, dass eine isolierte Betrachtung der sozialen oder technischen Perspektive unzureichend ist und somit Fairness von Sprachassistenten im gemeinschaftlichen Kontext der sozio-technischen Fairness adressiert werden muss. Auch unterstützt das Framework die Forderungen von Dolata et al. (2021), dass sich Unternehmen differenziert mit ihren Fairnessambitionen abhängig vom Anwendungsfall auseinandersetzen müssen. Neben der konzeptionellen Betrachtung der Zusammenhänge zwischen Fairnessperspektiven und Handlungsfeldern ergänzt der Artikel das Framework um konkrete Maßnahmen als Anregung für Unternehmen. Dadurch erweitern die Ergebnisse die gegenwärtige Forschung, welche sich auf die Konzeptionalisierung der sozio-technischen Fairness fokussiert, um eine Übersicht umfassender Maßnahmen zur Erreichung dieser sozio-technischen Fairness.
Die bestehende Forschung fokussiert sich zumeist auf die empirische Validierung gezielter Maßnahmen und deren Einfluss auf eine der beiden Fairnessperspektiven im Rahmen von Experimenten (Kordzadeh und Ghasemaghaei 2021; Binns 2019; Lee et al. 2019). Dieser Artikel hingegen liefert eine konzeptionell-empirische Betrachtung über die Fairnessperspektiven hinweg, wodurch Maßnahmen übersichtlich aufgeführt werden und als Orientierung für weiterführende empirische Forschung dienen können.

5.3 Praktische Implikationen

Da eine mangelnde sozio-technische Fairness von Sprachassistenten negative Effekte in Bezug auf die Reputation oder Wirtschaftlichkeit von Sprachassistenten haben kann (Dolata et al. 2021), liefert dieser Artikel einen relevanten Beitrag für die Praxis, um die sozio-technische Fairness von Sprachassistenten zu erreichen. Indem sich der Artikel spezifisch auf die sozio-technische Fairness von Sprachassistenten fokussiert, bietet er Personen in der Praxis einen holistischen Überblick über die Komplexität der Fairness von Sprachassistenten. Zugleich bieten die fünf Handlungsfelder und greifbaren Maßnahmen eine strukturierte Übersicht für Unternehmen, um die sozio-technische Fairness von Sprachassistenten herzustellen.
Dabei sind die Handlungsfelder und Maßnahmen in diversen Funktionen verankert. Das Framework kann dabei helfen, auf die vielseitigen internen Verantwortlichkeiten für die Erzielung einer sozio-technischen Fairness von Sprachassistenten aufmerksam zu machen. Vor allem Verantwortliche auf Managementebene, welche in die Strategie, die Gestaltung und die Entwicklung von Sprachassistenten fachübergreifend involviert sind, erhalten somit Transparenz im Hinblick auf die Vielfalt und Abhängigkeiten der Handlungsfelder und damit verbundenen fachlichen Verantwortungsbereiche. Das Framework kann unterstützen, die unterschiedlichen Verantwortlichkeiten zu identifizieren und koordinieren. Die Vielseitigkeit der Maßnahmen und damit verbunden deren unterschiedliche Ansatzpunkte entsprechend den Handlungsfeldern, zeigen auf, dass es für Unternehmen relevant ist, sich frühzeitig zu Beginn der Entwicklung und der Gestaltung von Sprachassistenten mit der Berücksichtigung fairnessrelevanter Handlungsfelder und Maßnahmen zu befassen.
Die Maßnahmen berücksichtigen die Eigenschaften und Herausforderungen in Zusammenhang mit Sprachassistenten in der Kundeninteraktion, wobei jedoch der spezifische Anwendungsfall für Sprachassistenten nicht eingeschränkt ist. Dadurch stellen die Maßnahmen eine Ausgangslage für zahlreiche Anwendungsfälle dar, wodurch Unternehmen diese unter Berücksichtigung der Machbarkeit sowie der internen ökonomischen und reputationstechnischen Ziele individuell je Anwendungsfall abwiegen können.

6 Zusammenfassung, Limitationen und Ausblick

Dieser Artikel liefert einen konzeptionell-empirischen Framework mit Handlungsfeldern zur Umsetzung der sozio-technischen Fairness von Sprachassistenten. Die spezifischen Maßnahmen je Handlungsfeld resultieren aus Experteninterviews und adressieren die spezifischen Eigenschaften von Sprachassistenten. Der Artikel erweitert somit die konzeptionelle Betrachtung der sozio-technischen Fairness von KI um konkrete Maßnahmen für die sozio-technische Fairness von KI-basierten Sprachassistenten. Das Framework sowie die Maßnahmen dienen Unternehmen als Orientierungshilfe, um eine sozio-technische Fairness von ihren Sprachassistenten sicherzustellen. Eine vorrangige Limitation stellt die gesamtheitliche Betrachtung von Sprachassistenten im Allgemeinen dar. Unternehmen müssen daher die Maßnahmen im Zuge der Umsetzung spezifisch je nach Anwendungsfall anpassen. Das Framework mit den Maßnahmen kann als Grundlage für die weiterführende Forschung dienen. Diese könnte sich auf die Anpassung von Maßnahmen auf spezifische Anwendungsfälle von Sprachassistenten sowie die empirische Validierung anhand von Experimenten mit Nutzern fokussieren.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Literatur
Zurück zum Zitat Colquitt JA, Rodell JB (2015) Measuring justice and fairness. In: Cropanzano RS, Ambrose ML (Hrsg) The Oxford handbook of justice in the workplace. Oxford University Press, New York, S 187–202 Colquitt JA, Rodell JB (2015) Measuring justice and fairness. In: Cropanzano RS, Ambrose ML (Hrsg) The Oxford handbook of justice in the workplace. Oxford University Press, New York, S 187–202
Zurück zum Zitat Kuckartz U (2018) Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Beltz Juventa, Weinheim Basel Kuckartz U (2018) Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung. Beltz Juventa, Weinheim Basel
Zurück zum Zitat Larsen HH, Scheel AN, Bogers T, Larsen B (2020) Hands-free but not eyes-free: a usability evaluation of Siri while driving. Conference on Human Information Interaction and Retrieval, 2020 (Virtual)CrossRef Larsen HH, Scheel AN, Bogers T, Larsen B (2020) Hands-free but not eyes-free: a usability evaluation of Siri while driving. Conference on Human Information Interaction and Retrieval, 2020 (Virtual)CrossRef
Zurück zum Zitat Lee MK, Anuraag J, Hae JC, Shashank O, Kusbit D (2019) Procedural justice in algorithmic fairness: leveraging transparency and outcome control for fair algorithmic mediation. Proceedings of the ACM on Human-Computer Interaction, 3 (CSCW), S 1–26 https://doi.org/10.1145/3359284CrossRef Lee MK, Anuraag J, Hae JC, Shashank O, Kusbit D (2019) Procedural justice in algorithmic fairness: leveraging transparency and outcome control for fair algorithmic mediation. Proceedings of the ACM on Human-Computer Interaction, 3 (CSCW), S 1–26 https://​doi.​org/​10.​1145/​3359284CrossRef
Zurück zum Zitat Leventhal GS (1980) What should be done with equity theory? New approaches to the study of fairness in social relationships. In: Gergen KJ, Greenberg MS, Willis RH (Hrsg) Social exchange: advances in theory and research. Plenum Press, New York, S 27–55CrossRef Leventhal GS (1980) What should be done with equity theory? New approaches to the study of fairness in social relationships. In: Gergen KJ, Greenberg MS, Willis RH (Hrsg) Social exchange: advances in theory and research. Plenum Press, New York, S 27–55CrossRef
Zurück zum Zitat Mayring P (2022) Qualitative Inhaltsanalyse. Grundlagen und Techniken. Beltz, Weinheim Basel Mayring P (2022) Qualitative Inhaltsanalyse. Grundlagen und Techniken. Beltz, Weinheim Basel
Metadaten
Titel
Faire KI-basierte Sprachassistenten
Handlungsfelder und Maßnahmen zur Erzielung einer sozio-technischen Fairness von Sprachassistenten
verfasst von
Helena Weith
Publikationsdatum
26.02.2024
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 2/2024
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-024-01047-6

Weitere Artikel der Ausgabe 2/2024

HMD Praxis der Wirtschaftsinformatik 2/2024 Zur Ausgabe

Schwerpunkt

Generative Lyrik

Premium Partner