Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 6/2023

Open Access 11.10.2023 | Schwerpunkt

Hybride Intelligenz: Zusammenarbeit mit KI-Assistenzsystemen in wissensintensiven Bereichen

verfasst von: Sabine Seufert, Christoph Meier

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 6/2023

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Mit KI-Agenten bzw. generativen KI-Systemen wie z. B. ChatGPT/GPT‑4 werden in absehbarer Zeit sehr leistungsfähige Assistenzsysteme breit verfügbar sein. Diese Assistenzsysteme können in verschiedensten Berufsfeldern und für verschiedenste Aufgaben eingesetzt werden. Damit stellen sich Fragen nach (1) den Optionen für die Gestaltung der Zusammenarbeit von Menschen und KI-Agenten, (2) dem Zusammenwirken von menschlicher und künstlicher Intelligenz und (3) den für eine erfolgreiche Zusammenarbeit mit intelligenten Assistenzsystemen erforderlichen Kompetenzen.
Bisherige Modellierungen von KI-Kompetenzen bleiben recht allgemein und sind erkennbar nicht dahingehend spezifiziert, welches Wissen, welche Fertigkeiten und welche Einstellungen es für eine erfolgreiche Interaktion mit generativen KI-Assistenzsystemen wie beispielsweise ChatGPT, Midjourney oder GitHub Copilot braucht.
Hier setzt der vorliegende Beitrag an, der auf einem deduktiv-konzeptionellen Vorgehen sowie auf der Sichtung und Analyse ausgewählter Literatur in den Forschungsfeldern ‚Human-Machine-Collaboration’ und „Hybrid Intelligence“ basiert.
Im Hinblick auf die Zusammenarbeit von Menschen und KI-Agenten können nicht nur unterschiedliche Kooperationstypen und Stufen der Intensität der Zusammenarbeit unterschieden werden. Es können auch verschiedene Rollen für KI-Agenten als Teammitglieder unterschieden werden (z. B. Assistent, Koordinator, Macher, Experte).
Menschen und KI-Agenten bringen in die Zusammenarbeit unterschiedliche Stärken ein und daraus resultiert eine „hybride Intelligenz“. Für die erfolgreiche Zusammenarbeit braucht es aber auch geeignete Rahmenbedingungen bzw. Haltungen und Einstellungen der beteiligten Menschen (z. B. ein „growth mindset“). Damit verbunden sind wichtige Management-Aufgaben, wie etwa das Etablieren von ethischen Leitlinien oder von „Growth Mindset Kulturen“ in Unternehmen und Organisationen.

1 Veränderungen der Lebens- und Arbeitswelt und Kompetenzerfordernisse

Unser Leben und Arbeiten wird zunehmend durch Künstliche Intelligenz (KI) und durch Interaktionen zwischen uns Menschen und „intelligenten“ Assistenzsystemen geprägt. Dies spiegelt sich auch in der Verwendung der Bezeichnung „Industrie 5.0“, mit der u. a. Aspekte wie der Einsatz von (generativer) KI und das produktive Zusammenspiel von Menschen und „intelligenten“ Maschinen verbunden werden (Akundi et al. 2022, S. 3).
Künstliche Intelligenz bezeichnet Systeme, die auf Verfahren maschinellen Lernens, logischer Programmierung oder statistischer Verfahren basieren und ausgehend von der Analyse von Daten Inhalte, Vorhersagen, Empfehlungen, Entscheidungen hervorbringen oder Handlungen ausführen können (Europäische Kommission und Generaldirektion Bildung, Jugend, Sport und Kultur 2022, S. 10). Künstliche Intelligenz kann sich in unterschiedlicher Weise manifestieren, als nicht-physische Software (Agenten, Bots, Chatbots) oder als physische Roboter bzw. Maschinen. Wir sprechen daher im Folgenden von Assistenzsystemen, Agenten, Chatbots oder Robotern, die auf KI basieren. Diese können halb- oder vollautonom Aufgaben ausführen, die traditionell von Menschen erledigt wurden (Dang und Liu 2022). Im Gegensatz zu anderen Maschinen sind Chatbots und Roboter als Träger von KI konzipiert und ähneln in ihren Aktionen, ihrem Aussehen oder ihrer Leistung bzw. ihren Hervorbringungen uns Menschen. Dementsprechend schreiben wir Menschen diesen KI-basierten Agenten häufig menschenähnliche geistige Fähigkeiten oder Verstand zu (Roesler et al. 2021).
Mit der Veröffentlichung von ChatGPT im November 2022 ist KI weltweit ins öffentliche Bewusstsein gelangt. Keine andere bisherige digitale Applikation hat in vergleichbar kurzer Zeit eine so große Anzahl von aktiven Nutzern erreicht (Hu 2023). ChatGPT kann aufgrund der hohen Leistungsfähigkeit, der menschenähnlichen Kommunikation und der Optimierung für Interaktion (Chat) als ein digitaler Coworker oder Cobot bezeichnet werden (Sowa und Przegalinska 2020). Dies führt einerseits zu Befürchtungen, dass diese leistungsfähigen Assistenzsysteme Arbeitsplätze verschwinden lassen werden (Substitution von Arbeitskraft und Arbeitsplätzen). Andererseits wird aber auch argumentiert, dass durch neue Formen der komplementären Zusammenarbeit von Menschen und leistungsfähigen KI-Agenten Synergieeffekte und Produktivitätsgewinne realisiert werden können (Augmentations-Paradigma; Meier et al. 2019).
Im Zuge der fortschreitenden Digitalisierung und insbesondere der Entwicklungen rund um KI-basierte Assistenzsysteme ergeben sich neue Anforderungen an die Kompetenzen von Menschen. Mit dem Rahmenmodell DigComp wurde hierzu in einer ersten Version bereits 2017 ein systematischer Vorschlag zu den erforderlichen digitalen Kompetenzen gemacht (Carretero et al. 2017), der sich als Referenzpunkt etabliert hat. Die aktualisierte Version DigComp 2.2 (Vuorikari et al. 2022) ergänzt dieses Modell um den Kompetenzbereich „AI Literacy“ bzw. KI Literalität: Wissen, Fertigkeiten und Einstellungen für den kompetenten Umgang mit KI-Systemen. Dies ist nicht der erste Vorschlag zur Konzeptualisierung von KI-Kompetenzen bzw. AI Literacy. Vorschläge hierzu haben u. a. Long und Magerko (2020) sowie Ng et al. (2021) publiziert. Diese Modellierungen bleiben allerdings noch recht allgemein und sind erkennbar nicht dahingehend spezifiziert, welches Wissen, welche Fertigkeiten und welche Einstellungen es für eine erfolgreiche Interaktion mit generativen KI-Assistenzsystemen wie beispielsweise ChatGPT, Midjourney oder GitHub Copilot braucht. Beispiele hierfür sind etwa Kompetenzen im Bereich Prompt Design, Prompt Engineering und Model Finetuning: „the capacity to adeptly engage with generative AI becomes crucial, positioning prompt engineering as an emerging form of digital literacy“ (Bozkurt 2023).
An dieser Forschungslücke setzt der vorliegende Beitrag an. Dabei folgen wir einem deduktiv-konzeptionellen Vorgehen, das auf der Sichtung und Analyse ausgewählter Literatur in den Forschungsfeldern „Human-Machine-Collaboration“ und „Hybrid Intelligence“ basiert. In einem ersten Schritt erläutern wir in Kap. 2 den derzeitigen Stand generativer KI mit Blick auf große Sprachmodelle. In Kap. 3 gehen wir näher auf unterschiedliche Formen der Zusammenarbeit mit KI-basierten Assistenzsystemen ein sowie auf zentrale Erkenntnisse bisheriger Forschungsarbeiten in diesem Gebiet. Auf dieser Grundlage gehen wir im Kern des Beitrags (Kap. 4) zwei Fragen nach: zum einen, was unter „Hybrider Intelligenz“ im Kontext der Zusammenarbeit mit KI verstanden werden kann; zum anderen, welche menschlichen Kompetenzen dafür erforderlich sind und in Bildung/Personalentwicklung adressiert werden sollten. Kap. 5 liefert eine Zusammenfassung und stellt die mit diesen Entwicklungen verbundenen Gestaltungsaufgaben heraus.

2 Generative KI und KI-basierte Assistenzsysteme

In der Vergangenheit haben Maschinen vor allem Aufgaben übernommen, die besonders viel Kraft oder Ausdauer erforderten. Beispielsweise das Pflügen von Feldern, das Abpumpen von Sickerwasser in Bergwerken oder das Schmieden von Werkstücken in der Metallverarbeitung. Davon betroffen waren zunächst Beschäftigte im Bereich der Landwirtschaft, Bergbau oder der industriellen Produktion. Seit dem Beginn der industriellen Revolution sind die Maschinen, mit denen wir arbeiten, vielfältiger und leistungsfähiger geworden. Mit der Verbreitung der Personal Computer ab den 1980er-Jahren gibt es auch breit genutzte, leistungsfähige Werkzeuge für Wissensarbeiter:innen, die kognitive Arbeit übernehmen (z. B. die Tabellenkalkulation MS Excel). Mit dem Aufkommen von KI erleben wir diesbezüglich noch einmal einen Entwicklungssprung. KI-Anwendungen sind zunehmend in der Lage, anspruchsvolle Aufgaben zu übernehmen (Davenport und Kirby 2016; Brynjolfson und McAfee 2017).
Mit der Veröffentlichung von DALL‑E 2 und ChatGPT im Jahr 2022 sowie der breiten Nutzung dieser KI-Applikationen ist in der Gesellschaft das Bewusstsein dafür gewachsen, dass „intelligente‘ Assistenzsysteme jetzt auch dort Einzug halten, wo es um wissensintensive (Berufs‑)Arbeit geht. Im Vordergrund der öffentlichen Wahrnehmung stehen dabei die Fähigkeiten dieser Applikationen, ansehnliche Bilder oder brauchbare Texte zu erzeugen.
Diese Entwicklung wird sich noch akzentuieren. So hat Microsoft kürzlich den „Microsoft 365 Copilot“ angekündigt. Diese Lösung verbindet die Microsoft Office Apps (z. B. Word, PowerPoint, Excel), Microsoft Graph (Gateway zu Daten/Dokumenten) und ein großes Sprachmodell wie ChatGPT und ermöglicht damit beeindruckende Assistenzfunktionen (Microsoft 2023). Hinzu kommen Integrationen von generativen KI-Applikationen wie ChatGPT mit anderen Lösungen wie etwa dem auf der Software Mathematica basierender Onlinedienst Wolfram Alpha. Mit dieser Integration wird es beispielsweise möglich, anspruchsvolle mathematische oder statistische Fragestellungen über alltagssprachliche Befehle (Prompts) zu lösen (Wolfram 2023).
Mit generativen KI-Systemen (und deren Zusammenspiel mit anderen Lösungen wie Expertensystemen) werden daher in absehbarer Zeit sehr leistungsfähige Assistenzsysteme breit verfügbar sein, die in verschiedensten Berufsfeldern genutzt werden können. Damit stellt sich zum einen die Frage, wie das Zusammenspiel von Menschen einerseits und KI-basierten Anwendungen auf der anderen Seite im Kontext von beruflichem Arbeitshandeln gestaltet werden kann bzw. soll. Zum anderen stellt sich die Frage, wie die Akteure im Bildungssystem diese Entwicklungen aufgreifen sollen.
Aufgrund ihrer breiten Anwendungsmöglichkeiten ist der Einsatz von großen Sprachmodellen auch im Bereich der Bildung ein großes Thema (Kasneci et al. 2023; Gimpel et al. 2023). Da Menschen individuell unterschiedliche Voraussetzungen in Lernprozesse einbringen (Vorwissen und Fähigkeiten, Präferenzen, Bedürfnisse, etc.), bieten große Sprachmodelle Möglichkeiten für individualisierte Lernumgebungen und personalisierte Lernaktivitäten. Dies gilt für alle Bildungsebenen, von der Primär‑, Sekundär-, und Tertiär-Stufe bis hin zur beruflichen Weiterbildung. Im Rahmen der beruflichen Ausbildung können große Sprachmodelle beispielsweise dazu beitragen, Sprachkenntnisse zu entwickeln, die speziell auf einen bestimmten Arbeitsbereich ausgerichtet sind. Sie können darüber hinaus auch bei der Entwicklung von Fähigkeiten wie Programmierung, Berichterstellung, Projektmanagement, Entscheidungsfindung und Problemlösung unterstützen.
Diese Entwicklungen machen deutlich, wie wichtig es künftig sein wird, mit KI-Systemen kollaborieren zu können. Auf den Stand der Forschung dazu und auf unterschiedliche Ansätze zur Konzeptualisierung von Formen der Zusammenarbeit mit KI-basierten Assistenzsystemen gehen wir im nächsten Abschnitt näher ein.

3 Zusammenarbeit mit intelligenten Assistenzsystemen: Formen und Rollen

In der Vergangenheit wurde für die Arbeitsteilung zwischen Maschinen und Menschen häufig das sogenannte „leftover“-Prinzip angewendet (Wesche und Sonderegger 2019). Gemäss diesem Prinzip übernehmen Menschen nur die Aufgaben und Funktionen, die aus technischen oder wirtschaftlichen Gründen nicht automatisiert wurden bzw. nicht automatisiert werden können (Hancock 2014). Dem gegenüber steht das kompensatorische Prinzip für die Gestaltung von Mensch-Maschinen-Interaktionen. Dieses besagt, dass Funktionen auf der Grundlage der jeweiligen Stärken und Schwächen von Menschen und Computern zugewiesen werden sollten (Wesche und Sonderegger 2019). Insbesondere im kooperativen Zusammenwirken wird aber das große Produktivitätspotenzial von technischen Entwicklungen im Bereich von KI und Robotik gesehen (Brugger und Kimmich 2017).
Im Folgenden betrachten wir dieses kooperative Zusammenwirken von Menschen und intelligenten Assistenzsystemen genauer. Dabei gehen wir zunächst auf unterschiedliche Vorschläge zu Konzeptualisierung dieses Zusammenwirkens ein: Aufgabenkomplexität und Kooperationstypen, Stufenmodelle der Zusammenarbeit und Rollen, die KI-basierte Assistenzsysteme in Mensch-Maschine-Teams übernehmen. Darüber hinaus betrachten wir Aspekte der Akzeptanz von KI in Entscheidungssituationen.

3.1 Aufgabenkomplexität und Kooperationstypen

Ausgehend von Traumer et al. (2017) haben Bittner et al. (2019) eine Taxonomie für die Unterscheidung von Typen der Zusammenarbeit von Menschen und Maschinen vorgeschlagen. Dabei werden zwei Dimensionen unterschieden. Einerseits den Grad der Komplexität von Aufgaben (u. a. basierend auf der Anzahl der interagierenden Akteure, der Qualität der Kommunikation zwischen Akteuren oder der Dauer der Interaktion). Andererseits die Ausprägung der Interaktion im Hinblick darauf, wer mit wem kooperiert (Tab. 1).
Tab. 1
Taxonomie zu Aufgaben und Interaktionsformen im Bereich maschinelles Lernen und Mensch-Maschine Interaktion und Beispiele (eigene Darstellung nach Traumer et al. 2017 und Bittner et al. 2019)
  
Wer arbeitet mit wem zusammen?
  
Maschine-Maschine Kollaboration
Mensch-Maschine Kollaboration
Mensch-Mensch
Kollaboration
Ausprägung der Komplexität von Aufgaben
Gering
Mittel
Chatbots als Unterstützer für Ideenelaboration
Chatbots als Lernassistenten/Tutoren
Hoch
Entwicklung und Einsatz von Systemen für autonomes Fahren
Bittner et al. führen drei Beispiele für Mensch-Maschine Kollaboration an und verorten diese in diesem zweidimensionalen Raum. Sie sehen Assistenzsysteme für autonomes Fahren als ein Beispiel für Mensch-Maschine Kollaboration mit hoher Aufgabenkomplexität. Als Beispiele für Mensch-Maschine Kollaboration bei Aufgaben mittlerer Aufgabenkomplexität sehen sie zum einen sprachbasierte Lernassistenten und zum anderen Chatbots als Unterstützer bei der Ideengenerierung und Ideenelaboration (Bittner et al. 2019, S. 41ff.).

3.2 Stufen der Intensität der Zusammenarbeit

Ein Stufenmodell zur zunehmend engen Zusammenarbeit von Menschen und intelligenten Assistenzsystemen haben Sowa et al. (2021) vorgeschlagen. Sie unterscheiden die in Abb. 1 aufgeführten Stufen.
Ein ähnliches Stufenmodell unterscheidet Grade der Automatisierung und Konsequenzen für die menschliche Rolle in verschiedenen Umgebungen (Parasuraman et al. 2000). Beispiele für unterschiedliche Grade der Automatisierung sind etwa die Stufen (teil-)autonomen Fahrens von Fahrzeugen oder Stufen der Unterstützung von Mediziner:innen bei Diagnostik und Behandlung durch Expertensysteme (Topol 2019). Für den Bildungsbereich hat Molenaar (2022) ein 6‑stufiges Modell der Automatisierung formuliert, dessen Pole durch die Modalitäten „Lehrperson steuert allein“ bzw. „vollständige Automatisierung ohne Kontrolle des Menschen“ markiert werden und zwischen denen verschiedene Zwischenstufen unterschieden werden (z. B. „bedingte Automatisierung“, bei der die KI-basierte Lerntechnologie ein Set an Aktivitäten steuert, wobei die Lehrperson beiläufig beaufsichtigt und jederzeit die Steuerung wieder übernehmen kann).

3.3 Mensch-Maschine-Teams: Rollen von Assistenzsystemen/Robotern

In der Leadership- und Teamforschung hat sich in den letzten Jahren die Sicht darauf, wer als Teammitglied zu sehen ist, verändert. Die meisten bisher vorliegenden Definitionen von Teams gehen von „zwei oder mehr Individuen“ aus. Im Kontext der Entwicklungen im Bereich KI werden neu allerdings auch KI-basierte Assistenzsysteme und Roboter als Teammitglieder gesehen („Technology as a Teammate“, vgl. Larson und DeChurch 2020).
Erkenntnisse über Mensch-Roboter-Teams in Organisationen im Büroumfeld sind immer noch rar (Wolf und Stock-Homburg 2022). In ihrer eigenen Studie haben Wolf und Stock-Homburg (2022) die Akzeptanz von Robotern in arbeitsbezogenen Mensch-Roboter-Teams untersucht. Die Ergebnisse deuten auf vier mögliche Rollen für Assistenzsysteme bzw. Roboter hin:
1.
Teamassistent zur Unterstützung administrativer und koordinativer Arbeiten;
 
2.
Wissensexperte, der Fachwissen in einem bestimmten Bereich bietet;
 
3.
Scrum-Master, der mit dem Team arbeitet und sicherstellt, dass das Team die agilen Werte und Prinzipien umsetzt, z. B. durch Coaching; und schliesslich
 
4.
Teamleiter mit institutionalisierter Autorität über andere Teammitglieder.
 
Auch Siemon (2022) macht einen Vorschlag für 4 mögliche Rollen von KI-basierten Systemen („AI-based teammates“) in Kollaborationsszenarien. Im Unterschied zu Wolf und Stock-Homburg werden KI-basierte Systeme als gleichberechtigte Partner in Kollaborationsszenarien gesehen:
1.
Koordinator: In dieser Rolle leiten und koordinieren KI-basierte Systeme die Arbeit des Teams. Sie sorgen vor allem dafür, dass Aufgaben fristgerecht erledigt werden und Teammitglieder effektiv miteinander kommunizieren.
 
2.
Kreator: In dieser Rolle geht es darum, neue Ideen und Problemlösungen zu entwickeln. KI-basierte Systeme als Kreatoren sind in der Lage, viele mögliche Lösungen für komplexe Probleme zu finden.
 
3.
Perfektionist: In dieser Rolle sind KI-Systeme darauf ausgerichtet, detaillierte Aufgaben auf hohem Niveau zu erledigen.
 
4.
Macher: In dieser Rolle sind KI-Systeme auf die effiziente und effektive Erledigung von Aufgaben ausgerichtet. Das kann auch die Umsetzung der Ideen von Ideengeber:innen beinhalten.
 
Die Ergebnisse dieser Studie legen nahe, dass KI-basierte Teamkollegen nicht unbedingt so viele Fähigkeiten wie möglich haben, sondern vielmehr eine klar definierte und konsequent umgesetzte Rolle einnehmen sollten. Wenn dies gegeben ist, können und werden menschliche Teammitglieder den Wert dieser Systeme für die Zusammenarbeit erkennen und nutzen, so dass das gemeinsame Potenzial von Menschen und KI ausgeschöpft werden kann (Siemon 2022).

4 Hybride Intelligenz als Basis für gelingende Zusammenarbeit

4.1 Hybride Intelligenz: Verbinden der Stärken von Menschen und Maschinen

Das Zusammenwirken von Menschen und intelligenten Assistenzsystemen wird seit einigen Jahren auch als „Hybride Intelligenz“ (HI) bezeichnet (Akata et al. 2020). HI bezeichnet Systeme, die als gemischte Teams arbeiten, in denen Menschen und Maschinen synergetisch, proaktiv und zielgerichtet zusammenarbeiten, um gemeinsam Ziele zu erreichen. Diese Idee der Hybridisierung von menschlicher und maschineller Intelligenz ist nicht neu. Einflussreich war diesbezüglich unter anderem Doug Engelbart mit seinem Konzept von erweiterter Intelligenz („Augmented Intelligence“ 1962).
Dellermann et al. (2019, S. 640) definieren hybride Intelligenz als „die Fähigkeit, komplexe Ziele durch die Kombination von Mensch und KI zu erreichen und dadurch bessere Ergebnisse zu erzielen, als sie jeder für sich hätte erreichen können“. Gerber et al. (2020) sprechen diesbezüglich von „Mensch-Maschine Symbiose“ im Sinne einer zielorientierten Partnerschaft zwischen Menschen und Maschinen.
Dabei werden die Stärken von Menschen vor allem im Bereich der Flexibilität, der Empathie, der Kreativität und des „gesunden Menschenverstands“ gesehen. Die Stärken von Maschinen vor allem im Bereich der Mustererkennung, der Wahrscheinlichkeitsbestimmung, der Geschwindigkeit und der Ausdauer (siehe Tab. 2). Interessant ist bei diesem Vergleich, dass sich mit den aktuellen Entwicklungen von ChatGPT bzw. GPT‑4 Veränderungen in diesen Zuschreibungen ergeben. Lag vor dem Aufkommen der großen generativen Sprachmodelle wie ChatGPT tendenziell die Übernahme von analytischen Aufgaben durch KI im Fokus, so werden nun auch kreative Tätigkeiten als mögliche Aufgaben gesehen (Bubeck et al. 2023, S. 35).
Tab. 2
Übersicht zu Definitionen für „hybride Intelligenz“ und damit verbundenen Stärken von Menschen bzw. Maschinen
Autor/
Autor:innen
Hybride Intelligenz: Definition
Stärken Mensch
Stärken Maschine
Engelbart (1962); ähnlich Minsky (1974)
Erweiterung („Augmenting“) des menschlichen Intellekts
Kritisches, kreatives und abstraktes Denken sowie Problemlösen, Fähigkeit, komplexe Ideen zu kommunizieren, Selbstreflexion und Selbstverbesserung
Gedächtnisleistung, logisches Denken, Verarbeitung und Analyse großer Datenmengen, schneller und genauer als Menschen es allein tun könnten
Kowalski (2011)
ALP-Agentenmodell (action-based Language Perception): KI unterstützt intuitives und v. a. deliberatives Denken
Intuitives Denken und deliberatives Denken (überwacht Qualität von Vorschlägen, korrigiert diese oder verwirft sie sogar)
Rechnerische Logik für Entscheidungen sowie zur Verbesserung der Klarheit und Kohärenz von Kommunikation
Lake et al. (2017)
Menschenähnliche KI: „machines that learn and think like people“
Kausale Modelle aufbauen und nicht nur Muster erkennen; Repräsentationen ohne erneutes Training neu kombinieren; Lernen, um zu lernen, gesunder Menschenverstand
Rechnerische Modelle, logisches Denken, bewusst und idealerweise nach strengen rationalen Regeln der Wahrscheinlichkeitstheorie folgend
Huang et al. (2019)
Verlagerung von Intelligenzen: „AI Does the Thinking, Humans Emphasize Feeling“
Drei Arten von Intelligenz: mechanische -, analytische -, „feeling“ Intelligenz; Bewältigung von empathischen und emotionalen Aspekten von Arbeit
Mechanische und analytische Tätigkeiten
Dellermann et al. (2019)
1) KI integriert in menschlichen Intelligenzprozess, 2) menschliche Intelligenz in KI-Prozess integriert (Training von KI)
Flexibilität und Transfer, Empathie und Kreativität, Annotieren von nur schwer zu strukturierenden Daten, gesunder Menschenverstand
Mustererkennung, Wahrscheinlichkeiten (Vorhersagekraft), Konsistenz, Geschwindigkeit und Effizienz, Analytik
Akata et al. (2020)
Kombination von menschlicher und maschineller Intelligenz, die menschliche Fähigkeiten ergänzt
Expertise von KI-Systemen korrekt einschätzen
Intuition, Kreativität, soziale Kompetenzen, Alltagslogik, ethisches Denken
Muster-Erkennung, maschinelles Lernen, logisches Argumentieren und Optimierungsaufgaben
Gerber et al. (2020)
„Human-Machine-Symbiose“: zielorientierte Partnerschaft zwischen Menschen und Maschinen
Emotionale Intelligenz, soziale Intelligenz, kreative Intelligenz, kritisches Denken, Intuition
Geschwindigkeit, Genauigkeit und Verarbeitungsleistung
Oeste-Reiss et al. (2021)
Verschmelzen von menschlicher und künstlicher Intelligenz, Stärken bündeln, Schwächen kompensieren
Fähigkeit der Anpassung an die Umgebung; Erfahrungswissen; Bewältigung von Nichtroutineaufgaben
Faktenwissen und Bewältigung von Routineaufgaben
Jaiswal et al. (2022)
Synergetische Zusammenführung von menschlichen und maschinellen Kompetenzen
Datenanalyse; digitale, komplexe kognitive, Entscheidungsfindungs- und kontinuierliche Lernfähigkeiten
Routinetätigkeiten ausführen & damit Freiraum für kreative Tätigkeiten der Menschen schaffen
Bubeck et al. (2023)
Menschenähnliche Leistung von KI („Sparks of Artificial General Intelligence, AGI)“
Sehr allgemeine geistige Fähigkeiten; u. a. Fähigkeiten, zu argumentieren, zu planen, Probleme zu lösen, abstrakt zu denken, komplexe Ideen zu verstehen, schnell zu lernen und aus Erfahrungen zu lernen
Anzeichen von AGI in fast allen Bereichen, aber kein vorausschauendes Planen; kein „Echtzeit-Lernen“
allerdings: Instruktion während einer Sitzung
hohe Sprachqualität, aber Daten-Halluzination; kein Logik-Modell, sondern „Paradigma der Vorhersage des nächsten Wortes“
Tab. 2 liefert eine Übersicht, wie in den letzten 60 Jahren hybride Intelligenz im Kontext der Zusammenarbeit von Menschen und Maschinen verstanden wurde und welche Stärken jeweils den Menschen sowie den Maschinen zugeschrieben wurden.

4.2 Akzeptanz für die Zusammenarbeit mit KI

Ein gelingendes Zusammenwirken von Menschen und intelligenten Assistenzsystemen erfordert nicht nur ein synergetisches Zusammenspiel von menschlicher und künstlicher Intelligenz. Daneben spielen auch die Haltungen und Einstellungen der beteiligten Menschen eine wichtige Rolle für das Gelingen der Zusammenarbeit.
Hier haben sich u. a. die impliziten Theorien über die menschliche Psyche als relevante Kontext-Bedingung herausgestellt – insbesondere Haltungen, die als „growth mindset“ bzw. als „fixed mindset“ charakterisiert werden können. So zeigt die Studie von Dang und Liu (2022), dass Menschen mit einem „growth mindset“ in der Tendenz (1) eher die eigene Kompetenzentwicklung in den Vordergrund stellen, (2) im Hinblick auf KI-Systeme eher das Kooperationspotenzial sehen und (3) eher beabsichtigen, mit KI-Agenten zu kooperieren.. Demgegenüber sehen sich Menschen mit einem „fixed mindset“ eher in Konkurrenz mit KI-Robotern und erwarten eher eine Wettbewerbssituation. Diese Unterschiede verweisen auf die Bedeutung von „Growth Mindset Kulturen“ und der von Führungskräften geschaffenen Rahmenbedingungen für eine gelingende Zusammenarbeit von Menschen und KI-Agenten (Dweck und Yeager 2019, S. 487).
Auch Studien zur Akzeptanz von KI-Systemen im Rahmen von Entscheidungsprozessen sind in diesem Zusammenhang relevant. Hierzu gibt es beispielsweise Ergebnisse aus der Management-Forschung. Interessante Studien im Bereich „Human-machine collaboration in managerial decision making“ hat etwa die Forschergruppe um Haesevoets durchgeführt (z. B. Haesevoets et al. 2021). Die Ergebnisse zeigen, dass menschliche Manager Maschinen nicht gänzlich von Managemententscheidungen ausschließen wollen, sondern stattdessen eine Partnerschaft bevorzugen, in der Menschen eine Mehrheitsstimme haben.
Wie die Studien zeigen, steigen die Akzeptanzraten für das Einbinden von KI-Robotern stetig an, bis zu dem Punkt, an dem Menschen bei Managemententscheidungen ein Gewicht von etwa 70 % und Maschinen ein Gewicht von 30 % haben. Danach flacht die Kurve ab, was bedeutet, dass ein höherer Anteil an menschlichem Einfluss die Akzeptanz nicht weiter erhöht.

4.3 Spezifische menschliche Kompetenzen für die gelingende Zusammenarbeit mit intelligenten Maschinen

Die Übersicht in Tab. 2 hat gezeigt, dass hybride Intelligenz vielfach als ein synergetisches Zusammenführen von menschlicher und maschineller Intelligenz bzw. von Stärken von Menschen und Maschinen verstanden wird. Dabei werden Menschen u. a. sehr allgemeine geistige Fähigkeiten und Stärken bei der Anpassung an neue Umgebungen zugeschrieben.
Eine solche neue Umgebung stellt auch die sich verändernde Lebens- und Arbeitswelt dar, in der (1) Smarte Maschinen bzw. intelligente Agenten rasch Verbreitung finden und (2) das synergetische Zusammenwirken mit diesen Agenten hohen Nutzen verspricht. Von daher stellt sich die Frage, welche spezifischen Kompetenzen Menschen dafür einbringen können bzw. entwickeln müssen. Aktuell wird dies insbesondere im Hinblick auf die produktive Nutzung von bzw. Zusammenarbeit mit generativen KI-Systemen wie z. B. ChatGPT/GPT‑4 diskutiert.
Für den kompetenten Umgang mit KI-Agenten wie ChatGPT sind aus unserer Sicht insbesondere die folgenden Aspekte relevant:
1.
Ein allgemeines Verständnis davon, wie KI funktioniert – einschliesslich des Unterschieds zwischen regelbasierten Algorithmen und der Funktionsweise eines Sprachmodells wie ChatGPT.
Das Wissen darüber ist u. a. für die Gestaltung der Benutzereingaben für das System („Prompts“) relevant. Dieses Wissen ist aber auch relevant für die Fähigkeit zur Unterscheidung zwischen systemimmanenten Limitationen (z. B. „Halluzinationen“ bei einer zu kleinen Trainingsdatenbasis) und vorübergehenden Limitationen (z. B. die Trainingsdaten für ChatGPT berücksichtigen derzeit nur Daten bis ca. Mitte 2021).
 
2.
Ein Verständnis für die Unterschiede zwischen menschlichen Kompetenzen und den Fähigkeiten einer KI.
Sprachmodelle wie ChatGPT basieren auf statistischen Wahrscheinlichkeiten und sind nicht dafür optimiert, etwas Einzigartiges oder Neues zu erzeugen. In der Vergangenheit wurde Kreativität als eine spezifisch menschliche Stärke betrachtet, an der sich auch gut eine Abgrenzung gegenüber künstlicher Intelligenz vornehmen lässt. Allerdings hat sich in jüngster Zeit gezeigt, dass die Leistungsfähigkeit von generativer KI wie ChatGPT auch zu einer veränderten Sicht auf Kreativität und Originalität in unserer Gesellschaft führt.
 
3.
Die Fähigkeit, zielorientiert mit KI-basierten Agenten zusammen zu arbeiten (Ko-Kreation) und sie zur Bewältigung von Aufgaben einzusetzen.
Wenn es darum geht, in Kooperation mit KI-Agenten Artefakte unterschiedlicher Genres zu erstellen, ist – zumindest im aktuellen Entwicklungsstand – eine ausgeprägte Expertise im Bereich „Prompting“ erforderlich.
Da Anwendungen wie ChatGPT/GPT‑4 beim Erzeugen der Ausgaben umfangreichen Kontext berücksichtigen können, spielt die überlegte und präzise Gestaltung der Prompts eine wichtige Rolle für die Qualität der erzielten Ergebnisse (Gimpel et al. 2023, S. 29).
Der nachfolgende Vorschlag für die strukturierte Gestaltung von Prompts unterscheidet drei Gestaltungselemente (siehe auch Tab. 3):
  • Anweisung – Was soll die KI tun?
  • Suchraum – Für welche Zielgruppe soll sie etwas erzeugen?
  • Ausgabe-Spezifika – In welcher Machart soll sie etwas erzeugen?
 
4.
Die Fähigkeit zur reflexiven Beobachtung und Steuerung des eigenen Handelns („reflection-in-action“) – insbesondere im Hinblick auf lebenslanges Lernen.
Mit KI-Agenten wie ChatGPT/GPT‑4 erhalten Menschen nicht nur ein Assistenzsystem, sondern sie können auch auf einen jederzeit verfügbaren persönlichen Trainer bzw. Coach zurückgreifen. Mit diesem können sie u. a. auf Wissensentwicklung ausgerichtete Dialoge zu Themen führen, die für sie persönlich relevant sind. Für die erfolgreiche (Weiter‑)Entwicklung eines solchen personalisierten Trainingssystems sind metakognitive Kompetenzen erforderlich. Diese ermöglichen es einer Person, nicht nur ihr eigenes Wissen, ihre eigenen Fähigkeiten und ihr eigenes Verhalten selbstreflexiv zu betrachten, zu bewerten und zu regulieren; sie ermöglichen auch die Reflexion, Bewertung und Regulierung der Zusammenarbeit mit einem persönlichen Assistenzsystem.
 
5.
Zu den für den Umgang mit KI-Agenten relevanten Kompetenzen gehört auch eine Sensibilität für deren ethische Nutzung.
Kim (2022) hat für den Kontext der betrieblichen Personalentwicklung zwei Ansätze identifiziert, um ethische Bedenken in der Mensch-Maschine Zusammenarbeit anzugehen. Erstens sollten Organisationen ethische Leitlinien und geeignete Umgebungen etablieren, um Mitarbeitende in der Zusammenarbeit mit KI-Agenten zu schützen. Zweitens sollte die Personalentwicklung Leitlinien für eine angemessene Nutzung von bzw. einen angemessenen Umgang mit KI-Agenten durch die Beschäftigten etablieren. Vorschläge dazu, welche Aspekte dabei relevant sind, kommen u. a. von der Europäischen Kommission. Diese hat sieben ethische Leitlinien und dazugehörige Leitfragen formuliert (Europäische Kommission und Generaldirektion Bildung, Jugend, Sport und Kultur 2022). Dazu gehören beispielsweise der Vorrang menschlichen Handelns und menschlicher Aufsicht, Transparenz oder Rechenschaftspflicht.
 
Tab. 3
Zentrale Gestaltungselemente für Prompts für ChatGPT/GPT‑4 (Quelle: Handschuh 2023)
Vortrainierte Anweisungen auslösen
Mit Verben beginnen
z. B. zusammenfassen/umformen/erzeugen/schreiben/ …
Ggf. Eingabedaten eingeben
z. B. Text, der zusammengefasst werden soll
Suchraum des Wahrscheinlichkeitsmodells einschränken
Kontext angeben
z. B. Online Kurs für Trainer:innen
Rolle definieren
z. B. aus Perspektive eines Juristen
Modell dazu bringen, Ausgabe/Muster weiterzuführen
Ausgabe-Indikator ergänzen
z. B. im Stile eines Coaches/Rappers/Dichters/ …

5 Zusammenfassung und Ausblick

Mit KI-Agenten bzw. generativen KI-Systemen wie z. B. ChatGPT/GPT‑4 werden in absehbarer Zeit sehr leistungsfähige Assistenzsysteme breit verfügbar sein. Diese Assistenzsysteme können in verschiedensten Berufsfeldern und für verschiedenste Aufgaben eingesetzt werden. Damit stellen sich Fragen nach (1) den Optionen für die Gestaltung der Zusammenarbeit von Menschen und KI-Agenten, (2) dem Zusammenwirken von menschlicher und künstlicher Intelligenz und (3) den für eine erfolgreiche Zusammenarbeit mit intelligenten Assistenzsystemen erforderlichen Kompetenzen.
Im Hinblick auf die Zusammenarbeit von Menschen und KI-Agenten können nicht nur unterschiedliche Kooperationstypen und Stufen der Intensität der Zusammenarbeit unterschieden werden. Es können auch verschiedene Rollen für KI-Agenten als Teammitglieder unterschieden werden (z. B. Assistent, Koordinator, Macher, Experte).
Menschen und KI-Agenten bringen in die Zusammenarbeit unterschiedliche Stärken ein und daraus resultiert eine „hybride Intelligenz“. Für die erfolgreiche Zusammenarbeit von Menschen und intelligenten Assistenzsystemen braucht es aber mehr als das Zusammenwirken unterschiedlicher Intelligenzen. Hier spielen kulturelle Rahmenbedingungen bzw. Haltungen und Einstellungen der beteiligten Menschen eine wichtige Rolle. Gehen Menschen eher mit einem „growth mindset“ in die Zusammenarbeit und sehen sie eher die damit verbundenen Entwicklungschancen? Oder gehen sie eher mit einem „fixed mindset“ in diese Zusammenarbeit und sehen sie eher eine Konkurrenzsituation?
Schliesslich spielen spezifische menschliche Kompetenzen eine wichtige Rolle für das Gelingen der Zusammenarbeit von Menschen und KI-Agenten. Zu diesen Kompetenzen gehören insbesondere die folgenden: (1) ein allgemeines Verständnis dazu, wie KI funktioniert und wo die Unterschiede zwischen menschlichen Kompetenzen und den Fähigkeiten von KI-Agenten liegen; (2) Kompetenzen im Hinblick auf die Gestaltung von Prompts für generative KI-Assistenzsysteme; (3) die Fähigkeit zur reflexiven Beobachtung und Steuerung des eigenen Handelns im Mensch-Maschine Tandem; (4) die Fähigkeit zur reflexiven Beobachtung und Steuerung der Zusammenarbeit im Mensch-Maschine Tandem; (5) Sensibilität für die ethischen Herausforderungen der Mensch-Maschine Kooperation.
Insgesamt verweisen die in diesem Beitrag behandelten Aspekte der Zusammenarbeit von Menschen und KI-Agenten auf die Bedeutung sowohl von Rahmenbedingungen als auch Gestaltungsaufgaben für eine gewollte, gelingende, und produktive Zusammenarbeit von Menschen und intelligenten Assistenzsystemen. Damit verbunden sind wichtige Management-Aufgaben, wie etwa das Etablieren von ethischen Leitlinien oder von „Growth Mindset Kulturen“ in Unternehmen und Organisationen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Literatur
Zurück zum Zitat Akata Z, Balliet D, de Rijke M, Dignum F, Dignum V, Eiben G, Fokkens A, Grossi D, Hindriks K, Hoos H, Hung H, Jonker CM, Monz C, Neerincx M, Oliehoek F, Prakken H, Schlobach S, van der Gaag L, van Harmelen F, van Hoof H, van Riemsdijk B, van Wynsberghe A, Verbrugge R, Verheij B, Vossen P, Welling M (2020) A research agenda for hybrid intelligence: augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer 53:18–28. https://doi.org/10.1109/MC.2020.2996587CrossRef Akata Z, Balliet D, de Rijke M, Dignum F, Dignum V, Eiben G, Fokkens A, Grossi D, Hindriks K, Hoos H, Hung H, Jonker CM, Monz C, Neerincx M, Oliehoek F, Prakken H, Schlobach S, van der Gaag L, van Harmelen F, van Hoof H, van Riemsdijk B, van Wynsberghe A, Verbrugge R, Verheij B, Vossen P, Welling M (2020) A research agenda for hybrid intelligence: augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer 53:18–28. https://​doi.​org/​10.​1109/​MC.​2020.​2996587CrossRef
Zurück zum Zitat Brugger S, Kimmich M (2017) Onboarding des Kollegen Roboter. Changement 3:31–34 Brugger S, Kimmich M (2017) Onboarding des Kollegen Roboter. Changement 3:31–34
Zurück zum Zitat Brynjolfson E, McAfee A (2017) Von Managern und Maschinen. Harv Bus Manag 11:23–34 Brynjolfson E, McAfee A (2017) Von Managern und Maschinen. Harv Bus Manag 11:23–34
Zurück zum Zitat Bubeck S, Chandrasekaran V, Eldan R, Gehrke JA, Horvitz E, Kamar E, Lee P, Lee YT, Li Y‑F, Lundberg SM, Nori H, Palangi H, Ribeiro MT, Zhang Y (2023) Sparks of artificial general intelligence: early experiments with GPT‑4. ArXiv abs, Bd. 2303.12712 Bubeck S, Chandrasekaran V, Eldan R, Gehrke JA, Horvitz E, Kamar E, Lee P, Lee YT, Li Y‑F, Lundberg SM, Nori H, Palangi H, Ribeiro MT, Zhang Y (2023) Sparks of artificial general intelligence: early experiments with GPT‑4. ArXiv abs, Bd. 2303.12712
Zurück zum Zitat Davenport TH, Kirby J (2016) Only humans need apply; winners and losers in the age of smart machines. Harper Business, New York Davenport TH, Kirby J (2016) Only humans need apply; winners and losers in the age of smart machines. Harper Business, New York
Zurück zum Zitat Europäische Kommission, Generaldirektion Bildung, Jugend, Sport und Kultur (2022) Ethische Leitlinien für Lehrkräfte über die Nutzung von KI und Daten für Lehr- und Lernzwecke. Amt für Veröffentlichungen der Europäischen Union, Luxemburg Europäische Kommission, Generaldirektion Bildung, Jugend, Sport und Kultur (2022) Ethische Leitlinien für Lehrkräfte über die Nutzung von KI und Daten für Lehr- und Lernzwecke. Amt für Veröffentlichungen der Europäischen Union, Luxemburg
Zurück zum Zitat Gerber A, Derckx P, Döppner DA, Schoder D (2020) Conceptualization of the human-machine symbiosis; a literature reviewCrossRef Gerber A, Derckx P, Döppner DA, Schoder D (2020) Conceptualization of the human-machine symbiosis; a literature reviewCrossRef
Zurück zum Zitat Handschuh S (2023) Die Sprache der KI. Vortrag im Rahmen des scil Weiterbildungsmoduls „KI für Bildungsverantwortliche“ am 10.03.2023, St. Gallen Handschuh S (2023) Die Sprache der KI. Vortrag im Rahmen des scil Weiterbildungsmoduls „KI für Bildungsverantwortliche“ am 10.03.2023, St. Gallen
Zurück zum Zitat Kasneci E, Seßler K, Küchemann S, Bannert M, Dementieva D, Fischer F, Gasser U, Groh G, Günnemann S, Hüllermeier E, Krusche S, Kutyniok G, Michaeli T, Nerdel C, Pfeffer J, Poquet O, Sailer M, Schmidt A, Seidel T, Stadler M, Weller J, Kuhn J, Kasneci G (2023) ChatGPT for good? On opportunities and challenges of large language models for education. Learn Individ Differ 103(2023):102274. https://doi.org/10.1016/j.lindif.2023.102274 Kasneci E, Seßler K, Küchemann S, Bannert M, Dementieva D, Fischer F, Gasser U, Groh G, Günnemann S, Hüllermeier E, Krusche S, Kutyniok G, Michaeli T, Nerdel C, Pfeffer J, Poquet O, Sailer M, Schmidt A, Seidel T, Stadler M, Weller J, Kuhn J, Kasneci G (2023) ChatGPT for good? On opportunities and challenges of large language models for education. Learn Individ Differ 103(2023):102274. https://​doi.​org/​10.​1016/​j.​lindif.​2023.​102274
Zurück zum Zitat Kim S (2022) Working with robots; human resource development considerations in human-robot interaction. Hum Resour Manage Rev 21:48–74 Kim S (2022) Working with robots; human resource development considerations in human-robot interaction. Hum Resour Manage Rev 21:48–74
Zurück zum Zitat Kowalski R (2011) Computational logic and human thinking: how to be artificially intelligent. Cambridge University Press, CambridgeCrossRefMATH Kowalski R (2011) Computational logic and human thinking: how to be artificially intelligent. Cambridge University Press, CambridgeCrossRefMATH
Zurück zum Zitat Long D, Magerko B (2020) What is AI literacy? Competencies and design considerations. In: Bernhaupt R, Mueller F’, Verweij D, Andres J, McGrenere J, Cockburn A, Avellino I, Goguey A, Bjørn P, Zhao S, Samson BP, Kocielnik R (Hrsg) Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. Association for Computing Machinery, S 1–16 Long D, Magerko B (2020) What is AI literacy? Competencies and design considerations. In: Bernhaupt R, Mueller F’, Verweij D, Andres J, McGrenere J, Cockburn A, Avellino I, Goguey A, Bjørn P, Zhao S, Samson BP, Kocielnik R (Hrsg) Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. Association for Computing Machinery, S 1–16
Zurück zum Zitat Meier C, Seufert S, Guggemos J (2019) Arbeitswelt 4.0 und Smart Machines; Augmentation als Herausforderung für die Personalentwicklung. In: Hofmann J, Günther J (Hrsg) Arbeiten 4.0. Springer, Wiesbaden, S 823–839 Meier C, Seufert S, Guggemos J (2019) Arbeitswelt 4.0 und Smart Machines; Augmentation als Herausforderung für die Personalentwicklung. In: Hofmann J, Günther J (Hrsg) Arbeiten 4.0. Springer, Wiesbaden, S 823–839
Zurück zum Zitat Parasuraman R, Sheridan TB, Wickens CD (2000) A model for types and levels of human interaction with automation. IEEE Trans Syst Man Cybern A Syst Hum 30:286–297CrossRef Parasuraman R, Sheridan TB, Wickens CD (2000) A model for types and levels of human interaction with automation. IEEE Trans Syst Man Cybern A Syst Hum 30:286–297CrossRef
Zurück zum Zitat Sowa K, Przegalinska A (2020) Digital coworker: human-AI collaboration in work environment, on the example of virtual assistants for management professions. In: Przegalinska A, Grippa F, Gloor PA (Hrsg) Digital transformation of collaboration. Springer, Cham, S 179–201CrossRef Sowa K, Przegalinska A (2020) Digital coworker: human-AI collaboration in work environment, on the example of virtual assistants for management professions. In: Przegalinska A, Grippa F, Gloor PA (Hrsg) Digital transformation of collaboration. Springer, Cham, S 179–201CrossRef
Metadaten
Titel
Hybride Intelligenz: Zusammenarbeit mit KI-Assistenzsystemen in wissensintensiven Bereichen
verfasst von
Sabine Seufert
Christoph Meier
Publikationsdatum
11.10.2023
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 6/2023
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-023-01012-9

Weitere Artikel der Ausgabe 6/2023

HMD Praxis der Wirtschaftsinformatik 6/2023 Zur Ausgabe

Premium Partner