2.1 Wissensmanagement
In der Wissenschaft wird der Term
Wissen häufig im Zusammenhang der Hierarchie aus Daten, Informationen und Wissen verstanden. Daten werden dabei als Ansammlungen von Zeichen beschrieben. Sobald diesen Daten eine Semantik zugeordnet wird, werden sie als Informationen bezeichnet (Ackoff
1989; Rowley
2007). Wissen setzt Informationen in Beziehung zu Erfahrungen und einem relevanten Kontext. In diesem Beitrag wird Wissen daher verstanden als „dynamische Mischung aus Erfahrungen, Werten, kontextbezogenen Informationen und Fachkenntnissen, die einen Rahmen für die Bewertung und Einbeziehung neuer Erfahrungen und Informationen bietet“ (Davenport und Prusak
2000, S. 5, aus dem Englischen übersetzt). Gerade in komplexen Domänen wie kritischer Infrastruktur ist die Analyse von Informationen wichtig, um Entscheidungen treffen zu können (Klashner und Sabet
2007) Bei der Klassifizierung ist besonders zwischen explizitem und implizitem Wissen zu unterscheiden. Explizites Wissen kann dabei formalisiert und wiedergegeben werden, während das implizite (bzw. tazite) Wissen nicht formalisierbar und daher auch nicht leicht in digitaler Form zu speichern ist (Mertens et al.
2005). Beispiele für explizites Wissen sind Bücher und Veröffentlichungen, während komplexe Abläufe, bspw. Wartungshandlungen, in die Kategorie des impliziten Wissens fallen.
Informationssysteme, die das Sammeln, Organisieren, Teilen und Analysieren von Informationen mit dem Ziel des Aufbaus, der Verwaltung und der Nutzung von Wissen unterstützen, werden Wissensmanagementsysteme genannt (Chouikha Zouari und Dhaou Dakhli
2018). Instanziierungen von Wissensmanagementsystemen fallen unter verschiedene Kategorien, bspw. Datenbanken, Wissens-Repositorys, Soziale Medien und Web 2.0-Technologien, Videokonferenzsysteme, Expertensysteme und Entscheidungsunterstützungssysteme (Chouikha Zouari und Dhaou Dakhli
2018). Mit den verschiedenen Tools unterstützen Unternehmen vor allem die Prozesse der (1) Wissensgenerierung, (2) Wissensspeicherung, (3) Wissensverteilung und (4) Wissensanwendung (Alavi und Leidner
2001). Hierbei werden besonders Ansätze zur Wissensspeicherung bereits durch Verteilnetzbetreiber adressiert, wobei die Wissensverteilung meist noch informell passiert (Spanellis et al.
2021). Edwards (
2008) hebt hervor, dass gerade bei Entscheidungen, die kritische Infrastruktur des Elektrizitätsnetzes betreffend, ein Wissensmanagement wichtig ist, jedoch ein Informationsüberfluss negative Auswirkungen auf Entscheidungen haben kann. Generative AI kann helfen einem Informationsüberfluss durch die didaktische Aufbereitung von Informationen entgegenzuwirken.
2.2 Large Language Models als Basis textbasierter Assistenzsysteme
Generative AI, als spezieller Teilbereich der AI, beschreibt computerbasierte AI-Technologien, die auf Basis von Trainingsdaten und daraus erlernten Inhalten und Strukturen neue und aussagekräftige Inhalte generieren können (Feuerriegel et al.
2024; Banh und Strobel
2023). Diese meist auf verschiedenen Varianten Neuronaler Netze basierenden Technologien haben das Potenzial die Arbeitswelt und Kommunikation in Organisationen dauerhaft zu verändern (Feuerriegel et al.
2024), während sie als Disruptor für die digitale Landschaft agieren (Banh und Strobel
2023). Technologien wie DALL-E 3 (Betker et al.
2023) oder VideoPoet (Kondratyuk et al.
2023) können Bilder und Videos basierend auf Textanweisungen, sogenannten Prompts, generieren, wohingegen textbasierte Assistenten wie ChatGPT (OpenAI
2022) oder Gemini (Pichai und Hassabis
2023) Texte generieren, die von menschengeschriebenem Text inhaltlich und syntaktisch kaum zu unterscheiden sind (Teubner et al.
2023).
Besonders textbasierte Assistenten basierend auf großen Sprachmodellen, auch Large Language Models (LLMs) genannt, haben das Potenzial verschiedenste Geschäftsprozesse und betriebliche Aufgaben durch Wissen zu vereinfachen (Feuerriegel et al.
2024). So können LLMs bspw. medizinisches Wissen erlernen und anwenden (Singhal et al.
2023) oder Programmcode in verschiedenen Programmiersprachen generieren und korrigieren (Chen et al.
2021). Die Basis von LLMs bildet die sogenannte Transformer-Architektur, welche es erlaubt das Training der Modelle hocheffizient zu parallelisieren (Vaswani et al.
2017). LLMs bestehen aus teils mehreren Milliarden Parametern und werden mithilfe von enormen Datenmengen trainiert. Ziel des Trainings ist es, dass ein LLM das nächste Teilwort
\(t_{n+1}\), auch Token genannt, basierend auf der aus den Trainingsdaten erlernten Wahrscheinlichkeitsverteilung
\(P\left(t_{n+1}|t_{1}\ldots t_{n}\right)\), vorhersagen kann, wobei
\(t_{1}\ldots t_{n}\) für die Prompt steht (Shanahan et al.
2023). Solche vortrainierten LLMs werden häufig als
Foundation Models bezeichnet und können mithilfe von verschiedenen Prompting-Ansätzen oder weiterführenden Trainingsmethoden, wie beispielswiese Fine-tuning, auf (domänen‑)spezifische Aufgaben angepasst werden (Bommasani et al.
2021). Hierbei können multimodale, also bild- und textbasierte Foundation Models beispielsweise zur Erkennung defekter Isolatoren im Stromnetz genutzt werden (Dong et al.
2024).
Obwohl LLMs durch die großen Datenmengen, mit denen sie trainiert werden, viele Informationen in ihren Parametern speichern und diese durch geeignete Prompts wiedergeben oder neu zusammensetzen können, ergeben sich auch Nachteile aus großen Mengen von Trainingsdaten. Die Daten, hauptsächlich aus dem Internet entnommen, enthalten teilweise explizit oder implizit rassistische und sexistische Tendenzen sowie andere unsichere Inhalte (Bommasani et al.
2021). Weiterhin können LLMs vertrauenswürdig wirkende Inhalte generieren, die jedoch faktisch inkorrekt und sinnfrei sind (Alkaissi und McFarlane
2023; Mittal et al.
2024). Solche „Halluzinationen“ können besonders in Anwendungsfällen innerhalb kritischer Infrastruktur zu Ausfällen im Netz führen, wenn beispielsweise Fehler in Isolatoren nicht erkannt werden (Dong et al.
2024).
Halluzinationen als inkorrekte Ausgaben von LLMs stellen eines der Probleme des
LLM Alignment dar (Lin et al.
2022). Das LLM Alignment beschreibt die Anpassung von LLMs und LLM-basierten Systemen an die Aufgabe bei gleichzeitiger Einhaltung von menschlichen, organisationalen und sozialen Werten (Kenton et al.
2021; Bai et al.
2022). Diese sehr weit gefasste Beschreibung kann anhand der Definition von Askell et al. (
2021) weiter ausdifferenziert werden, nach welcher ein entsprechend angepasstes LLM sich zu
Hilfsbereitschaft (engl. „Helpfulness“),
Ehrlichkeit (engl. „Honesty“) und
Harmlosigkeit (engl. „Harmlessness“) (HHH) verpflichtet (Askell et al.
2021). Während sich Hilfsbereitschaft darauf bezieht, dass ein LLM die von Menschen gestellten Aufgaben adäquat lösen soll, bezieht sich Ehrlichkeit darauf, dass ein LLM genaue, korrekte Informationen und ebenso den Grad des Vertrauens in die gegebene Antwort liefert. Harmlosigkeit ist erfüllt, wenn ein LLM nicht beleidigend, diskriminierend oder mit Vorurteilen antwortet und gefährliches Verhalten ablehnt.
Ein Trainingsansatz zur Verbesserung des LLM Alignment ist das
Reinforcement Learning from Human Feedback (
RLHF), welches die HHH-Werte deutlich verbessert (Wang et al.
2023; Ouyang et al.
2022). Das RLHF wird in drei Schritten durchgeführt. Im ersten Schritt werden hochqualitative Fragen und Instruktionen sowie deren Antworten und Lösungen, auch als Samples bezeichnet, durch menschliche Demonstrationen generiert und ein vortrainiertes LLM wird mithilfe dieser Daten weiter trainiert. Dieser Schritt wird als
Supervised Fine-tuning (
SFT) bezeichnet (Ouyang et al.
2022). Anschließend werden für ausgewählte Prompts mehrere Samples generiert. Diese Samples werden anschließend durch Menschen nach ihrer Qualität geordnet und mittels dieser Ordnung wird ein zweites LLM, das
Reward Model trainiert, welches die Antworten des SFT-LLM bewerten kann (Christiano et al.
2017). Für den dritten Schritt werden die Bewertungen der Samples durch das Reward Model genutzt, um das SFT-LLM mittels Reinforcement Learning weiter auf die menschlichen Präferenzen anzupassen (Schulman et al.
2017; Ouyang et al.
2022). Obwohl dieser Trainingsansatz eine deutliche Verbesserung der HHH-Werte erreicht, sind weitere Schritte notwendig, um vor allem die Ehrlichkeit eines LLM zu verbessern (Bai et al.
2022; OpenAI
2023).
Ein vielversprechender Ansatz zur Verbesserung der Ehrlichkeit von LLMs ist das Abrufen inhaltlich passender Dokumente, auch
Retrieval genannt (Li et al.
2023). Hierbei werden Antworten eines LLM in zwei Schritten generiert. Im ersten Schritt werden passende Dokumente mithilfe eines
Retrievers auf Basis ihrer Ähnlichkeit zur Prompt aus einer Sammlung von Dokumenten abgerufen und anschließend generiert ein LLM als
Generator auf Basis dieser Dokumente eine Antwort (Gao et al.
2023; Bohnet et al.
2022). Hierbei können Informationen aus allgemeinen Wissensdatenbanken wie Wikipedia (Wu et al.
2023) oder aus domänenspezifischen Dokumentensammlungen (Huang et al.
2024; Lozano et al.
2024) und organisationsspezifischen Wissensmanagementsystemen (Wagner
2004) abgerufen werden. Retrieval in Kombination mit anderen Alignment Strategien steigert die Performance in Anwendungsfällen des Energiesektors deutlich (Dong et al.
2024).