Skip to main content

Open Access 14.05.2024 | Schwerpunkt

Wissensmanagement für Wartung und Instandhaltung im Verteilnetz – Konzeption eines Assistenzsystems basierend auf einem Large Language Model

verfasst von: Philipp zur Heiden, Sascha Kaltenpoth

Erschienen in: HMD Praxis der Wirtschaftsinformatik

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Verteilnetzbetreiber in Deutschland stehen vor großen Herausforderungen bei dem Management ihres unternehmensspezifischen Wissens: Mitarbeiterengpässe durch den demographischen Wandel, Wissen ist nur implizit vorhanden und nicht in Wissensmanagementsystemen digitalisiert, teilweise gibt es gar keine Wissensmanagementsysteme oder Konzepte und das Verteilnetz wird immer komplexer. Verbunden mit zunehmender Belastung von zentralen Komponenten im Verteilnetz durch die Energiewende bedarf es neuer Lösungen, besonders für die wissensintensiven Wartungs- und Instandhaltungsprozesse. Generative Artificial Intelligence als aufstrebende Technologie, insb. durch Large Language Models, zeigt hier erste Erfolge für die Anleitung, Entscheidungsunterstützung und den Wissenstransfer. Aufbauend auf dem Design Science Research Forschungsparadigma wird in diesem Beitrag ein ganzheitlicher Ansatz des Wissensmanagements konzipiert, welcher als zentrale Komponente auf einem Assistenzsystem basiert. Ein Large Language Model generiert Hilfestellungen für Netzmonteure während der Wartung und Instandhaltung auf Basis von Anleitungen. Neben der Konzeption zeigt dieser Beitrag auch die erarbeitete Strategie zur Demonstration und zukünftigen Evaluation der Ergebnisse. Der Beitrag liefert ein für Verteilnetzbetreiber neuartiges Konzept Large Language Model basierter Assistenzsysteme zum Wissensmanagement und zeigt zudem nachgelagerte Schritte auf, die vor einer Markteinführung notwendig sind.
Hinweise

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Der Klimawandel ist eine der größten Herausforderungen, die auf die Wirtschaft und Gesellschaft in den nächsten Jahren zukommt (Pörtner et al. 2022). Der sinnvollste Lösungsweg ist ein Umstieg von klimaschädlichen Energiequellen hin zu einer nachhaltigen Energieversorgung auf lokaler und globaler Ebene. In Deutschland wird dieses Vorhaben durch die sogenannte Energiewende vorangetrieben (Buhl und Weinhold 2012). Weltweit, aber vor allem in Deutschland steigt daher die Nachfrage und die Nutzung von nachhaltigen Energiequellen, besonders Windkraft und Photovoltaik. Dadurch muss sich das Energienetz (insb. in der Mittelspannung) von einem unidirektionalen zu einem bidirektionalen Netz entwickeln (Smith et al. 2022), da Energie nicht mehr nur in Höchstspannung produziert und dann an Abnehmer verteilt wird, sondern dezentral im gesamten Netz und auf verschiedenen Spannungsebenen produziert und verteilt werden kann. Kombiniert mit zu erwartenden Lastschwankungen aus nicht durchgängig produzierter Energie aus Photovoltaik und Windkraft (Biener et al. 2016) werden so zentrale Komponenten des Verteilnetzes stärker belastet und beansprucht. Zwischenspeicher, die überschüssige Energie im Verteilnetz speichern und zu späteren Zeitpunkten bereitstellen können, sind zwar förderlich für die Reduktion der Lastspitzen (Tan et al. 2021), führen aber auch nur zu einer stärkeren Belastung der zentralen Komponenten aufgrund der weiteren Elektrifizierung, bspw. durch die Elektromobilität. Beispiele für derartige Komponenten sind Schaltanlagen und Transformatoren. Die systematischen Veränderungen, die bereits aktuell von Verteilnetzbetreibern wahrnehmbar sind, sorgen dafür, dass diese zentralen Komponenten, die teilweise bis zu 40 Jahre im Verteilnetz genutzt werden, anfälliger werden für Fehler und somit die Wartung und Instandhaltung intensiviert werden muss (Hoffmann et al. 2020).
Ein weiteres gravierendes Problem für Verteilnetzbetreiber ist der demographische Wandel. Aktuell ist die Belegschaft vieler Verteilnetzbetreiber bereits überaltert, mit Aussichten, dass „bis 2030 über die Hälfte der Netzmonteure in den Ruhestand geschickt werden müssen“ (Zitat aus einem Workshop, siehe Kap. 4). Im Zusammenhang damit steht auch der im Energiesektor vergleichsweise große Mangel an Fachkräften (Kuokkanen 2023; European Commission 2024; BDEW 2024) sowie vergleichsweise hohe Einarbeitungszyklen bei Verteilnetzbetreibern von bis zu drei Jahren. All diese Faktoren verschlimmern ein ohnehin vorhandenes Problem: Die große Mehrheit an Wissen für die Wartung und Instandhaltung eines Verteilnetzbetreibers ist nicht externalisiert oder gar digitalisiert, sondern steckt meist als tazites Wissen (Joia und Lemos 2010; Edwards 2008; Spanellis et al. 2021) in den Köpfen der Mitarbeiter1. Durch Ausscheiden der Mitarbeiter stellt dieser Wissensverlust ein drastisches Risiko für die Wartung und Instandhaltung, also ultimativ auch für die Versorgungssicherheit, dar. Es bedarf intelligente Abläufe und Systeme, die in Wartung und Instandhaltung sinnvolle Unterstützung bieten können (Raihan 2023, zur Heiden et al. 2024).
Eine aufstrebende Technologie, die sich besonders mit der Verarbeitung von Wissen befasst, ist die Künstliche bzw. Artifizielle Intelligenz (AI). AI umfasst alle computerbasierten Methoden, die Aufgaben lösen können, für die normalerweise menschliche Intelligenz benötigt werden würde (Banh und Strobel 2023). Dies beinhaltet Ansätze des Machine Learning basierend auf Algorithmen wie Entscheidungsbäumen, Ansätze des Deep Learning basierend auf Neuronalen Netzen und ebenso Ansätze der Generative AI. Hierbei fasst der Begriff Generative AI computerbasierte AI-Technologien zusammen, die in der Lage sind, aus Trainingsdaten neue und aussagekräftige Inhalte wie Text, Bilder oder Audio zu erzeugen (Feuerriegel et al. 2024). Vor allem die öffentliche Nutzbarmachung von textbasierten Assistenzsystemen wie ChatGPT (OpenAI 2022), deren Basistechnologie Large Language Models (LLMs) als besondere Form der Generative AI sind, kann die Entscheidungsunterstützung wie auch der Wissenstransfer und die didaktische Aufbereitung von Inhalten erleichtern (Maedche et al. 2019).
In diesem Beitrag wird das Ziel verfolgt, einen systematischen Ansatz des Wissensmanagements mithilfe von künstlicher Intelligenz, besonders Generative AI, bei Verteilnetzbetreibern sinnvoll zu konzipieren. Dabei wird auf das Forschungsparadigma Design Science Research (Hevner et al. 2004) zurückgegriffen, welches sowohl theoretische Erkenntnisse als auch nutzbare Ergebnisse für die Anwendung erzielt. Konkret wird ein Ansatz für die Kombination aus klassischen betrieblichen Informationssystemen und Wissensmanagementsystem basierend auf Generative AI, insb. LLMs, in Zusammenarbeit mit Verteilnetzbetreibern gestaltet. Auch die prototypische Demonstration sowie eine Strategie zur praktischen Evaluation dieses Ansatzes im Verteilnetz werden aufgezeigt. Die Ergebnisse sind somit sowohl für die Theorie hinsichtlich der Nutzung von Generative AI in wissensintensiven Kontexten und Prozessen wie Wartung und Instandhaltung als auch für die Anwendung explizit bei Verteilnetzunternehmen von hoher Relevanz.
Der weitere Beitrag strukturiert sich wie folgt. Zunächst werden die theoretischen Hintergründe von Wissensmanagement und LLMs als besondere Form der Generative AI für Assistenzsysteme aufbereitet. Dem methodischen Vorgehen in Kap. 3 folgt eine Auswertung der gravierenden Probleme von Verteilnetzbetreibern, die aus Workshops mit sechs Verteilnetzbetreibern detailliert ausgewertet wurden. Das 5. Kapitel umfasst die Ergebnisse, bestehend aus der initialen Gestaltung des Konzepts sowie einer Strategie zur Demonstration und Evaluation des Konzepts. Abschließend werden die Ergebnisse diskutiert und gemeinsam mit den Beiträgen zur Forschung und Anwendung zusammengefasst.

2 Theoretischer Hintergrund

2.1 Wissensmanagement

In der Wissenschaft wird der Term Wissen häufig im Zusammenhang der Hierarchie aus Daten, Informationen und Wissen verstanden. Daten werden dabei als Ansammlungen von Zeichen beschrieben. Sobald diesen Daten eine Semantik zugeordnet wird, werden sie als Informationen bezeichnet (Ackoff 1989; Rowley 2007). Wissen setzt Informationen in Beziehung zu Erfahrungen und einem relevanten Kontext. In diesem Beitrag wird Wissen daher verstanden als „dynamische Mischung aus Erfahrungen, Werten, kontextbezogenen Informationen und Fachkenntnissen, die einen Rahmen für die Bewertung und Einbeziehung neuer Erfahrungen und Informationen bietet“ (Davenport und Prusak 2000, S. 5, aus dem Englischen übersetzt). Gerade in komplexen Domänen wie kritischer Infrastruktur ist die Analyse von Informationen wichtig, um Entscheidungen treffen zu können (Klashner und Sabet 2007) Bei der Klassifizierung ist besonders zwischen explizitem und implizitem Wissen zu unterscheiden. Explizites Wissen kann dabei formalisiert und wiedergegeben werden, während das implizite (bzw. tazite) Wissen nicht formalisierbar und daher auch nicht leicht in digitaler Form zu speichern ist (Mertens et al. 2005). Beispiele für explizites Wissen sind Bücher und Veröffentlichungen, während komplexe Abläufe, bspw. Wartungshandlungen, in die Kategorie des impliziten Wissens fallen.
Informationssysteme, die das Sammeln, Organisieren, Teilen und Analysieren von Informationen mit dem Ziel des Aufbaus, der Verwaltung und der Nutzung von Wissen unterstützen, werden Wissensmanagementsysteme genannt (Chouikha Zouari und Dhaou Dakhli 2018). Instanziierungen von Wissensmanagementsystemen fallen unter verschiedene Kategorien, bspw. Datenbanken, Wissens-Repositorys, Soziale Medien und Web 2.0-Technologien, Videokonferenzsysteme, Expertensysteme und Entscheidungsunterstützungssysteme (Chouikha Zouari und Dhaou Dakhli 2018). Mit den verschiedenen Tools unterstützen Unternehmen vor allem die Prozesse der (1) Wissensgenerierung, (2) Wissensspeicherung, (3) Wissensverteilung und (4) Wissensanwendung (Alavi und Leidner 2001). Hierbei werden besonders Ansätze zur Wissensspeicherung bereits durch Verteilnetzbetreiber adressiert, wobei die Wissensverteilung meist noch informell passiert (Spanellis et al. 2021). Edwards (2008) hebt hervor, dass gerade bei Entscheidungen, die kritische Infrastruktur des Elektrizitätsnetzes betreffend, ein Wissensmanagement wichtig ist, jedoch ein Informationsüberfluss negative Auswirkungen auf Entscheidungen haben kann. Generative AI kann helfen einem Informationsüberfluss durch die didaktische Aufbereitung von Informationen entgegenzuwirken.

2.2 Large Language Models als Basis textbasierter Assistenzsysteme

Generative AI, als spezieller Teilbereich der AI, beschreibt computerbasierte AI-Technologien, die auf Basis von Trainingsdaten und daraus erlernten Inhalten und Strukturen neue und aussagekräftige Inhalte generieren können (Feuerriegel et al. 2024; Banh und Strobel 2023). Diese meist auf verschiedenen Varianten Neuronaler Netze basierenden Technologien haben das Potenzial die Arbeitswelt und Kommunikation in Organisationen dauerhaft zu verändern (Feuerriegel et al. 2024), während sie als Disruptor für die digitale Landschaft agieren (Banh und Strobel 2023). Technologien wie DALL-E 3 (Betker et al. 2023) oder VideoPoet (Kondratyuk et al. 2023) können Bilder und Videos basierend auf Textanweisungen, sogenannten Prompts, generieren, wohingegen textbasierte Assistenten wie ChatGPT (OpenAI 2022) oder Gemini (Pichai und Hassabis 2023) Texte generieren, die von menschengeschriebenem Text inhaltlich und syntaktisch kaum zu unterscheiden sind (Teubner et al. 2023).
Besonders textbasierte Assistenten basierend auf großen Sprachmodellen, auch Large Language Models (LLMs) genannt, haben das Potenzial verschiedenste Geschäftsprozesse und betriebliche Aufgaben durch Wissen zu vereinfachen (Feuerriegel et al. 2024). So können LLMs bspw. medizinisches Wissen erlernen und anwenden (Singhal et al. 2023) oder Programmcode in verschiedenen Programmiersprachen generieren und korrigieren (Chen et al. 2021). Die Basis von LLMs bildet die sogenannte Transformer-Architektur, welche es erlaubt das Training der Modelle hocheffizient zu parallelisieren (Vaswani et al. 2017). LLMs bestehen aus teils mehreren Milliarden Parametern und werden mithilfe von enormen Datenmengen trainiert. Ziel des Trainings ist es, dass ein LLM das nächste Teilwort \(t_{n+1}\), auch Token genannt, basierend auf der aus den Trainingsdaten erlernten Wahrscheinlichkeitsverteilung \(P\left(t_{n+1}|t_{1}\ldots t_{n}\right)\), vorhersagen kann, wobei \(t_{1}\ldots t_{n}\) für die Prompt steht (Shanahan et al. 2023). Solche vortrainierten LLMs werden häufig als Foundation Models bezeichnet und können mithilfe von verschiedenen Prompting-Ansätzen oder weiterführenden Trainingsmethoden, wie beispielswiese Fine-tuning, auf (domänen‑)spezifische Aufgaben angepasst werden (Bommasani et al. 2021). Hierbei können multimodale, also bild- und textbasierte Foundation Models beispielsweise zur Erkennung defekter Isolatoren im Stromnetz genutzt werden (Dong et al. 2024).
Obwohl LLMs durch die großen Datenmengen, mit denen sie trainiert werden, viele Informationen in ihren Parametern speichern und diese durch geeignete Prompts wiedergeben oder neu zusammensetzen können, ergeben sich auch Nachteile aus großen Mengen von Trainingsdaten. Die Daten, hauptsächlich aus dem Internet entnommen, enthalten teilweise explizit oder implizit rassistische und sexistische Tendenzen sowie andere unsichere Inhalte (Bommasani et al. 2021). Weiterhin können LLMs vertrauenswürdig wirkende Inhalte generieren, die jedoch faktisch inkorrekt und sinnfrei sind (Alkaissi und McFarlane 2023; Mittal et al. 2024). Solche „Halluzinationen“ können besonders in Anwendungsfällen innerhalb kritischer Infrastruktur zu Ausfällen im Netz führen, wenn beispielsweise Fehler in Isolatoren nicht erkannt werden (Dong et al. 2024).
Halluzinationen als inkorrekte Ausgaben von LLMs stellen eines der Probleme des LLM Alignment dar (Lin et al. 2022). Das LLM Alignment beschreibt die Anpassung von LLMs und LLM-basierten Systemen an die Aufgabe bei gleichzeitiger Einhaltung von menschlichen, organisationalen und sozialen Werten (Kenton et al. 2021; Bai et al. 2022). Diese sehr weit gefasste Beschreibung kann anhand der Definition von Askell et al. (2021) weiter ausdifferenziert werden, nach welcher ein entsprechend angepasstes LLM sich zu Hilfsbereitschaft (engl. „Helpfulness“), Ehrlichkeit (engl. „Honesty“) und Harmlosigkeit (engl. „Harmlessness“) (HHH) verpflichtet (Askell et al. 2021). Während sich Hilfsbereitschaft darauf bezieht, dass ein LLM die von Menschen gestellten Aufgaben adäquat lösen soll, bezieht sich Ehrlichkeit darauf, dass ein LLM genaue, korrekte Informationen und ebenso den Grad des Vertrauens in die gegebene Antwort liefert. Harmlosigkeit ist erfüllt, wenn ein LLM nicht beleidigend, diskriminierend oder mit Vorurteilen antwortet und gefährliches Verhalten ablehnt.
Ein Trainingsansatz zur Verbesserung des LLM Alignment ist das Reinforcement Learning from Human Feedback (RLHF), welches die HHH-Werte deutlich verbessert (Wang et al. 2023; Ouyang et al. 2022). Das RLHF wird in drei Schritten durchgeführt. Im ersten Schritt werden hochqualitative Fragen und Instruktionen sowie deren Antworten und Lösungen, auch als Samples bezeichnet, durch menschliche Demonstrationen generiert und ein vortrainiertes LLM wird mithilfe dieser Daten weiter trainiert. Dieser Schritt wird als Supervised Fine-tuning (SFT) bezeichnet (Ouyang et al. 2022). Anschließend werden für ausgewählte Prompts mehrere Samples generiert. Diese Samples werden anschließend durch Menschen nach ihrer Qualität geordnet und mittels dieser Ordnung wird ein zweites LLM, das Reward Model trainiert, welches die Antworten des SFT-LLM bewerten kann (Christiano et al. 2017). Für den dritten Schritt werden die Bewertungen der Samples durch das Reward Model genutzt, um das SFT-LLM mittels Reinforcement Learning weiter auf die menschlichen Präferenzen anzupassen (Schulman et al. 2017; Ouyang et al. 2022). Obwohl dieser Trainingsansatz eine deutliche Verbesserung der HHH-Werte erreicht, sind weitere Schritte notwendig, um vor allem die Ehrlichkeit eines LLM zu verbessern (Bai et al. 2022; OpenAI 2023).
Ein vielversprechender Ansatz zur Verbesserung der Ehrlichkeit von LLMs ist das Abrufen inhaltlich passender Dokumente, auch Retrieval genannt (Li et al. 2023). Hierbei werden Antworten eines LLM in zwei Schritten generiert. Im ersten Schritt werden passende Dokumente mithilfe eines Retrievers auf Basis ihrer Ähnlichkeit zur Prompt aus einer Sammlung von Dokumenten abgerufen und anschließend generiert ein LLM als Generator auf Basis dieser Dokumente eine Antwort (Gao et al. 2023; Bohnet et al. 2022). Hierbei können Informationen aus allgemeinen Wissensdatenbanken wie Wikipedia (Wu et al. 2023) oder aus domänenspezifischen Dokumentensammlungen (Huang et al. 2024; Lozano et al. 2024) und organisationsspezifischen Wissensmanagementsystemen (Wagner 2004) abgerufen werden. Retrieval in Kombination mit anderen Alignment Strategien steigert die Performance in Anwendungsfällen des Energiesektors deutlich (Dong et al. 2024).

3 Forschungsmethodisches Vorgehen

In dem beschriebenen Problem des nicht ausreichenden Wissensmanagements für Wartung und Instandhaltung im Verteilnetz ist eine Lösung durch die Kombination aus Wissensmanagementsystem und Generative AI basierend auf LLMs absehbar. In diesem Beitrag wird dabei auf das gestaltungsorientierte Forschungsparadigma Design Science Research zurückgegriffen (Hevner et al. 2004). Mithilfe von mehreren Zyklen aus Gestaltung und Evaluation ermöglicht dieses Forschungsparadigma die gemeinsame Erreichung von theoretischen Erkenntnissen und anwendbaren Gestaltungsoptionen zur Lösung der Probleme in der Praxis. Nach Peffers et al. (2007) besteht der Prozess für die Anwendung von Design Science Research typischerweise aus den folgenden sechs Phasen: (1) Problemidentifikation und -motivation, (2) Definition von Lösungszielen, (3) Gestaltung und Entwicklung, (4) Demonstration, (5) Evaluation und (6) Kommunikation.
Für die Problemidentifikation und -motivation wurden Workshops mit sechs Verteilnetzbetreibern aus Deutschland durchgeführt, in welchen jeweils deren Wertschöpfungsnetzwerk sowie die „Pains & Gains“ erfasst wurden. Daraus ließen sich die zentralen Probleme im Zusammenhang mit Wissensmanagement identifizieren, welche in Kap. 4 erläutert werden. Für die Definition von Lösungszielen wurden Generative AI und im besonderen LLMs als Technologien ausgewählt, welche in Verbindung mit Ansätzen des Wissensmanagements und Wissensmanagementsystemen die Probleme überwinden können. Daher wurde in der Gestaltungsphase eine überarbeitete Architektur aus Informationssystemen basierend auf einem LLM als Assistenzsystem für die Wartung und Instandhaltung im Verteilnetz erarbeitet. Neben der prototypischen Umsetzung als Demonstration ist auch eine Evaluationsstrategie mit dem Einsatz im Feld bei einem Verteilnetzbetreiber geplant (vgl. Abschn. 5.3). Die Kommunikation erfolgt neben der Publikation der theoretischen Erkenntnisse auf Konferenzen und in wissenschaftlichen Zeitschriften auch über weitere Workshops mit zu Beginn des Forschungsprozess befragten Verteilnetzbetreibern.

4 Problemanalyse: Auswertung von Workshops mit Verteilnetzbetreibern

Im Rahmen der Analyse der Workshops mit sechs Verteilnetzbetreibern aus Deutschland haben sich fünf primäre Probleme herauskristallisiert, welche im Folgenden in priorisierter Reihenfolge, beginnend mit dem dringlichsten Problem, beschrieben werden.
Das dringlichste Problem fast aller Verteilnetzbetreiber sind Engpässe bei Mitarbeitern, begründet häufig durch den demographischen Wandel und die damit verbunden hohen Altersstrukturen bei bspw. Netzmonteuren. Dazu kommen sinkenden Zahlen in der Ausbildung und sich allgemein wandelnde Arbeitsvorstellungen wie Homeoffice und häufigere Arbeitgeberwechsel. Zudem sind neue Mitarbeiter zeitaufwändig in der Einarbeitung. Die Verteilnetzbetreiber schließen aus diesem Problem das Risiko eines Wissensverlusts durch ausscheidende Mitarbeiter, u. a. durch lokales, teilweise implizites Erfahrungswissen. Außerdem führen die Mitarbeiterengpässe auf lange Sicht zu einer Vernachlässigung von Wartungs- und Instandhaltungsthemen.
Ein ebenfalls als dringlich von allen Verteilnetzbetreibern bezeichnetes Problem ist ein fehlendes durchgängiges Wissensmanagement(system). In vielen Fällen liegen bei den Verteilnetzbetreibern die Informationen zu Wartung und Instandhaltung nur implizit vor, bspw. in Excel-Listen, bei einzelnen Mitarbeitern oder in lokalen Betriebsstätten. Durch fehlende unternehmensweite Wissensdatenbanken und veraltete Anlagendokumentationen fehlt es vor allem an Wissen über nicht-routinierte Aufgaben, bspw. Wartung von Komponenten, die zu geringer Anzahl im Netz verwendet werden. Zudem entstehen durch Medienbrüche, verschiedene Vorlagen und nicht hinreichend standardisierte Dateneingaben Lücken in der Datenerfassung. All diese Faktoren führen zu einer fehlenden systematischen Erfassung von lokalem Wissen und Erfahrung, die letztendlich auch durch fehlende Wissensmanagementsysteme begründet sind.
Die zunehmende Netzkomplexität nannten die Verteilnetzbetreiber als ein weiteres Problem. Hier wurde besonders beklagt, dass die Komponenten in den Netzen sich aus einer Vielzahl verschiedener Produkte von verschiedenen Herstellern zusammensetzen. So ist den verantwortlichen Personen nicht klar, welche Anlagen und Komponenten sinnvoll auszutauschen bzw. zu modernisieren sind, wobei zwischen wirtschaftlichen Nutzen und dem aktuellen und absehbaren Zustand abzuwägen ist. Auch diese zunehmende Netzkomplexität wirkt sich negativ auf das Wissen im Unternehmen aus, da mehr Wissen über mehr Komponenten, Produkte und Typen vorhanden sein müsste.
Das vierte identifizierte Problem beschreibt die fehlenden Informationen über den Zustand des Netzes. Komponenten und Anlagen fallen nicht so häufig aus und die Primärtechnik hält lange, allerdings ist die Sekundärtechnik und damit verbundenen Sensorsysteme deutlich anfälliger, sodass sich ein Einsatz davon nicht lohnt. So steht der Einbau von Sensoren auch häufig in Konkurrenz zum Netzausbau. Auch hier zeigen sich Auswirkungen auf das Wissensmanagement, da Informationen aus dem Netz eigentlich aktuell benötigt würden, damit Wartungs- und Instandhaltungsmaßnahmen mit passgenauer Vorbereitung durchgeführt werden können.
Als wahrnehmbares, aber nicht stark priorisiertes Problem konnten außerdem Risiken für Netz(teil)ausfälle identifiziert werden. Bedingt durch Personalengpässe und nicht ausreichend dokumentierte Besonderheiten einzelner Komponenten und Anlagen ergeben sich Rückstände in Wartungs- und Instandhaltungsmaßnahmen. So können schließlich Komponenten ausfallen, die sich bis zu einem gesamten Ausfall des Netzes auswirken können.

5 Ergebnisse

Basierend auf den Problemen zeigt dieser Artikel die Gestaltung eines ganzheitlichen Wissensmanagementsystems in Kombination mit einem Assistenzsystem, welches auf einem LLM basiert. Hiermit soll vor allem das Problem des fehlenden durchgängigen Wissensmanagement(systems) angegangen werden. Zudem bietet der Systemverbund auch Chancen für die verbesserte Einarbeitung und Unterstützung von Mitarbeitern, welches einen positiven Einfluss auf das Problem der Mitarbeiterengpässe und das Problem der zunehmenden Netzkomplexität hat. Weitergehend zeigt dieses Kapitel auf, wie zukünftig mittels einer prototypischen Umsetzung das Wissensmanagementsystem verbunden mit dem LLM-basierten Assistenzsystem demonstriert und in einer Feldstudie evaluiert wird.

5.1 Gestaltung: Integration von Wissensmanagementsystem und LLM-basierten Assistenzsystem

Das Komponentendiagramm des gestalteten Konzepts für ein ganzheitliches Wissensmanagementsystem integriert mit einem LLM-basierten Assistenzsystem ist in Abb. 1 dargestellt. Während das Wissensmanagement die Halluzinationen des LLMs reduziert, bereitet das LLM-basierte Assistenzsystem die Informationen didaktisch und vereinfacht für Mitarbeiter auf. Das bereits bestehende ERP-System unterstützt weiterhin Prozessabläufe wie beispielsweise das Assetmanagement, wohingegen das Wissensmanagementsystem die Ergänzung von Eigenschaften der bestehenden Assets ermöglicht, um Mitarbeitern direkt eine Möglichkeit zum Externalisieren von Informationen zu bereiten. Hierbei wird ein Knowledge-Repository mit Anleitungen und Best Practices aufgebaut, das spezifische Informationen zu einzelnen Assets wie bspw. Schaltanlagen in Ortsnetzstationen liefert. Diese Informationen können bspw. Standortfaktoren sein, wie Schaltanlagen, die nahe an Feldern liegen und dadurch schneller verschmutzen. Das Wissensmanagementsystem ist hierbei auf die Asset-Informationen aus dem ERP-System angewiesen. Das Assistenzsystem besteht aus zwei Subkomponenten, einem Retriever zum Abruf der Dokumente aus dem Wissensmanagement, hierbei vor allem Anleitungen zu den einzelnen Assets in den Ortsnetzstationen, und einem LLM als Generator von textbasierten Antworten auf die Prompts der Mitarbeiter.
Um eine Integration aller Komponenten und eine globale Abrufbarkeit von Wissensmanagement und Assistenzsystem zu ermöglichen, werden Wissensmanagement und Assistenzsystem als integrierte Cloud-Plattform an das bestehende ERP-System angekoppelt. Diese integrierte Cloud-Plattform ermöglicht eine zentrale Nutzeroberfläche für die Wartung und Instandhaltung, anhand derer Nutzer bzw. Mitarbeiter einerseits über text- oder sprachbasierte Eingaben mit dem LLM-basierten Assistenzsystem kommunizieren können und andererseits Anleitungen und andere Dokumente aus dem Wissensmanagement oder Informationen aus dem ERP-System als zusätzliche Hilfestellung abrufen können. Sprachbasierte Ein- und Ausgabe ist hierbei ein von Verteilnetzbetreibern explizit geforderter Faktor, der es Monteuren auch bei beidhändigen Arbeiten erlaubt Hilfestellungen zu bekommen. Die geplante Generierung und Externalisierung von Wissen durch Mitarbeiter*innen in das Wissensmanagementsystem zeigt die prototypische Umsetzung auf.

5.2 Demonstration: Prototypische Umsetzung

Für die prototypische Umsetzung sollen gemeinsam mit den Mitarbeitern zunächst existierende Dokumente wie Anleitungen und Best Practices identifiziert werden. Die prototypische Umsetzung des Wissensmanagementsystems als Knowledge Repository unterstützt primär das Anlegen, gemeinsame Bearbeiten, Teilen und Finden von Anleitungen und Best Practices. Hierbei werden für die Wartung und Instandhaltung Anleitungen und Best Practices in den Schulungen des Pilotpartners als Übung der Verfahren von neuen Mitarbeitern angelegt, welche anschließend von erfahrenen Mitarbeitern überarbeitet und um deren Fähigkeiten ergänzt werden. Diese als Teil der Schulung verpflichtende Aufgabe erleichtert einerseits die Wissensgenerierung und andererseits hilft die Korrektur das Wissen und erlernte Verfahren erfahrener Mitarbeiter zu externalisieren. Die Anleitungen und Best Practices sollen als Expertendokumente für die diversen Ortsnetzstationen und ihre Eigenheiten gestaltet werden und ermöglichen eine schnelle und adäquate Unterstützung von neuen, unerfahrenen Mitarbeitern und ebenso erfahrenen Vertretungsfachkräften, die eine ihnen unbekannte Ortsnetzstation warten oder instandhalten müssen.
Das LLM als Basistechnologie des Assistenzsystem wird mithilfe von RLHF an die Aufgabe angepasst. Hierbei wird das Modell zunächst trainiert, Fragen auf Basis der im Wissensmanagement erarbeiteten Anleitungen zur Wartung und Instandhaltung zu beantworten. Dazu werden passende Anleitungen durch den Retriever abgerufen und dem LLM als Kontext bereitgestellt. Dieses beantwortet dann die Fragen bzw. Instruktionen des Mitarbeiters auf Basis der Anleitung. Hierbei sind die Monteure aus der Wartung und Instandhaltung involviert, die auch bei der Gestaltung des Konzepts mitgewirkt haben. Wie in verschiedenen Studien gezeigt (siehe Abschn. 2.2), reduziert die Verwendung einer Retrieval-Struktur die faktisch inkorrekten Ausgaben deutlich und verbessert die Ehrlichkeit des LLM. Mithilfe dieses Basismodells wird anschließend menschliches Feedback generiert. Hierbei bekommen die Mitarbeiter die Möglichkeit den Prototypen des Assistenzsystems zunächst in Schulungen zu verwenden. Sie sollen sowohl korrigierte Antworten als auch Bewertungen der Assistenzsystem-Antworten als Feedback über die Nutzeroberfläche geben, um Fehler in den Antworten, aber auch neue Informationen oder eigene Erfahrungsberichte mit spezifischen Assets einfach in das Wissensmanagement einbinden zu können. Basierend auf diesem Feedback wird dann ein Reward Model trainiert und anschließend für die Anpassung des LLM durch Reinforcement Learning genutzt. Die Verwendung dieser Alignment-Schritte in Kombination mit der Nutzung der Retrieval-Struktur des LLMs bietet eine Grundlage zur deutlichen Reduktion von LLM-Halluzinationen. Dennoch wird die Evaluation im Feld zeigen, inwiefern eine Reduktion der Halluzinationen gewährleistet werden kann.

5.3 Strategie zur Evaluation des Konzeptes im Feld

Das entwickelte und prototypische Wissensmanagement mit LLM-basiertem Assistenzsystem soll unter realen Einsatzbedingungen demonstriert werden, um zu evaluieren, ob das erarbeitete Konzept in der Praxis anwendbar ist. Hierbei soll insbesondere die Integration des Wissensmanagementsystems und Assistenzsystems im Kontext des operativen Netzbetriebes und der Netzführung überprüft werden. Zur Evaluation werden Mitarbeiter herangezogen, welche das Assistenzsystem auf ihre spezifischen Anforderungen, die Unterstützung betreffend, wie auch die HHH-Werte, insbesondere auf die Ehrlichkeit (engl. „Honesty“) überprüfen sollen, um zukünftige Gefahrensituationen durch Halluzinationen zu verringern.
Zusätzlich soll im Rahmen einer empirischen Analyse der Wirksamkeit am Markt untersucht werden, ob eine empirisch belegbare Zahlungsbereitschaft für die Vermarktung als Dienstleistung bei Verteilnetzbetreibern vorhanden ist. Hierdurch kann eingeschätzt werden, ob die Leistung an sich am Markt wirtschaftlich nachhaltig erbracht werden könnte. Schließlich werden sämtliche Erkenntnisse genutzt, um einen tragfähigen Business Case zu identifizieren. Damit wird es möglich, die geplanten Dienstleistungen von integriertem Wissensmanagement und LLM-basierten Assistenzsystemen hinsichtlich ihrer wirtschaftlichen Vorteilhaftigkeit zu bewerten und die Umsetzbarkeit zu überprüfen. Die Ergebnisse werden schließlich in ein Konzept zur Markteinführung überführt, sodass Verteilnetzbetreiber ein solches ganzheitliches Dienstleistungssystem erfolgreich anwenden können.

6 Diskussion und Zusammenfassung

Durch die Energiewende und die damit verbundene Belastung des Verteilnetzes muss die Wartung und Instandhaltung durch die Verteilnetzbetreiber intensiviert werden (Hoffmann et al. 2020). Der demographische Wandel, fehlendes Wissensmanagement und die steigende Komplexität der Verteilnetze fordert ein Konzept von integriertem Wissensmanagement und Assistenz bei Wartung und Instandhaltung. Dieses Problem adressiert das erarbeitete Konzept eines integrierten Wissensmanagementsystems mit einem LLM-basierten Assistenzsystem für die Wartung und Instandhaltung des Verteilnetzes.
Der Einsatz eines solchen Systems birgt neben der Unterstützung der Prozesse auch Risiken. So neigen LLM-basierte Assistenzsysteme teilweise zu diskriminierendem Verhalten oder „halluzinieren“ faktisch inkorrekte Informationen (Alkaissi und McFarlane 2023; Mittal et al. 2024), was zu Problemen und Ausfällen in kritischen Infrastrukturen wie dem Verteilnetz führen kann (Dong et al. 2024). Wenn dieses Problem auch nicht vollkommen auszuschließen ist, ist im Konzept des LLM-basierten Assistenzsystems eine Retriever-Generator-Struktur vorgesehen, in der zunächst relevante Expertendokumente wie Anleitungen herangezogen werden und dann lediglich von einem LLM didaktisch aufbereitet wiedergegeben werden. Neben geläufigen Methoden wie dem RLHF reduziert diese Methode auch innerhalb der Energiewirtschaft die faktisch inkorrekten Aussagen deutlich (Li et al. 2023; Dong et al. 2024). Weiterhin soll eine Implementierung eines Prototyps in einer Ortsnetzstation eines Verteilnetzbetreibers als Feldstudie dienen, die das Aufkommen von Halluzinationen und auch anderen LLM-verbundenen Problemen aufdecken kann. Hierdurch soll ein maximaler Schutz der Mitarbeiter wie auch der Infrastruktur gewährleistet werden.
Ein weiteres Problem der Implementierung einer solchen Lösung kann die Akzeptanz von Mitarbeitern sein. Auch hierfür soll die Feldstudie eine Basis bieten, um etwaige Probleme mit der Handhabung, dem Verständnis und auch der Akzeptanz durch die Mitarbeiter zu untersuchen. Zusätzlich ist anzumerken, dass die Veröffentlichung von ChatGPT AI-Technologien für viele Menschen greifbarer gemacht hat (Teubner et al. 2023) und ebenso erste Gespräche mit den Mitarbeitern des implementierenden Verteilnetzbetreibers eher Interesse als Abneigung nahelegen.
Neben der Evaluation in der Feldstudie sollen im weiteren Verlauf die Zahlungsbereitschaft von Verteilnetzbetreibern untersucht werden. Zusätzlich soll das Konzept von Wissensmanagementsystem und LLM-basierten Assistenzsystem mit weiteren möglichen AI-Technologien wie Prognosesystemen für die Früherkennung von Ausfällen integriert werden. Abschließend ist eine Untersuchung des gesamten Business Case der Dienstleistung integrierter Wissens‑, Assistenz- und Prognosesysteme geplant, um ein Konzept zur Markteinführung nach Bestätigung der Funktionalität sowie Zahlungsbereitschaft der Verteilnetzbetreiber zu erarbeiten. Daran anschließend sind auch die positiven Nebenwirkungen eines Assistenzsystems auf weitere Prozesse, besonders die Planung und Konzeption der Verteilnetze, im Detail zu betrachten.

Danksagung

Dieser Beitrag entstand im Rahmen des Forschungs- und Entwicklungsprojekts „AProSys – KI-gestützte Assistenz- und Prognosesysteme für den nachhaltigen Einsatz in der intelligenten Verteilnetztechnik“. Das Projekt wird mit Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) nach Förderkennzeichen 03EI60090E gefördert und vom Projektträger Jülich betreut.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Fußnoten
1
Aus Gründen der Lesbarkeit wird auf die gleichzeitige Verwendung verschiedener Geschlechter verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.
 
Literatur
Zurück zum Zitat Ackoff RL (1989) From Data to Wisdom. J Appl Syst Anal 16:3–9 Ackoff RL (1989) From Data to Wisdom. J Appl Syst Anal 16:3–9
Zurück zum Zitat Askell A, Bai Y, Chen A, Drain D, Ganguli D, Henighan T, Jones A, Joseph N, Mann B, DasSarma N, Elhage N, Hatfield-Dodds Z, Hernandez D, Kernion J, Ndousse K, Olsson C, Amodei D, Brown T, Clark J, McCandlish S, Olah C, Kaplan J (2021) A general language assistant as a laboratory for alignment https://doi.org/10.48550/arXiv.2112.00861CrossRef Askell A, Bai Y, Chen A, Drain D, Ganguli D, Henighan T, Jones A, Joseph N, Mann B, DasSarma N, Elhage N, Hatfield-Dodds Z, Hernandez D, Kernion J, Ndousse K, Olsson C, Amodei D, Brown T, Clark J, McCandlish S, Olah C, Kaplan J (2021) A general language assistant as a laboratory for alignment https://​doi.​org/​10.​48550/​arXiv.​2112.​00861CrossRef
Zurück zum Zitat Bohnet B, Tran VQ, Verga P, Aharoni R, Andor D, Soares LB, Ciaramita M, Eisenstein J, Ganchev K, Herzig J, Hui K, Kwiatkowski T, Ma J, Ni J, Saralegui LS, Schuster T, Cohen WW, Collins M, Das D, Metzler D, Petrov S, Webster K (2022) Attributed question answering: evaluation and modeling for attributed large language models https://doi.org/10.48550/arXiv.2212.08037CrossRef Bohnet B, Tran VQ, Verga P, Aharoni R, Andor D, Soares LB, Ciaramita M, Eisenstein J, Ganchev K, Herzig J, Hui K, Kwiatkowski T, Ma J, Ni J, Saralegui LS, Schuster T, Cohen WW, Collins M, Das D, Metzler D, Petrov S, Webster K (2022) Attributed question answering: evaluation and modeling for attributed large language models https://​doi.​org/​10.​48550/​arXiv.​2212.​08037CrossRef
Zurück zum Zitat Christiano PF, Leike J, Brown T, Martic M, Legg S, Amodei D (2017) Deep reinforcement learning from human preferences. In: Guyon I, Von Luxburg U, Bengio S, Wallach H, Fergus R, Vishwanathan S, Garnett R (Hrsg) Advances in neural information processing systems. Curran Associates, Inc. Christiano PF, Leike J, Brown T, Martic M, Legg S, Amodei D (2017) Deep reinforcement learning from human preferences. In: Guyon I, Von Luxburg U, Bengio S, Wallach H, Fergus R, Vishwanathan S, Garnett R (Hrsg) Advances in neural information processing systems. Curran Associates, Inc.
Zurück zum Zitat Gao T, Yen H, Yu J, Chen D (2023) Enabling large language models to generate text with citations. In: Bouamor H, Pino J, Bali K (Hrsg) Proceedings of the 2023 conference on empirical methods in natural language processing. Association for Computational Linguistics, Singapore, S 6465–6488CrossRef Gao T, Yen H, Yu J, Chen D (2023) Enabling large language models to generate text with citations. In: Bouamor H, Pino J, Bali K (Hrsg) Proceedings of the 2023 conference on empirical methods in natural language processing. Association for Computational Linguistics, Singapore, S 6465–6488CrossRef
Zurück zum Zitat zur Heiden P, Priefer J, Beverungen D (2024) Predictive maintenance on the energy distribution grid—design and evaluation of a digital industrial platform in the context of a smart service system. In: IEEE transactions on engineering management, S 1–16 https://doi.org/10.1109/tem.2024.3352819CrossRef zur Heiden P, Priefer J, Beverungen D (2024) Predictive maintenance on the energy distribution grid—design and evaluation of a digital industrial platform in the context of a smart service system. In: IEEE transactions on engineering management, S 1–16 https://​doi.​org/​10.​1109/​tem.​2024.​3352819CrossRef
Zurück zum Zitat Hoffmann MW, Wildermuth S, Gitzel R, Boyaci A, Gebhardt J, Kaul H, Amihai I, Forg B, Suriyah M, Leibfried T, Stich V, Hicking J, Bremer M, Kaminski L, Beverungen D, zur Heiden P, Tornede T (2020) Integration of novel sensors and machine learning for predictive maintenance in medium voltage switchgear to enable the energy and mobility revolutions. Sensors. https://doi.org/10.3390/s20072099CrossRef Hoffmann MW, Wildermuth S, Gitzel R, Boyaci A, Gebhardt J, Kaul H, Amihai I, Forg B, Suriyah M, Leibfried T, Stich V, Hicking J, Bremer M, Kaminski L, Beverungen D, zur Heiden P, Tornede T (2020) Integration of novel sensors and machine learning for predictive maintenance in medium voltage switchgear to enable the energy and mobility revolutions. Sensors. https://​doi.​org/​10.​3390/​s20072099CrossRef
Zurück zum Zitat Huang D, Wei Z, Yue A, Zhao X, Chen Z, Li R, Jiang K, Chang B, Zhang Q, Zhang S, Zhang Z (2024) DSQA-LLM: domain-specific intelligent question answering based on large language model. In: Zhao F, Miao D (Hrsg) AI-generated Content. Springer, Singapore, S 170–180CrossRef Huang D, Wei Z, Yue A, Zhao X, Chen Z, Li R, Jiang K, Chang B, Zhang Q, Zhang S, Zhang Z (2024) DSQA-LLM: domain-specific intelligent question answering based on large language model. In: Zhao F, Miao D (Hrsg) AI-generated Content. Springer, Singapore, S 170–180CrossRef
Zurück zum Zitat Kuokkanen A (2023) Skills for the energy transition in the changing labour market. European Commission, Petten (JRC135382.) Kuokkanen A (2023) Skills for the energy transition in the changing labour market. European Commission, Petten (JRC135382.)
Zurück zum Zitat Lin S, Hilton J, Evans O (2022) TruthfulQA: measuring how models mimic human falsehoods. In: Muresan S, Nakov P, Villavicencio A (Hrsg) Proceedings of the 60th annual meeting of the association for computational linguistics, Bd. 1. Association for Computational Linguistics, Stroudsburg, S 3214–3252 (Long Papers) Lin S, Hilton J, Evans O (2022) TruthfulQA: measuring how models mimic human falsehoods. In: Muresan S, Nakov P, Villavicencio A (Hrsg) Proceedings of the 60th annual meeting of the association for computational linguistics, Bd. 1. Association for Computational Linguistics, Stroudsburg, S 3214–3252 (Long Papers)
Zurück zum Zitat Lozano A, Fleming SL, Chiang C‑C, Shah N (2024) Clinfo.ai: an open-source retrieval-augmented large language model system for answering medical questions using scientific literature. Pac Symp Biocomput 2024:8–23 Lozano A, Fleming SL, Chiang C‑C, Shah N (2024) Clinfo.ai: an open-source retrieval-augmented large language model system for answering medical questions using scientific literature. Pac Symp Biocomput 2024:8–23
Zurück zum Zitat Mertens P, Bodendorf F, König W, Picot A, Schumann M, Hess T (2005) Daten, Information und Wissen. In: Mertens P, Bodendorf F, König W, Picot A, Schumann M, Hess T (Hrsg) Grundzüge der Wirtschaftsinformatik. Springer, Berlin, Heidelberg, S 53–82 Mertens P, Bodendorf F, König W, Picot A, Schumann M, Hess T (2005) Daten, Information und Wissen. In: Mertens P, Bodendorf F, König W, Picot A, Schumann M, Hess T (Hrsg) Grundzüge der Wirtschaftsinformatik. Springer, Berlin, Heidelberg, S 53–82
Zurück zum Zitat Mittal A, Murthy R, Kumar V, Bhat R (2024) Towards understanding and mitigating the hallucinations in NLP and speech. Proceedings of the 7th joint international conference on data science & management of data (11th ACM IKDD CODS and 29th COMAD). Association for Computing Machinery, New York, S 489–492 Mittal A, Murthy R, Kumar V, Bhat R (2024) Towards understanding and mitigating the hallucinations in NLP and speech. Proceedings of the 7th joint international conference on data science & management of data (11th ACM IKDD CODS and 29th COMAD). Association for Computing Machinery, New York, S 489–492
Zurück zum Zitat Ouyang L, Wu J, Jiang X, Almeida D, Wainwright C, Mishkin P, Zhang C, Agarwal S, Slama K, Ray A, Schulman J, Hilton J, Kelton F, Miller L, Simens M, Askell A, Welinder P, Christiano PF, Leike J, Lowe R (2022) Training language models to follow instructions with human feedback. In: Koyejo S, Mohamed S, Agarwal A, Belgrave D, Cho K, Oh A (Hrsg) Advances in neural information processing systems. Curran Associates, S 27730–27744 Ouyang L, Wu J, Jiang X, Almeida D, Wainwright C, Mishkin P, Zhang C, Agarwal S, Slama K, Ray A, Schulman J, Hilton J, Kelton F, Miller L, Simens M, Askell A, Welinder P, Christiano PF, Leike J, Lowe R (2022) Training language models to follow instructions with human feedback. In: Koyejo S, Mohamed S, Agarwal A, Belgrave D, Cho K, Oh A (Hrsg) Advances in neural information processing systems. Curran Associates, S 27730–27744
Zurück zum Zitat Pörtner HO, Roberts DC, Adams H et al (2022) Climate change 2022: impacts, adaptation and vulnerability. IPCC, Geneva Pörtner HO, Roberts DC, Adams H et al (2022) Climate change 2022: impacts, adaptation and vulnerability. IPCC, Geneva
Zurück zum Zitat Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Llion J, Gomez AN et al (2017) Attention is all you need. In: Guyon I, Von Luxburg U, Bengio S, Wallach H, Fergus R, Vishwanathan S, Garnett R (Hrsg) Advances in neural information processing systems, Bd. 30. Curran Associates, Inc. Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Llion J, Gomez AN et al (2017) Attention is all you need. In: Guyon I, Von Luxburg U, Bengio S, Wallach H, Fergus R, Vishwanathan S, Garnett R (Hrsg) Advances in neural information processing systems, Bd. 30. Curran Associates, Inc.
Zurück zum Zitat Wu D, Zhang J, Huang X (2023) Chain of thought prompting elicits knowledge augmentation. In: Rogers A, Boyd-Graber J, Okazaki N (Hrsg) Findings of the Association for computational linguistics: aCL 2023. Association for Computational Linguistics, Toronto, S 6519–6534CrossRef Wu D, Zhang J, Huang X (2023) Chain of thought prompting elicits knowledge augmentation. In: Rogers A, Boyd-Graber J, Okazaki N (Hrsg) Findings of the Association for computational linguistics: aCL 2023. Association for Computational Linguistics, Toronto, S 6519–6534CrossRef
Metadaten
Titel
Wissensmanagement für Wartung und Instandhaltung im Verteilnetz – Konzeption eines Assistenzsystems basierend auf einem Large Language Model
verfasst von
Philipp zur Heiden
Sascha Kaltenpoth
Publikationsdatum
14.05.2024
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-024-01074-3

Premium Partner