Skip to main content
Erschienen in: HMD Praxis der Wirtschaftsinformatik 1/2023

Open Access 30.01.2023 | Schwerpunkt

Konstruktion einer Methode zur datenbasierten Schätzung von Logistikprozessdauern als Aufgabe im Projektmanagement

verfasst von: Wibke Kusturica

Erschienen in: HMD Praxis der Wirtschaftsinformatik | Ausgabe 1/2023

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Die für die Planung des Materialflusses relevanten Fertigungsprozesse lassen sich sehr genau planen, beispielsweise über die Leistung der Maschine (Durchsatz je Zeiteinheit). Bei der Planung eines Projektes spielen logistische Prozesse, die zu den Kernprozessen eines Unternehmens gehören, eine wichtige Rolle. Jedoch werden sie meist nur grob terminiert und mit großen Puffern kalkuliert. Dies kann zu einer Verlängerung der Projektdauer führen. Für eine genauere Terminierung eines Projektes ist es daher entscheidend, die Dauer der logistischen Prozesse mindestens in dem Maße wie die Fertigungsprozesse zu ermitteln, um das Risiko einer Projektverzögerung zu minimieren.
In diesem Beitrag wird deshalb eine Methode zur datenbasierten Schätzung von Prozessdauern mit dem Ziel der Wiederverwendung von Projektwissen vorgestellt, die es dem Projektmanagement ermöglichen soll, Dauern von logistischen Prozessen präziser zu schätzen als das aktuell basierend auf Erfahrungswissen erfolgt. Besonderes Augenmerk liegt dabei auf der Herleitung der Entwurfsaktivitäten. Durch die Anwendung der Methode soll das Projektmanagement von einer genaueren, datenbasierten Schätzung von (Logistik‑)Prozessdauern profitieren und so entstandenes Wissen über einen Ontologieansatz wiederverwenden können.

1 Einleitung und Motivation

In der Praxis (beispielsweise Unikatfertigung im Maschinen- und Anlagenbau) wird die Dauer logistischer Prozesse unzureichend berücksichtigt und kaum terminiert. Grund dafür ist oftmals deren geringe Bedeutung in der Gesamtprojektdauer. Dass Logistikprozesse zu Engpassprozessen werden können, wenn sie auf dem kritischen Pfad liegen, wird kaum beachtet. Eine Studie von Deloitte (2015) hat ergeben, dass sich die befragten Unternehmen mit den verfügbaren Daten als Entscheidungsbasis relativ zufrieden zeigen; Nutzungspotenziale und Übersichtlichkeit der Daten fehlen jedoch. Eigene Untersuchungen im Rahmen des Forschungsprojektes SimCast (Gliem et al. 2019) zeigen jedoch, dass es neben dem fehlenden Problembewusstsein gerade kleinen und mittelständischen Unternehmen branchenübergreifend oftmals an Datennutzungspotenzialen und geeigneten Methoden und Verfahren zur sicheren Gestaltung und Beherrschung von Prozessdauern, beispielsweise bei der Planung von logistischen Prozessen (Wiendahl 2002; Verbeek 2008) fehlt. Diesem Informationsdefizit wird in der Praxis durch die Anwendung von Erfahrungs- und Schätzwerten begegnet (Jakoby 2013 in Haux 2021). Diese unterliegen einem subjektiven Einfluss. Eigene Untersuchungen im Rahmen des Forschungsprojektes SimCast zeigen außerdem, dass eine (zeitliche) Planung interner Logistikprozesse nicht stattfindet (Gliem et al. 2019). Lediglich grobe Schätzungen zur Ermittlung der Prozessdauern werden in der Praxis angewandt, da das Projektmanagement oftmals über zu wenige Informationen bezogen auf die zu schätzenden Logistikprozesse verfügt. Um die Prozessdauern dennoch in der Projektplanung zu berücksichtigen, schätzt das Projektmanagement die Vorgangsdauern häufig nur grob. Das führt wiederum zu einer (unnötigen) Verlängerung der Projektdauer und somit zu einer Verteuerung. Das Gesamtrisiko des Projektes steigt.
Insbesondere für den Maschinen- und Anlagenbau, den größten Industriezweig Deutschlands (VDMA 2020) stellen die termingerechte Fertigstellung, Lieferung und Inbetriebnahme einer Maschine oder Anlage einen entscheidenden Wettbewerbsfaktor dar (Beste 2013). Eine Studie des Mittelstand 4.0-Kompetenzzentrum Dortmund aus dem Jahr 2019 ermittelte, dass die befragten KMU in den Bereichen Planung und Steuerung (86 %) künftig die höchsten Mehrwerte aus Daten erwarten (Stiehm 2019). Der Status Quo zeigt jedoch, dass sich KMU vor der Einführung von Technologien zur Datenerhebung und den damit verbundenen Kosten und Know-How-Investitionen scheuen (Stiehm 2019).
Das Problem besteht aktuell darin, dass logistische Prozesse bei der Planung von Projekten im Maschinen- und Anlagenbau nicht berücksichtigt werden. „Gründe sind [ein fehlender Pool an Schätzmethoden], fehlende informationstechnische Unterstützung und hoher manueller Aufwand zur Erstellung [einer digitalen Wissensbasis]“1 (Stolipin et al. 2020, S. 13). Somit stehen dem Projektmanagement keine aufbereiteten Daten/Informationen in dem Maße zur Verfügung, dass sie für die Logistikplanung im Allgemeinen und die Schätzung der Dauer von Logistikprozessen im Speziellen, verwendet werden können.
Künftig müssen dem Planer also eine Vielzahl von Daten zur Verfügung stehen, die es ihm ermöglichen, ein digitales Abbild der Logistikprozesse zu erzeugen, um die datenbasierte Ermittlung der Prozessdauer durchzuführen und prädiktiv steuern zu können. Denn die genauere Ermittlung der Dauer logistischer Prozesse führt zu einem Wettbewerbsvorteil und somit zu einer besseren Positionierung am Markt (Gliem et al. 2019).
Eine Studie zu Industrie 4.0 im Industrieanlagenbau des Verband Deutscher Maschinen- und Anlagenbauer (VDMA) hat ergeben, dass das Verbesserungspotenzial in den Prozessen des Anlagenbaus hoch ist (VDMA 2015). Zum einen könne eine Steigerung der Prozesseffizienz dadurch erwartet werden, dass sich Losteile selbstständig durch die in sich getragenen Informationen identifizieren, zum anderen bietet die Anwendung von „Smart-Logistics, also der Anwendung datengetriebener Dienstleistungen in der Logistik [schon mittelfristig wichtige Beiträge zur Optimierung der Transporte, zur Steigerung der Effizienz und zu einer verbesserten Nachverfolgung und Qualitätskontrolle.]“ (VDMA 2015, S. 8). „Die Verbesserungen in den genannten Prozessen werden sich zudem direkt auf das Projektmanagement […] auswirken,“ das von dem oben genannten Bedarf der erhöhten Transparenz profitieren wird (VDMA 2015, S. 8). Das Projektmanagement soll künftig in seinen Aufgaben unterstützt werden, datenbasierte Planungsentscheidungen bei gleichzeitiger Reduktion des kognitiven Aufwands zu erzielen.
Um die Problemstellung zu adressieren, wird im Rahmen eines langfristigen Forschungsprojekts eine Methode konzipiert, die dem Projektmanagement eine Systematik zur Nachnutzung von Wissen bereitstellt, durch deren konsequente Anwendung eine datengetriebene Schätzung von Prozessdauern möglich ist. Die datengetriebene Schätzung führt im Gegensatz zu einer ausschließlichen Berücksichtigung von „ad hoc – Schätzung“ zu einer abgesicherten Schätzung der Prozessdauer und soll in der Praxis zu einer Erhöhung der Termintreue führen. Zusätzlich kann im Rahmen des Projektmanagements durch die immer höhere Verfügbarkeit von (Prozess‑) Daten auf diese historischen Daten für die Planung aufgesetzt werden. Durch die Konzeption und Anwendung der Methode stehen einmal aufgenommene Daten in Datenbanken zur Verfügung und können beispielsweise mit Hilfe semantischer Modelle zu Wissen verknüpft werden. Somit zielt die Methode darauf, dem Projektmanagement eine Wissensbasis zur Nachnutzung von Wissen zur Verfügung zu stellen.
In diesem Beitrag wird diese Methode zur datenbasierten Schätzung von Prozessdauern mit dem Ziel der Wiederverwendung von Projektwissen vorgestellt, um eine methodische Unterstützung zur datenbasierten Schätzung von Prozessdauern zu ermöglichen. Das Ziel dieses Beitrags ist es, Anwender:innen mit dieser Methode eine Unterstützungsmöglichkeit aufzuzeigen, die ihnen hilft, sich dem Thema Datenanalyse zu nähern und sie außerdem befähigt, erworbene Informationen nachnutzen zu können. Die Anwendung der vorgestellten Methode erleichtert es Praxisanwendern:innen, aus Projekt- und Prozessdaten Wissen abzuleiten und ermöglicht dessen Nachnutzung. Um dies zu erreichen, werden im nächsten Kapitel die theoretischen Grundlagen gelegt. Anschließend wird in Kap. 3 das Forschungsdesign aufgezeigt. In Kap. 4 erfolgt die Methodenkonstruktion. Der Beitrag schließt mit der Diskussion der Methodenkonstruktion und einem Ausblick zu künftigen Forschungsaktivitäten des langfristigen Forschungsprojektes.

2 Theoretischer Hintergrund

Ziel des übergeordneten Forschungsprojektes ist eine Systematik zur Nachnutzung von Projektwissen, die dem Projektmanagement die Möglichkeit bietet, Wissen über die Dauer von (Logistik-)prozessen aus vorangegangenen Projekten systematisch abzulegen und für die Schätzung künftiger Prozessdauern heranzuziehen. Die Praxis zeigt, dass viele Unternehmen die dafür notwendigen Daten (noch) nicht besitzen. Daher wird die zu konzipierende Methode über klassische Schätzverfahren hinausgehen und bereits bei der Datenidentifikation ansetzen. Im Gegensatz zu klassischen Schätzverfahren endet die Methode nicht mit dem Schätzergebnis, vielmehr wird die Methode in der Lage sein, Wissen, das durch Anwendung gängiger Schätzmethoden entsteht, nach zu nutzen. Der langfristige Forschungsfokus zielt daher darauf ab, (1) bestehende Vorgehensmodelle im Projektmanagement sowie qualitative und quantitative Schätzverfahren aus der Literatur zu identifizieren, (2) zu identifizieren, welche Standardvorgehensmodelle der Wirtschaftsinformatik, welche Datenanalysemethoden und Methoden der Künstlichen Intelligenz das Projektmanagement nutzen kann, (3) festzustellen, welche Technologie als Wissensbasis herangezogen werden kann, und (4) eine Methode zu erstellen, um die Prozessdauern datenbasiert schätzen zu können.
Um eine datenbasierte Schätzung von Prozessdauern vornehmen zu können, werden die Wissensgebiete (a) Projektmanagement, (b) Wirtschafsinformatik, (c) Data Analytics und (d) Wissensmanagement betrachtet.
a)
Projektmanagement (PM): Der Unternehmenserfolg wird durch eine effiziente Ausgestaltung der wertschöpfenden Prozesse, ihre zuverlässige Terminierung und damit auch durch eine valide Planung eben dieser Prozesse bestimmt. Die Literatur nennt u. a. folgende Vorgehensmodelle für das Projektmanagement: Wasserfall-Modell, V‑Modell, Prototypen-Modell, Objektorientiertes Modell und den HyProM Ordnungsrahmen (Timinger 2017). Für die Planung stehen dem Projektmanagement eine Vielzahl qualitativer und quantitativer Schätzmethoden zur Verfügung. Zu den qualitativen Verfahren zählen beispielsweise Delphi-Studien (Häder 2014), Experteninterviews (Helfferich 2014) und Gruppendiskussionen (Tremblay et al. 2010a, b). Zu den quantitativen Verfahren zählen u. a. die Einflussfaktorenmethode (Burghardt 2002), Analogiemethode (Stoyan 2004), Multiplikationsmethode (Balzert 2011), Kennzahlenmethode (Helbing et al. 2014), parametrischen Gleichungen (Dormann 2017) und algorithmischen Methoden der Aufwandsschätzung.
 
b)
Wirtschaftsinformatik (WI): Untersuchungen großer Datenmengen sind gegenwärtig in nahezu allen Disziplinen verbreitet. „Daher wurden zahlreiche Versuche unternommen, den Data-Mining-Prozess zu standardisieren, insbesondere im Bereich der Informatik und der wirtschaftlichen Analysen“ (Schneider und Kusturica 2021). Diese Vorgehensmodelle bestehen in der Regel aus generischen Schritten, die die Planung und Durchführung von Data Mining-Projekten strukturieren und leiten sollen (Kurgan und Musilek 2006) und werden im Folgenden als Standardvorgehensmodelle bezeichnet. Zu diesen Vorgehensmodellen zählen Knowledge Discovery in Databases (KDD) (Fayyad et al. 1996), SEMMA, und CRISP-DM oder ASUM (IBM 2016).
 
c)
Data Analytics (DA): Im Rahmen der betrieblichen Entscheidungsfindung stellt die Datenanalyse den Prozessschritt dar, der mit Hilfe statistischer Methoden versucht, Informationen aus vorliegenden Datenmengen eines Geschäftsprozesses zu gewinnen, diese im Anschluss zu visualisieren und hinsichtlich gezielter Fragestellungen zu analysieren (Schieder 2016). Eine Vielzahl von Methoden der Statistik, insbesondere solche, die Zusammenhangsmaße identifizieren und Data Mining Verfahren zur automatisierten Mustererkennung (z. B. Klassifikationsanalyse, Assoziationsanalyse, Regressionsanalyse, Ausreißeridentifikation und Korrelationsanalyse (Backhaus et al. 2016)) stehen zur Verfügung. Weiterhin können Process Mining (Van der Aalst 2018) und Case-based Reasoning zur Analyse natürlich sprachlicher Texte eingesetzt werden (Aarts 1998).
 
d)
Wissensmanagement (WM): Die Wiederverwendung von Wissen, insbesondere Projektwissen, ist im Projektmanagement essentiell. Angewandte Techniken sind vor allem Information Retrieval (IR) (Manning et al. 2009; Salton und Harmann 2021), Natural Language Processings (NLP) (Landolt et al. 2021; Hussen Maulud et al. 2021), und Ontologien als Wissensspeicher (Beißel 2011). Soll eine Kommunikation zwischen Computeranwendungen untereinander, zwischen Computeranwendungen und Menschen, aber auch zwischen Menschen ermöglicht werden, eignet sich die Anwendung einer Ontologie (Busse et al. 2012).
 
Die Untersuchung der vier Wissensgebiete dient zunächst dazu, einen Überblick über die Gebiete zu erhalten und das jeweils verfügbare Methoden- und Verfahrensspektrum zu eruieren. Es wurde bewusst auf eine Bewertung der Geeignetheit der Methoden und Verfahren verzichtet, da die in diesem Beitrag konzipierte Methode eine höchstmögliche Flexibilität der eingesetzten Methoden und Verfahren aufweisen muss, um an die sehr unterschiedlichen Gegebenheiten der Unternehmen angepasst werden zu können.

3 Forschungsdesign

Das Im Rahmen des Forschungsprojekts wird die Design Science Research Methode nach Peffers et al. (2007) für die Erstellung und Präsentation von Design Science Research (DSR) in der Informationssystemforschung angewandt (siehe Abb. 1).
Das DSRM besteht aus sechs Aktivitäten und zwei Iterationszyklen und unterscheidet zwischen vier möglichen Forschungseinstiegspunkten (Peffers et al. 2007). Die ersten beiden Aktivitäten können als Analysephase, mit dem Ziel, die Forschungsmotivation zu beschreiben und die Problemstellung zu konkretisieren, bezeichnet werden. Außerdem wird ein Überblick über den Stand der Technik, sowie die in der Literatur diskutierten datengetriebenen Planungsmethoden und Datenanalysemethoden ausgearbeitet. In Phase 3 erfolgt die Methodenkonstruktion nach (Gutzwiller 1994). Ein wesentlicher Entwicklungsschritt bei der Konzeption der Gesamtarchitektur ist die Formalisierung der Methode; also die Erstellung eines Metamodells. In diesem Beitrag stellt die Ontologie das Metamodell dar. Die Entwurfsaktivitäten werden chronologisch, ggf. iterativ durchlaufen. Zu den Aktivitäten zählen:
  • Durchführung des Vorprojektes
  • Umsetzung der physischen Repräsentation
  • Modellierung und Umsetzung der digitalen Repräsentation
  • Durchführung des Transfers
  • Implementierung der Umsetzungslösung in einem Modellierungstool wie Protégé (2019)
  • Informationsbereitstellung in Form einer Ontologie
  • und die anschließende Integration in das betriebliche Projektmanagement.
Für die Anwendung der Methode im Unternehmen ist die Besetzung verschiedener Rollen notwendig, die im Gesamtsystem unterschiedliche Verantwortung tragen. Dazu zählen: Projektmanager:in, Business Analyst, Data Analyst/Data Miner, Ontologieexperte:in. Die Instanziierung der Methode in Form eines Werkzeugs für das Projektmanagement und dessen Evaluation erfolgen in den Phasen vier („Demonstration“) und fünf („Evaluation“). Das Hauptartefakt dieses Beitrags ist eine durchgängige Methode zur datenbasierten Schätzung von Prozessdauern, die beginnend bei der Datenidentifikation. In Phase 6 werden die Forschungsergebnisse kommuniziert und publiziert.

4 Methodenkonstruktion

Die Anforderungen an die Methode werden inhaltlichen und formalen Anforderungen zugeordnet und als Design Requirements (DR) formuliert. Aus den DR’s werden anschließend die Design Principles (DP) und die Design Features (DF) formuliert (Abb. 2).

4.1 Inhaltliche Anforderungen an die Methode

Die Konzeption einer datengetriebenen Methode zur Entscheidungsunterstützung soll die Planungsqualität maximieren (DR 1). Sie soll eine genauere Prognose/Vorhersage der Dauer von (Logistik‑) Prozessen unter Anwendung datengetriebener Schätzmethoden liefern. Die konsequente Anwendung der Methode, beginnend bei der Datenaufnahme (beispielsweise über Sensoren), soll präzisere Schätzungen für das Projektmanagement erzielen. Die Abbildung des physischen Prozesses muss transparent erfolgen, damit eine Zuordnung von Datenquellen und Datenbeständen je Prozessschritt möglich ist. Der Informationsfluss muss ebenfalls transparent abgebildet werden und kann dabei den physischen Prozess begleitend, vorauseilend, nachlaufend oder entgegenlaufend erfolgen.
Um den kognitiven Aufwand des Projektmanagements zu reduzieren (DR 2), muss die Methode so konzipiert werden, dass sie eine gezielte Wiederverwendung des generierten Wissens aus bereits geschätzten Prozessen gewährleistet. Um dies zu erreichen, muss die Methode mit jeder Anwendung (neu zu planendem Prozess) den Datenbestand für die Analysen erweitern. Darüber hinaus muss die Methode fähig sein, Prozessketten abzubilden und algorithmisch zu typisieren, um auf das Wissen, das durch die Analyse ganzer Prozessketten entsteht, in neu zu planenden Projekten zurückgreifen zu können.
Die Methode muss fähig sein, eine effizientere und schnellere Planung durch die Wiederverwendung der Prozessergebnisse für die künftige Prozessplanung zu ermöglichen. Neben der Verkürzung des Planungsaufwandes (DR 3) werden auch die Planungskosten reduziert. Eine abgesicherte und qualitativ hochwertige Projektplanung durch Übertragung von Projekterfahrungen auf Folgeprojekte führen ebenfalls zur Steigerung der Planungsqualität, -genauigkeit und -sicherheit und damit zur Minimierung des Projektrisikos.
Um eine Erhöhung der Termintreue (DR 4) zu erzielen, müssen Engpässe in den Prozessen bzw. in den einzelnen Vorgängen vorhergesagt werden können. Eine verlässliche Aussage wird mit Hilfe des Process Minings getroffen. Diese Verlässlichkeit führt in der Konsequenz zu einer genaueren Abschätzung der Dauer der Vorgänge. Neben der Analyse historischer Daten werden außerdem prädiktive Analysen zur Abschätzung der Vorgangsdauer herangezogen, mit der Folge, die Planungssicherheit der Prozesse zu erhöhen und gleichzeitig die kognitive Belastung des Projektmanagements zu senken.
Die Maximierung der Planungsqualität (DR 1) wird erreicht durch eine genaue Prognose der Dauer logistischer Prozesse und Fertigungsprozesse (DP 1), die Berücksichtigung von Unsicherheiten in Prozessen (DP 3) sowie der Berücksichtigung von Anhängigkeiten zwischen mehreren parallel verlaufenden Projekten (DP 4). DR 2, die Reduzierung des kognitiven Aufwands des Planers wird vor allem durch DP 2, dem expliziten Ablegen von (Projekt‑)Wissen in einer Ontologie und der Nutzung der Ontologie zur Planung künftiger Projekte unterstützt. Die Ontologie wird ebenfalls für das Managen von Abhängigkeiten zwischen Projekten (DP 4) als Wissensunterstützung herangezogen. Aktuell liefert die Methode dazu noch keinen Lösungsvorschlag. Die Senkung des Planungsaufwandes (DR 3) geht ebenfalls damit einher: Die Methode soll durch die Nutzung der Ontologie den Planungsaufwand deutlich reduzieren, da eine explizite Wissensbereitstellung erfolgt. Außerdem werden Unsicherheiten bei der Planung (DP 3) und Anhängigkeiten zwischen den Projekten (DP 4) berücksichtigt. Eine Erhöhung der Termintreue (DR 4) wird durch die genaue Prognose der Dauer logistischer Prozesse und der Fertigungsprozesse (DP 1) erzielt. Hier endet die bisherige Konstruktion der Methode. Die Instanziierung der Methode erfolgt in Form einer prototypischen Implementierung des Werkzeugs. Das Werkzeug umfasst alle Ablaufschritte der Methode und kann unternehmensspezifisch adaptiert werden. Alle Funktionalitäten des Werkzeugs, die der Anwender erwarten kann, werden als Design Features bezeichnet und in Auszügen im Ausblick aufgegriffen.

4.2 Formale Anforderungen an die Methode

Die formalen Anforderungen adressieren Praktikabilität, Utilität, Flexibilität, Durchgängigkeit und Validität.
Utilität: Die Methode muss utilitär gestaltet sein, d. h., sie folgt der Forderung nach Nützlichkeit und Nachvollziehbarkeit. Dabei liegt die Methode in angemessener Granularität und Übersichtlichkeit vor.
Flexibilität und Praktikabilität: Damit die Methode praktikabel angewendet werden kann, benötigt sie ein Mindestmaß an Flexibilität. Die Methode muss auf unternehmensspezifische Gegebenheiten anpassbar sein. Dies wiederum ermöglicht die unternehmensspezifische Adaptierbarkeit und erhöht die Praktikabilität. Sie muss also ein Höchstmaß an Konfigurierbarkeit zulassen.
Durchgängigkeit: Die Durchgängigkeit der Methode gewährleistet die Erzeugung eines umfangreichen Datenbestands zur Vorhersage der Vorgangsdauer.
Validität: Die Methode erfüllt die Forderung nach Validität, d. h., sie folgt der Forderung nach Richtigkeit der Methode, Klarheit und Vergleichbarkeit.

4.3 Vorgehen bei der Methodenkonstruktion

Die Methode bedient sich nicht nur quantitativer Schätzverfahren zur Ermittlung von Prozessdauern, sondern hat den Anspruch eines ganzheitlichen Ansatzes, beginnend bei der Datenidentifikation und -erfassung. Um dem Projektmanagement und Anwender:innen einen ganzheitlichen Ansatz und eine höchstmögliche Flexibilität bereitzustellen, werden die in Kap. 2 angerissenen Wissensgebiete PM, WI mit dem in Schneider und Kusturica (2021) entworfenen Vorgehensmodell, DA und das Standardvorgehensmodell KDD aufgegriffen und deren hierarchisches Ineinanderwirken in Abb. 3 dargestellt. Die Abbildung stellt lediglich eine mögliche Konfiguration dar, die im Folgenden erläutert wird. In jedem Wissensgebiet können Methoden, Verfahren oder Vorgehensmodelle substituiert werden.
PM: Zunächst werden gängige Phasenmodelle analysiert und ihre Eignung als Grundlage für das Vorgehensmodell geprüft. Phasenmodelle werden einerseits entwickelt, um für vorgegebene Szenarien den Ablauf in genormter Weise darzustellen, andererseits dienen sie als Vorschlag zur Darstellung vorgegebener Szenarien. Nachfolgend aufgeführte Modelle wurden systematisiert: Wasserfall-Modell, V‑Modell, Spiralmodell, evolutionäres/inkrementelles Modell, Prototypen-Modell, Objektorientiertes Modell und HyProM Ordnungsrahmen.
HyProM bildet einen Ordnungsrahmen für hybride Vorgehensmodelle im Projektmanagement. (Timinger 2017) Auf Grund seiner Generik wird der Ordnungsrahmen in die Methode aufgenommen, kann aber jederzeit unternehmensspezifisch durch andere Modelle ersetzt werden.
WI: Um die Essenz verschiedener Data-Mining-Vorgehensmodelle zu erfassen, haben Schneider und Kusturica (2021) eine verallgemeinerte Version der Data-Mining-Projektphasen abgeleitet (benannt als eigenes Vorgehensmodell; EVM). Auf der Grundlage der Spezifikation des Analyseprojektziels in Phase 1 des EVM (Abb. 3, ganz oben) folgt in Phase 2 eine Konzeptualisierungsphase. Die Kernaktivitäten der Datenanalyse werden in Phase 3 und 4 durchgeführt. Phase 5 knüpft an die vorangegangenen Phasen an und kann und sollte von Anfang an parallel durchgeführt werden, da sie die methodischen Informationen und Metainformationen des Datenanalyseprojekts bewahrt und zur Verfügung stellt sowie die Überwachung seiner Durchführung während und nach dem Projekt umfasst. Die oben beschriebenen Phasen liefern eine grundlegende Abfolge von Phasen, die in einem Datenanalyseprojekt durchzuführen sind. Das EVM wurde generisch konzipiert, um einem möglichst breiten Spektrum von Anwendungsfällen zur Wissensgewinnung zu genügen. Das Modell dient als Vorgehensmodell zur Wissensgenerierung basierend auf der Analyse historischer Prozess- und Projektdaten, bezieht aber weitreichender Aktivitäten wie die Datenbreitstellung (der Datenanalyse vorgelagert) und die Integration des gewonnenen Wissens (der Datenanalyse nachgelagert) ein. So wie in Abbildung zu sehen, sind neben den Wissensgebieten Aktivitäten ausgeführt (Abb. 4) und nachfolgend aufgeführt.
Vorprojekt: Das Vorprojekt bildet die Grundlage für die spätere Anwendung der Methode im Unternehmen. Es darf auf keinen Fall vernachlässigt oder übersprungen werden. Hauptbestandteil des Vorprojektes ist es, die Erwartungshaltungen aller Beteiligten zu definieren und Klarheit über das Vorgehen zu erzielen. Die Zieldefinition wird gemeinsam mit allen Beteiligten formuliert und ist von allen Beteiligten nach sorgfältiger Prüfung zu genehmigen. Im Anschluss finden eine Ist-Analyse im Unternehmen und die Beschreibung der Anforderungen an Unternehmen, Daten, involvierte Menschen und Systeme statt. Außerdem werden bereits im Vorprojekt Daten und Datenquellen ermittelt, die in die spätere Analyse einbezogen werden. Zu diesen Daten zählen beispielsweise Belege, Daten aus dem ERP-System sowie historische Projektpläne.
Aufgaben: Aufgabe des Vorprojektes ist die Erzielung eines höchstmöglichen Prozessverständnisses. Dies inkludiert die Formulierung der Zieldefinition, Durchführung der Ist-Analyse, Durchführung einer Schwachstellenanalyse mit Wertstromdesign, Prüfung der Datenverfügbarkeit und -bereitstellung.
Ergebnis: Vorliegen der gemeinsamen Zielvereinbarung, gemeinsames Prozessverständnis.
Physische Repräsentation: Hierbei wird der zu planende Prozess detailliert aufgenommen und abgebildet. Auf dieser Ebene werden verschiedene Optionen für Datenerfassung, -transfer und die persistente Datenspeicherung festgelegt. Diese Aktivität tangiert sowohl die Spezifikations- als auch die Konzeptualisierungsphase. Entsprechend der für die Prozessabbildung benötigten Daten wird festgelegt, welche Daten aufgenommen werden müssen und welche Sensoren diese Datenaufnahme sicherstellten können; beispielsweise GPS-, Temperatur oder Geschwindigkeitssensoren. Neben den Sensordaten werden prozess- und projektspezifische Daten erhoben. Weiterhin muss die IT-Infrastruktur unternehmensspezifisch aufgebaut bzw. die Sensorik in die bestehende IT-Infrastruktur des Unternehmens integriert werden und die Daten strukturiert abgelegt werden. Datenbereitstellung, Speicherung und Übertragung/Verteilung werden in Form eines Informationsmodells bereitgestellt.
Aufgaben: Aufgabe der physischen Repräsentation ist die Geschäftsprozessmodellierung mit dem Ziel eines bestmöglichen Prozessverständnisses.
Ergebnis: Vorliegen des Prozessmodells.
Digitale Repräsentation: Die digitale Repräsentation stellt die Infrastruktur dar. Diese findet ebenfalls phasenübergreifend statt und reicht bis in die Datensammlung und das Prototyping hinein. Innerhalb der digitalen Instanz werden spezifische Messdaten gesammelt, z. B. Ausgangsdaten der verwendeten Controller, Leistungsdaten von Motoren, GPS-Daten, Bewegungsdaten und andere anwendungsspezifische Sensordaten.
Aufgaben: Aufbau eines logischen Datenmodells (mit der Erstellung des logischen Datenmodells liegen nun alle Daten und Datenquellen (Quellsysteme) vor), Konzeption und Umsetzung des physischen Datenmodells.
Ergebnis: Ergebnis dieser Aktivität sind die digitale Repräsentation und das logische Datenmodell, das an eine Wissensbasis gekoppelt werden kann.
Transfer: Hierbei wird Data Mining als eigentlicher Analyseschritt eingesetzt. Diese Aktivität stellt den Kern der Methode dar. Anwender:innen können aus gängigen Standardvorgehensmodellen wie CRISP-DM, SEMMA oder ASUM-DM wählen. Alle Daten und Informationen der Aktivitäten 1 und 2 werden mit Hilfe explorativer Datenanalyseverfahren konsolidiert und aufbereitet.
Aufgaben: Durchführung konkreter Datenanalysen (Data Mining Verfahren).
Ergebnis: Die Anwendung der Verfahren (Data Mining, Visualisierung der Analyseergebnisse, Process Mining, Case-based Reasoning und ontologiebasiertes CBR).
Implementierung: In dieser Aktivität werden Erkenntnisse aus vorherigen Aktivitäten angewandt und mit ersten abgeleiteten Informationen angereichert. Um schließlich konkrete Ableitungen vornehmen zu können, können sich Anwender:innen einer Vielzahl an Verfahren bedienen (Aufbau eines Simulationsmodells zur simulationsgestützten Wissensgewinnung auf der Basis der Erkenntnisse aus der datengetriebenen Wissensgewinnung (Wissensgewinnung), Aufbau eines digitalen Schattens als digitales Abbild des realen Prozesses zur Prozessüberwachung, Aufbau eines digitalen Zwillings zur Prozessüberwachung und -steuerung). Allen Alternativen gemein ist das Ziel, die Datenbank zu erweitern und Erkenntnisse aus historischen Daten zu nutzen.
Aufgaben: Umsetzung der in der digitalen Repräsentation konzipierten Datenbank (Implementierung der Umsetzungslösung beispielsweise die Umsetzung der Ontologie in beispielsweise Protégé®).
Ergebnis: Als Ergebnisse können Anwender:innen die unternehmensspezifische Datenbank erwarten. Die Daten stehen dann für Simulationsmodelle, den digitalen Schatten oder den digitalen Zwilling bereit.
Informationsbereitstellung: Hierbei werden die Daten und die zuvor abgeleiteten Informationen zu Wissen in Form klassischer (SQL-) Datenbanken oder Ontologien konsolidiert. Das Ergebnis ist eine prozessspezifische Wissensbasis, die auf eine Klasse von Prozessen anwendbar ist und jederzeit angepasst und weiterentwickelt werden kann. Die erste Iteration der Wissensgenerierung ist damit abgeschlossen. Das Wissen steht nun zur Anwendung bereit.
Aufgaben: Nutzung der Ontologie und kontinuierliche Erweiterung der Ontologie.
Ergebnis: Gefüllter Wissensspeicher (Datenbank, Ontologie).
Die hier vorgestellte Konfiguration (siehe Abb. 4, pink) der Methode nutzt als Verfahren zur Identifizierung einer durch Analyse abgesicherten Schätzung das Case-based Resoning. Als Wissensdatenbank wird der ontologische Ansatz verfolgt. In Kombination mit der Implementierung einer Ontologie spricht man von ontologiebasiertem Case-based Reasoning (Beißel 2011). Die Konzeption einer Methode zur Schätzung der Dauer von Prozessen und zur Nachnutzung von Wissen ist an dieser Stelle abgeschlossen. Anwender:innen stehen nun eine Vielzahl von Vorgehensmodellen und Verfahren der DA sowie Aktivitäten, Aufgaben und Ergebnisse zur Verfügung, die durch Kombination auf deren Planungsbedürfnisse zugeschnitten sind. Somit liegen nun die Grundlagen für eine prototypische Werkzeugimplementierung vor. An dieser Stelle endet die bisherige Forschungsarbeit.

5 Diskussion und Ausblick

In dem Beitrag wurde ein Arbeitsstand der Methode vorgestellt, die das Projektmanagement bei der Schätzung der Dauer von (Logistik‑) Prozessen unterstützen soll. Dabei wurden verschiedene Vorgehensmodelle des Projektmanagements untersucht. Anhand gängiger Methoden des Projektmanagements wurde untersuch, ob diese geeinte sind, die Dauer logistischer Prozesse bei der Planung zu berücksichtigen. Es viel auf, dass keine explizite Berücksichtigung erfolgte. Da eine datenbasierte Schätzung der Prozessdauer wesentlich belastbarer ist als eine Expertenschätzung und es sich bei jeder datenbasierten Schätzung der Prozessdauer um „kleine“ Datenanalyseprojekte handelt, wurden im nächsten Schritt Standardvorgehensmodelle zur Durchführung von Data Mining Projekten untersucht, mögliche, anwendbare Analysemethoden herausgearbeitet und in die Methode integriert. Die Essenz der Vorgehensmodelle wurde in einem eigenen Vorgehensmodell (siehe Abb. 4, oben) in Schneider und Kusturica (2021) zusammengefasst. Anschließend wurden Data-Mining-Verfahren und Verfahren des Maschinellen Lernens aus der Literatur identifiziert, durch deren Anwendung die Dauer logistischer Prozesse genauer ermittelt werden kann als durch Expertenwissen. Weiterhin wurden aus der Literatur Ontologien des Projektmanagements identifiziert.
Einerseits kann aufgrund der geringen Verfügbarkeit relevanter Daten keine Anwendung von Data-Mining-Verfahren oder Verfahren des Maschinellen Lernens erfolgen. Dies führt dazu, dass die Unternehmen Standardvorgehensmodelle der WI nicht sinnvoll anwenden können. Andererseits besteht die Hürde, in der Literatur existierende PM-Ontologie selbstständig zu adaptieren und im Unternehmen zu integrieren. Aufgrund der notwendigen Expertise und der Komplexität ist dies für den Mittelstand kaum machbar. Aus diesen Gründen wurde eine Methode entwickelt, die die eben genannten Wissensgebiete abdeckt und durch Kombination verschiedener PM-Methoden, Standardvorgehensmodelle der WI, Data-Mining-Verfahren und Verfahren des Maschinellen Lernens ein möglichst flexibles Werkzeug bereitstellt, um die Dauer logistischer Prozesse zu ermitteln und das dabei entstandene Wissen (beispielsweise Ermittlung der Prozessdauer basierend auf Analyseverfahren, Kennzahlen, Identifikation der ähnlichsten Prozesse) nach zu nutzen.
Als erstes Zwischenfazit kann festgehalten werden, dass die Methodenkonstruktion in erster Iteration abgeschlossen ist, wobei anzumerken ist, dass noch nicht alles DPs adressiert wurden. Die nächsten Schritte dieser Forschung sind die Evaluation der Methode in Form einer Gruppendiskussion mit Experten der einzelnen Wissensgebiete mit dem Ziel, die Akzeptanz, Vollständigkeit und Integrierbarkeit der Methode in bisherige Projektmanagementwerkzuge zu evaluieren.
Danach erfolgt der Entwurf des Ontologiekonzepts. Ontologien ermöglichen es dem Projektmanagement, implizit vorhandenes Wissen explizit abzulegen und somit die Reduzierung des kognitiven Aufwands, zu erfüllen. Es folgen der Entwurf des Demonstrators und schlussendlich die Realisierung in Form einer prototypischen Implementierung für ein Projektmanagementwerkzeug. Das Werkzeug umfasst alle Aktivitäten der Methode und kann unternehmensspezifisch adaptiert werden. Die geplanten Hauptfunktionalitäten (DF) des Werkzeugs umfassen (Auszug der Design Features, Abb. 2):
  • DF 1 Recheneinheit: die bisherigen Forschungsergebnisse werden in einem Regelwerk zusammengeführt, das eine Vorhersage zur Dauer von Logistikprozessen ermöglichen wird. Die aufgestellten Berechnungsregeln für das Regelwerk lassen sich den Typen Binärfunktionen, sachlogische Zusammenhänge, skalierbare Funktionen, mathematische Funktionen und Schätzungen mit Hilfe des CBR zuordnen.
  • DF 2 Datenanalyse: Innerhalb der Recheneinheit spielt die Datenanalyse eine wesentliche Rolle zur Ermittlung der Prozessdauern. Zum Einsatz kommen diagnostische Analyseverfahren, beschreibende Analyseverfahren (Wechselwirkungen zwischen Parametern, die die Dauern beeinflussen), prädiktiven Analyseverfahren (Data Mining, Process Mining) und präskriptiven Analyseverfahren (Ableitung von Handlungsempfehlungen). Zur Durchführung der Analysen stehen unterschiedliche Analysewerkzeuge zur Verfügung.
  • DF 3 Datenimport: Das Werkzeug wird die Möglichkeit bieten, Daten aus unterschiedlichen Quellsystemen zu importieren und zu verarbeiten. Dazu werden Standardschnittstellen vordefiniert, eine unternehmensspezifische Erweiterung ist möglich. Wesentliche Datenquellen sind ERP-Systeme, Microsoft Access®, Microsoft Excel® und die entwickelte Ontologie.
  • DF 4 Ontologie: Die Wissensgenerierung und -haltung erfolgt in Form einer Ontologie in Protegé®. Dieser liegt ein Datenmodell zu Grunde.
  • DF 5a/5b Wissensgenerierung: Bei der Wissensgenerierung wird zwischen manueller (DF 5a) und automatischer (DF 5b) Wissensgenerierung unterschieden. Das Werkzeug besitzt die Fähigkeit, Daten und Informationen manuell und automatisiert in die Ontologie zu importieren und als Wissen abzulegen. Die Lernfähigkeit der Ontologie wird durch die das ontologiebasierte Case-based Reasoning erreicht.
  • DF 6 Simulation: Simulation zählt zu den präskriptiven Analysenmethoden und wird im Werkzeug angewandt, um Unsicherheiten in Prozessen und Prozessdauern zu simulieren. Dabei wird grundlegend auf das Simulationsmodell von Gliem et al. (2019) zurückgegriffen und dieses erweitert.
  • DF 7 Integrierbarkeit: Die Integrierbarkeit der Methode in gängige Projektmanagementwerkzeuge wird über die Entwicklung einer Schnittstelle zwischen der prototypischen Implementierung des Werkzeugs und dem Projektmanagementwerkzeug via Plug-In erreicht.
  • DF 8 Benutzerspezifische Aktionen: Das Werkzeug biete die Möglichkeit der Bereitstellung von Funktionen zur Zuweisung von Rollen an Benutzer, sodass das System benutzerspezifische Aktionen ausführen wird. In der weiteren Entwicklung des Werkzeugs kann eine Mehrbenutzerfähigkeit umgesetzt werden. Diese ist jedoch im Rahmen der Arbeit nicht vorgesehen und daher optional.
Neben der Ontologieerstellung und der prototypischen Werkzeugentwicklung erfolgen die Adaption der Methode und des Werkzeugs auf einen unternehmensspezifischen Anwendungsfall und eine Evaluation der Nützlichkeit von Methode und Werkzeug. Das Forschungsprojekt zielt auf eine langfristige Nutzung in Unternehmen ab.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Unsere Produktempfehlungen

HMD Praxis der Wirtschaftsinformatik

HMD liefert IT-Fach- und Führungskräften Lösungsideen für ihre Probleme, zeigt ihnen Umsetzungsmöglichkeiten auf und informiert sie über Neues in der Wirtschaftsinformatik (WI).

Fußnoten
1
BimLog Abschlussbericht, S. 13.
 
Literatur
Zurück zum Zitat Aarts RJ (1998) A CBR architecture for project knowledge management. In: Smyth B, Cunningham P (Hrsg) Advances in case-based reasoning. 4th European Workshop, EWCBR-98 Dublin, Ireland, September 23–25, 1998 Proceedings. Lecture Notes in Computer Science,, Bd. 1488. Springer, Berlin, Heidelberg, S 414–424 Aarts RJ (1998) A CBR architecture for project knowledge management. In: Smyth B, Cunningham P (Hrsg) Advances in case-based reasoning. 4th European Workshop, EWCBR-98 Dublin, Ireland, September 23–25, 1998 Proceedings. Lecture Notes in Computer Science,, Bd. 1488. Springer, Berlin, Heidelberg, S 414–424
Zurück zum Zitat Backhaus K, Erichson B, Plinke W, Weiber R (2016) Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, 14. Aufl. Springer, Berlin, HeidelbergCrossRefMATH Backhaus K, Erichson B, Plinke W, Weiber R (2016) Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, 14. Aufl. Springer, Berlin, HeidelbergCrossRefMATH
Zurück zum Zitat Balzert H (2011) Lehrbuch der Softwaretechnik, 3. Aufl. Spektrum, Heidelberg Balzert H (2011) Lehrbuch der Softwaretechnik, 3. Aufl. Spektrum, Heidelberg
Zurück zum Zitat Beißel S (2011) Ontologiegestütztes Case-Based Reasoning. Entwicklung und Beurteilung semantischer Ähnlichkeitsindikatoren für die Wiederverwendung natürlichsprachlich repräsentierten Projektwissens, 1. Aufl. Springer Gabler, Wiesbaden Beißel S (2011) Ontologiegestütztes Case-Based Reasoning. Entwicklung und Beurteilung semantischer Ähnlichkeitsindikatoren für die Wiederverwendung natürlichsprachlich repräsentierten Projektwissens, 1. Aufl. Springer Gabler, Wiesbaden
Zurück zum Zitat Burghardt M (2002) Einführung in Projektmanagement: Definition, Planung, Kontrolle, Abschluss. Publicis Corp. Publ., Erlangen Burghardt M (2002) Einführung in Projektmanagement: Definition, Planung, Kontrolle, Abschluss. Publicis Corp. Publ., Erlangen
Zurück zum Zitat Dormann CF (2017) Parametrische Statistik: Verteilungen, maximum likelihood und GLM in R. Springer Spektrum, BerlinCrossRefMATH Dormann CF (2017) Parametrische Statistik: Verteilungen, maximum likelihood und GLM in R. Springer Spektrum, BerlinCrossRefMATH
Zurück zum Zitat Fayyad U, Piatetsky-Shapiro G, Smyth P (1996) From data mining to knowledge discovery in databases. Ai Mag 17:37–37 Fayyad U, Piatetsky-Shapiro G, Smyth P (1996) From data mining to knowledge discovery in databases. Ai Mag 17:37–37
Zurück zum Zitat Gliem D, Jessen U, Stolipin J, Wenzel S, Kusturica W, Laroque C (2019) SimCast – Simulationsgestützte Prognose der Dauer von Logistikprozessen, Abschlussbericht Gliem D, Jessen U, Stolipin J, Wenzel S, Kusturica W, Laroque C (2019) SimCast – Simulationsgestützte Prognose der Dauer von Logistikprozessen, Abschlussbericht
Zurück zum Zitat Gutzwiller TA (1994) Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen. Betriebs- und Wirtschaftsinformatik, Bd. 54. Physica, HeidelbergCrossRef Gutzwiller TA (1994) Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen. Betriebs- und Wirtschaftsinformatik, Bd. 54. Physica, HeidelbergCrossRef
Zurück zum Zitat Häder M (2014) Delphi-Befragungen. Ein Arbeitsbuch. Springer eBook Collection, Bd. 3. Springer VS, WiesbadenCrossRef Häder M (2014) Delphi-Befragungen. Ein Arbeitsbuch. Springer eBook Collection, Bd. 3. Springer VS, WiesbadenCrossRef
Zurück zum Zitat Haux M A (2021) Modellierung von Unsicherheiten in der Planung der Unikatproduktion. Dissertation. Technische Universität Hamburg. Band 46, 1. Auflage Haux M A (2021) Modellierung von Unsicherheiten in der Planung der Unikatproduktion. Dissertation. Technische Universität Hamburg. Band 46, 1. Auflage
Zurück zum Zitat Helbing KW, Mund H, Reichel M (2014) Handbuch Fabrikprojektierung. Springer, Berlin, Heidelberg Helbing KW, Mund H, Reichel M (2014) Handbuch Fabrikprojektierung. Springer, Berlin, Heidelberg
Zurück zum Zitat Helfferich C (2014) Leitfaden- und Experteninterviews. In: Baur N, Blasius J (Hrsg) Handbuch Methoden der empirischen Sozialforschung. Springer VS, Wiesbaden, S 559–574CrossRef Helfferich C (2014) Leitfaden- und Experteninterviews. In: Baur N, Blasius J (Hrsg) Handbuch Methoden der empirischen Sozialforschung. Springer VS, Wiesbaden, S 559–574CrossRef
Zurück zum Zitat Jakoby W (2013) Projektmanagement für Ingenieure. Ein praxisnahes Lehrbuch für den systematischen Projekterfolg, 2. Aufl. Springer Vieweg, WiesbadenCrossRef Jakoby W (2013) Projektmanagement für Ingenieure. Ein praxisnahes Lehrbuch für den systematischen Projekterfolg, 2. Aufl. Springer Vieweg, WiesbadenCrossRef
Zurück zum Zitat Landolt S, Wambsganss T, Söllner M (2021) A taxonomy for deep learning in natural language processing. In: Hawaii: Hawaii International Conference on System Sciences Landolt S, Wambsganss T, Söllner M (2021) A taxonomy for deep learning in natural language processing. In: Hawaii: Hawaii International Conference on System Sciences
Zurück zum Zitat Manning CD, Raghavan P, Schütze H (2009) Introduction to information retrieval. Reprinted. Cambridge University Press, CambridgeMATH Manning CD, Raghavan P, Schütze H (2009) Introduction to information retrieval. Reprinted. Cambridge University Press, CambridgeMATH
Zurück zum Zitat Salton G, Harmann D (2021) Encyclopedia of computer science. Information retrieval. Encyclopedia of computer science Salton G, Harmann D (2021) Encyclopedia of computer science. Information retrieval. Encyclopedia of computer science
Zurück zum Zitat Schieder C (2016) Historische Fragmente einer Integrationsdisziplin. Beitrag zur Konstruktgeschichte der Business Intelligence. In: Gluchowski P, Chamoni P (Hrsg) Analytische Informationssysteme. Business Intelligence-Technologien und -Anwendungen. Springer, Berlin, S 13–32CrossRef Schieder C (2016) Historische Fragmente einer Integrationsdisziplin. Beitrag zur Konstruktgeschichte der Business Intelligence. In: Gluchowski P, Chamoni P (Hrsg) Analytische Informationssysteme. Business Intelligence-Technologien und -Anwendungen. Springer, Berlin, S 13–32CrossRef
Zurück zum Zitat Stiehm S (Hrsg) (2019) Mehrwerte aus Daten – Potenziale und Handlungsoptionen für den Mittelstand. EffizienzCluster Management GmbH, Mühlheim an der Ruhr Stiehm S (Hrsg) (2019) Mehrwerte aus Daten – Potenziale und Handlungsoptionen für den Mittelstand. EffizienzCluster Management GmbH, Mühlheim an der Ruhr
Zurück zum Zitat Stolipin J, Jessen U, Wenzel S, Weber J, König M (2020) Schlussbericht zum Projekt BIMLog – BIM-basierte Logistikplanung und -steuerung im Großanlagenbau Stolipin J, Jessen U, Wenzel S, Weber J, König M (2020) Schlussbericht zum Projekt BIMLog – BIM-basierte Logistikplanung und -steuerung im Großanlagenbau
Zurück zum Zitat Stoyan R (Hrsg) (2004) Management von Webprojekten. Führung, Projektplan, Vertrag. Springer, Berlin, Heidelberg Stoyan R (Hrsg) (2004) Management von Webprojekten. Führung, Projektplan, Vertrag. Springer, Berlin, Heidelberg
Zurück zum Zitat Timinger H (2017) Modernes Projektmanagement – mit traditionellem, agilem und hybridem Vorgehen zum Erfolg. Wiley-VCH, Weinheim Timinger H (2017) Modernes Projektmanagement – mit traditionellem, agilem und hybridem Vorgehen zum Erfolg. Wiley-VCH, Weinheim
Zurück zum Zitat Van der Aalst WMP (2018) Process mining. Data science in action, 2. Aufl. Springer, Berlin Van der Aalst WMP (2018) Process mining. Data science in action, 2. Aufl. Springer, Berlin
Zurück zum Zitat VDMA (Hrsg) (2015) Industrie 4.0 im Industrieanlagenbau – Revolution oder Evolution?: Ergebnisse einer Gemeinschaftsstudie von maexpartners und der VDMA Arbeitsgemeinschaft Großanlagenbau VDMA (Hrsg) (2015) Industrie 4.0 im Industrieanlagenbau – Revolution oder Evolution?: Ergebnisse einer Gemeinschaftsstudie von maexpartners und der VDMA Arbeitsgemeinschaft Großanlagenbau
Zurück zum Zitat VDMA (Hrsg) (2020) Maschinenbau in Zahl und Bild 2020 VDMA (Hrsg) (2020) Maschinenbau in Zahl und Bild 2020
Zurück zum Zitat Verbeek C (2008) Gestaltung von Logistikarchitekturen – Eine theoretische und empirische Untersuchung, 1. Aufl. TCW Transfer-Centrum GmbH & Co. KG, München Verbeek C (2008) Gestaltung von Logistikarchitekturen – Eine theoretische und empirische Untersuchung, 1. Aufl. TCW Transfer-Centrum GmbH & Co. KG, München
Zurück zum Zitat Wiendahl H‑P (2002) Erfolgsfaktor Logistikqualität. Vorgehen, Methoden und Werkzeuge zur Verbesserung der Logistikleistung, 2. Aufl. Springer, Berlin, HeidelbergCrossRef Wiendahl H‑P (2002) Erfolgsfaktor Logistikqualität. Vorgehen, Methoden und Werkzeuge zur Verbesserung der Logistikleistung, 2. Aufl. Springer, Berlin, HeidelbergCrossRef
Metadaten
Titel
Konstruktion einer Methode zur datenbasierten Schätzung von Logistikprozessdauern als Aufgabe im Projektmanagement
verfasst von
Wibke Kusturica
Publikationsdatum
30.01.2023
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
HMD Praxis der Wirtschaftsinformatik / Ausgabe 1/2023
Print ISSN: 1436-3011
Elektronische ISSN: 2198-2775
DOI
https://doi.org/10.1365/s40702-022-00942-0

Weitere Artikel der Ausgabe 1/2023

HMD Praxis der Wirtschaftsinformatik 1/2023 Zur Ausgabe

Editorial

Logistik 4.0

Premium Partner