Skip to main content

2023 | Buch

Nachhaltiges Qualitätsdatenmanagement

Bericht zur GQW-Jahrestagung 2022 in Chemnitz

insite
SUCHEN

Über dieses Buch

Die Gesellschaft für Qualitätswissenschaften e. V. verfolgt seit Ihrer Gründung im Jahre 1994 das Ziel, Qualitätswissenschaft in Lehre und Forschung zu fördern und den Wissenstransfer in die industrielle Anwendung zu unterstützen. Hierzu werden im Rahmen der Jahrestagungen die aktuellen Ergebnisse aus Forschung und Entwicklung vorgestellt und zukünftige Trends in diesem Bereich thematisiert und diskutiert. Die GQW Jahrestagung 2022 fand unter Leitung von Prof. Dr.-Ing. habil. Sophie Gröger in Chemnitz statt. Unter dem Leitthema „Nachhaltiges Qualitätsdatenmanagement“ wurden zahlreiche Beiträge aus Forschung und Industrie vorgestellt. Diese thematisierten dabei beispielsweise die Integration des ISO GPS-Systems in kleine und mittelständische Unternehmen (KMU), eine Vorgehensweise zur fertigungsprozessorientierten Prüfplanung, aber auch die Verknüpfung von Messdaten und Datenbanken zur Vergleichbarkeit von Messergebnissen. Ebenso wurden die Anwendung von Methoden des maschinellen Lernens und die intelligente Qualitätssicherung durch Bildverarbeitung vorgestellt. Es konnte aufgezeigt werden, wie mit der Verknüpfung von Daten im Bereich der Problemlösung eine Verbesserung aktueller Ansätze (8D-Report) erreicht werden kann. Ein Reifegradmodell zur Bewertung der Datenqualität in Industrie 4.0 und eine Informationsbedarfsanalyse für Verbesserungen im Fehlermanagement in der manuellen Montage ergänzten das Tagungsprogramm. Nicht zuletzt wurden neue digitale Möglichkeiten zum Kompetenznachweis sowohl in der Agrar- und Ernährungswirtschaft als auch im Automotive Bereich diskutiert. Freuen Sie sich also auf ein inhaltlich breites Spektrum interessanter Beiträge aus Forschung und Industrie im Bereich der Qualitätswissenschaften.

Inhaltsverzeichnis

Frontmatter
Fehlerdatenaufnahme in der manuellen Montage: Informationsbedarfsanalyse für die Fehleranalyse und -abstellung im Fehlermanagement
Zusammenfassung
Trotz der stetigen Zunahme des Automatisierungsgrades in produzierenden Unternehmen spielt der Faktor Mensch auch weiterhin eine zentrale Rolle in Montageprozessen. Vor allem in produzierenden Unternehmen, die sich durch eine hohe Varianz und geringe Stückzahlen sowie durch kontinuierlich neue Produktanläufe und einen wettbewerbsgetriebenen Markt auszeichnen, ist der Anteil an manuellen Montagetätigkeiten weiterhin hoch. Sowohl die Individualität der auszuführenden Arbeitsschritte als auch hohe Investitionsvolumina für vollautomatisierte Montagelinien hindern an der gezielten Steigerung des Automatisierungsgrades. Diese Gegebenheiten führen ebenfalls zu Implikationen für die Fehlerdatenerfassung. Begleitend zur Ausführung wertschöpfender Montagetätigkeiten werden die Mitarbeitenden dazu angehalten, innerhalb ihrer Taktzeitvorgaben wahrgenommene Bauteil- und Funktionsfehler aufzunehmen und zu dokumentieren. Einer empirischen Studie zufolge bleiben jedoch rund 50 % aller erfassten Informationen in produzierenden Unternehmen (n = 100) ungenutzt. Zudem bestätigen 70 % der befragten Unternehmen die Unkenntnis über benötigte Informationen für zielorientierte Analysen [1]. Um ein nachhaltiges Informationsmanagement für Unternehmen zu ermöglichen, beschreibt dieser Beitrag, wie sich die Befähigung zielgerichteter Fehlerdatenanalysen mit hohem manuellem Anteil in der Montage gestalten und standardisieren lässt. Am Beispiel eines Nutzfahrzeugherstellers wird ermittelt, wie mithilfe einer Informationsbedarfsanalyse die Mindestanforderungen zur Fehleranalyse und -abstellung identifiziert werden. Hierzu werden sowohl die reaktiven und präventiven als auch die produkt- und prozessbezogenen Bedarfe ermittelt. Diese Erkenntnisse werden anschließend mit den Ergebnissen einer Ist-Analyse des Anwendungsfalls abgeglichen, um daraus abzuleiten, welche dieser Informationen durch Mitarbeitende im Montageprozess aufgenommen werden müssen und welche bereits vorliegen oder hergeleitet werden können. Die so gewonnenen Feststellungen ermöglichen, den Prozess zur Fehlerdatenaufnahme, der primär nicht wertschöpfend ist, möglichst kurz zu halten. Gleichzeitig wird eine ausreichende Datenqualität gewährleistet, um eine nachgelagerte Fehleranalyse und -abstellung durchführen zu können.
Sebastian Beckschulte, Louis Huebser, Robin Günther, Miriam Kaden, Robert H. Schmitt
Entwicklung eines IT-basierten Reifegradmodells zur Bewertung der Datenqualität für Predictive Data Analytics in der Fertigung der Industrie 4.0
Zusammenfassung
Im Rahmen dieser Publikation soll eine Methodik zur Bewertung der Datenqualität mittels eines IT-gestützten Reifegradmodells vorgestellt werden, um produzierende Unternehmen zu befähigen Predictive Analytics anforderungsgerecht einzusetzen. In einem ersten Schritt erfolgt die Identifikation existierender Reifegrademodelle zur Bewertung der Datenqualität und Ableitung eines möglichen Bedarfs eines IT-basierten Reifegradmodells für den Einsatz von Methoden aus dem Bereich der Predictive Analytics. Hierzu wird mittels einer systematischen Literaturanalyse der aktuelle Stand der Wissenschaft und Technik ermittelt. Es folgt die Analyse der Literaturauswertung, um den Forschungsbedarf zu begründen. Durch eine weitere Literaturanalyse werden geeignete Methoden der Predictive Analytics für den Einsatz in der Fertigung der Industrie 4.0 identifiziert und die datenbezogenen Anforderungen quantifiziert. Der nächste Schritt ist die Darstellung der geplanten Umsetzung des IT-gestützten Reifegradmodells zur Bewertung der Datenqualität auf Grundlage aktueller Normen u. a. ISO 8000 und ISO/IEC 25.000. Im Anschluss erfolgt die konzeptuelle Verknüpfung der datentechnischen Anforderungen der Methoden der Predictive Analytics mit dem Reifegradmodell. Diese Vorgehensweise soll die Komplexität der Bewertung der Datenqualität in produzierenden Unternehmen reduzieren und einen Einsatz von Predictive Analytics in der Fertigung durch eine Methodenauswahl unterstützen.
Robert Trevino, Roland Jochem
Auslegung eines Accelerated Life Tests zur Abbildung der Langzeit-Zuverlässigkeit von Produkten im Prototypenstadium
Zusammenfassung
Eine hohe Langzeit-Zuverlässigkeit von Produkten ist sowohl aus ökologischer, als auch aus ökonomischer Sicht anzustreben. Sobald der Produktentstehungsprozess den Bau von Einzelbauteil- oder Gesamtprototypen zulässt, können diese physisch hinsichtlich ihrer Zuverlässigkeit getestet werden. In dieser Phase liegt die Herausforderung bezüglich einer Zuverlässigkeitsprognose für die gesamte geplante Lebensdauer des zu testenden Produktes darin, dass diese im Allgemeinen eine erheblich größere Zeit umfasst als der Produktentstehungsprozess. Entsprechend reicht die Zeit für Lebensdauerrelevante Untersuchungen unter Normalbedingungen nicht aus. Aus diesem Grund werden Methoden des Accelerated Testings angewendet, bei welchen Produkte unter Erhöhung von Nutzungsrate oder Belastungsintensität geprüft werden. Durch die Erhöhung einer dieser Variablen soll der Alterungsprozess eines Produktes beschleunigt werden, um auch während der begrenzten Zeit des Produktentstehungsprozesses Aussagen über die Langzeit-Zuverlässigkeit des Produktes treffen zu können. Im Rahmen dieser Forschungsarbeit soll ein bisher nicht im Markt befindliches Produkt aus dem Baugewerbe einem Accelerated Life Test (ALT) unterzogen werden. Die Herausforderungen in diesem Fall liegen darin, dass die geplante Lebensdauer weniger Jahrzehnte in einen Accelerated Test mit einer Dauer weniger Monaten überführt werden soll und darin, dass für dieses Produkt kein standardisierter Accelerated-Testablauf bezüglich Belastungsart, -höhe und -profil vorliegt. Entsprechend liegt der Fokus dieser Arbeit auf der Erstellung eines repräsentativen ALT Ablaufs anhand von kurzzeitigen Prototypen-Tests unter Realbedingungen und der Heranziehung externer Daten, wie Temperatur und relativer Luftfeuchtigkeit. Auf Grundlage dieser Daten wird ein Temperatur- und Feuchtigkeitsprofil für die Lagerung der Produkte innerhalb einer Klimakammer erstellt. Diese Arbeit soll eine Möglichkeit aufzeigen, wie plausible ALT-Modelle für neue Produkte insbesondere anhand kurzzeitiger Prototypentests erstellt und durchgeführt werden können. Die angewendeten Accelerated Test Methoden werden verwendet, um auch im häufig zeitlich sehr begrenzten Produktentstehungsprozess die Langzeit-Zuverlässigkeit zu bewerten. Ziel dieser Arbeit ist es entsprechend, diese Methoden zu planen und umzusetzen, um so aus Qualitätswissenschaftlicher Sicht einen Beitrag zur Nachhaltigkeit zu leisten.
Fabian Hartwig, Marcin Hinz, Severin Dahms, Stefan Bracke
Digitale Transformation beim Kompetenznachweis im Qualitäts- und Nachhaltigkeitsmanagement in Betrieben der Agrar- und Ernährungswirtschaft
Zusammenfassung
Verantwortliche im Qualitäts- und Nachhaltigkeitsmanagement von klein- und mittelständischen Unternehmen der Agrar- und Ernährungswirtschaft sowie der Gastronomie gehen täglich mit einer steigenden Anzahl von digitalen Informationen und Daten um. Diese sollen ihnen in immer komplexer werdenden Situationen Entscheidungen erleichtern. Hierzu benötigen sie ständig neue Kompetenzen, die sie durch die Teilnahme an Weiterbildungen und Learning on the Job gewinnen. Für zahlreiche sicherheitsrelevante Aufgaben ist eine Befähigung und Sachkunde von gesetzlicher oder von Kundenseite über entsprechende Zertifikate nachzuweisen. Mit zunehmender Digitalisierung vieler Unternehmensprozesse wächst der Bedarf nach individuellen E-Learning Formaten in Kombination mit digitalen Bildungsnachweisen. Derzeit werden auf bestimmte Zielgruppen und Unternehmensformen maßgeschneiderte technisch-organisatorische Lösungen entwickelt. Dies erfolgt in einem unternehmensübergreifenden Design Thinking Prozess unter Berücksichtigung des PIQ-Modells nach Sommerhoff. Das digitale Basis Produkt ist das Q-CERT-Wallet, das in Kombination mit unterschiedlichen wissensintensiven Diensten zu kundenspezifischen, hybriden Leistungsbündeln variiert wird. Im Beitrag werden exemplarisch drei dieser hybriden Leistungsbündel, bei denen das Q-CERT-Wallet als integrales Tool der digitalen Transformation im Audit-Management, im Change-Management von Wertschöpfungspartnerschaften und beim Aufbau einer mitarbeiterzentrierten Sicherheitskultur dient, vorgestellt. Die Varianten beim Einsatz des Q-CERT-Wallets werden unter dem Aspekt des nachhaltigen Qualitätsdaten-Managements bewertet. Schlüsseltechnologie in der Produktentwicklung ist die vom Fraunhofer-Institut für Angewandte Informationstechnik (Fraunhofer FIT) entwickelte Blockchain for Education.
Lavinia Murielle Diekmann, Sandra Bonse, Brigitte Petersen, Carolin Schönen, Benjamin Fehrenbach, Felix Zenner
Vorstellung eines Leitfadens für schriftliche Befragungen
Zusammenfassung
Schriftliche Befragungen gibt es in der heute bekannten Form seit den 1970er Jahren [1]. Inzwischen stellen Befragungen in der empirischen Forschung eine der häufig angewendeten Erhebungsmethoden dar [2]. Eine Vielzahl an Informationen existiert zum Thema Fragebogen und dessen Erstellung sowie zur Durchführung und Auswertung der Befragung. Immer wieder stellen sich ähnlichen Fragen, die in einem kleinen Leitfaden beantwortet werden sollen. Die Durchführung einer schriftlichen Befragung folgt häufig einem sehr ähnlichen Muster. Es existieren bereits Leitfäden wie „The Tailored Design Method“ nach Dillman et al [3]. Dieser Leitfaden leistet Hilfestellung bei der Erarbeitung eines Fragebogens und verspricht eine hohe Datenqualität und Ausschöpfungsquote. Der Leitfaden besitzt jedoch keinen Abschnitt über die Datenauswertung [3]. Auf der letzten GQW – Tagung stützte sich ein großer Teil der Beiträge auf Befragungen. Mithin stellte sich die Aufgabe zur Entwicklung eines Leitfadens für Befragungen. Darin werden typische Problemstellungen wie der repräsentative Stichprobenumfang, allgemeine Anforderungen an das Design und mögliche Fehler adressiert. Zu diesem Zweck wird zunächst die bereits vorhandene Literatur analysiert, zusammengefasst und anschließend ein Leitfaden daraus entwickelt. Ergebnisse einer Befragung sollten statistisch belastbar sein, damit abgesicherte Aussagen aus den Ergebnissen abgeleitet werden können. Der erstellte Leitfaden soll in die Lehrtätigkeiten eingebaut werden und Studierenden bei der Durchführung belastbarer Umfragen unterstützen. Auf diese Weise wird zur nachhaltigen Förderung des Qualitätsmanagements–Nachwuchses beigetragen.
Lennart Grüger, Ulrike Franziska Welz, Ralf Woll
Interaktive, wissensbasierte Problemlösung nach 8D in der Automobilindustrie
Zusammenfassung
Die Transformation der Automobilindustrie hin zur Elektrifizierung des Antriebsstranges führt wiederum zur Entwicklung und zum Produktionsstart zahlreicher innovativer Produkte. Das gehobene Qualitätsniveau der Automobilindustrie soll auch bei den immer komplexer werdenden elektrifizierten Produkten aufrechterhalten werden. Ungeachtet der Verwendung weitreichender Methoden und Werkzeuge des präventiven Qualitätsmanagements treten im Produktionshochlauf vermehrt Nichtkonformitäten – Abweichungen vom definierten Soll-Zustand – auf. Die Behebung dieser Nichtkonformitäten stellt aufgrund deren Vielzahl und des noch begrenzten Erfahrungswissens über die Wirkzusammenhänge bei innovativen Produkten eine besondere Herausforderung dar. Aufgrund der Komplexität und Variabilität dieser innovativen Produkte stößt die multidisziplinäre Projektgruppe bei der Anwendung der klassischen, manuellen Vorgehensweise zur Problemlösung nach 8D zunehmend an ihre Grenzen und benötigt deshalb Unterstützung. Gegenstand des vorliegenden Beitrags ist die Entwicklung einer interaktiven, wissensbasierten IT-Unterstützung für die Problemlösung nach 8D, um die Bearbeitung von Nichtkonformitäten bei innovativen Produkten im Produktionshochlauf unter wirtschaftlichen Aspekten zu ermöglichen. Dazu wird zunächst das im Unternehmen verfügbare qualitätsrelevante Produkt- und Prozesswissen aus der Produktentstehung und Fertigungspraxis identifiziert und anschließend in einer maschineninterpretierbaren Form als Wissensbasis abgebildet. Für diese formale Wissensrepräsentation wird die neuste Generation von Knowledge Engineering-Technologien – die Semantic Web-Technologien des World Wide Web Consortiums – eingesetzt. Das formale Wissen wird dann als Ontologie mithilfe einer RDF-Graphdatenbank als Knowledge Graph-Applikation für die Problemlösung nach 8D bereitgestellt. Anhand eines praktischen Beispiels aus dem Bereich der elektrifizierten Mobilität wird das Vorgehen validiert.
Martin Kempel, Ralph Richter, Jochen Deuse, Lukas Schulte
Intelligente Qualitätssicherung im industriellen Produktionsprozess unter Verwendung von KI-Algorithmen
Zusammenfassung
In diesem Beitrag werden intelligente Qualitätssicherungslösungen für die automatisierte Erkennung verschiedener Fehlerklassen im industriellen Fertigungsprozess auf Basis optischer Bilderfassung, intelligenter digitaler Bildverarbeitung sowie Verfahren der Künstlichen Intelligenz vorgestellt. Hierbei werden schnelle automatisierte QS-Lösungen, sowohl für den Kunststoffspritzguss von Bauteilen im Automobilbau auf der Basis Robotik-assistierter Farbbildaufnahmen, als auch für die Metalloberflächenanalyse im Fräsbearbeitungsprozess auf der Basis von Farbbildern, aufgezeigt.
Für beide QS-Lösungen ist die Realisierung einer angepassten Bildverarbeitungs- und Mustererkennungskette sowie angepasster leistungsfähiger Algorithmen der Künstlichen Intelligenz (KI) mit hoher Generalisierungs- und Abstraktionsfähigkeit auf Basis gewonnener Bildinformationen essentiell. Die wesentlichen Voraussetzungen und Schritte zur Lösung der beiden QS-Aufgaben werden vorgestellt und die verschiedenen Aspekte einer angepassten Bilderfassung, eines KI-Klassifikationsroutinen-Designs sowie der Validierung der Klassifikationsleistung und mögliches Optimierungspotential durch eine ressourcenschonende und effiziente Datennutzung unter künstlicher Datenaugmentierung unterrepräsentierter Klassen beleuchtet. Eine mögliche Performance-Steigerung von vortrainierten Deep-Learning-Modellen wird sowohl für die synthetische Bilddatensatzerweiterung unter Verwendung von klassischen Bildverarbeitungsmethoden als auch für die innovative Bilddatensatzerweiterung unter Verwendung von Generative Adversarial Networks (GANs) für die beiden gewählten QS-Applikationen aufgezeigt.
Galina Polte, Katharina Anding, Kun Liu, Daniel Garten, Lennard Wunsch, Gunther Notni
Digitaler KI-Produktionsassistent zur Klassifikation von Schraubkurvenverläufen
Zusammenfassung
Viele Fertigungsprozesse in der Infdustrie sind noch nicht in der Lage das steigende Potential der Digitalisierung teil- oder gar vollumfänglich auszuschöpfen. Zwar steigt der Digitalisierungsgrad durch die Aufzeichnung nützlicher Daten in vielen Bereichen kontinuierlich an [8], jedoch können die Datenbestände noch nicht effektiv für Verbesserungen nutzbar gemacht werden. Dies liegt vor allem daran, dass Ansätze des maschinellen Lernens (eng. Machine Learning) noch nicht durchgängig und nachhaltig in den Fertigungsprozessen implementiert sind [7].
Aus diesem Grund wurde ein technologieunabhängiger KI-Produktionsassistent entwickelt, der zur Erkennung und Klassifizierung von Fehlerbildern bei Schraubkurvenverläufen durch die Analyse der resultierenden Drehmoment-Drehwinkel-Anzugskurve eingesetzt werden kann. Der KI-Produktionsassistent verwendet aufgezeichnete Schraubkurven und Algorithmen des Machine Learnings, um kritische Schraubkurvenverläufe zu detektieren. Der Assistent ist in der Lage, in Echtzeit konkrete Maßnahmen und Handlungsempfehlungen zur Prozessüberwachung, -optimierung oder -steuerung bereitzustellen. Darüber hinaus können die Ergebnisse des Assistenten für Auslegungs-, Sicherheits-, Qualitäts-, Effizienz- und Nachhaltigkeits-Analysen verwendet werden.
Mit diesem innovativen, direkt in die Produktionsumgebung integrierten digitalen Produktionsassistenten lassen sich einerseits Prozessfehler in Echtzeit erkennen und andererseits Analysen erstellen, die prozessübergreifende Montageprobleme aufdecken und Empfehlungen für Abstellmaßnahmen geben. Dadurch leistet der KI-Produktionsassistent einen wertvollen Beitrag für ein nachhaltiges Qualitätsdatenmanagement der Zukunft.
Andreas Schoch, Robert Refflinghaus
Messdaten und Datenbanken – Vergleichbare Messergebnisse als Basis für die effiziente Nutzung von geometrischen Daten
Zusammenfassung
Im Bereich des Automobilbaus werden an vielen unterschiedlichen Prozessschritten geometrische Messdaten aufgenommen. Hintergrund hierfür ist einerseits ein wirtschaftlicher Benefit, da Schadschöpfung vermieden werden kann, gleichzeitig können die Daten genutzt werden, um sogenannte prädiktive Qualitätsregelkreise aufzubauen. Dies bedeutet Messdaten werden verwendet, um die Qualität des Produktes vorhersagen zu können und damit bereits im Vorfeld Schadschöpfung zu vermeiden. Hierbei ist das Ziel, dass die nachfolgenden Prozessschritte entsprechend reagieren, um am Ende ein Produkt innerhalb der Spezifikationsgrenzen zu erhalten. Nun werden geometrische Messdaten nicht nur an unterschiedlichen Prozessschritten, sondern auch mit unterschiedlicher Messtechnik gewonnen. Damit entstehen systematische Einflüsse, die vor allem beim Vergleich von Messergebnissen Unstimmigkeiten hervorrufen. Eine valide Datenbasis ist für die Algorithmen im Bereich Data Analytics eine zwingend erforderliche Ausgangslage. Daher müssen Messdaten nicht nur den aktuellen Zustand widerspiegeln, sondern auch zielführend die Qualität des Produktes beschreiben. Dieser Artikel soll anhand des aufgeführten Beispiels den Einfluss von systematischen Fehlern im Umfeld Karosseriebau darstellen und aufbauend auf der Vorgehensweise als Leitfaden zur Bewertung von systematischen Fehlern auf Basis geometrischer Abweichungen dienen.
Alfred Ziegltrum, Sophie Gröger
Durchgängigkeit und Qualität der Digitalisierung in KMU
Zusammenfassung
Im Rahmen dieses Beitrags wurde der digitale Reifegrad für 22 KMU des verarbeitenden Gewerbes erfasst. In mehrtägigen Vor-Ort-Analysen wurde der individuelle digitale Reifegrad sowohl für das Gesamtunternehmen als auch die einzelnen Unternehmensbereiche erfasst. Die Bewertung erfolgt in 64 Sub-Kategorien, die in sechs Hauptgruppen zusammengefasst sind, und auf einer umfangreichen Beurteilung der Arbeitsplätze und Prozesse beruhen, sowie auf individuellen Befragungen der Beschäftigten. Insgesamt zeigt sich für Unternehmen des verarbeitenden Gewerbes eine deutliche Digitalisierungslücke zwischen direkten und indirekten Bereichen. Für elf der 22 untersuchten Unternehmen endet der papierlose Prozess wortwörtlich an der Schwelle zur Produktion. Und das unabhängig vom digitalen Reifegrad des Unternehmens. Eine ganzheitliche Betrachtung des Themas Digitalisierung erfolgte lediglich in zwei der untersuchten Unternehmen. Die Mehrheit der Unternehmen bleibt mit ihren Digitalisierungsbemühungen an der Oberfläche oder konzentriert sich weiterhin auf Insellösungen. Eine nachhaltige Digitalisierung ist somit nicht gewährleistet, was sich nicht zuletzt in zahlreichen papierbasierten Parallelprozessen zeigt. Die Ergebnisse der Studie tragen dazu bei die Umsetzungsprobleme der Digitalisierung besser zu verstehen und legen für weitere Untersuchungen einen speziellen Fokus auf die Schnittstelle zwischen Produktion und Administration.
Christoph Szedlak, Maximilian Malachow, Bert Leyendecker, Holger Reinemann
Prozessorientierte Prüfplanung auf Basis des Systems der Geometrischen Produktspezifikation und –Verifikation (ISO GPS) in KMU
Zusammenfassung
Das System der Geometrischen Produktspezifikation (ISO GPS-System) stellt heute den international anerkannten Standard zur geometrischen Beschreibung der Produkteigenschaften dar. Im Vordergrund steht dabei die eindeutige Übersetzung der funktionalen Anforderungen eines Bauteils oder einer Baugruppe in Maß-, Form- und Lagetoleranzen sowie Oberflächenangaben. Diese geometrischen Beschreibungen stellen jedoch die Planung von Qualitätsprüfungen zur Überwachung und Steuerung von Fertigungsprozessen vor große Herausforderungen. Die als Zonenmerkmale charakterisierten Form- und Lagetoleranzen und deren messtechnischer Nachweis liefern Ergebnisse, die hinsichtlich der Korrektur typischer Fertigungsabweichungen (z. B. Neigung und Versatz) häufig keine verwendbaren Informationen liefern. Dies erschwert die aktive Steuerung der Prozesse und Vermeidung nicht konformer Bauteile.
Im vorliegenden Beitrag wird ein Vorgehensmodell vorgestellt, dass diese Lücke schließen soll. Grundlegend ist dabei die vollständige Integration der Prüfplanung in den Produktentstehungsprozess sowie die Differenzierung des Prüfzwecks nach produkt- und prozessorientierten Aspekten und die darauf aufbauenden Schritte zur Durchführung einer vollständigen und risikobasierten Prüfplanung. Dies soll die Basis für die frühzeitige Qualitätssteuerung durch Anwendung des Vorgehensmodells zur Prüfplanung bilden. Anhand eines praxisnahen Fallbeispiels werden die mit dem entwickelten Vorgehen erstellten Prüfpläne vorgestellt und deren Ausgestaltung hinsichtlich deren Eignung und Wirtschaftlichkeit verglichen.
Stanley Sittner, Robert Hofmann, Sophie Gröger
Kompetenzmanagementmodell zur proaktiven Qualifizierung der Belegschaft eines Nutzfahrzeug-OEMs im Kontext von Technologiesprüngen
Zusammenfassung
Das kompetitive Umfeld in der Nutzfahrzeugbranche ist immer öfter von sprunghaften technologischen Veränderungen gezeichnet. Die Elektrifizierung des Antriebsstrangs, die Digitalisierung des Fahrerhauses, das autonome Fahren und die zunehmende Vernetzung der Fahrzeuge sind nur wenige Beispiele für derartige Technologiesprünge in naher Zukunft. Ein zentraler Schlüssel, um als Nutzfahrzeug-OEM in diesem Kontext weiterhin erfolgreich bestehen zu können, sind passend qualifizierte Mitarbeitende ermöglicht durch ein systematisches, agiles und proaktives Kompetenzmanagement. Erfolgt nicht ein derartiges Kompetenzmanagement, so werden die Mitarbeitende verzögert und reaktiv qualifiziert. Im schlechtesten Szenario bleiben essentielle Qualifizierungsbedarfe unbefriedigt, wodurch die Wettbewerbsfähigkeit des OEMs aufgrund von Reibungsverlusten und mangelhaften Produkten gefährdet ist. In der Fachliteratur sind kaum Ansätze vorzufinden, die an dieser Stelle Abhilfe verschaffen können. Diese Publikation setzt sich zum Ziel, ein Kompetenzmanagementmodell aufzuzeigen, das es Nutzfahrzeug-OEMs ermöglicht, ihre Belegschaft systematisch, agil und proaktiv für bevorstehende Technologiesprünge zu qualifizieren. D. h. sie widmet sich der Forschungsfrage, wie ein derartiges Modell strukturell und inhaltlich gestaltet sein muss, um diese Art der Qualifizierung ermöglichen zu können. Die zentrale Innovation des Modells besteht darin, dass das Modell fest an einem generischen Nutzfahrzeug-Produkt-entstehungsprozess verankert ist. Mit diesem Ansatz wird das formulierte Ziel erreicht, da alle Technologiesprünge zwangsläufig über den Produktentstehungsprozess in das Fahrzeugprodukt Einzug erhalten und die Qualifizierung somit in diesem Kontext fokussiert werden kann. Das Kompetenzmanagementmodell ist aktuell in einer ersten praktischen Anwendung bei einem führenden europäischen Nutzfahrzeug-OEM für den Technologiesprung Elektrifizierung des Antriebsstrangs.
Maximilian Cedzich, Roland Jochem
Ausbildungskonzept und Reifegradmodell für die ISO GPS-Integration in KMU
Zusammenfassung
Seit mehr als fünfzehn Jahren wird das System der Spezifikation und Verifikation von Bauteilen in Europa reformiert. So ist seit 2005 das ISO-System der Geometrischen Produktspezifikation und Verifikation (ISO GPS-System) entstanden, das auf die nonverbale Spezifikation und Überprüfung von Bauteilen abzielt. Durch die notwendige umfangreiche Spezifikationssprache, die zusätzlich mathematische Beschreibungen, Verweise, 3D-Spezifikationen, Vorgaben, Regeln für die Fertigung und Messung etc. enthält, hat das ISO GPS-System in den letzten Jahren eine Komplexität erreicht, die von den Fachleuten in den anwendenden Unternehmen, insbesondere kleinen und mittleren Unternehmen (KMU) sowie Handwerksbetrieben, nicht zu überblicken ist. Dies macht eine vollständige Umsetzung in der unternehmerischen Praxis nahezu unmöglich. Es gibt kein allgemein akzeptiertes Vorgehensmodell für die Integration des ISO GPS-Systems in die Unternehmen. Darüber hinaus fehlen Vorgaben für die vielschichtige Aus- und Weiterbildung von Fach- und Führungskräften. Oft sind es kleine Unternehmen, die als Auftragnehmer von Großunternehmen mit den Herausforderungen durch ISO GPS-konforme Spezifikationen zu kämpfen haben. Dieses Problem hat sich aktuell durch den rasanten Fortschritt der Digitalisierung und der vermehrten Verwendung von 3D CAD-Daten einschließlich Produktionsdaten oder der Anwendung digitaler Zwillinge noch verstärkt. Aus diesem Grund wurde im Rahmen eines Projektes eine Implementierungsstrategie für das ISO GPS-System für kleine und mittlere Unternehmen erforscht. Dazu war es notwendig, ein Ausbildungskonzept auf Basis von GPS-Kompetenzen zu entwickeln, den Integrationsprozess als Roadmap abzubilden und ein Reifegradmodell zur Bewertung des Integrationsprozesses zu konzipieren. In diesem Beitrag werden die wesentlichen Ergebnisse des Projektes vorgestellt.
Juliane Schuldt, Sophie Gröger
Backmatter
Metadaten
Titel
Nachhaltiges Qualitätsdatenmanagement
herausgegeben von
Sophie Gröger
Copyright-Jahr
2023
Electronic ISBN
978-3-658-40588-5
Print ISBN
978-3-658-40587-8
DOI
https://doi.org/10.1007/978-3-658-40588-5

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.