Refine
Year of publication
- 2021 (13) (remove)
Document Type
- Master's Thesis (6)
- Doctoral Thesis (5)
- doctorallecture (2)
Is part of the Bibliography
- no (13)
Keywords
Institute
Die Variantenfließfertigung erlaubt die wirtschaftliche, weil weitestgehend standardisierte, Herstellung kundenindividueller Produkte in hoher Stückzahl. Die zielkonforme Gestaltung der Prozesse der Produktionsplanung und –steuerung ist dabei jedoch äußerst anspruchsvoll. In dieser Dissertation wird ein Referenzprozessmodell für die Reihenfolgeplanung der Variantenfließfertigung entwickelt und um ein praxisorientiertes Vorgehen zur unternehmensspezifischen Konfiguration ergänzt.
Trotz technischer Möglichkeiten für eine hochfrequentere Planung werden noch immer nächtliche IT-Planungsläufe zur „Aktualisierung“ von Daten in der PPS durchgeführt. Produzierende Unternehmen sind nicht in der Lage zu bewerten, in welcher Häufigkeit Planungsläufe durchzuführen und welche Rahmenbedingungen dazu notwendig sind. Ergebnisse dieser Arbeit sind eine Unterstützung zur Bewertung der Häufigkeit von Planungsläufen sowie Gestaltungsempfehlungen für relevante Rahmenbedingungen der PPS.
Die zunehmende Konkurrenz auf dem Markt des Maschinen- und Anlagenbaus führt zu Preiskämpfen zwischen den Anbietern und somit zu sinkenden Margen, die durch den Verkauf von Maschinen und Anlagen erzielt werden können. Eine Lösung zur Kompensation dieser Auswirkung stellt der Verkauf produktbegleitender datenbasierter Dienstleistungen dar. Diese ermöglichen basierend auf Daten, die während des User-Cycles einer Maschine oder Anlage erzeugt werden, neue Geschäftspotentiale für den Maschinen- und Anlagenbauer zu schaffen. Entscheidend für die Realisierung der entsprechenden Dienstleistungen ist dabei der Übergang von Daten und Informationen der Maschinen oder Anlagen bzw. Betreiber zu den Herstellern. Basierend auf diesen können die Maschinen- und Anlagenbauer wiederum durch Auswertung oder Analyse mehrwertschaffende Dienstleistungen wie beispielsweise Instandhaltungsmaßnahmen, bedarfsgerechte Betriebsmittelbereitstellungen oder Maschinenoptimierungen anbieten. Zuverlässige Informationen spielen hierbei eine zentrale Rolle, denn nur wenn diese zur Verfügung stehen, können gute und objektive Entscheidungen getroffen werden. Für die Umsetzung fließen zwangsweise Daten und Informationen vom Betreiber der Maschinen oder Anlagen ab, was bei einer Vielzahl von Unternehmen zu einer großen Skepsis führt. Etablierte Technologien wie die Cloud schaffen dabei nur beschränkt die Kompensation und den Aufbau fehlenden Vertrauens, weswegen diese nicht oder nicht umfassend eingesetzt werden und das Potential datenbasierter Dienstleistungen in der Praxis nicht umfangreich freigesetzt wird. Die Blockchain-Technologie kombiniert Ansätze aus akademischen Disziplinen wie der Kryptografie, dem Netzwerk- und Datenbankmanagement sowie dem Design wirtschaftlicher Anreizmechanismen. Sie stellt durch ihre Eigenschaften der Transparenz, Dezentralität, Sicherheit und Unveränderbarkeit eine Lösung für die beschriebenen Probleme dar und schafft eine technologiebasierte Kontrolle. Die Umsetzung bzw. Gestaltung eines blockchainbasierten Systems bietet jedoch vielseitige technische Gestaltungsfreiheiten, die eine hohe Auswirkung auf die tatsächliche Eignung für den jeweiligen Einsatzfall haben. Daraus resultierend wird in dieser Dissertationsschrift das Ziel verfolgt, Gestaltungsempfehlungen zur blockchainbasierten Maschinen- und Anlagenanbindung auf Basis der Anforderungen datenbasierter Dienstleistungen zu erarbeiten.
Die industrielle Entwicklung der vergangenen Jahre hat insbesondere dazu geführt, dass sich Produkte und Dienstleistungen der produzierenden Industrie stärker an den individuellen Kundenbedürfnissen orientieren. Die Marktentwicklungen verlangen daher insbesondere an Hochlohnstandorten spezifische Differenzierungsstrategien und einen hohen Grad an Flexibilität. All dies führt zu immer komplexeren Produkt- und Fertigungsstrukturen, kürzeren Entwicklungszyklen sowie dem vermehrten Auftreten von Änderungsanfragen.
Die Handhabung von Änderungen an Produkten und Prozessen stellt für viele Unternehmen schon heute häufiger den Normalzustand als die Ausnahme dar. So ist insbesondere auf eine effiziente Handhabung des Änderungsmanagementprozesses zu achten, um schnellstmöglich die Ausrichtung an neu auftretende Anforderungen zu gewährleisten. Durch eine mangelnde Integration der im Einsatz befindlichen betrieblichen Anwendungssysteme ist es den meisten Entscheidungsträgern im Änderungsmanagementprozess jedoch nicht möglich, ihre Entscheidung datenbasiert und objektiv zu treffen. Digitalisierungstrends führen somit nicht zu erhofften Synergieeffekten im Bezug auf die Handhabung von Änderungsanfragen. Da das größte Potenzial für die Unterstützung der industriellen Praxis im Bewertungsprozess einer Änderungsanfrage liegt, ist es das Ziel dieser Dissertationsschrift, die Welt der betrieblichen Anwendungssysteme mit dem Bewertungsprozess zu verknüpfen. Somit sollen Synergieeffekte bei der datenbasierten Bewertung von Änderungsanfragen genutzt werden können sowie die Effizienz im Bewertungsprozess gesteigert werden. Die objektivierte und beschleunigte datenbasierte Bewertung von Änderungsanfragen führt somit zu einer vermehrten Nutzung dieser. Unternehmen wird es somit zukünftig besser möglich sein, sich schnell an neuen Anforderungen auszurichten und Wettbewerbsvorteile zu erzielen.
Agilität gilt als zentrale unternehmerische Fähigkeit, um Veränderungen proaktiv zu erkennen und diese schnell und effektiv zu vollziehen. Industrie 4.0 bietet Unternehmen das Potenzial dies zu beherrschen und schnell auf Ereignisse zu reagieren. Die Vision ist ein agiles, lernendes Unternehmen, welches in der Lage ist, sich einer wandelnden Umwelt kontinuierlich anzupassen. Dies bedeutet für Unternehmen die Nutzung von Optimierungspotentialen durch eine durchgängige, intelligente Vernetzung von Menschen, Maschinen und Objekten. Dabei wächst die Bedeutung der Instandhaltung, indem sie die Funktionsfähigkeit immer stärker vernetzter und technisch komplexer werdenden Anlagen sicherstellt. Die technologischen Elemente von Industrie 4.0 kombiniert mit einer zukunftsfähigen Instandhaltung befähigen den Wandel zu einem agilen, lernenden Unternehmen.
Die Umsetzung der Potenziale, die mit Industrie 4.0 einhergehen, werden von den Unternehmen erkannt und nehmen vielfach ein strategisches Zukunftsfeld ein. Allerdings erreicht ein Großteil, der in diesem Kontext definierten technologie-basierten Projekte nicht die gewünschten Resultate. Der Hauptgrund für das Scheitern der Transformationsprojekte besteht in kulturellen Hürden. Die digitale Transformation hat keinesfalls nur eine überwiegend technologische Dimension, sondern vor allem eine kulturelle und soziale Dimension, die über den Erfolg der digital induzierten Veränderung endscheidet.
Vor diesem Hintergrund besteht das Ziel der Dissertationsschrift in der Gestaltung von Reifegraden der Unternehmenskultur für die Entwicklung eines agilen, lernenden Unternehmens und deren Anwendung am Beispiel der Instandhaltung. Dazu werden die technologischen Entwicklungsstufen einer Instandhaltungsorganisation im Kontext von Industrie 4.0 beschrieben. Hierzu wird der Einfluss technischer Entwicklungen auf die Kern- und Supportprozesse einer Instandhaltungsorganisation untersucht. Ergebnis ist eine Beschreibung der Instandhaltung auf vier Entwicklungsstufen bis zur agilen, lernenden Instandhaltungsorganisation. Basierend auf dieser Beschreibung wird die Unternehmenskultur ausgestaltet, die zur Realisierung der technologisch-induzierten Potenziale notwendig ist. Abschließend wird mithilfe geeigneter Instrumente ein Kulturentwicklungsprozess abgeleitet, welcher eine erfolgreiche Entwicklung und das kontinuierliche Management der Unternehmenskultur zur Steigerung der Agilität im Kontext von Industrie 4.0 ermöglicht.
Informationssicherheit gewinnt in produzierenden Unternehmen in Zeiten von Industrie 4.0 stetig an Bedeutung. Mit der steigenden Vernetzung nehmen nicht nur die zur Verfügung stehenden Daten, sondern auch die Anzahl potenzieller Schwachstellen für Cyberangriffe zu. Gleichzeitig gewinnen die erhobenen Daten an Bedeutung und Wert, nicht nur für die Unternehmen selbst, sondern auch für ihre Konkurrenten und andere Akteure. Entsprechend steigt die Zahl der Cyberangriffen auf produzierende Untemehmen. Besonders für kleine und mittelständische Unternehmen ist es dabei aufgrund ihrer begrenzten finanziellen und personellen Kapazitäten schwierig eigene Expertise im Bereich der Införmationssicherheit aufzubauen.
Ziel der Arbeit ist es daher Unternehmen die Integration von Informationssicherheit bei der Umsetzung von Industrie 4.0 zu vereinfachen. Dazusollen zunächst relevante Industrie 4.0 Anwendungsfalle mit Hilfe von Anwendungsfalldiagrammen beschrieben und visualisiert werden. Darauf aufbauend wird durch Identifikation der charakteristischen Merkmale und deren möglichen Ausprägungen eine Methodik zur allgemeinen Beschreibung der Use Cases abgeleitet, tm Anschluss werden für produzierende Unternehmen relevante Schwachstellen der Information beschrieben. Diese werden dann in Zusammenhang mit den in der Methpdik beschriebenen Merkmatsausprägungen gebracht. Dadurch sind mögliche Schwachstellen bei der Umsetzung von Industrie 4.0schnelter ersichtlich und die Integration von Informationssicherheit einfacher und effizienter möglich.
Somit leistet diese Arbeit einen Beitrag zur Verbesserung von Informationssicherheit in produzierenden Unternehmen. Durch die mit den Merkmalsausprägungen in Beziehung gebrachten Schwachstellen werden diese schnell ersichtlich. Außerdem ist die Methodik aufgrund ihrer Allgemeingültigkeit nicht nur auf die in der Arbeit beschriebene Anwendungsfälle begrenzt. Damit lässt sich die Anzahl potenzieller Gefährdungsstellen reduzieren, wodurch die Wettbewerbsfähigkeit der Unternehmen erhalten bleibt.
Im Rahmen der Arbeit wird ein Framework für Datenqualität (DQ) für Artikelstammdaten für ein Elektromobilitätsunternehmen entwickelt und für das Quellsystem der Entwicklung (PLM) implementiert. Zunächst werden dazu Anforderungen an die Datenqualität durch Experteninterviews erhoben und in Geschäftsregeln zur Bestimmung der Datenqualität überführt. Die Geschäftsregeln werden dabei in Abhängigkeit des Lebenszyklusstatus (Entwicklungsstatus) der Artikel definiert. Durch einen Abgleich mit gängigen Datenqualitätsframeworks werden die Geschäftsregeln Datenqualitätsdimensionen zugeordnet und dadurch ein individualisiertes Framework für Datenqualität in Abhängigkeit des Lebenszyklusstatus der Artikelstammdaten entwickelt.
Anschließend werden Dashboards zur Visualisierung der Datenqualitätsergebnisse und Ableitung von Maßnahmen zur Verbesserung der Datenqualität mittels Tableau entwickelt und implementiert, mit Hilfe dessen das entwickelte Datenqualitätsframework validiert wird.
eingesetzte Methoden:
Literaturrecherche, Experteninterviews, Modellbildung
Ergebnisse:
Lebenszyklusstatus-basiertes Datenqualitäts-Framework für Artikelstammdaten
initiale Datenqualitätsmessung und Darstellung der Ergebnisse mittels Datenqualitäts-Dashboards
Entwicklung einer Simulation zur Erzeugung synthetischer Eventdaten für die Anomalieerkennung
(2021)
In Zeiten immer schnellerer Marktzyklen und der steigenden Bedeutung von Nachverfolgbarkeit nimmt die Bedeutung von Supply-Chain-Event-Management-Systemen weiter zu. Die Effektivität dieser Systeme hängt dabei allerdings von der Korrektheit der gesammelten Daten ab. Fehlerhafte und unvollständige Daten können zu ungünstigen Reaktionen führen und somit Effizienzverluste und steigende Kosten verursachen. Ein Lösungsansatz zur Identifizierung und Beseitigung der fehlerhaften Daten ist die Anwendung von künstlicher Intelligenz in Form von Anomalieerkennung. Für die Entwicklung eines solchen Ansatzes ist es allerdings notwendig eine große Datenmenge verschiedener Szenarien bereitzustellen, sodass die künstliche Intelligenz aufbauend darauf einen Lernprozess durchlaufen kann. Aus diesem Grund fokussiert sich diese Masterarbeit auf die Entwicklung und Durchführung einer Simulation zur Erzeugung synthetischer Eventdaten einer generischen Supply Chain als Basis für die Entwicklung einer künstlichen Intelligenz in Form von Anomalieerkennung im Supply-Chain-Event-Management.
Für die Realisierung des Entwicklungsvorhabens werden im Simulationsprogramm AnyLogic mehrere modulare Supply-Chain-Elemente konstruiert, welche beliebig zusammengefügt werden können. Als Grundlage fungieren dabei die im Datenstandard EPCIS definierten Prozessschritte. Das Einstreuen fehlerhafter Daten soll durch ein konfigurierbares Störelement realisiert werden.
Erwartetes Ergebnis der Arbeit ist eine Simulation, die synthetische Eventdaten einer generischen Supply-Chain erzeugt und dokumentiert. Der generierte Datensatz enthält neben den korrekten Daten ebenfalls durch das Störelement erzeugte fehlerhafte Eventdaten.