FIR e. V. an der RWTH Aachen
Filtern
Erscheinungsjahr
Dokumenttyp
- Zeitschriftenartikel (536)
- Dissertationsschrift (370)
- Abschlussarbeiten: Masterarbeit (288)
- Konferenzveröffentlichung (232)
- Doktorvortrag (209)
- Abschlussarbeiten: Bachelorarbeit (170)
- Beitrag in Sammelbänden/Enzyklopädien (150)
- Vortrag Industrie/Forschung (93)
- Abschlussbericht (66)
- Whitepaper/Positionspapier/Expert-Paper (63)
Sprache
- Deutsch (1795)
- Englisch (395)
- Mehrsprachig (115)
- Spanisch (2)
Gehört zur Bibliographie
- nein (2307)
Schlagworte
- 1 (3)
- 2 (1)
- 3 (2)
- 3 PhasenKonzept (1)
- 3-Phasen-Konzept (2)
- 3D Druck (1)
- 3D-Druck (5)
- 3GPP (1)
- 3PhasenKonzept (7)
- 5G (23)
Institut / FIR-Bereiche
- FIR e. V. an der RWTH Aachen (2307)
- Produktionsmanagement (523)
- Dienstleistungsmanagement (479)
- Informationsmanagement (335)
- Business Transformation (146)
- Smart Mobility (41)
Der Digitale Produktpass (DPP) ist ein Konzept zur Erfassung und Bereitstellung produktbezogener Informationen während des gesamten Produktlebenszyklus, um Transparenz bezüglich Herkunft, Zusammensetzung und End-of-Life-Behandlungsoptionen zu schaffen. Somit bildet er eine wesentliche Grundlage für die Kreislaufwirtschaft. Es existieren bereits Ansätze für die inhaltliche Konzeption eines DPP für verschiedene Branchen, Datenstandards zur Erfassung von Produktinformationen und mehrere Marktlösungen zur praktischen Umsetzung. Allerdings sind Unternehmen nicht ausreichend auf die Umsetzung von DPP vorbereitet. Eine Herausforderung besteht darin, die relevanten Daten zur Deckung des Informationsbedarfs im Kontext der Kreislaufwirtschaft zu identifizieren und diese Daten mithilfe der bereits vorhandenen IT-Systemlandschaft zu konsolidieren. Die Analyse eines MES liegt hierbei im Fokus, da neben Bauteildaten auch die in der Produktion anfallenden Prozessdaten von Bedeutung sind.
Das Forschungsziel ist demnach die Überführung der im MES anfallenden Daten zu Informationen, die für einen auf die Ermöglichung von Remanufacturing ausgerichteten DPP relevant sind. Dazu wird zunächst eine Literaturrecherche zur Identifizierung potenziell relevanter Prozessdaten in MES sowie in einem DPP für das Remanufacturing erforderlichen Informationen durchgeführt. Um den aktuellen Stand der Technik zu berücksichtigen und konkrete Datenbedarfe für das Remanufacturing zu erfassen, werden diese Grundlagen mit Experteninterviews im produzierenden Sektor angereichert. Die Gegenüberstellung des Informationsbedarfs eines DPP und Datenangebots eines MES erlaubt die Ableitung einer Methodik zur Überführung relevanter Daten in einen DPP. Diese Methodik wird anschließend in der DFA Demonstrationsfabrik Aachen GmbH prototypisch validiert. Die Ergebnisse sollen produzierende Unternehmen unterstützen, mit ihrer bestehenden IT-Systemlandschaft DPP im Kontext des Remanufacturing umzusetzen.
Business ecosystem analysis of companies undergoing digital transformation - A case study analysis
(2021)
In den vergangenen Jahren haben fahrerlose Transportsysteme (FTS) eine rasant fortschreitende Entwicklung durchlaufen, insbesondere im Hinblick auf ihre Integration und Kommunikation, sowohl untereinander als auch mit anderen IT-Systemen (z. B. VDA 5050). FTS sind nicht länger starre abgegrenzte und unabhängige Systeme, sondern sie sind in der Lage, in Echtzeit mit anderen IT-Systemen und Assets zu kommunizieren und zu reagieren. Um die Vorteile dieser Integration und Kommunikation zu nutzen, müssen Unternehmen diverse Herausforderungen bewältigen. Dazu gehören beispielsweise die Festlegung notwendiger Datenquellen und entsprechender Datensätze, die Identifikation relevanter IT-Systeme sowie die Bestimmung geeigneter Schnittstellen und Kommunikationsfrequenzen.
In dieser Arbeit werden mittels einer Literaturrecherche mögliche Potenziale einer vertieften Integration von FTS in die IT-Systemlandschaft identifiziert, und die damit verbundenen datenbezogenen Herausforderungen werden ermittelt. Dabei werden Aspekte wie die Definition von Datenquellen, die Nutzung und Übertragung von Daten, die Integration in bestehende IT-Systeme und deren Kompatibilität, die Kommunikation zwischen den verschiedenen Komponenten, Skalierbarkeit und Flexibilität der Systeme sowie die Reaktion auf Störungen bei der Datenerfassung betrachtet. Anschließend wird ein Modell zur systematischen Identifikation und Bewertung dieser Herausforderungen sowie entsprechender Handlungsoptionen entwickelt.
Das Modell soll Unternehmen dabei unterstützen, die Potenziale einer vertieften Integration von FTS in die IT-Systemlandschaft sowie damit verbundene datenbezogene Herausforderungen rechtzeitig vor der FTS-Implementierung zu identifizieren.
Entwicklung eines Beschreibungsmodells für die Standardisierung industrieller Dienstleistungen
(2016)
In dieser Arbeit wird die Zielsetzung verfolgt, ein Beschreibungsmodell für die Standardisierung industrieller Dienstleistungen zu entwickeln. Das Beschreibungsmodell wird in Form einer Morphologie angelegt und neben der Standardisierung primär die Prozesse der industriellen Diensleistungserstellung fokussieren. Es werden prägende Merkmale von Standardisierungen und Prozessen herausgearbeitet und geeignete Merkmalesausprägungen hergeleitet. Einerseits soll die Morphologie ermöglichen, konkrete Standardisierungsmaßnahmen zu beschreiben und anhand der Merkmalsausprägungen Rückschlüsse auf die Ausrichtung und Wirkweise der Standardisierung zu ziehen zu können. Auf der anderen Seite sollen Prozesse derart beschrieben werden, dass Standardisierungspotenziale erkennbar und die Auswirkungen von Standardisierungsmaßnahmen über veränderte Merkmalsausprägungen der Prozessbeschreibung feststellbar werden.
Durch den steigenden internationalen Wettbewerb sind funktionierende, flexible und ressourcen-effiziente Supply-Chains heutzutage eine Grundvoraussetzung, um stetig steigende und sich verändernde Kundenanforderungen zu erfüllen. Ein wichtiger Faktor ist hierbei eine durchgängige Transparenz in der Supply-Chain, um zum richtigen Zeitpunkt schnelle und richtige Entscheidungen treffen zu können. Um diese Transparenz zu gewährleisten, müssen die richtigen Daten in ausreichender Qualität zur Verfügung stehen.
Die große Anzahl an unterschiedlichsten Daten, die heutzutage in den Unternehmen entlang einer Supply-Chain generiert werden, erschweren eine sinnvolle Entscheidungsfindung ohne vorherige Aufbereitung und Analyse dieser Daten.
Im Rahmen dieser Arbeit soll eine Softwarelösung entwickelt werden, welche eine Darstellung der Daten in aufbereiteter Form erlaubt und somit eine Entscheidungsunterstützung für den Supply-Chain-Planer bietet. Hierbei sollen nicht nur die relevanten Daten ausgewählt und angezeigt werden, sondern auch Kennzahlen bestimmt werden, welche zu einer Entscheidungsfindung beitragen könnten.
Ein am FIR entwickeltes Konzept eines Assistenzsystems zur Entscheidungsunterstützung auf Supply-Chain-Ebene bildet die Grundlage für diese Arbeit. Durch eine Literaturrecherche soll zunächst ermittelt werden, welche bereits bestehenden Softwareprodukte bei der Entscheidungsunterstützung im Supply-Chain-Management im Einsatz sind und inwiefern diese für den Zweck dieser Arbeit in Frage kommen. Des Weiteren sollen diejenigen Kennzahlen definiert und den Fragestellungen zugeordnet werden, die für eine entscheidungsunterstützende Darstellung der Daten benötigt werden. Darauf aufbauend muss ein Softwaretool entwickelt werden, welches die Visualisierung der zuvor definierten Kennzahlen ermöglicht. Die Validierung erfolgt mithilfe von generierten „Dummy-Daten“, die die hinterlegte Datenbank mit Daten füllen.
New challenges for companies appear as supply chain networks become more complex with increasing cost pressure, customer expectations and market volatility. Nowadays, logistics is an important competitive advantage, where fast and accurate decision-making is required. At the same time, companies often rely on performance measurement systems and key performance indicators (KPI) to improve their strategy and operations continuously.
Supply chain decisions are often interconnected as one decision can affect several others in the network. Besides, it is difficult to choose the right KPI to monitor the decision outcome. Moreover, current research about KPI relationships often relies on subjective evaluation. Currently there is no established scientific approach to analyze the interdependencies between decisions. Without understanding the interactions between decisions, the influencing factors will remain unclear and subsequently ignored, which leads to a decision process that lacks transparency.
Therefore, this thesis aims to analyze the interactions between strategic, tactical and operative decisions in the context of sourcing to provide transparency for decision-making.
This research proposes a generic approach that combines the Analytical Hierarchy Process (AHP) and network science to identify the driving factors of decisions systematically. Driving factors of decisions and suitable KPIs will be indicated through a constructed network analysis. A literature analysis is conducted to identify appropriate KPIs and decision factors for sourcing decisions. A generic cause-and-effect network is built by breaking down KPIs hierarchically. Moreover, by visualizing the relationships between decisions and decision factors, a transparent and informative network will be presented. The results will be integrated into a tool that enables the analysis of interdependencies of decisions based on network algorithms.
Der Wandel in dem sich die globale Marktwirtschaft befindet stellt für viele Unternehmen eine große Herausforderung dar. Um die zunehmende Komplexität der Technologie zu meistern und mit der Geschwindigkeit des Marktes mitzuhalten beschränken sich immer mehr Unternehmen auf ihre Kernkompetenzen. Das steigert die Bedeutung einer gut funktionierenden Supply-Chain. Eine Voraussetzung hierfür ist ein großer und schneller Datenstrom damit die Unternehmen schnell und flexibel auf ihr Umfeld reagieren können.
Um diese Daten zu nutzbaren Informationen verarbeiten zu können benötigt es jedoch Erfahrung und Wissen über Zusammenhänge der Daten und den Kontext in dem Sie genutzt werden sollen. Ohne dieses Wissen bleiben die großen Mengen an Daten ohne Mehrwert für das Unternehmen. Besonders wichtig zum verarbeiten von Daten, ist eine hohe Transparenz entlang der Supply-Chain.
Um Entscheidungen aufgrund der Informationen treffen zu können, muss bekannt sein, welche Daten die Entscheidungen beeinflussen. Außerdem sind die Auswirkungen von Entscheidungen untereinander von großer Bedeutung. Es ist entscheidend
zu wissen ob Entscheidungen andere Entscheidungen entlang der Supply-Chain beeinflussen oder voraussetzen.
Diese Arbeit beschäftigt sich mit den Wechselwirkungen zwischen Entscheidungen in der Beschaffung. Ziel ist es, die Entscheidungen, die im Beschaffungsprozess anfallen, zu charakterisieren um mögliche zusammenhänge und Abhängigkeiten
aufzuzeigen.
Zunächst wird der Grundlegende Aufbau einer Entscheidung beschrieben und bereits bestehende Ansätze zur Charakterisierung von Entscheidungen recherchiert.
Darauf folgt die Beschreibung der Beschaffung als Teil der Supply-Chain und die Abgrenzung von anderen Funktionsbereichen eines Unternehmens. Dabei werden Verbindungen und Abhängigkeiten zu anderen Unternehmensteilen und Markteilnehmern
aufgezeigt und die anfallenden Entscheidungen in der Beschaffung herausgearbeitet und beschrieben.
Auf Grundlage des Aufbaus von Entscheidungen, bestehenden Ansätzen und dem Wissen über den Funktionsbereich der Beschaffung werden anschließend Merkmale von Entscheidungen im Bereich Beschaffen herausgearbeitet und für jedes
Merkmal spezifische Ausprägungen definiert. Diese Merkmale und Ausprägungen werden in einem Morphologischen Kasten zusammengetragen.
Die herausgearbeiteten Entscheidungen in der Beschaffung werden mit Hilfe des Morphologischen Kasten bewertet. Dies geschieht durch eine begründete Einordnung der erarbeiteten Entscheidungen in eine der Ausprägungen jedes Merkmals.
Zur Auswertung der Bewertung wird ein hierarchischer Clusteralgorithmus benutzt. Hierbei werden immer die beiden ähnlichsten Entscheidungen zu einem Cluster zusammengefasst. Nach und nach entstehen somit Gruppen verschiedene
Cluster von Entscheidungen.
In der Automobilzuliefererindustrie liegt der strategische Fokus oftmals in der Maximierung der Auslastung der Produktionslinien bzw. des Gesamtsystems. Damit einhergehend werden Ausfall- und Stillstandszeiten möglichst minimiert. Um möglichst produktiv zu agieren, werden bereits heute viele Verbesserungsprojekte seitens der Zulieferer initiiert und dokumentiert. Dadurch wird ein kontinuierlicher Verbesserungsprozess gewährleistet, der es den Unternehmen ermöglicht aus den Fehlern zu lernen. Die dabei entstehenden Daten, die oftmals in Textform in verteilten Systemen vorliegen, werden in diesem Zuge oftmals nicht analysiert, um bespielsweise unbekannte Muster zwischen auftretenden Fehlern und deren Lösungen zu erkennen. Unternehmen fehlt eine systematische Bewertungsmethode, um die Potenziale von Text Mining zur Analyse von Zusammenhängen zwischen auftretenden Fehlern und deren Lösung zu identifizieren, um dadurch noch unbekannte Potenziale zu heben.
Um diese Herausforderungen zu lösen, werden in einem ersten Schritt die Anwendungspotenziale von Text Mining beschrieben und übergeordnete Problemstellungen identifiziert. Daran anschließend werden Merkmale, welche die Verfahren und deren Eignung anhand von Effizienz- und Effektivitätskriterien klassifizieren, beschrieben. So wird beispielsweise analysiert, wie aufwendig die Durchführung der einzelnen Verfahren zur Identifikation der Muster ist (Anzahl der Iterationen, Anpassungsbedarf, Automatiserbarkeit, etc.).
Validiert wird das Vorgehen am Beispiel eines Automobilzulieferers, in dem Ursachen von Problemen im Herstellungsprozess mit Hilfe von Text Mining analysiert und Verknüpfungen zwischen speziellen Problemen und standardisierten Dokumenten hergestellt werden.
Das damit verbundene Ziel dieser Arbeit ist es eine systematische Bewertungsmethode in Form eines Leitfadens zu erarbeiten, der Pratikern hilft den Einsatz und den Aufwand von Text Mining zu bewerten.
Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits von Anwendungsideen für GAIA-X
(2023)
Der mit der digitalen Transformation einhergehende Datenaustausch zum Zweck der Datenverarbeitung findet derzeit vor allem über das Cloud-Computing statt. Außereuropäische Anbieter mit großer Marktmacht dominieren diese Cloud-Angebote. Dabei wirft die Marktstruktur bisher unbeantwortete Fragen zur Datensouveränität auf. Hinzu kommen Fragen der Portabilität, Interoperabilität und Interkonnektivität der verwendeten Systeme. Diese Fragen versucht die Initiative ‚GAIA-X‘ zur Errichtung einer souveränen europäischen Dateninfrastruktur aufzufangen und zu beantworten. Als föderiertes System soll ‚GAIA-X‘ kein Cloud-Anbieter sein, sondern verschiedene Datenplattformen über offene Schnittstellen und Standards zu einem Dateninfrastruktur-Ökosystem verbinden. Allerdings liegt die Expertise zu ‚GAIA-X‘ aktuell nur bei wenigen Experten. Auf Nutzerseite besteht hingegen großer Wissensbedarf. Dies macht es erforderlich, einen Entwicklungsbaukasten für einen niedrigschwelligen Einstieg in ‚GAIA-X‘ zu entwickeln. Ziel dieser Arbeit ist die Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits vorliegender Anwendungsideen für ‚GAIA-X‘ als möglicher Baustein dieses Baukastens. Hierzu erfolgt zunächst ein Technologievergleich von ‚GAIA-X‘ mit vergleichbaren Datenaustauschtechnologien, um eine Beschreibungscharakteristik für ‚GAIA-X‘ zu erhalten. Anhand dieser werden dann Bewertungskriterien für Anwendungsideen im Kontext von ‚GAIA-X‘ gebildet. Anschließend werden Methoden zur Ideenfindung daraufhin analysiert, ob sie im Hinblick auf die Bewertungskriterien wertige Anwendungsideen für ‚GAIA-X‘ generieren. Eine geeignete Methode wird ausgewählt und gegebenenfalls an die Erfordernisse angepasst. Abschließend erfolgt die Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits formalisierter Anwendungsideen für ‚GAIA-X‘. Erwartete Ergebnisse sind eine Beschreibungscharakteristik für ‚GAIA-X‘, Bewertungskriterien für sowie eine Methode zur Generierung von Anwendungsideen für ‚GAIA-X‘ und ein Evaluationswerkzeug zur Bestimmung des Fits von ‚GAIA-X‘-Anwendungsideen.
Die Zielsetzung der vorliegenden Bachelorarbeit ist es, einen Ansatz zur Systematisierung von Reaktionsstrategien für Abweichungssituationen in der Fertigungssteuerung zu entwickeln. Der entwickelte Ansatz soll es ermöglichen, den Reaktionsaufwand für Abweichungssituationen zu reduzieren und somit eine schnellere Reaktion auf Abweichungen in der Fertigungssteuerung zu ermöglichen.
In der vorliegenden Arbeit wird die Typisierung von Machine-Learning-Anwendungsfällen in der Intralogistik untersucht, einem Sektor, der durch die digitale Transformation und die Einführung von Industrie 4.0-Technologien geprägt ist. Ziel ist es, ein Rahmenwerk zur systematischen Identifikation und Kategorisierung von Machine-Learning-Anwendungen zu entwickeln, um deren Effizienz und Wirksamkeit in logistischen Prozessen zu optimieren. Basierend auf einer umfangreichen Literaturrecherche und einer Reihe von Fallstudien werden spezifische Einsatzmöglichkeiten des maschinellen Lernens analysiert und klassifiziert. Die Ergebnisse bieten sowohl theoretische Einblicke in die systematische Anwendung digitaler Technologien in der Logistik als auch praktische Empfehlungen für deren Implementierung zur Steigerung der operationellen Effektivität in der Intralogistik. Diese Forschung leistet einen Beitrag zum Verständnis der Rolle des maschinellen Lernens in der digitalisierten Logistik und unterstreicht die Bedeutung einer strukturierten Herangehensweise für die erfolgreiche Adoption dieser Technologien in logistischen Abläufen.
MES Vertrieb im Anlagenbau
(2018)
Machine Learning methods have shown great potential in production during recent years and have subsequently played a significant role in driving the Industry 4.0 revolution. However, there is still a lack of systematic guidelines for identifying and implementing viable ML use cases in the manufacturing industry . The aim of this work therefore, is to identify whether machine learning classifiers can be used in addition to a traditional process monitoring method (tolerance window) in order to improve quality control of staking processes on an assembly line.
Applied methods:
Extensive literature research will be initially conducted in order to understand ongoing research in this field and to clearly define the research gap. For a scientific and structured execution, CRoss Industry Standard Process for Data Mining (CRISP-DM) method will be used as the backbone of the thesis. The first step of Business Process Understanding would include learning about the staking and quality testing processes. This will be followed by data extraction and Exploratory Data Analysis (EDA) as part of Data Understanding. The Data Preparation step would include cleaning, filtering, feature engineering and scaling in order to use as input for the model.
Preparing the Machine Learning model will include selecting, modeling, training and testing the appropriate classification algorithms e.g. Näive Bayes, XGBoost, Feed Forward Neural Network and Random Forest. Depending on a pre-defined success criteria such as Accuracy, Precision etc. the training and test results will be evaluated and the best performing model will be selected. Further, subject to the model performance and business requirments , possible methods for deployment of the classifier in real time production will be discussed.
Expected results:
This work will help to identify if process curve data from staking processes can be used to train machine learning models and improve quality monitoring on an assembly line. Good model performance will indicate potential to reduce waste and decrease unnecessary processing time at the testing station. Additionally, it will also assist the process experts understand unknown influences on the product quality. A systematic approach to implement machine learning for similar use cases involving curve data of staking processes and will be developed.
Reifegradmodell zur Bestimmung der Auswirkungen von Industrie 4.0 auf den industriellen Service
(2019)
Kürzere Produktlebens- und Innovationszyklen sowie eine zunehmende Kreislaufwirtschaft stellen
Unternehmen vor die Herausforderung, ihre Produktionsprozesse schnell an die sich wandelnden
Anforderungen anzupassen. Entscheidend für die Umsetzung einer anpassungsfähigen Produktion ist
eine flexible Intralogistik. Dabei setzen Unternehmen zunehmend auf autonome mobile Roboter (AMR).
AMR navigieren selbstständig und können ihre Route an die Umgebungssituation anpassen, ohne einen
Fahrer zu benötigen. In der Praxis werden diese Vorteile jedoch selten genutzt, da AMR nicht hinreichend
in das Produktionssystem eingebunden sind. Die Schwierigkeit dabei liegt in der Generierung von
Transportaufträgen, die auf die Echtzeit-Lage im Produktionssystem angepasst sind und alle relevanten
Daten auf dem Shopfloor berücksichtigen, um so auf unvorhergesehene Veränderungen flexibel und
effizient zu reagieren.
Das Ziel dieser Arbeit ist die Entwicklung eines Datenmodells, welches die Einflüsse auf den Einsatz von
AMR in der Produktion umfasst und die Erstellung von echtzeitfähigen Transportaufträgen ermöglicht.
Dazu wird zunächst eine Literaturrecherche durchgeführt, um relevante Aspekte wie Datenquellen,
-senken, und -flüsse zu identifizieren. Anschließend werden deren Einflüsse auf echtzeitfähige
Transportaufträge mittels der Betrachtung generischer Use-Cases ermittelt und in einem Datenmodell
erfasst. Das entwickelte Modell soll in der DFA Demonstrationsfabrik Aachen Gmbhl validiert werden.
Die Ergebnisse dieser Arbeit sollen Unternehmen bei der effektiven Implementierung von AMR
unterstützen und als Mittel zur Erhöhung der Reaktionsfähigkeit moderner Produktionssysteme dienen
Industry 4.0 and smart factories have brought significant advancements in manufacturing processes, particularly in intralogistics. A key factor which forms the basis for creating smart intralogistics systems is data. However, there exist several data-related issues that hamper the efficiency of the intralogistics process such as data unavailability, poor data quality, inconsistent data, or underutilization of available data. The challenge is to identify, categorize, evaluate, and solve these issues. Overcoming this will help organizations understand the most impactful challenges.
By analysing real-world scenarios and interviewing industry experts, the problems present within the intralogistics process that are caused by the previously mentioned data-related factors are identified. The identified issues are clustered, and the clusters are characterized. A literature review explores the existing solutions or approaches to overcome these limitations. Subsequently finding out if the identified problems can be solved with current technologies and approaches or further research and development is needed. Next, a framework is developed which will act as a guide on the classification, evaluation and prioritization of the identified challenges. In the final part, the framework is validated on an industry specific use case and its limitations and future scope are discussed.
This master thesis emphasizes the significance of data in intralogistics processes by identifying and addressing data-related issues. The outcome on one hand is state-of-the-art solutions for the identified problems and on the other hand is a framework which will support businesses in determining how to tackle data-related issues to gain most benefit with respect to efficiency, productivity, flexibility and quality.
The advancements in Industry 4.0 technologies have provided unprecedented opportunities for optimizing material transportation through various use cases that are possible through rapid technological advance. An important driver for the use cases is data. However, the lack of understanding, which
specific data, from which sources and in what frequency, slows down the implementation of use cases or even reduces their potential benefits. Companies lack the ability to prepare themselves correctly for a use case integration, especially from the data perspective (e.g. data availability, quality, integration).
Therefore, the goal of this thesis is to create a framework for evaluation of Industry 4.0 use cases in the materials' transportation with regard to needed data. The scientific approach employed in this research involves research and analysis of existing frameworks for description or assessment of use cases in different fields and industries. Following, specific use cases related to material transportation in the context of Industry 4.0 will be identified in order to find similarities in the structure and requirements
regarding needed data, and thus identifying common characteristics and key parameters. These parameters will then serve as the foundation for developing a framework that enables companies to systematically analyse and assess potential use cases for material transportation, considering the data requirements and its integration challenges.
The expected result of this thesis is the development of a practical framework that empowers organizations to evaluate and implement Industry 4.0 use cases for material transportation effectively. By providing a structured methodology, this framework will facilitate decision-making processes and support companies in identifying the most suitable use cases based on their specific requirements and
data availability.
The goal of this thesis is to provide startups with a minimal framework for process management that allows them to take the first steps towards Quality Management. Based on existing approaches and methods - with focus on Lean Thinking and Quality Management - the framework should provide a practical guideline to standardize and optimize processes within startups, considering their limited resources and the uncertainty of the environment they operate in.
Different levels of standardization provide an optimal tradeoff between standardization effort and process improvement, while an iterative evaluation process helps to deal with rising numbers and complexity of tasks while maintaining a low overhead. As a result, startups will be able to quickly evaluate if, how and to what degree a process needs standardization, based on available knowledge about the process.
Die Klima- und Energiepolitik führt zu einem schnellen Wandel des deutschen Energieversorgungssystems, wobei der verstärkte Einsatz erneuerbarer Energien neue Herausforderungen für das Stromverteilnetz mit sich bringt. Diese Arbeit untersucht die Notwendigkeit einer dynamischen Netzinfrastruktur, um die fluktuierende Energieerzeugung effizient zu integrieren und neue Verbraucher wie Elektromobilität zu versorgen. Dabei spielen die Vielfalt und das zunehmende Alter der Anlagen im Verteilnetz eine Rolle, ebenso wie der Fachkräftemangel und steigende Netzentgelte. Ein zentraler Ansatz zur Bewältigung dieser Herausforderungen ist die Implementierung von künstlicher Intelligenz und fortschrittlicher Technologie, um eine proaktive Instandhaltung des Netzes zu ermöglichen. Ziel der Arbeit ist es, ein Geschäftsmodell auf Basis künstlicher Intelligenz für die Instandhaltung des Stromverteilnetzes zu entwickeln und damit wirtschaftliche Einsatzmöglichkeiten für solche Konzepte aufzuzeigen. Die Forschungsfragen konzentrieren sich auf die Herausforderungen der Netzbetreiber, ihre Bedarfe und Anforderungen sowie die Möglichkeiten, die künstliche Intelligenz bietet.
Intralogistic Process Optimisation in an Automotive Assembly Line using Plant Lifecycle Simulation
(2022)
Ziel dieser Bachelorarbeit ist, durch die Entwicklung eines methodischen Ansatzes zur Anwendung von Prognoseverfahren zu bewerten, ob die Anzahl von Lufttransporten innerhalb von internationalen Lieferketten trotz starker Bedarfsschwankungen und kurzfristiger Programmänderungen verringert werden kann. Der Fokus dieser Arbeit liegt dabei auf den statistischen Prognoseverfahren, die am häufigsten in der Praxis angewendet werden.
Die vorliegende Arbeit befasst sich mit dem Thema der kapazitätsoptimalen Auslegung von Pressanlagen. Um eine kapazitätsoptimale Belegung der gesamten BMW-Presswerke gewährleisten zu können, ist es erforderlich, in regelmäßigen Abständen die Leistungsparameter aller Anlagen abzufragen und mit den Werken verbindlich zu vereinbaren. Dies wird in der Leistungsvereinbarung über einen bestimmten Planungshorizont hinaus geregelt.
Um langfristig in einem Umfeld zunehmenden Wettbewerbs durch internationale Anbieter erfolgreich zu sein, müssen Unternehmen verstärkt regionale Märkte erschließen. Analog zur Automobilindustrie werden wichtige Wachstumsmärkte zunehmend durch Handelshemmnisse abgeschottet, so dass die Markterschließung durch Exporte vollständig montierter Erzeugnisse häufig ausscheidet. Um dennoch die Handelshemmnisse zu umgehen, hat sich in der Automobilindustrie die Completely Knocked Down (CKD)-Strategie durchgesetzt, bei der Erzeugnisse teilzerlegt in die Märkte exportiert und dort lokal endmontiert werden. Eine grundsätzliche Herausforderung liegt in der situationsgerechten Gestaltung der CKD-Supply Chain. Dazu ist in der Arbeit eine simulationsbasierte Gestaltungsunterstützung entwickelt worden.
In der vorliegenden Masterarbeit soll ein Referenzmodell zur Überführung von Stammdaten in das ERP-System kleiner und mittlerer Unternehmen erarbeitet werden. Aus diesem Grund ist es das Ziel dieser Arbeit, geeignete Prozesse zu definieren, zu bewerten und in ein standardisiertes Modell zu überführen.
Augmented Reality wird schon seit über zehn Jahren großes Potential vorausgesagt. Allerdings finden sich im heutigen Produktionsalltag kaum ausgereifte AR Anwendungen. Die BMW Group entwickelt zusammen mit einer Softwarefirma ein mobiles AR System, welches Soll-Ist Vergleiche ermöglicht und somit zur Qualitätssicherung beitragen soll. Jedoch entspricht die Anwendung noch nicht den hohen Anforderungen des Unternehmens.
Mit Hilfe dieser Arbeit soll ein Bewusstsein für mögliche Fehlerquellen bei der Verwendung des Systems geschaffen werden. Zukünftigen Anwendern soll diese Arbeit zudem eine Schulungsmöglichkeit bieten, um effizienter Fehler zu vermeiden.
Zunächst wird ein Überblick über den aktuellen Stand der Technik in der Augmented Reality gegeben. Die grundlegenden Bausteine der Technologie werden vorgestellt. Zudem werden verschiedene mögliche Anwendungsfälle innerhalb der BMW Group aufgezeigt.
Anschließend wird das Thema vor dem Hintergrund des Qualitätsmanagements eingeordnet. Das System soll zur Qualitätssicherung beitragen. Um ein Verständnis für mögliche Fehlerursachen zu vermitteln wird daraufhin die Funktionsweise des Systems erörtert. Mit Hilfe eines Ishikawa Diagramms werden anschließend systematisch Ursachen für Ungenauigkeiten und Einschränkungen der Aussagefähigkeit herausgearbeitet.
Dabei lassen sich die Faktoren grob in drei Untergruppen gliedern.
Nach Priorisierung der Faktoren werden anschließend die Kategorien „Formhaltigkeit/Skalierung", „Kameraposition" und „Wahl der Referenzpunkte" als wichtigste Themen aufgegriffen und genauer untersucht. Es werden nach Möglichkeit Lösungsvorschläge für die verschiedenen Einflüsse erarbeitet. Im abschließenden Kapitel wird der Fokus auf die Rolle des Mitarbeiters bei der Einführung eines neuen Systems gelegt. Unter Zuhilfenahme eines Technologieakzeptanzmodells werden die unterschiedlichen Einflüsse auf einen Mitarbeiter bei der Einführung neuer Technologien skizziert. Zudem werden Anmerkungen und Feedback von Mitarbeitern bei einem Feldversuch aufgenommen.
Gestaltung von datenbasierten Fehlererkennungsanalysen bei der Instandhaltung von Produktionsanlagen
(2023)
The global automotive industry is undergoing a major shift from the combustion engines to a wide variety of propulsion technologies. It is further pooled with Industry 4.0, which has lead to a large volatility in technolgical innovations and ambiguity in the product life cycles.
This uncertainty has lead to a rapidly changing demands for the existing products and services. It is causing difficulty in planning yearly demand quantities with suppliers. In many cases, tier-1 suppliers are unable to actually purchase the quantities for which they reserve a particular capacity of its sub-suppliers during annual sourcing agreements. Companies need to improve their flexibility to adapt to such unpredictable market situations by preparing for quantity or product changes.
Before setting a target for a desired flexibility level, the exisiting situation should be assessed. Therefore, this thesis aims to develop a method to assess the flexibility of suppliers in terms of product mix, volume deviations and delivery compliance. A quantification model is derived, which will be applicable for a wide range of suppliers. The model will enable the comparison of different suppliers during new sourcing decisions, as well as the identifcation of the exisiting suppliers that have room for improvement.
Various factors that affect supplier flexibility are identified through literarure research and personal interviews with different employees having supplier specific roles within Rober Bosch GmbH. These factors are analysed through a ‘WHAT-WHY-HOW’ analysis and only those factors are considered which can be coherently quantified. Based on their significance in the overall flexibility, these focus factors are given particular weightages and then quantified for each suppliers using the available data. The resultant of the scored factors will yield a number that indicates the flexibility index for a corresponding supplier. The developed model will be tested using Robert Bosch GmbH as an example.
Die Einsatzmöglichkeit von Wearabletechnologie zur Erhöhung der Effizienz und Sicherheit im kommerziellen Flugbetrieb wird in dieser Masterarbeit geprüft und durch den Vorschlag eines technischen Konzeptes vervollständigt. Ausgehend von einer Klassifizierung der bestehenden Wearabletechnologien in Körperüberwachung und Mensch-Maschine-Schnittstelle, wurde eine weitergehende Klassifizierung nach Anwendungsfeldern erarbeitet. Unter Beachtung rechtlicher, technischer, körperlicher, gesellschaftlicher und wirtschaftlicher Rahmenbedingungen wurden Möglichkeiten für die Implementierung im Flugbetrieb ausgearbeitet. Weitergehend wurden hierfür, basierend auf einer Expertenumfrage, die Nutzenpotenziale der unterschiedlichen Stakeholder identifiziert. Abschließend zeigt die Entwicklung des Realisierungskonzeptes, „WearAir“, einen Implementierungsvorschlag auf, welcher unter der Prämisse "Kostenminimierung bei Nutzenmaximierung" erarbeitet wurde und Anwendungsbereiche im Flugbetrieb abdeckt.
In der heutigen globalisierten Wirtschaft ist die Effizienz und Effektivität von Lieferketten ent-scheidend für den Erfolg eines Unternehmens. Eines der wichtigsten Elemente einer erfolgrei-chen Lieferkette ist eine effiziente Datenaustauschtechnologie. Die passende Technologie für den Datentransfer innerhalb einer Lieferkette kann helfen Kosten zu senken und die Effektivität der Lieferkette zu verbessern. Die Auswahl einer geeigneten Datenaustauschtechnologie ist jedoch eine Herausforderung für Unternehmen. Die Entscheidung für eine bestimmte Techno-logie erfordert eine gründliche Analyse der Bedürfnisse des Unternehmens, der Anforderungen an die Lieferkette und der verfügbaren Optionen.
Das Ziel der Arbeit ist es ein Entscheidungsmodell zu entwickeln, das Unternehmen bei der Auswahl der geeigneten Datenaustauschtechnologie unterstützt. Dafür werden zunächst ver-schiedene Technologien analysiert und ihre Vor- und Nachteile ermittelt. Anhand geeigneter Merkmale werden diese dann miteinander verglichen und Kriterien, die einen reibungslosen Datenaustausch gewährleisten, herausgearbeitet. Das Entscheidungsmodell wird es dem Un-ternehmen ermöglichen, objektiv zu entscheiden, welche Technologie am besten zu den An-forderungen passt. Es wird beispielsweise einen strukturierten Entscheidungsprozess bieten, in dem verschiedene Faktoren wie Kosten, Kompatibilität mit anderen Technologien, Skalierbar-keit und Sicherheit berücksichtigt werden. Zudem wird ein erster Ansatz zur möglichen Imple-mentierung der Technologie in die bestehende Dateninfrastruktur beschrieben.
Im Rahmen dieser Masterarbeit sollen die Umsetzung digitalisierter Supply-Chains und deren Auswirkungen auf die logistischen Zielsysteme untersucht werden. Folgende Forschungsfragen gilt es zu beantworten: Wie verändert sich der unternehmensübergreifende Informationsfluss unter den Einflüssen von Industrie 4.0? Wie beeinflusst die Integration der Industrie 4.0-Anwendungen die logistischen Zielsysteme und können damit die Herausforderungen der Supply-Chains bewerkstelligt werden? Welche Anforderungen müssen für die Umsetzung digitalisierter Supply-Chains erfüllt werden? Welche Entwicklungsstufen werden auf dem Weg zu vollkommen digitalisierten Supply-Chains erreicht?
Zur Analyse von Massendaten ist die Verwendung mathematischer Methoden aus dem Bereich der Statistik unumgänglich. Dabei stehen Unternehmen vor der Frage, welche statistischen Analyseverfahren zur Analyse zur Verfügung stehen und welche die geeignetsten sind, um die vielzähligen Fragestellungen zu beantworten. Durch eine Klassifikation der statistischen Methoden in Form eines Methodenkatalogs kann dieser Herausforderung in einem ersten Schritt begegnet werden. Daher ist das Ziel der hier vorliegenden Arbeit, die in der Praxis verwendeten, statistischen Methoden zur Datenanalyse zu klassifizieren und in einem Methodenkatalog zusammenzuführen:
Um langfristig in einem Umfeld zunehmenden Wettbewerbs durch internationale Anbieter erfolgreich zu sein, müssen Unternehmen verstärkt regionale Märkte erschließen. Analog zur Automobilindustrie werden wichtige Wachstumsmärkte zunehmend durch Handelshemmnisse abgeschottet, so dass die Markterschließung durch Exporte vollständig montierter Erzeugnisse häufig ausscheidet. Um dennoch die Handelshemmnisse zu umgehen, hat sich in der Automobilindustrie die Completely Knocked Down (CKD)-Strategie durchgesetzt, bei der Erzeugnisse teilzerlegt in die Märkte exportiert und dort lokal endmontiert werden. Eine grundsätzliche Herausforderung liegt in der situationsgerechten Gestaltung der CKD-Supply Chain. Dazu ist in der Arbeit ein Teil einer simulationsbasierte Gestaltungsunterstützung mit dem Schwerpunkt auf 2D und 3D Simulation erarbeitet worden.
Vor dem Hintergrund eines stark wachsenden Geschäfts von Low Cost Flugbetrieben müssen sich auch luftfahrttechnische Instandhaltungsbetriebe wandeln. Sie stehen dabei vor unterschiedlichen Herausforderungen. Zunächst müssen sich Instandhaltungsbetriebe an die besonderen Anforderungen von Low Cost Flugbetrieben, wie beispielsweise die Gewährleistung einer hohen Stabilität bei geringer Flugzeugverfürbarkeit für den Instandhaltungsbetrieb, anpassen. Gleichzeitig stehen sie mehr denn je unter einem hohen Kostendruck, woraus sich der zu lösende Zielkonflikt ergibt.
Dieser soll durch die Synchronisation der Schnittstellen zwischen Instandhaltungs- und Flugbetrieb, sowie durch eine Steigerung der Instandhaltungseffizienz gelöst werden. Ein Ansatz zur Steigerung der Instandhaltungseffizienz, auf den im Rahmen dieser Arbeit ein besonderer Schwerpunkt gelegt werden soll, ist die Standardisierung und Taktung der Instandhaltungsereignisse.
Vor drei Jahren hat die COVID-19-Pandemie die Arbeitsmärkte weltweit erschüttert. Es folgte eine Welle an kurzfristigen Umstrukturierungen, vor allem bedingt durch die gesetzlich vorgeschriebenen Kontaktbeschränkungen. Die Pandemie wirkte damit branchenübergreifend als Beschleuniger von Remote Work, gerade Branchen in denen Remote Work vorher wenig bis gar nicht verbreitet war. Heute wissen wir Post-COVID: Remote Work, und die Erfahrungen die Mitarbeitende während dieser Zeit haben die Arbeitswelt nachhaltig und breitflächig verändert. Auch in Wirtschaftszweigen wie der produzierenden Industrie wird Remote Work als ein zentraler Bestandteil unseres täglichen Arbeitens erhalten bleiben. Dies birgt Herausforderungen für produzierende Unternehmen, da die zukunftsgerichtete Gestaltung von Remote Work durch ein diverses Aufgabenprofile von „Blue Collar-Workern“ und „White Collar-Workern“ bedingt wird.
Um Remote Work nachhaltig im Unternehmen umsetzen, ist die Ausgestaltung anhand praxisnaher Maßnahmen, welche spezifisch auf produzierende Unternehmen ausgelegt sind, zentral. Ziel der Masterarbeit ist es daher, ein maßnahmengestütztes Gestaltungsmodell zu industrienahen Gestaltung von Remote Work für produzierende Unternehmen zu entwickeln.
Dies wird anhand des folgenden Vorgehens umgesetzt:
• Identifikation unterschiedlicher Ansätze organisationaler Gestaltungsmethoden und deren Limitation mittels systematischer Literaturrecherche
• Herleitung von praxisnahen Maßnahmen für die Gestaltung von Remote Work und möglicher übertragbarer Maßnahmen aus angrenzenden Branchen anhand von Fallstudienforschung in produzierenden Unternehmen
• Entwicklung eines maßnahmengestützten Gestaltungsmodells von Remote Work für produzierende Unternehmen und Erprobung der Anwendbarkeit mit Industriepartnern
Mobiles Arbeiten, dezentrale Teams und virtuelle Meetings – die COVID-19-Pandemie hat die Arbeitswelt vieler Organisationen von Grund auf verändert. Durch den Einzug neuer Technologien wird Arbeit vernetzter, digitaler und flexibler. Die Arbeitswelt 4.0, die von der digitalen Transformation geprägt wird, stellt neue Anforderungen an Unternehmen und deren Arbeitsplatzkonzepte. Mitarbeitende gewinnen durch dezentrales Arbeiten Flexibilität in Bezug auf ihre Arbeits- und Alltagsgestaltung. Gleichzeitig entstehen neuartige Herausforderungen wie die fehlende Präsenz im Unternehmen sowie der ausbleibende persönliche Kontakt mit Teammitgliedern und Vorgesetzten. Die Potentiale remoter Arbeitsplatzkonzepte zeigen sich sowohl arbeitgeber- als auch arbeitnehmerseitig. Dezentral arbeitende Unternehmen nehmen häufig eine Vorreiterrolle in Bezug auf die fortschreitende Digitalisierung ein. Um erfolgreich remote Arbeitsplatzkonzepte in der Arbeitswelt 4.0 umzusetzen, sind die neu entstandenen Anforderungen an Führungskräfte zu verstehen. Darauf aufbauend bedarf es in der Praxis Werkzeuge und Techniken, sogenannte Managementinstrumente, die die Führungskräfte in der neuen Arbeitswelt unterstützen. Ziel der Arbeit ist es, die neu entstandenen Anforderungen an Führungskräfte durch remote Arbeitsplatzkonzepte in der Arbeitswelt 4.0 aufzuzeigen und praxisnahe Managementinstrumente zu identifizieren. Anhand einer Literaturrecherche werden Anforderungen an Führungskräfte durch remote Arbeitsplatzkonzepte identifiziert. Anhand von Best Practices werden erfolgreich umgesetzter remote Arbeitsplatzkonzepte und die eingesetzten Managementinstrumente identifiziert. Aufbauend auf der Literaturrecherche und den Best-Practices wird ein Katalog an praxisnahen Managementinstrumenten erarbeitet.
In den folgenden Abschnitten werden Szenarien zur Weiterentwicklung der Projektergebnisse von myOpenFactory vorgestellt, die neben der bereits erwähnten und begonnenen Internationalisierung des Standards möglich und sinnvoll sind. Diese Darstellung ist nicht vollständig und als Anregung für den weiteren Handlungsbedarf zu verstehen.
The Aim of this article is to provide a framework which enhances the existing scope of manufacturing asset management by specifically addressing industrial services provided by external suppliers as an integral part of today’s manufacturing structures. Existing research shows that sourcing industrial services from specialized service organizations establishes complex and unique interdependencies and links total production efficiency to the performance of the external service suppliers. Within the context of the EU-Project InCoCo-S - “Innovation, Coordination and Collaboration in Service Driven Manufacturing Supply Chains” a standard business reference model with key focus on operation and integration of business related services (BRS) in the supply chain has been developed. Based on the service type retrofit this paper aims on the one hand to present the modules of the reference model and on the other hand to explain how the model can be used to enhance the retrofit business.
Unternehmen des Maschinen- und Anlagenbaus konzentrieren sich bereits seit mehreren Jahren verstärkt auf ihre spezifischen Kernkompetenzen innerhalb des Produktionsprozesses. Damit einher ging die umfängliche Verlagerung diverser logistischer Leistungsprozesse auf andere Unternehmen und die Bildung zahlreicher, komplexer Wertschöpfungsnetzwerke. Vielfach unterschätzt wurden dabei jedoch die resultierenden Herausforderungen der überbetrieblichen Auftragsabwicklung wie Schnittstellenvielfalt und Dateninkonsistenz. Symptomatisch für die mangelhafte Integration der Zusammenarbeit in diesen logistischen Netzwerken ist, dass Briefpost, Telefon und Fax nach wie vor die gebräuchlichsten Kommunikationsmedien der überbetrieblichen Auftragsabwicklung darstellen.
Der vorliegende Beitrag greift diese Problemstellung auf, adaptiert die grundsätzliche Betrachtungsweise des Lean Thinking auf die überbetriebliche Projektabwicklung im Maschinen- und Anlagenbau und identifiziert hierfür wesentliche Ansatzpunkte zur Vermeidung von „Verschwendung“. Als Lösungsansatz für eine durchgängig integrierte Auftrags- und Projektabwicklung wird der neue Quasi-Standard „myOpenFactory“ vorgestellt und dessen Umsetzung in marktgängigen ERP-/PPS-Systemen und einer frei verfügbaren Internet-Anwendung skizziert.
In most European countries a structural change from a production dominated towards a service oriented society is progressing. Companies increasingly consider services as means to gain competitive advantages in a global competition. In order to provide holistic, value-adding solutions while simultaneously guaranteeing high quality standards, production companies increasingly join forces with external services‘ providers. Models, methods and tools for service development are rare and in most cases immature. In the context of virtual services‘ development this leads to a dual set of simultaneous chal-lenges: an alignment of systematic services‘ and product development and the coordination of distributed R&D partners. The objective is to provide a meta-process that identifies all steps and decision points necessary to successfully develop innovative services. It is a result of combined service development and virtual enterprises‘/ networks‘ research.
Industrial Service Providers (ISP) are exposed to constantly raising competitive pressures regarding both cost and performance aspects. The massive challenges caused by the current worldwide financial and economic crisis even intensified the need for process optimizations aimed at increasing the productivity of service production. To reach this goal the evaluation and elimination of waste in their production processes becomes a crucial ability for ISPs. This paper proposes a new approach for increasing productivity in service production processes using a generic measurement model for the detection and evaluation of waste. The model is based on established lean management principles, but tailored to the specifics of ISPs by adopting a customers’ perspective to track down and eliminate waste. The evaluation builds on an in-depth-analysis of particular types of waste in the industrial service production processes. Viewed from the customers’ perspective and taking into account the specific characteristics of services (e.g. intangibility, heterogeneity, inseparability, and perishability) and service production (e.g. volatile demand, a tendency to over-capacity, and limits to planning) the approach employs a service blueprint reference model to then determine the different types of waste in the various parts of the service production process.
DispoOffshore: Interaktive und dynamische Aufgaben- und Ressourcensteuerung in Offshore-Windparks
(2017)
DispoOffshore ist ein Tool zur interaktiven und dynamischen Aufgaben- und Ressourcensteuerung in Offshore Windparks. Durch eine optimierte Instandhaltung können die Betriebskosten gesenkt und die Verfügbarkeit erhöht werden. Bei der Aufgaben- und Ressourccendisposition in Offshore Windparks sind komplexe Herausforderungen zu meistern. Das Tool DispoOffshore unterstützt bei der Aufgaben-, Ressourcen- und Personaldisposition. Die Anforderungen wurden systemantisch erfasst und in die Softwareentwicklung überführt. Eine Livevorstellung des entwickelten Tools, welches sich bereits im Einsatz befindet und von den Anwendern ausgiebig gestetet wird, zeigt die Funktionalität und die sich ergebenden Möglichkeiten.
Vernetzte Welten
(2017)
Über 350 Mitarbeiter aus Wissenschaft und Wirtschaft erforschen und entwickeln im Cluster Smart Logistik - eines der sechs Startcluster auf dem Campus der RWTH Aachen - Lösungen, wie Waren und Informationen in einer digitalen Welt der Zukunft optimiert vernetzt werden können. Dabei geht das Verständnis von "Logistik" in diesem Cluster deutlich über die umgangssprachliche Bedeutung des Begriffs hinaus. denn gemeinsam mit Industriepartnern wird hier der gesamte Informations- und Warenfluss in einer digitalen Welt betrachtet, die über das Internet nahezu in Echtzeit vernetzt sein wird.
ERP im Kontext Industrie 4.0
(2017)
Was sich hinter dem Schlagwort Industrie 4.0 verbirgt, hört sich einfach an - Schaffung einer digital vernetzten Wirtschaft. In der Praxis ist dies ein enorm anspruchsvolles Technologieprojekt, an dessen Verwirklichung weltweit Industrie und Forschungsinstitute arbeiten. Im Fokus steht dabei häufig die massenhafte Verbindung von Informations- und Kommunikationstechnologien mit dem Ziel, das sich selber durch die hochautomatisierte Produktion steuernde Produkt zu schaffen. Dieser produktbezogene Blickwinkel umfasst jedoch nicht den eigentlichen Kern von Industrie 4.0. Der tatsächliche Hebel, um die Wirtschaftlichkeit eines Unternehmens mittels der Verbindung von Technologien und IT-Systemen zu steigern, liegt in der Beschleunigung von unternehmerischen Entscheidungen und Entscheidungsimplementierung.
In dem durchgeführten Forschungsvorhaben wurde ein Konzept zur Gestaltung und Bewertung einer skalierbaren Produktentwicklung und Markteinführung technischer Produkte entwickelt. Ein zentraler Baustein dieses Konzepts war dabei der Pionierprodukt-Ansatz. Pionierprodukte stellen einen volumenmäßig, zeitlich und räumlich begrenzten Ausschnitt des gesamten Zielmarktes eines Unternehmens dar. Mit dem Pionierprodukt-Ansatz können Innovationen in kurzer Zeit an den Markt gebracht und dort unter realen Marktbedingungen getestet werden.
Durch die Integration von Pionierprodukt-Entwicklung und Realoptionen-Ansatz wird jedoch grundsätzlich die Fokussierung auf die wesentlichen Marktanforderungen wie Produktdifferenzierung, Kundenorientierung und die Wiederverwendung bewährter Produktkomponenten und Partnernetzwerke im Kontext komplexer Entwicklungsprojekte ermöglicht. Die Reduktion der zu beherrschenden Komplexität mit Hilfe der genannten Ansätze ist wesentliches Merkmal des entwickelten Konzepts.
Der KVD schafft Brücken zwischen Wirtschaft und Wissenschaft. In der Zusammenarbeit zwischen Mitgliedsunternehmen, relevanten Forschungsinstituten und dem KVD als assoziiertem Partner im projektbegleitenden Ausschuss selbst werden neue Dienstleistungen, Businessmodelle und Tools für das strategische Service-Management entwickelt und in der Service-Praxis etabliert. In der SERVICETODAY stellt die Redaktion ab sofort in jeder Ausgabe den aktuellen Stand der wissenschaftlichen Projekte in einem Forschungskalender dar und präsentiert ein aktuelles Forschungsprojekt samt aktuellem Zwischenstand. In dieserAusgabe stellt Roman Emonts-Holley vom FIR e. V. an der RWTH Aachen das Projekt "Customer-Service-Scorecard" vor.
Vernetzung von ERP und MES
(2017)
One of the major tasks of operations managers is to boost uptime while simultaneously keeping budget. To meet this challenge they discover reliability-based management as strategic factor to improve performance. But which parameters are the key to “reliability excellence” and drive a company’s performance? What are the relevant levers to pull in reliability-based management?
To answer these questions McKinsey & Company partnered with Aachen University to launch a global reliability survey in process industries. Objective of the initiative is to provide a statistically proven picture of key factors that drive maintenance and reliability excellence. Furthermore benchmarks and best practices concerning overall operational performance will be identified. The study is based on a questionnaire-based approach which addresses all relevant departments within a company, complemented by best practice analyses.
This paper provides results of the survey. The results demonstrate that reliability pays off. Some unproven beliefs have been confirmed (e.g. a good reliability performance results in a low spare part inventory) but also surprises like a correlation between safety and performance were identified. The analysis also shows that structural differences like company size or geography do not influence reliability performance.
In diesem Beitrag werden die Ergebnisse aus einer Studie in der Papierindustrie vorgestellt. Dabei zeigt sich eine deutliche Korrelation zwischen guten Ergebnissen in der Effektivität und Effizienz des Zuverlässigkeitsmanagements und dem Unternehmenserfolg. Der Unternehmenserfolg – im Sinne einer hohen Umsatzrendite – kann zwar nicht allein auf einen entscheidenden Einflussfaktor zurückgeführt werden, da der Umsatz durch eine Vielzahl von Faktoren bestimmt wird. Die durchgeführten Analysen und Interviews innerhalb der Studie deuten allerdings darauf hin, dass in der Tat das operative Anlagenmanagement einen maßgeblichen Erfolgsfaktor darstellt, sich „Reliability“ in der Prozessindustrie folglich auszahlt. Überdies konnte gezeigt werden, wie sich Methoden und Verhaltensweisen von Instandhaltung und Produktion auf die Zuverlässigkeit von Anlagen und die Effizienz deren Bewirtschaftung auswirken.
Wie passen Industrie 4.0 und Supply-Chain-Management im Kontext der Digitalisierung zusammen? Den Entwicklungen rund um das Thema Industrie 4.0 gemein ist die Tatsache, dass initiale Applikationen der Shopfloor-Ebene zuzuordnen sind. Dieser vertikalen Integration von Anwendungen steht das horizontal orientierte Supply-Chain-Management gegenüber. Automatisierte ereignisgesteuerte Rückmeldedatenerfassung und -verarbeitung werden durch Einführungen von IuK-Technologien in der Produktion geschaffen und ermöglichen eine Optimierung der Geschäftsprozesse über die gesamte, am Bedürfnis der Endkunden ausgerichtete Supply-Chain hinweg.
In diesem Beitrag werden die aktuellen Aktivitäten im Forschungsprojekt „SiZu – Integration von Echtzeitsimulation und Zustandsüberwachung zur Bauteilprognose und Fehleranalyse für die Instandhaltung“ vorgestellt. Ziel des Projektes ist es, die bislang separat genutzten Funktionalitäten Condition-Monitoring und Echtzeitsimulationen in einem Analysewerkzeug (Condition- Analyser) für die Instandhaltung zusammenzuführen und damit Zustandsüberwachungssysteme um die Möglichkeit der Nutzung historischer Anlagendaten und Echtzeitsimulation zu erweitern. Neben der detaillierten Beschreibung der angestrebten Forschungsergebnisse und den daraus resultierenden Nutzungspotentialen für die Instandhaltung wird die zur Zielerreichung entwickelte Vorgehensweise vorgestellt und diskutiert.