Produktionsmanagement
Refine
Year of publication
Document Type
- Contribution to a Periodical (222)
- Conference Proceeding (79)
- Part of a Book (54)
- doctorallecture (42)
- Doctoral Thesis (34)
- Lecture (27)
- Working Paper (26)
- Report (21)
- Article (20)
- Book (18)
Language
- German (431)
- English (98)
- Multiple languages (26)
Is part of the Bibliography
- no (555)
Keywords
- 01 (17)
- 02 (21)
- 03 (4)
- 04 (1)
- 3-Phasen-Konzept (1)
- 3D-Druck (3)
- 3PhasenKonzept (6)
- 7. EU-Forschungsrahmenprogramm (1)
- ABC-Analyse, Artikelklassifizierung, Beschaffungskonzepte, LOGO, Variationskoeffizienten, XYZ-Analyse (1)
- AI (1)
Institute
- FIR e. V. an der RWTH Aachen (555)
- Produktionsmanagement (555)
- Informationsmanagement (51)
- Dienstleistungsmanagement (20)
- Business Transformation (8)
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Zusammenfassung und Ausblick
(2012)
Heute begegnen wir den Herausforderungen einer VUCA-Welt mit Flexibilität und Veränderlichkeit in unseren Produktionssystemen. Seit 2012 gerät die Globalisierung ins Stocken. Das Investitionsvolumen zeigt einen Trend der De-Globalisierung. Ein Umdenken muss insbesondere in Deutschland herbeigeführt werden.
Unternehmen der produzierenden Industrie sind mit einem dynamischen und immer komplexeren Umfeld konfrontiert. Daraus resultiert, dass Prozesse sich verändern und damit auch eine Anpassung der bestehenden IT-Systemlandschaft notwendig wird.
Zusätzlich bedarf es einer passgenauen und durchgängig integrierten Umsetzung der IT-Systemlandschaft, um weiterhin die steigende Komplexität zu beherrschen. Beides ist heute nur schwer umsetzbar, da die Implementierung von monolithischen Systemen genau in den genannten Bereichen Lücken aufweist. IT-Systemlandschaften müssen zukunftsfähig gestaltet werden – Modularisierung ist dabei der Schlüssel zum Erfolg!
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
Workshop Bestandsmanagement
(2009)
Im Hinblick auf den wirtschaftlichen Erfolg der Unternehmen hat das Bestandsmanagement eine entscheidende Bedeutung. Die Erhaltung und Steigerung der Kundenzufriedenheit durch Gewährleistung einer hohen logistischen Leistung steht heutzutage aufgrund des zunehmenden Wettbewerbsdrucks im Vordergrund der Verbesserungsinitiativen vieler Unternehmen. Lagerbestände bieten hierbei die Chance, die eigene logistische Flexibilität zu sichern.
Im Hinblick auf den wirtschaftlichen Erfolg der Unternehmen hat das Bestandsmanagement eine entscheidende Bedeutung. Die Erhaltung und Steigerung der Kundenzufriedenheit durch Gewährleistung einer hohen logistischen Leistung steht heutzutage aufgrund des zunehmenden Wettbewerbsdrucks im Vordergrund der Verbesserungsinitiativen vieler Unternehmen. Lagerbestände bieten hierbei die Chance, die eigene logistische Flexibiltät zu sichern.
Die zunehmende Globalisierung hat in den vergangenen Jahren dazu geführt, dass sich der Wettbewerbsdruck auf produzierende Unternehmen in Hochlohnländern wie Deutschland durch Niedriglohnländer (Low-Cost-Countries) drastisch erhöht hat. Die Kunden verlangen nach zunehmend individuelleren Produkten zu günstigen Preisen, welche einhergehen mit dem Wunsch nach verkürzten Lieferzeit. Unternehmen müssen daher heutzutage in der Lage sein, sich schnell auf die individuellen Kundenwünsche einzustellen. Der Schlüssel zur Stärkung der Wettbewerbsfähigkeit von Hochlohnländern besteht vielmehr in einer weitgehenden Auflösung der Dichotomien, die das sogenannte Polylemma der Produktion bilden. High Resolution Supply Chain Management (HRSCM) verfolgt die Umkehr des Trends zur immer weiteren Steigerung der Planungskomplexität und lokalen Optimierung der Prozesse. Durch HRSCM wird ein Beitrag zur Auflösung des Polylemmas aus Sicht der sowohl über- als auch innerbetrieblichen Produktionsplanung und -steuerung (PPS) erbracht. HRSCM reduziert das Dilemma zwischen Planungs- und Wertorientierung durch dezentralisierte Produktionsmechanismen, die durch konsistente Zielsysteme und Entscheidungslogiken eine starre, hierarchische PPS auflösen.
Industrie-4.0-Applikationen entwickeln sich gerade von Individuallösungen zur frei zugänglichen Handelsware. Durch diesen Trend, in dem Industrie-4.0-Lösungen zur Commodity werden, werden Unternehmen dazu befähigt, fundamentale Transformationen entlang aller Geschäftsprozesse zu vollziehen. Insbesondere kleine und mittlere Unternehmen (KMU) haben die besten Voraussetzungen dafür, die Einführung von Industrie 4.0 voranzutreiben. Denn KMU verfügen über die notwendige Flexibilität und flache Hierarchien - eine wesentliche Grundlage für die digitale Transformation. Bevor jedoch Industrie-4.0-Projekte initiiert werden, ist aufgrund der personell und finanziell limitierten Kapazitäten von KMU eine intensive Auseinandersetzung über die Bedeutung von Industrie 4.0 für das eigene Unternehmen und seine Produkte unabdingbar.
Im Zuge der vierten industriellen Revolution sowie der zunehmenden Digitalisierung setzen Unternehmen immer stärker auf die Unterstützung durch betriebliche Anwendungssysteme. Insbesondere der „Best-of-Breed“-Ansatz treibt in diesem Zusammenhang den Trend voran, dass nicht mehr nur eine monolithische Systemlandschaft zur Steuerung des Unternehmens eingesetzt wird, sondern dass vielmehr kleine Spezialanwendungen für die spezifischen Unternehmensaufgaben genutzt werden. Unternehmen stehen somit vor der Herausforderung, wie die Vielzahl an Möglichkeiten effizient zur Unterstützung der Unternehmensaufgaben genutzt werden kann.
Während in Teil I unserer Serie (siehe f+h 7-8/2019) Herausforderungen und Strategien der Urbanen Logistik im Fokus standen, geht der vorliegende zweite und abschließende Teil auf die Potenziale der Urbanen Logistik ein. Außerdem werden konkrete Vorschläge gemacht, wie ein Konzept zur Orchestrierung der Vielzahl an Anbietern mit ihren Einzellösungen aussehen kann.
Im vorliegenden Beitrag wird beschrieben, welche Herausforderungen sich in der Umsetzung einer zukünftigen Urbanen Logistik stellen und welche Strategien große Marktteilnehmer bereits verfolgen. Der abschließende Teil II unserer Serie, der in f+h 9/2019 erscheinen wird, befasst sich mit den Potenzialen, die sich hierdurch erschließen lassen.
Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen / Value Networks
in Times of Infection Crises
(2021)
Die COVID-19-Pandemie hat eindrucksvoll die Schwachstellen heutiger
Wertschöpfungsnetzwerke aufgezeigt. Gemeinsam mit dem ‚Industrie 4.0 Maturity Center‘ hat das FIR im Auftrag des Forschungsbeirats der ‚Plattform Industrie 4.0‘ untersucht, wie anfällig heutige Wertschöpfungsnetzwerke gegenüber Krisen sind und welche Maßnahmen als Vorbereitung auf Störungen dienen.
Die jetzt veröffentlichte Expertise zeigt Potenziale und Maßnahmen zur Gestaltung resilienter Wertschöpfungsnetzwerke auf. Durch eine Kombination aus konkreten Handlungsoptionen für die langfristige Steigerung der Resilienz und einem Rahmenwerk zur Ableitung von kurzfristigen Reaktionen im Krisenfall unterstützt die Expertise Unternehmen bei der Vorbereitung auf zukünftige Krisen.
Als Beispiel einer globalen Krisensituation zeigt die COVID-19-Pandemie eindrucksvoll die Schwachstellen heutiger Wertschöpfungsnetzwerke. Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke steigt für Unternehmen die Bedeutung einer resilienten Gestaltung derselben. Dabei wird davon ausgegangen, dass ähnliche Krisensituationen in Zukunft häufiger auftreten werden. Ziel dieser Expertise ist es, Unternehmen bei der Identifikation von Potenzialen und Maßnahmen für die resiliente Gestaltung ihrer Wertschöpfungsnetzwerke zu unterstützen.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center untersuchten Anfälligkeiten von Unternehmen gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen" nimmst sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0 / acatech - Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz und der aktuelle Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Industrie-4.0-Technologien können dazu beitragen, die deutlich ge-steigerte Daten- und Informationsverfügbarkeit während des Produk-tionsprozesses gezielt zu verwerten und den Austausch zwischen pro-duzierenden Unternehmen und Logistikdienstleistern für effiziente und nachhaltige Lieferketten zu fördern. Im Projekt 'SynLApp' wird hierzu ein webbasiertes Assistenzsystem konzipiert, das Prognosen innerhalb der Lieferketten ermöglicht. Dieser Beitrag zeigt aktuelle Rechercheergebnisse zu bestehenden Methoden und Best Practices hinsichtlich der unternehmensübergreifenden Synchronisierung und beschreibt das Projektvorgehen und den Ansatz einer technischen Umsetzung via Simulation.
Die Kapitalbindungsdauer im Maschinenbau fällt im nationalen Branchenvergleich besonders hoch aus. Durch kundenindividuelle Entwicklung und Produktion ergeben sich lange Auftragsabwicklungszeiten, welche eine längerfristige Kapitalüberbrückung erfordern. Betroffene Unternehmen müssen über ausreichend liquide Mittel verfügen, um ihren Umsatz und ggf. auch Wachstum vorfinanzieren zu können und nicht der Gefahr von Zahlungsunfähigkeit ausgesetzt zu werden. Damit einhergehend gibt es im Maschinen-und Anlagenbau besonders große Potenziale in der Optimierung des eingesetzten Kapitals.
Von den Besten lernen
(2017)
In einer zunehmend digitalisierten Welt bilden IT-Systeme wie ERP oder MES das Rückgrat effizienter Prozesse. Doch viele Unternehmen stellen fest, dass ihre ITSysteme den sich ändernden Anforderungen weder gerecht werden noch die neuen Prozesse effektiv unterstützen. Dies führt entweder zur Entwicklung von Schatten-IT, d. h. zu provisorischen Anpassungen des IT-Systems oder zur Notwendikeit der
Auswahl eines neuen IT-Systems. Um dem entgegenzuwirken bzw. den Auswahlprozess zu verbessern, wurde das Forschungsprojekt VIPER ins Leben gerufen. Das FIR an der RWTH Aachen und das IPH – Institut für Integrierte Produktion Hannover gGmbH, haben sich zum Ziel gesetzt, Unternehmen darin zu unterstützen, durch die Betrachtung des gesamten soziotechnischen Informationssystems die Lebensdauer ihrer IT-Systeme zu erhöhen und bessere Entscheidungen bei der Auswahl neuer IT-Systeme zu treffen.
Viable Production System for adaptable and flexible production planning and control processes
(2009)
High Resolution Supply Chain Management (HRSCM) aims at designing adaptable and flexible production planning and control (PPC) processes according to the needs of the company’s supply chain environment. To reach this goal a model for a Viable Production System (VPS) has been elaborated and is presented in this paper. Based on the Viable System Model (VSM) developed by Stafford Beer current production systems are analyzed in terms of integrity. With the gained knowledge a complete recursive framework of a VPS is developed. The framework allows the design of a decentralized production system that meets all requirements of a dynamic environment. Flexible and adaptable PPC processes can be developed for each identified subsystem of the VPS. Hence, further research focuses on the development of process and control loops in order to assure the application of the framework. Exemplarily the decentralised control loop for inventory management is elaborated in a case study.
Immer flexibler und schneller auf sich ändernde Kundenwünsche reagieren zu können, ist das Ziel eines jeden produzierenden Unternehmens. Um dieses zu erreichen, müssen Daten aus dem Shop Floor nahezu in Echtzeit dem ERP-System zur Verfügung gestellt werden. Dabei kann die Datenintegration auf unterschiedlichen Wegen erfolgen: Data Lakes und MES sind zwei Beispiele mit unterschiedlichen Vor- und Nachteilen.
Vernetzung von ERP und MES
(2017)
Vernetzte Welten
(2017)
Über 350 Mitarbeiter aus Wissenschaft und Wirtschaft erforschen und entwickeln im Cluster Smart Logistik - eines der sechs Startcluster auf dem Campus der RWTH Aachen - Lösungen, wie Waren und Informationen in einer digitalen Welt der Zukunft optimiert vernetzt werden können. Dabei geht das Verständnis von "Logistik" in diesem Cluster deutlich über die umgangssprachliche Bedeutung des Begriffs hinaus. denn gemeinsam mit Industriepartnern wird hier der gesamte Informations- und Warenfluss in einer digitalen Welt betrachtet, die über das Internet nahezu in Echtzeit vernetzt sein wird.
Gesamtziel des Forschungsprojekts war es, durch den Einsatz der Blockchaintechnologie die Transparenz und Sicherheit der Prozesse und Strukturen der Lebensmittelproduktion und -logistik zu erhöhen. So sollte eine hochauflösende Rückverfolgbarkeit ermöglicht und gleichzeitig Fälschungssicherheit sichergestellt werden.
Die Ergebnisse des Vorhabens bieten für Unternehmen, neben der erhöhten Transparenz und Sicherheit, die Basis für neue Produkte und Geschäftsmodelle, einen Nachweis der technischen Machbarkeit einer Blockchain in der Rückverfolgung von Lebensmitteln und einen Ansatz zur nachhaltigen Stärkung von Kundenbeziehungen.
Unvorhergesehene Störungen gefährden in vielen Fällen den Kundenliefertermin. Die Produktionssteuerung hat die Aufgabe, effektiv und effizient auf diese kurzfristigen Störungen zu reagieren. Der Entscheidungsprozess beruht jedoch häufig auf einer qualitativen Analyse einer komplexen Situation anhand subjektiver Einschätzungen durch den Produktionsplaner. Zur Verbesserung der Entscheidungsfindung stellt dieser Beitrag eine App vor, die auf Basis von Echtzeitdaten und einer Simulation des Produktionssystems eine quantitative Entscheidungsfindung ermöglicht.
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Industrial practice shows a strong trend towards digitalization. It is not only economic crises, such as those triggered by Covid-19, that are reinforcing this trend. It is also the entrepreneurial urge to fulfill customer wishes in the best possible way and to adapt to new requirements as quickly as possible. Due to the advancing digitalization, the role of business application systems in manufacturing companies is therefore becoming increasingly important. The data processed in IT-Systems represent a great potential, especially for the evaluation of change requests in production. Through efficient change management, companies can record and process changes quickly. However, the necessary data basis to decide on existing change requests is still hardly used. Existing IT-Systems for change management coordinate the processing of change requests, but do not relate to data of operational application systems such as Enterprise-Resource-Planning. Therefore, a conceptual approach is required for the evaluation of change requests. This approach is based on an objective recording system that enables the transformation from the change description to an evaluation space. The paper presents an approach for the systematic transfer of requirement characteristics into the world of operational IT-Systems.
Die Kopplung von ERP- und Real-Time-Location-System (RTLS) ermöglicht ein effizientes Tracking und Tracing in der Produktion von morgen. Wie dies genau aussehen kann, welche technischen Grundlagen dazu geschaffen werden müssen und welche Vorteile sich daraus für Unternehmen ergeben, wurde im Konsortialprojekt "RTLS3.0" am Cluster Smart Logistik untersucht. Dazu wurde ein Living Demonstrator entwickelt, der sich nun in der dritten Ausbaustufe befindet. Das Projekt "RTLS3.0" ermöglicht einen Zugang für produzierende Unternehmen zur digitalen Welt. Durch echtzeitfähige, präzise Lokalisierungs- und Rückmeldemechanismen kann der Herausforderung des Tracking und Tracing effektiv und effizient entgegengetreten werden.
Numerous start-ups and now even some major corporates are currently trying to improve visibility and foresight in the manufacturing industry through connected supply chains, or in other words, through increased data sharing. This study strives to support companies in leveraging the potential of increased data sharing in supply chain collaborations. Despite the great potential of digitizing manufacturing and automated data sharing throughout the supply chain, most companies are not yet able or willing to implement this kind of openness. The main reason for this lack of transparency in the supply chain is the high complexity and high cost of the required interfaces. In practice, instead of automated and extensive data sharing, companies exchange spreadsheets and PDFs with minimum information. This study supports companies in the pre-stage before automated data sharing is technically implemented. We find that building trustful relationships is a necessary step towards extended and automated data sharing. Moreover, we find that social capital provides a means to partially compensate for a lack of automation in terms of shortening lead times and dealing with disruptions. Introducing a supply chain collaboration typology and showcasing descriptive and qualitative results for 36 firms, we show how to navigate the frontend of the Internet of Production.
Towards the Generation of Setup Matrices from Route Sheets and Feedback Data with Data Analytics
(2018)
The function or department of production control in manufacturing companies deals with short-term scheduling of orders and the management of deviations during order execution. Depending on the equipment and characteristics of orders, sequence dependent setup times might occur. In these cases for companies that focus on high utilization of their assets due to long phases of ramp up and high energy costs, it might be optimal to choose sequences with minimal setup time times between orders. Identifying such sequences requires detailed and correct information regarding the specific setup times. With increasing product variety and shorter lot sizes, it becomes more difficult and rather time intense to determine these values manually. One approach is to analyse the relevant features of the orders described in the route sheets or recipes to find similarities in materials and required tools. This paper presents a methodology, which supports setup optimized sequencing for sequence dependent setup times through constructing the setup matrix from such route sheets with the use of data analytics.
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Real-time data analytics methods are key elements to overcome the currently rigid planning and improve manufacturing processes by analysing historical data, detecting patterns and deriving measures to counteract the issues.
The key element to improve, assist and optimize the process flow builds a virtual representation of a product on the shop-floor - called the digital twin or digital shadow. Using the collected data requires a high data quality, therefore measures to verify the correctness of the data are needed. Based on the described issues the paper presents a real-time reference architecture for the order processing.
This reference architecture consists of different layers and integrates real-time data from different sources as well as measures to improve the data quality. Based on this reference architecture, deviations between plan data and feedback data can be measured in real-time and countermeasures to reschedule operations can be applied.
Die digitale Vernetzung der Unternehmenswelt ist längst in sämtliche Branchen und Unternehmensstrukturen vom großen Konzern bis zum kleinen Mittelständler vorgedrungen. Unternehmen setzen zunehmend auf die Implementierung von betrieblichen Anwendungssystemen und dabei auf die tatkräftige Unterstützung von externen Implementierungsexperten, oftmals direkt seitens des ausgewählten Systemanbieters. Um den Implementierungsprozess reibungslos gestalten zu können, müssen die zukünftigen Anwender und der beauftragte Anbieter ein gemeinsames, einheitliches Verständnis dafür entwickeln, wie das Projekt gemanagt werden sollte. Dabei erweisen sich insbesondere fehlende Standards bei den wesentlichen Bausteinen als großes Manko.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
The Impact Of Manufacturing Execution Systems On The Digital Transformation Of Production Systems
(2021)
With the focus of manufacturing companies on the digital transformation, Manufacturing Execution Systems are market-ready, modular software solutions for manufacturing companies to integrate the value-adding and supporting processes horizontal and vertical in the company. Companies, especially small and mediumsized companies, face high internal and external costs for the implementation of the MES modules. An advantage of MES is the possibility to implement the systems in a continually, module-by-module approach, with the benefit of timely distributed investments. By realizing fast improvements, companies can use the benefits for further module implementations. This paper proposes a maturity model to measure the impact of an MES on the digital transformation of the company’s production systems. The model fulfils two purposes. The first, companies can measure the impact based on the difference between its current maturity index and the potential index of an implemented MES. The second is, the user can identify what impact an MES has in general on the digital transformation since the developed maturity model is derived from an established industry 4.0 maturity model. The development of the maturity model is based on the methodologies of AKKASOGLU and focuses on the further development of an established model. As an outlook, the application of the model will be described briefly. The proposed maturity model can directly be used by practitioners and offers implications for further development of MES functionalities.
The blockchain technology has been increasingly applied in industrial use-cases in recent years. Although the food industry fits in particular with the requirements for blockchain applications, since the actors barely know each other and trust plays a crucial role, it is not widely established in the food industry. There are efforts to increase transparency and enable traceability in food supply chains by applying blockchain technology to share data in a trustworthy way across companies and to ensure food quality standards. This technology can be further used to enable the identification of inconsistencies in sensor data and more efficient handling of food recalls across the food supply chain. The success of a new technology depends to a large extent on its acceptance by companies and their employees. This paper deals with the acceptance of such a blockchain application and presents a systematic literature review to summarize the methods and results of acceptance analyses of the blockchain technology in food supply chain s. Particular attention has been devoted to traceability. For this objective, research is analysed based on scientific methods and the results are systematically analysed.
Task-Specific Decision Support Systems in Multi-Level Production Systems based on the digital shadow
(2019)
Due to the increasing spread of Information and Communication Technologies (ICT) suitable for shop floors, the production environment can more easily be digitally connected to the various decision making levels of a production system. This connectivity as well as an increasing availability of high-resolution feedback data, can be used for decision support for all levels of the company and supply chain. To enable data driven decision support, different data sources were structured and linked. The data was combined in task-specific digital shadows, selecting clustering and aggregation rules to gain information. Visual interfaces for task-specific decision support systems (DSS) were developed and evaluated positively by domain experts. The complexity of decision making on different levels was successfully reduced as an effect of the processed amounts of data. These interfaces support decision making, but can additionally be improved if DSS are extended with smart agents as proposed in the Internet of Production.
Besonders in den letzten Krisen konnte die Anfälligkeit unserer gesamten Wert-schöpfungsnetzwerke beobachtet werden. Auch, wenn sich alle Krisen im Detail fundamental unterscheiden, haben alle Eines gemeinsam: eine frühzeitige Risiko-bewertung sowie eine gezielte Reaktion sind zur Bewältigung einer Krise notwen-dig. Um dies zu ermöglichen, wird im Forschungsprojekt PAIRS (Privacy-Aware, In-telligent and Resilient CrisiS Management) eine szenariobasierte Krisenmanage-mentplattform entwickelt, in welcher auf Basis von hybriden KI-Methoden Krisen identifiziert und deren Entwicklung antizipiert werden können. Hierfür wurden ver-schiedene Anwendungsfälle erfasst und deren domänenübergreifenden Wechselwirkungen systematisch untersucht.
Vor dem Hintergrund stark wachsender Absatzzahlen in der Windenergiebranche steht Nordex als Hersteller von Windenergieanlagen vor der Aufgabe, auch die Strukturen der Service-Logistik dem angestrebten Wachstum für die kommenden Jahre anzupassen. Eine elementare Frage ist dabei, ob die heutige Distributionsstruktur sowohl dem wachsenden Markt als auch den steigenden Ansprüchen der Kunden hinsichtlich der Verfügbarkeit der Anlagen genügen kann. Das Forschungsinstitut für Rationalisierung (FIR) wurde daher von der Nordex Energy beauftragt, die bestehende Netzwerkstruktur mit alternativen Strukturszenarien zu bewerten.
Die Relevanz zur Vorbereitung auf Störungen nimmt durch das volatile Umfeld, steigende Komplexität und zunehmende Abhängigkeiten zwischen verschiedenen Akteuren in Supply-Chains für produzierende Unternehmen zu. Häufig verfolgte Ansätze zur Schaffung effizienter Strukturen und Reduktion von Kosten erhöhen die Anfälligkeit gegenüber Störungen. Vergangene Störungen haben dabei insbesondere zu Problemen im Bereich der Beschaffung geführt. Der Aufbau von Resilienz unterstützt den Umgang mit unvorhersehbaren Ereignissen. Je höher die Resilienz ist, desto geringer ist der negative Einfluss einer Störung und desto schneller ist eine Rückkehr in den ursprünglichen oder einen besseren Zustand möglich. Obwohl der Bedarf zur Steigerung der Resilienz von vielen Unternehmen erkannt wird, wird dies häufig nicht systematisch umgesetzt. Herausforderungen beim Aufbau einer resilienten Beschaffung stellen mangelndes Wissen über das multidimensionale Resilienzkonzept und konkrete Gestaltungsoptionen sowie fehlende praktische Methoden für den gezielten Aufbau der Resilienz dar. Insbesondere die Auswahl und Kombination der richtigen Maßnahmen wird aufgrund nicht ausreichend beschriebener Beiträge der Maßnahmen zur Resilienz erschwert. Ziel der vorliegenden Dissertationsschrift ist daher die Entwicklung einer Methode zur systematischen Konfiguration der Resilienz in der Beschaffung. Die entwickelte Methode ermöglicht Unternehmen die strukturierte Auswahl und Kombination von Gestaltungsoptionen in der Beschaffung unter Berücksichtigung der verschiedenen Komponenten und Zielrichtungen der Resilienz. Hierzu wird zunächst ein Ordnungsrahmen zur Beschreibung und Strukturierung der Resilienz entwickelt und für den Kontext der Beschaffung konkretisiert. Als wesentliche Grundlage für die systematische Konfiguration der Resilienz erfolgen anschließend die Entwicklung eines strukturierten Resilienzpotenzialkatalogs und die Identifikation von Potenzialkategorien. Resilienzpotenziale stellen dabei Gestaltungsoptionen zum Aufbau der Resilienz dar. Die Methode zur systematischen Konfiguration der Resilienz führt die entwickelten Ergebnisse zusammen und stellt die praktische Anwendbarkeit sicher. Durch die ganzheitliche Betrachtung der Resilienz und der Resilienzpotenziale kann eine gezielte Gestaltung der Resilienz erreicht werden, die bislang aufgrund eines fehlenden Verständnisses der relevanten Aspekte der Resilienz und der Wirkung der Gestaltungsoptionen erschwert wurde.
(Quelle: https://www.apprimus-verlag.de/systematische-konfiguration-der-resilienz-in-der-beschaffung.html)
Die industrielle Entwicklung der vergangenen Jahre hat insbesondere dazu geführt, dass sich Produkte und Dienstleistungen der produzierenden Industrie stärker an den individuellen Kundenbedürfnissen orientieren. Die Marktentwicklungen verlangen daher insbesondere an Hochlohnstandorten spezifische Differenzierungsstrategien und einen hohen Grad an Flexibilität. All dies führt zu immer komplexeren Produkt- und Fertigungsstrukturen, kürzeren Entwicklungszyklen sowie dem vermehrten Auftreten von Änderungsanfragen.
Die Handhabung von Änderungen an Produkten und Prozessen stellt für viele Unternehmen schon heute häufiger den Normalzustand als die Ausnahme dar. So ist insbesondere auf eine effiziente Handhabung des Änderungsmanagementprozesses zu achten, um schnellstmöglich die Ausrichtung an neu auftretende Anforderungen zu gewährleisten. Durch eine mangelnde Integration der im Einsatz befindlichen betrieblichen Anwendungssysteme ist es den meisten Entscheidungsträgern im Änderungsmanagementprozess jedoch nicht möglich, ihre Entscheidung datenbasiert und objektiv zu treffen. Digitalisierungstrends führen somit nicht zu erhofften Synergieeffekten im Bezug auf die Handhabung von Änderungsanfragen. Da das größte Potenzial für die Unterstützung der industriellen Praxis im Bewertungsprozess einer Änderungsanfrage liegt, ist es das Ziel dieser Dissertationsschrift, die Welt der betrieblichen Anwendungssysteme mit dem Bewertungsprozess zu verknüpfen. Somit sollen Synergieeffekte bei der datenbasierten Bewertung von Änderungsanfragen genutzt werden können sowie die Effizienz im Bewertungsprozess gesteigert werden. Die objektivierte und beschleunigte datenbasierte Bewertung von Änderungsanfragen führt somit zu einer vermehrten Nutzung dieser. Unternehmen wird es somit zukünftig besser möglich sein, sich schnell an neuen Anforderungen auszurichten und Wettbewerbsvorteile zu erzielen.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
In this paper, we firstly present a target system which is deduced to assess the economic profitability of reverse supply chains. Considering this, we analyse process reference models to define relevant components of an appropriate target system.
Subsequently, we define applicable business models which are the basis for the manufacturer to offer new services to its customers on the one hand and to manage a goal-oriented return, recovery and resell of used products and components on the other hand. This will be done based on the morphology methodology in order to understand the characteristics and attributes of reverse supply chains.
Die Koordination von Material- und Informationsflüssen ist entscheidend für die Existenz von effizienten und nachhaltigen Netzwerken zwischen produzierenden Unternehmen und Logistikdienstleistern (LDL). Das Ergebnis des Forschungsprojekts ‚SynLApp‘ ist ein Assistenzsystem, mit dem die Zusammenarbeit zwischen Produktionsunternehmen und LDL unterstützt und gefördert werden kann. Die Hauptaufgabe des Tools ist es, gegenseitig den Auftragsstatus der Partner einzusehen, um Produktionsschwankungen sowie Maschinenausfälle zu erkennen und die Daten zu verarbeiten und aufzubereiten. Darauf basierend können optimierte Handlungsoptionen für die Unternehmen erstellt werden. Das SynLApp-Assistenzsystem reduziert die Kosten aller Beteiligten, indem es dabei unterstützt, Waren bedarfsgerecht an der Laderampe bereitzustellen. Neben der Entwicklung eines Befähigungsmodells für Unternehmen sind die modellierte Softwarearchitektur und die Implementierung einer Testumgebung die Kerninhalte des Projekts. In diesem Artikel werden die relevanten Projektergebnisse sowie dem Aufbau des Assistenzsystems und die mögliche Nutzung durch KMU diskutiert. Der SynLApp-Agent konnte bereits projektbegleitend von verschiedenen Unternehmen aus der Industrie validiert werden. Zudem dient das Projekt dem Aufbau zweier Demonstratoren, welche für Industrieinteressenten frei zugänglich sind. ‚SynLApp‘ ist ein weiteres gutes Beispiel dafür, wie zielführend Industrie-4.0-Technologien sein können.
SynLApp: Assistenzsystem für die wechselseitige Synchronisation der Produktions- und Interlogistik zur Effizienzsteigerung von KMU
Ziel des Forschungsprojekts 'SynLApp' war die Optimierung der Schnittstelle Laderampe durch die Entwicklung einer Lösung zur Synchronisation von Produktions- und Interlogistik
Sustainable ERP
(2023)
Ein betriebliches CO2-Management schafft die Grundlagen, um in Geschäftsprozessen nachhaltige Entscheidungen unter Berücksichtigung von CO2-Emissionen treffen zu können. Die Basis dafür stellt die datenbasierte Bilanzierung dar, welche durch die Nutzung bestehender Daten aus betrieblichen Anwendungssystemen, wie ERP, MES, CRM und weitere, effizient gestaltet werden kann. Moderne Business Applications, insbesondere ERP-Systeme, kommen also zukünftig um die Berücksichtigung
von Nachhaltigkeitsaspekten nicht herum.
Die Umsetzung kann dabei als ein integriertes Modul oder durch die Integration von spezialisierter Software in eine modulare IT-Systemlandschaft gestaltet werden.
Ziel des Forschungsvorhabens "SurE" ist die Erhöhung der Effizienz und Effektivität von Suchanfragen in ERP-Systemen. Dabei soll der Aufwand für den Nutzer reduziert und die Qualität der Ergebnisse verbessert werden. Die Ziele werden durch die Entwicklung einer selbstlernenden, kontextbasierten Suchmaschine für ERP-Systeme realisiert. Mit der Berücksichtigung des Kontextes einer Suchanfrage, des Benutzerverhaltens und einer Ergebnisbewertung durch den Anwender wird die Ergebnisqualität von Suchanfragen kontinuierlich gesteigert. Durch die Entwicklung eines Demonstrators gegen Ende des Projekts soll der Nutzen des Konzepts veranschaulicht werden. Zudem soll der Demonstrator in verschiedenen Szenarien erprobt und anhand einer Wirtschaftlichkeitsbetrachtung bewertet werden.
Ziel des Forschungsvorhabens war die Erhöhung der Effizienz und Effektivität von Suchanfragen in ERP-Systemen. Dabei sollte der Aufwand für den Nutzer reduziert und die Qualität der Ergebnisse verbessert werden. Die Erreichung der Ziele wurde durch die Entwicklung einer selbstlernenden, kontextbasierten Suchmaschine für ERP-Systeme realisiert. Mit der Berücksichtigung des Kontexts einer Suchanfrage, des Benutzerverhaltens und einer Ergebnisbewertung durch den Anwender wurde die Ergebnisqualität von Suchanfragen kontinuierlich gesteigert. Durch die Entwicklung eines Demonstrators wurde der Nutzen des Konzepts nachgewiesen, indem dieser in verschiedenen Szenarien erprobt und anhand einer Wirtschaftlichkeitsbetrachtung bewertet wurde.
Nach heutigem Stand werden Industrie-4.0-Technologien überwiegend innerhalb der eigenen Unternehmensgrenzen eingesetzt. Ob Cloud-Computing, Big Data oder Künstliche Intelligenz – deutsche Unternehmen treiben die Entwicklung neuester Technologien hauptsächlich im Kontext der eigenen Produktion, Forschung oder allgemeiner interner Prozessoptimierung voran. Im Sinne einer ganzheitlichen Betrachtung sollten unternehmensübergreifende Initiativen jedoch nicht vernachlässigt werden. So sehen sich Unternehmen zunehmend neuen Herausforderungen ausgesetzt, von immer komplexerer Produktion bis hin zu globalem Wettbewerb und internationalen Wertschöpfungsketten. Gerade Disruptionen wie die COVID-19-Pandemie verdeutlichen, dass Agilität und Robustheit von Wertschöpfungsketten eine Grundvoraussetzung für den Unternehmenserfolg sind und die Supply-Chain-Resilienz in der aktuellen Zeit von großer Relevanz ist. Ziel dieser Veröffentlichung ist es, zu verdeutlichen, wie Industrie-4.0-Technologien in der Supply-Chain eingesetzt werden können, um die Resilienz zu steigern. Hierzu werden die bestehenden Herausforderungen, grundlegende Mechanismen der Resilienz, allgemeine Lösungsansätze sowie konkrete Technologien detailliert betrachtet.
Supply-Chain-Management 4.0
(2020)
Viele Unternehmen erhoffen sich enorme Wachstumschancen durch Digitalisierung, Vernetzung und neue Technologien. Daher ist der Reifegrad der Digitalisierung eines Unternehmens von besonderer Bedeutung, um den Status des Unternehmens zu überprüfen. Im Rahmen der acatech-Studie wurde ein Index entwickelt, um den Reifegrad von produzierenden Unternehmen zu bestimmen. Diese Bewertung berücksichtigt jedoch den Bereich des Lieferkettenmanagements nicht ausreichend. Infolgedessen müssen diesbezüglich weitere Merkmale entwickelt werden, um den Reifegrad der Digitalisierung innerhalb einer Lieferkette zu bestimmen. Der Schwerpunkt liegt auf Datenverarbeitung, Kommunikation, Schnittstellenarbeit und Sicherheit, Netzwerkzusammenarbeit und Änderungsmanagement.
Das heutige unternehmerische Umfeld ist – nicht zuletzt seit der COVID-19-Pandemie – sowohl durch zunehmend kurzzyklischere globale als auch unternehmerische Veränderungen geprägt. Vor diesem Hintergrund rückt die Gestaltung von Unternehmensnetzwerken zur Stabilisierung von Supply-Chains in den Fokus unternehmerischer Tätigkeiten. Eine essenzielle Voraussetzung hierfür stellt die Evaluation der Ist-Situation bestehender Supply-Chains dar. Insbesondere kleinen und mittleren Unternehmen (KMU) mangelt es jedoch häufig sowohl an Informationen als auch an Kapazitäten, um diese zu erheben.
In dem Doktorvortrag werden unter Supply-Chain-Analytics statistische und mathematische Verfahren zur Mustererkennung und Prognose sowie technologischen Lösungen zur Datenerfassung und -verarbeitung zusammengefasst, die die Gestaltung und Umsetzung einer digital vernetzten sowie intelligenten und vorausschauenden Supply-Chain ermöglichen.
Current supply chain structures in the spare parts logistics are changing profoundly due to the influence of digitalization and additive manufacturing (AM). In particular the Logistics Service Provider (LSP) is influenced by the change, as the physical transport of goods could become redundant due to the digital transmission of production data. This leads to a reduction of the LSP’s share in the value chain. Conceptualizing a new role for the LSP for additively manufactured spare parts is necessary. Therefore, five different scenarios are identified in which the LSP serves as a transport carrier, digital distributor, an AM decision maker, a selector of the manufacturer and as an AM service provider.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Supply Chain Experiment
(2013)
Die Siemens Energy AG verfügt über 80 Produktionsstandorte auf der ganzen Welt. Die IT-Systemlandschaft in der Produktion ist – wie in gewachsenen Strukturen üblich – sehr heterogen. Folgerichtig stellt sich das übergeordnete Ziel, diese IT-Systemlandschaften zu harmonisieren. Dabei ist es unumgänglich, die unterschiedlichen Anforderungen aus den verschiedenen Unternehmensbereichen zu berücksichtigen. Nur so können die übergeordneten Effizienzgewinne mit einer Harmonisierung erreicht werden. Die Verbindung der Expertise von FIR und Siemens Energy war hier das Erfolgsrezept.
Die Globalisierung und der steigende Wettbewerbsdruck erfordern, dass Supply Chains heutzutage komplexe Anforderungen erfüllen. Dabei müssen sie gleichzeitig flexibel genug sein, um an kurzfristige Veränderungen angepasst werden zu können. Ein unternehmensübergreifender Datenaustausch ermöglicht den Akteuren durch schnelle Informationsweitergabe über auftretende Ereignisse entlang der Supply Chain, dynamisch auf aktuelle Gegebenheiten zu reagieren und dadurch hervorgerufene mögliche Schäden zu minimieren. Auch wenn viele Unternehmen mit der Bereitstellung von Daten noch zurückhaltend sind, gehen die Vorteile des Datenaustauschs weit über die Verkürzung der Reaktionszeit hinaus.
Heterogene IT-Landschaften und standortspezifische Prozesse führen in vielen Unternehmen zu Effizienzverlusten und damit zu hohen operativen Kosten. Die international agierende Albany Door Systems GmbH hat dieses Problem erkannt und strebt daher eine globale Standardisierung der Prozesse als Vorbereitung für den geplanten SAP-Roll-out an. In diesem Kontext wurde das Forschungsinstitut für Rationalisierung beauftragt, die Albany Doors Systems GmbH bei der Erarbeitung von weltweiten Prozessstandards zu unterstützen.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
In recent years, the complexity of the management of supply chains has increased significantly due to the growing individualization of products and dynamics of the market environment. To remain competitive, ensuring efficient and flexible processes and procedures along the entire supply chain are of particular importance for companies. Especially in the inter-company context, decisions must be made as quickly and correctly as possible. To enable good decision-making processes data must be processed and provided in a targeted manner. Currently, however, the necessary transparency is often lacking within the supply chains. In this article, a software-based assistance system for decision support on supply chain level is presented that aims to increase the transparency and efficiency of the decision-making process. A concept for decision support on supply chain level is presented. This paper focuses on the conceptual linkage of relevant decisions and data. Therefore, indicators are identified and linked with the relevant decisions. Moreover, a suitable way of visualizing the identified indicators for each decision in a user-friendly manner is defined. These results are then used to implement the software tool.
Es geht um die Entwicklung eines Software-Tools zur Unterstützung bei der Auswahl von geeigneten 3D-Druckdienstleistern im Kontext der additiven Ersatzteillogistik. Im Fokus steht der Logistikdienstleister als potentieller Nutzer des Softwaretools. Das Softwaretool erfüllt zwei zentrale Funktionen: Überprüfung ob ein Ersatzteil additiv gefertigt werden soll und Auswahl eines konkreten Produzenten durch Matchingalgorithmus.
Da die heutigen Logistiknetzwerke den Anforderungen nicht mehr gerecht werden, rückt das Supply-Chain-Risk-Management von Wertschöfungsketten zunehmend in den Mittelpunkt unternehmerischer Überlegungen. Störungen in Logistiknetzwerken treten wegen unzureichender Datenmengen, -qualität und -integration der realen Welt nicht in den Informationssystemen auf. Eine echtzeitfähige Reaktion auf diese Störungen und proaktive Korrekturmaßnahmen innerhalb der Logistikprozesse sind folglich unmöglich. Daher kann ein erhöhter Bedarf an ganzheitlicher Transparenz innnerhalb der Logistiknetzwerke abgeleitet werden. Mit diesem Thema beschäftigt sich das Forschungsprojekt Smart-Logistic-Grids.
Smart-Logistic-Grids
(2016)
Ziel des Forschungsvorhabens Smart-Logistic-Grids ist die Entwicklung eines Systems, welches, basierend auf einer erhöhten Informationsverfügbarkeit, Handlungsalternativen aufzeigt und ökonomisch bewertet. Hierfür ist eine barrierefreie Integration unterschiedlicher Akteure innerhalb eines Logistiknetzwerks notwendig. Das Ergebnis dieses Systems eröffnet den Nutzern nicht nur Effizienzsteigerungen und eine erhöhte Robustheit des Gesamtsystems, sondern auch die Reduzierung der CO2 –Emissionen.
Smart Speaker
(2023)
Intelligente, mit dem Internet verbundene Lautsprecher inklusive Spracherkennung sowie -steuerung – sogenannte Sprachassistenzsysteme oder Smart Speaker – sind in immer mehr Privathaushalten zu finden. Mittlerweile ist bei jedem vierten deutschen Bürger mindestens ein Smart Speaker vorhanden. Auch im industriellen Kontext existiert eine Vielzahl von interagierenden Anwendungen, daher kann die Erweiterung der Anwendungen um die Sprachtechnologie wesentliche Wertschöpfungspotenziale hervorbringen. Forschungsziel war die Identifikation und Bewertung von nutzenstiftenden Einsatzszenarien von Sprachassistenzsystemen mit hinterlegter Datenverarbeitung und Informationsgenerierung in KMU des Maschinen- und Anlagenbaus.
Smart Operations
(2019)
Smart Operations
(2015)
Ziel des vorliegenden Whitepapers ist es, dem Leser
einen Einblick in das Themengebiet „Smart Operations“
am FIR an der RWTH Aachen zu geben. Es beschreibt die
derzeitigen Umfeldveränderungen im Kontext produzierender
Unternehmen und zeigt auf dieser Basis die Handlungsfelder
eines zukunftsorientierten Produktionsmanagements
im Umfeld der Digitalisierung auf.
In dem durchgeführten Forschungsvorhaben wurde ein Konzept zur Gestaltung und Bewertung einer skalierbaren Produktentwicklung und Markteinführung technischer Produkte entwickelt. Ein zentraler Baustein dieses Konzepts war dabei der Pionierprodukt-Ansatz. Pionierprodukte stellen einen volumenmäßig, zeitlich und räumlich begrenzten Ausschnitt des gesamten Zielmarktes eines Unternehmens dar. Mit dem Pionierprodukt-Ansatz können Innovationen in kurzer Zeit an den Markt gebracht und dort unter realen Marktbedingungen getestet werden.
Durch die Integration von Pionierprodukt-Entwicklung und Realoptionen-Ansatz wird jedoch grundsätzlich die Fokussierung auf die wesentlichen Marktanforderungen wie Produktdifferenzierung, Kundenorientierung und die Wiederverwendung bewährter Produktkomponenten und Partnernetzwerke im Kontext komplexer Entwicklungsprojekte ermöglicht. Die Reduktion der zu beherrschenden Komplexität mit Hilfe der genannten Ansätze ist wesentliches Merkmal des entwickelten Konzepts.
Eine Möglichkeit die Prognosegüte der Planung zu verbessern und eine Synchronisation der funktionalen Zielsysteme in Hinblick auf ihre Zeitplanungsgrößen zu ermöglichen, stellt die Synchronisierung von Zeitplanungsparametern dar. In der vorliegenden Dissertationsschrift wird daher ein Gestaltungskonzept entwickelt, welches dabei unterstützt, das effiziente Set an Zeitplanungsparametern für Variantenfertiger zu identifizieren und in etablierten betrieblichen Anwendungssystemen zu parametrieren.
Steigende Energiekosten sind ein zunehmendes Risiko für Unternehmen des deutschen Maschinen- und Anlagenbaus. Die Steigerung der Energieeffizienz kann somit zukünftig zu Wettbewerbsvorteilen führen. Aufgrund der Komplexität heutiger Produktionssysteme ist eine Analyse der Wechselwirkungen von Parametern der Produktionsplanung und -steuerung (PPS) auf die Energieeffizienz notwendig, um Maßnahmen zu identifizieren, die eine Steigerung der Energieeffizienz ermöglichen.
Der vorliegende Artikel stellt die Ergebnisse einer Simulationsstudie vor, in welcher der Einfluss der Losgrößenplanung auf die Energieeffizienz im Rahmen einer mehrstufigen Mehrproduktfertigung untersucht wird. Die Ergebnisse der Studie leisten einen Beitrag zum besseren Verständnis der komplexen Zusammenhänge und können als Ausgangspunkt für weitere Untersuchungen zu Wechselwirkungen von Produktionsparametern mit der Energieeffizienz dienen.
Um langfristig in einem Umfeld zunehmenden Wettbewerbs durch internationale Anbieter erfolgreich zu sein, müssen Unternehmen verstärkt regionale Märkte erschließen. Analog zur Automobilindustrie werden wichtige Wachstumsmärkte zunehmend durch Handelshemmnisse abgeschottet, so dass die Markterschließung durch Exporte vollständig montierter Erzeugnisse häufig ausscheidet. Um dennoch die Handelshemmnisse zu umgehen, hat sich in der Automobilindustrie die Completely Knocked Down (CKD)-Strategie durchgesetzt, bei der Erzeugnisse teilzerlegt in die Märkte exportiert und dort lokal endmontiert werden. Zielsetzung des von der Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e. V. (AiF) geförderten Forschungsvorhaben „CKDCHAIN“ ist die Übertragung dieses Konzeptes auf Unternehmen des Maschinen- und Anlagenbaus, in dem eine simulationsbasierte Gestaltungsunterstützung für den Aufbau einer geeigneten Supply Chain entwickelt werden soll.
Zwingende Voraussetzung für die nachhaltige Wettbewerbsfähigkeit von Unternehmen ist eine schnelle und adäquate Anpassung an dynamische Marktbedingungen. Diese sind von einem immer stärkeren Wandel geprägt: Neue, offensive Wettbewerber, eine rasante Ausbreitung neuer Produkte und Technologien sowie eine immer stärkere Vernetzung der Güter- und Kapitalströme sind nur einige Charakteristika dieses Wandels. Als Folge davon verkürzen sich Produktlebenszyklen, werden Produkte in zunehmender Variantenvielfalt nachgefragt und schwanken Nachfragezahlen immer stärker. Der Markt sowie das Unternehmensumfeld werden immer dynamischer. Diese Dynamik beeinflusst insbesondere Unternehmen, die in Supply Chains an einer Kunden-Lieferanten-Schnittstelle mit stark schwankendem Unternehmensumfeld agieren. Um die Wettbewerbsfähigkeit zu gewährleisten, müssen Material- und Informationsflüsse so gestaltet werden, dass gleichzeitig die Versorgungssicherheit gewährleistet wird und die Logistikkosten so niedrig wie möglich ausfallen. Zu diesem Zweck existieren unterschiedliche Supply Chain Management-Konzepte, die Unternehmen Vorteile bieten, sofern sie unter den richtigen Bedingungen eingesetzt werden. Eine durch die Turbulenzen des Unternehmensumfelds hervorgerufene Veränderung kann die Effizienz eines momentan eingesetzten SCM-Konzepts an einer Kunden-Lieferanten-Schnittstelle verringern. Eine Anpassung des SCM-Konzepts kann daher notwendig werden. Bis heute fehlt es jedoch an adäquaten Lösungsansätzen zur Bewertung der Kunden-Lieferanten-Schnittstelle unter Berücksichtigung sich ändernder Einflussfaktoren. In dieser Dissertation wurde daher ein Verfahren zur fallspezifischen Entscheidungsunterstützung zur Bewertung und Gestaltung der Kunden-Lieferanten-Schnittstelle aus Kundensicht entwickelt. Kern des entwickelten Verfahrens sind Simulationsmodelle, die es durch Parametervariation möglich machen, Auswirkungen von Veränderungen des dynamischen Unternehmensumfeldes auf die Logistikkosten und -leistung zu beschreiben. Eine Anpassung des SCM-Konzepts erfolgt dabei, wenn fallspezifische Schwellwerte dynamischer Einflussfaktoren über- oder unterschritten werden. Dadurch wird eine schnelle und fallspezifische Bewertung der Kunden-Lieferanten-Schnittstelle bei sich ändernden Einflussfaktoren ermöglicht. Mit Hilfe des Verfahrens sind Unternehmen somit in der Lage auf Veränderungen im Umfeld der Kunden-Lieferanten-Schnittstelle adäquat zu reagieren bzw. antizipative Eingriffe vorzunehmen.
Trotz technischer Möglichkeiten für eine hochfrequentere Planung werden noch immer nächtliche IT-Planungsläufe zur „Aktualisierung“ von Daten in der PPS durchgeführt. Produzierende Unternehmen sind nicht in der Lage zu bewerten, in welcher Häufigkeit Planungsläufe durchzuführen und welche Rahmenbedingungen dazu notwendig sind. Ergebnisse dieser Arbeit sind eine Unterstützung zur Bewertung der Häufigkeit von Planungsläufen sowie Gestaltungsempfehlungen für relevante Rahmenbedingungen der PPS.
Diese Dissertation entwickelt ein Verfahren zur simulationsbasierten Bewertung alternativer Reverse Supply Chains, sodass unter Zuhilfenahme der entwickelten Lösungskomponenten unterschiedliche Gestaltungsoptionen für die proaktive Produktrückführung und -behandlung ex ante bewertet werden können. Neben der expliziten Berücksichtigung der Dynamik und Komplexität von Reverse Supply Chains umfasst diese Dissertation eine Entscheidungsunterstützung zur Auswahl von Geschäftsmodellalternativen.
Die Windkraft boomt. Ganz sicher wird es im Jahre 2011 wesentlich mehr Windkraftanlagen geben als heute. Das hat Folgen für die Ersatzteilversorgung. Für die Nordex Energy GmbH hat das Forschungsinstitut für Rationalisierung untersucht, welche Struktur für die Servicelogistik künftig die bessere sein wird: Service Points vs. Regionallager
Kleine und mittelständische Unternehmen (KMU) der Fertigungsindustrie stehen durch die zunehmend individualisierten Kundenwünsche und -anforderungen unter einem großen Wettbewerbsdruck. Als eine logische Folge wächst daraus eine intrinsische Motivation seitens der Unternehmen, ihre Geschäftsbereiche zu optimieren. Jedoch mangelt es mehrheitlich neben freien Kapazitäten an einer zielgerichteten, systematischen Herangehensweise.Gerade das Ersatzteilmanagement bietet in diesem Kontext große Nutzenpotentiale für die KMU, da dieser Bereich weitestgehend von den Unternehmen als Randbereich wahrgenommen wird und somit die enthaltenen Potentiale weder wahrgenommen noch ausgeschöpft werden.
Today’s manufacturers are facing numerous challenges such as highly entangled and interconnected supply chains, shortening product lifecycles and growing product complexity. They thus feel the need to adjust and adapt faster on all levels of value creation. Self-optimization as a basic principle appears a promising approach to handle complexity and unforeseen disturbances within supply chains, machines and processes. Therefore it will improve the resilience and competitiveness of manufacturing companies.
This paper gives an introduction to the concept of self-optimizing production systems. After a short historical review, the different levels of value creation from supply chain design and management to manufacturing and assembly are analyzed considering their specific demands and needs for self-optimization. Examples from each of these levels are used to illustrate the concept of self-optimization as well as to outline its potential for flexibility and productivity. This paper closes with an outlook on the current scientific work and promising new fields of action.
Production in high-wage countries can be made more efficient, cost-effective, and flexible by solving the conflict between planning and value orientation. A promising approach is to focus on planning and decision-making processes (production planning and control, design of production processes and machinery, etc.) and to aim to maximize overall planning efficiency. Planning efficiency can be expressed as the ratio between the benefit generated by preparing detailed process instructions to produce the parts or components and the corresponding planning efforts. Industrial companies wanting to gain a competitive advantage in dynamic global markets have to identify a set of non-dominated solutions with the most favorable effort–benefit ratio rather than a single solution. The optimum between detailed planning and the immediate implementation of value-adding activities (process steps) in the process chain needs to be found dynamically for each product.
Manufacturing companies are facing an increasingly turbulent market – a market defined by products growing in complexity and shrinking product life cycles. This leads to a boost in planning complexity accompanied by higher error sensitivity. In practice, IT systems and sensors integrated into the shop floor in the context of Industry 4.0 are used to deal with these challenges. However, while existing research provides solutions in the field of pattern recognition or recommended actions, a combination of the two approaches is neglected. This leads to an overwhelming amount of data without contributing to an improvement of processes. To address this problem, this study presents a new platform-based concept to collect and analyze the high-resolution data with the use of self-learning algorithms. Herby, patterns can be identified and reproduced, allowing an exact prediction of the future system behavior. Artificial intelligence maximizes the automation of the reduction and compensation of disruptive factors.
Diese Dissertation entwickelt ein Gestaltungskonzept zur selbstoptimierenden Regelung der Materialdisposition in der Beschaffung. Den Kern des Gestaltungskonzepts bilden valide und verständliche Entscheidungsheuristiken zur effizienten Auswahl der ziel- und situationsgerechten Dispositionslogik respektive zur zielgerichteten Optimierung der Dispositionsschnittstellen.
Ziel des Forschungsbereichs "Selbstoptimierende Produktionssysteme" ist es, sowohl technische als auch soziotechnische Produktionssysteme zu entwickeln, die durch Selbstoptimierung eine bessere Performance erreichen, als bei der Auslegung geplant und erwartet werden kann. Im Fokus steht die Steigerung der Produktivität in der Produktion direkt vor Ort. Bedeutend ist die dezentrale Entscheidungsfähigkeit der Mitarbeiter auf dem Shopfloor und in unterstützenden Bereichen, sowie der kognitiven und adaptiven Systeme und Netzwerke in der Produktion.
Aus Sicht des Produktionsmanagements stellt die Beherrschung der steigenden Dynamik und den daraus resultierenden Konsequenzen wie beispielsweise Unter- und Überlastsituationen eine zentrale Herausforderung der kommenden Jahre dar. Ursachen der zunehmenden unternehmensinternen Dynamik sind verkürzte Lieferzeiten, eine höhere Prozessvarianz der Fertigung und Montage (verursacht durch individualisierte Produkte) und der Einsatz technologisch-komplexer Produktionsanlagen. Die drastische Verkürzung der Lieferzeiten hat die Auftragssituation und den Kapazitätsbedarf produzierender Unternehmen stark verändert.
Kapazitätsschwankungen und Prozessinstabilitäten einer Einzelressource wirken sich auf Grund der stärkeren Kopplung wesentlich drastischer auf die Stabilität des gesamten Unternehmens aus, da Bestände als Puffer zu kapitalintensiv geworden sind. Gleichzeitig nehmen makroskopische, überbetriebliche Kapazitätsschwankungen zu, da die Reaktionszeiten innerhalb der Lieferkette deutlich kürzer geworden sind.
Die steigende Varianz der Prozessketten und -zeiten potenziert die beschriebenen Kapazitäts- und Durchlaufzeitschwankungen. Eine "mittelwertbasierte PPS" kann aufgrund der gestiegenen Planungsanforderungen nicht mehr zielkonform agieren. Planungs- und Steuerungskonzepte, die auf diese Komplexität nicht reagieren können, multiplizieren ein weiteres Aufschwingen der Bedarfe in der Lieferkette und führen zu Auslastungsverlusten und steigenden Rückständen in der Produktion. Heute sind neue Ansätze in der Planung und Steuerung von inner- und überbetrieblichen Produktionsprozessen notwendig, die die Dynamik der Prozesse und der Kapazitätsbedarfe beherrschbar machen oder ggf. sogar kompensieren können.