Produktionsmanagement
Refine
Year of publication
- 2023 (40) (remove)
Document Type
- Contribution to a Periodical (10)
- Conference Proceeding (9)
- Report (5)
- Part of a Book (4)
- Article (3)
- Lecture (3)
- Internet Paper (3)
- Working Paper (2)
- Book (1)
Language
- German (20)
- English (14)
- Multiple languages (6)
Is part of the Bibliography
- no (40)
Keywords
- 01 (14)
- 02 (20)
- 03 (3)
- Adaptability (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Best of breed (1)
- Blockchain (2)
- CO2 (1)
- CO2 accounting (1)
Institute
Unternehmen der produzierenden Industrie sind mit einem dynamischen und immer komplexeren Umfeld konfrontiert. Daraus resultiert, dass Prozesse sich verändern und damit auch eine Anpassung der bestehenden IT-Systemlandschaft notwendig wird.
Zusätzlich bedarf es einer passgenauen und durchgängig integrierten Umsetzung der IT-Systemlandschaft, um weiterhin die steigende Komplexität zu beherrschen. Beides ist heute nur schwer umsetzbar, da die Implementierung von monolithischen Systemen genau in den genannten Bereichen Lücken aufweist. IT-Systemlandschaften müssen zukunftsfähig gestaltet werden – Modularisierung ist dabei der Schlüssel zum Erfolg!
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
In einer zunehmend digitalisierten Welt bilden IT-Systeme wie ERP oder MES das Rückgrat effizienter Prozesse. Doch viele Unternehmen stellen fest, dass ihre ITSysteme den sich ändernden Anforderungen weder gerecht werden noch die neuen Prozesse effektiv unterstützen. Dies führt entweder zur Entwicklung von Schatten-IT, d. h. zu provisorischen Anpassungen des IT-Systems oder zur Notwendikeit der
Auswahl eines neuen IT-Systems. Um dem entgegenzuwirken bzw. den Auswahlprozess zu verbessern, wurde das Forschungsprojekt VIPER ins Leben gerufen. Das FIR an der RWTH Aachen und das IPH – Institut für Integrierte Produktion Hannover gGmbH, haben sich zum Ziel gesetzt, Unternehmen darin zu unterstützen, durch die Betrachtung des gesamten soziotechnischen Informationssystems die Lebensdauer ihrer IT-Systeme zu erhöhen und bessere Entscheidungen bei der Auswahl neuer IT-Systeme zu treffen.
Gesamtziel des Forschungsprojekts war es, durch den Einsatz der Blockchaintechnologie die Transparenz und Sicherheit der Prozesse und Strukturen der Lebensmittelproduktion und -logistik zu erhöhen. So sollte eine hochauflösende Rückverfolgbarkeit ermöglicht und gleichzeitig Fälschungssicherheit sichergestellt werden.
Die Ergebnisse des Vorhabens bieten für Unternehmen, neben der erhöhten Transparenz und Sicherheit, die Basis für neue Produkte und Geschäftsmodelle, einen Nachweis der technischen Machbarkeit einer Blockchain in der Rückverfolgung von Lebensmitteln und einen Ansatz zur nachhaltigen Stärkung von Kundenbeziehungen.
Numerous start-ups and now even some major corporates are currently trying to improve visibility and foresight in the manufacturing industry through connected supply chains, or in other words, through increased data sharing. This study strives to support companies in leveraging the potential of increased data sharing in supply chain collaborations. Despite the great potential of digitizing manufacturing and automated data sharing throughout the supply chain, most companies are not yet able or willing to implement this kind of openness. The main reason for this lack of transparency in the supply chain is the high complexity and high cost of the required interfaces. In practice, instead of automated and extensive data sharing, companies exchange spreadsheets and PDFs with minimum information. This study supports companies in the pre-stage before automated data sharing is technically implemented. We find that building trustful relationships is a necessary step towards extended and automated data sharing. Moreover, we find that social capital provides a means to partially compensate for a lack of automation in terms of shortening lead times and dealing with disruptions. Introducing a supply chain collaboration typology and showcasing descriptive and qualitative results for 36 firms, we show how to navigate the frontend of the Internet of Production.
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Die Koordination von Material- und Informationsflüssen ist entscheidend für die Existenz von effizienten und nachhaltigen Netzwerken zwischen produzierenden Unternehmen und Logistikdienstleistern (LDL). Das Ergebnis des Forschungsprojekts ‚SynLApp‘ ist ein Assistenzsystem, mit dem die Zusammenarbeit zwischen Produktionsunternehmen und LDL unterstützt und gefördert werden kann. Die Hauptaufgabe des Tools ist es, gegenseitig den Auftragsstatus der Partner einzusehen, um Produktionsschwankungen sowie Maschinenausfälle zu erkennen und die Daten zu verarbeiten und aufzubereiten. Darauf basierend können optimierte Handlungsoptionen für die Unternehmen erstellt werden. Das SynLApp-Assistenzsystem reduziert die Kosten aller Beteiligten, indem es dabei unterstützt, Waren bedarfsgerecht an der Laderampe bereitzustellen. Neben der Entwicklung eines Befähigungsmodells für Unternehmen sind die modellierte Softwarearchitektur und die Implementierung einer Testumgebung die Kerninhalte des Projekts. In diesem Artikel werden die relevanten Projektergebnisse sowie dem Aufbau des Assistenzsystems und die mögliche Nutzung durch KMU diskutiert. Der SynLApp-Agent konnte bereits projektbegleitend von verschiedenen Unternehmen aus der Industrie validiert werden. Zudem dient das Projekt dem Aufbau zweier Demonstratoren, welche für Industrieinteressenten frei zugänglich sind. ‚SynLApp‘ ist ein weiteres gutes Beispiel dafür, wie zielführend Industrie-4.0-Technologien sein können.