Produktionsmanagement
Refine
Year of publication
Document Type
- Contribution to a Periodical (222)
- Conference Proceeding (79)
- Part of a Book (54)
- doctorallecture (42)
- Doctoral Thesis (34)
- Lecture (27)
- Working Paper (26)
- Report (21)
- Article (20)
- Book (18)
Language
- German (431)
- English (98)
- Multiple languages (26)
Is part of the Bibliography
- no (555)
Keywords
- 01 (17)
- 02 (21)
- 03 (4)
- 04 (1)
- 3-Phasen-Konzept (1)
- 3D-Druck (3)
- 3PhasenKonzept (6)
- 7. EU-Forschungsrahmenprogramm (1)
- ABC-Analyse, Artikelklassifizierung, Beschaffungskonzepte, LOGO, Variationskoeffizienten, XYZ-Analyse (1)
- AI (1)
Institute
- FIR e. V. an der RWTH Aachen (555)
- Produktionsmanagement (555)
- Informationsmanagement (51)
- Dienstleistungsmanagement (20)
- Business Transformation (8)
GAIA-X-Reifegradmodell
(2024)
Um die wachsenden Kundenanforderungen und die damit verbundene Komplexitätssteigerung der aktuellen Herausforderungen zu bewältigen, öffnen Unternehmen ihre Wertschöpfungsketten, reduzieren ihre Fertigungstiefe und gehen zunehmend Kooperationen ein. Der unternehmensübergreifende Datenaustausch entlang der Supply-Chain wird damit zu einer Schlüsselkomponente für die Wettbewerbsfähigkeit und die Realisierung kundenspezifischer Lösungen. Aus diesem Grund hat die Europäische Union das Projekt GAIA-X ins Leben gerufen, dessen Ziel es ist, die nächste Generation der Dateninfrastruktur für Europa und seine Unternehmen zu schaffen. Das GAIA-X-Reifegradmodell bietet einen Ansatz zur Einordnung von Unternehmen in verschiedene Entwicklungsstufen und liefert konkrete Anforderungen für die Weiterentwicklung entlang eines vorgegebenen Entwicklungspfades hin zu einem vollwertigen Teilnehmer an der föderierten GAIA-X-Dateninfrastruktur.
Das Forschungsprojekt ‚DiCES‘ bringt verschiedene Industriepartner zusammen, um gemeinsam ein datenbasiertes, integriertes Wertschöpfungssystem für eine nachhaltige, multidimensionale Kreislaufwirtschaft zu entwickeln. Zur Sicherstellung der Praxisnähe des Projekts fanden Workshops mit Industriepartnern aus unterschiedlichen Industriezweigen statt. Dabei wurden Anforderungen an IT-Systeme, Produktkonfigurationen, Geschäftsmodelle und Produktionskonzept behandelt. Alle erhobenen Anforderungen wurden anschließend für die Kategorisierung aufbereitet.
The research outlines a concept to conduct the double materiality assessment through the synergistic use of Generative AI and the AHP method. In the first step, we employ interactive, moderated workshops as our chosen methodology to create a tailored set of sustainability target criteria. This process is enriched by the inclusion of Generative AI. The outcome is a comprehensive set of company-specific sustainability target criteria.
Die Relevanz zur Vorbereitung auf Störungen nimmt durch das volatile Umfeld, steigende Komplexität und zunehmende Abhängigkeiten zwischen verschiedenen Akteuren in Supply-Chains für produzierende Unternehmen zu. Häufig verfolgte Ansätze zur Schaffung effizienter Strukturen und Reduktion von Kosten erhöhen die Anfälligkeit gegenüber Störungen. Vergangene Störungen haben dabei insbesondere zu Problemen im Bereich der Beschaffung geführt. Der Aufbau von Resilienz unterstützt den Umgang mit unvorhersehbaren Ereignissen. Je höher die Resilienz ist, desto geringer ist der negative Einfluss einer Störung und desto schneller ist eine Rückkehr in den ursprünglichen oder einen besseren Zustand möglich. Obwohl der Bedarf zur Steigerung der Resilienz von vielen Unternehmen erkannt wird, wird dies häufig nicht systematisch umgesetzt. Herausforderungen beim Aufbau einer resilienten Beschaffung stellen mangelndes Wissen über das multidimensionale Resilienzkonzept und konkrete Gestaltungsoptionen sowie fehlende praktische Methoden für den gezielten Aufbau der Resilienz dar. Insbesondere die Auswahl und Kombination der richtigen Maßnahmen wird aufgrund nicht ausreichend beschriebener Beiträge der Maßnahmen zur Resilienz erschwert. Ziel der vorliegenden Dissertationsschrift ist daher die Entwicklung einer Methode zur systematischen Konfiguration der Resilienz in der Beschaffung. Die entwickelte Methode ermöglicht Unternehmen die strukturierte Auswahl und Kombination von Gestaltungsoptionen in der Beschaffung unter Berücksichtigung der verschiedenen Komponenten und Zielrichtungen der Resilienz. Hierzu wird zunächst ein Ordnungsrahmen zur Beschreibung und Strukturierung der Resilienz entwickelt und für den Kontext der Beschaffung konkretisiert. Als wesentliche Grundlage für die systematische Konfiguration der Resilienz erfolgen anschließend die Entwicklung eines strukturierten Resilienzpotenzialkatalogs und die Identifikation von Potenzialkategorien. Resilienzpotenziale stellen dabei Gestaltungsoptionen zum Aufbau der Resilienz dar. Die Methode zur systematischen Konfiguration der Resilienz führt die entwickelten Ergebnisse zusammen und stellt die praktische Anwendbarkeit sicher. Durch die ganzheitliche Betrachtung der Resilienz und der Resilienzpotenziale kann eine gezielte Gestaltung der Resilienz erreicht werden, die bislang aufgrund eines fehlenden Verständnisses der relevanten Aspekte der Resilienz und der Wirkung der Gestaltungsoptionen erschwert wurde.
(Quelle: https://www.apprimus-verlag.de/systematische-konfiguration-der-resilienz-in-der-beschaffung.html)
In diesem Beitrag wird ein neuartiges Konzept für ein hybrides Produktionssystem vorgestellt, das sowohl neue als auch aufbereitete Produkte verarbeiten kann. Im Kern zeichnet es sich durch einen multifunktionalen De- und Remontagearbeitsplatz aus, der mehrere Strategien der Kreislaufwirtschaft in das Wertschöpfungssystem integriert. Damit wird das Ziel verfolgt, die industrielle Transformation hin zu einer kreislauffähigen Produktion zu fördern und effizient zu gestalten.
In der Ära, in der Daten als „neues Gold“ bezeichnet werden, deckt eine Expertise die Kluft zwischen Erkennen und Nutzen dieses Schatzes auf. Sie bietet präzise Einblicke in die Datenmonetarisierung in Deutschland, legt verborgene Potenziale offen und liefert praxisnahe Handlungsempfehlungen, um produzierenden Unternehmen zu helfen, den wahren Wert ihrer Daten gewinnbringend zu nutzen.
Sustainable ERP
(2023)
Ein betriebliches CO2-Management schafft die Grundlagen, um in Geschäftsprozessen nachhaltige Entscheidungen unter Berücksichtigung von CO2-Emissionen treffen zu können. Die Basis dafür stellt die datenbasierte Bilanzierung dar, welche durch die Nutzung bestehender Daten aus betrieblichen Anwendungssystemen, wie ERP, MES, CRM und weitere, effizient gestaltet werden kann. Moderne Business Applications, insbesondere ERP-Systeme, kommen also zukünftig um die Berücksichtigung
von Nachhaltigkeitsaspekten nicht herum.
Die Umsetzung kann dabei als ein integriertes Modul oder durch die Integration von spezialisierter Software in eine modulare IT-Systemlandschaft gestaltet werden.
Based on a systematic literature review, different approaches to modularization of IT system landscapes were analyzed. This publication contains the metadata of the literature analysis, the initial set of relevant publications, the documentation of the filtering and screening process of the literature search, and the final set of publications. For the analysis of the final set of publications, please refer to the related publication Junglas et al., "Towards A Modular IT Landscape For Manufacturing Companies" (2023) (which can be found here in this repository or under DOI 10.15488/1530210.15488/15302).
Heutige Unternehmen sehen sich fortwährend verschärften Marktanforderungen ausgesetzt. Als Schlüssel zur Sicherung der Wettbewerbsfähigkeit erweist sich neben der Entwicklung neuer Produkte oder dem Einsatz innovativer Fertigungstechnologien insbesondere die Kooperation mit Kunden und Lieferanten, also die Bildung von Unternehmensnetzwerken entlang der Wertschöpfungskette. Unter dem Begriff Supply Chain Management (SCM) werden Software-Lösungen gehandelt, die Unternehmen bei der Gestaltung, Planung und Steuerung dieser Netzwerke unterstützen. Für potenzielle Anwender stellt sich der Markt für SCM-Software allerdings als sehr unübersichtlich dar. Die angebotenen Lösungen unterscheiden sich sowohl in ihren Funktionsumfängen wie auch in ihren Lösungsansätzen. Ziel: Dieser Marktspiegel verfolgt das Ziel, einen schnellen Überblick über den Markt für SCM-Software zu geben. Unternehmensfachleute und Entscheider erhalten so grundlegende Informationen über das aktuelle Angebot an SCM-Software. Der einführende Teil ordnet nach einer Begriffsbestimmung das Supply Chain Management in den Aufgabenkomplex der betrieblichen Planung und Steuerung ein. Es folgt eine grundlegende Bewertung der untersuchten SCM-Software im Hinblick auf die Unterstützung der relevanten Aufgaben. Anschließend folgen konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines SCM-Systems, indem eine Methodik zur sicheren und effizienten Auswahl und Einführung von SCM-Lösungen vorgestellt wird. Abschließend gibt der Marktspiegel einen Überblick über die relevanten Anbieter und deren Software-Angebot. Im Rahmen einer SoftwareAuswahl bietet der Marktspiegel demnach eine erste Orientierung im Markt für SCM-Software. Im Verbund mit der Internetplattform IT-Matchmaker®
unterstützt der Marktspiegel darüber hinaus Unternehmen bei der konkreten Durchführung eines Auswahl-Projekts im SCM-Bereich. Konzept:
Grundlage des Marktspiegels ist ein Aufgabenmodell, aus dem ein standardisierter Fragenkatalog entwickelt wurde. Hiermit lassen sich die verschiedenen im Marktspiegel abgebildeten Softwarelösungen übersichtlich und detailliert darstellen und vergleichen. Gleichzeitig dient der Fragenkatalog als Vorlage für die Erstellung von Lastenheften im Rahmen konkreter Auswahlprojekte. Der Fragenkatalog sowie die jeweils aktuellen Marktdaten sind über den IT-Matchmaker® (www.itmatchmaker.com) der Trovarit AG verfügbar und unterstützen die Vorauswahl einer geeigneten SCM-Software.
Development of a platform business model for co-creation ecosystems for sustainable furniture
(2023)
Existing design platforms with multi-dimensional value chains currently have deficits in terms of their business models, resulting in insufficient attention to sustainability goals and individual requirements for products of these platforms. Co-creation approaches, such as the Do-It-Together (DIT) approach for furniture, involve customers and manufacturers as equal partners in the design and production process. This allows customers to have more influence on the sustainability and individualization of products. The existing literature addresses sustainability-oriented design principles for platform business models, but concrete platform business models for multidimensional DIT cocreation of furniture are still missing. Therefore, the objective of this paper is to develop a business model for a DIT co-creation platform for the furniture industry based on a four-step business model innovation framework. This method will then be applied to a specific project scenario to derive a project-specific DIT co-creation business model. This generates knowledge about the collaborative manufacture of sustainable and customized furniture and contributes to the cross-sectoral transfer of platform business models for the development of sustainable products.
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
The complexity and volatility of companies’ environment increase the relevance of disruption preparation. Resilience enables companies to deal with disruptions, reduce their impact and ensure competitiveness. Especially in the context of procurement, disruptions can cause major challenges while resilience contributes to ensuring material availability. Even though past disruptions have posed various challenges and companies have recognized the need to increase resilience, resilience is often not designed systematically. One major challenge is the number of potential measures to increase resilience. The systematic design of resilience thus requires a detailed understanding of domain-specific measures. This also includes an understanding of the contribution of these measures to different resilience components and their interdependencies. This paper proposes a systematic approach for configuring resilience in procurement which enables the evaluation and selection of resilience measures. Based on a resilience framework, a resilience configurator is developed. The basis of the configurator are resilience potentials that have been characterized and clustered. Overarching approaches to design resilience and indicators to evaluate resilience are presented. Moreover, a procedure is proposed to ensure practical applicability. To evaluate the results two case studies are conducted. The results enable companies to systematically design their resilience in procurement.
Gap Analysis for CO2 Accounting Tool by Integrating Enterprise Resource Planning System Information
(2023)
Detailed carbon accounting is the foundation for reducing CO2 emissions in manufacturing companies. However, existing accounting approaches are primarily based on manual data preparation, although manufacturing companies already have a variety of IT systems and resulting data available. The gap analysis carried out based on the GHG Protocol and an reference ERP system shows how much of the required information for CO2 accounting can be integrated from an ERP system. The ERP system can cover 20 % of the required information. The information availability can be increased to 49 % through additionally identified modifications of the ERP system. Integrating the CO2 accounting tool with other systems of the IT landscape, e. g. Energy Information System, enables an additional increase.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Unternehmen der produzierenden Industrie sind mit einem dynamischen und immer komplexeren Umfeld konfrontiert. Daraus resultiert, dass Prozesse sich verändern und damit auch eine Anpassung der bestehenden IT-Systemlandschaft notwendig wird.
Zusätzlich bedarf es einer passgenauen und durchgängig integrierten Umsetzung der IT-Systemlandschaft, um weiterhin die steigende Komplexität zu beherrschen. Beides ist heute nur schwer umsetzbar, da die Implementierung von monolithischen Systemen genau in den genannten Bereichen Lücken aufweist. IT-Systemlandschaften müssen zukunftsfähig gestaltet werden – Modularisierung ist dabei der Schlüssel zum Erfolg!
Die Koordination von Material- und Informationsflüssen ist entscheidend für die Existenz von effizienten und nachhaltigen Netzwerken zwischen produzierenden Unternehmen und Logistikdienstleistern (LDL). Das Ergebnis des Forschungsprojekts ‚SynLApp‘ ist ein Assistenzsystem, mit dem die Zusammenarbeit zwischen Produktionsunternehmen und LDL unterstützt und gefördert werden kann. Die Hauptaufgabe des Tools ist es, gegenseitig den Auftragsstatus der Partner einzusehen, um Produktionsschwankungen sowie Maschinenausfälle zu erkennen und die Daten zu verarbeiten und aufzubereiten. Darauf basierend können optimierte Handlungsoptionen für die Unternehmen erstellt werden. Das SynLApp-Assistenzsystem reduziert die Kosten aller Beteiligten, indem es dabei unterstützt, Waren bedarfsgerecht an der Laderampe bereitzustellen. Neben der Entwicklung eines Befähigungsmodells für Unternehmen sind die modellierte Softwarearchitektur und die Implementierung einer Testumgebung die Kerninhalte des Projekts. In diesem Artikel werden die relevanten Projektergebnisse sowie dem Aufbau des Assistenzsystems und die mögliche Nutzung durch KMU diskutiert. Der SynLApp-Agent konnte bereits projektbegleitend von verschiedenen Unternehmen aus der Industrie validiert werden. Zudem dient das Projekt dem Aufbau zweier Demonstratoren, welche für Industrieinteressenten frei zugänglich sind. ‚SynLApp‘ ist ein weiteres gutes Beispiel dafür, wie zielführend Industrie-4.0-Technologien sein können.
In einer zunehmend digitalisierten Welt bilden IT-Systeme wie ERP oder MES das Rückgrat effizienter Prozesse. Doch viele Unternehmen stellen fest, dass ihre ITSysteme den sich ändernden Anforderungen weder gerecht werden noch die neuen Prozesse effektiv unterstützen. Dies führt entweder zur Entwicklung von Schatten-IT, d. h. zu provisorischen Anpassungen des IT-Systems oder zur Notwendikeit der
Auswahl eines neuen IT-Systems. Um dem entgegenzuwirken bzw. den Auswahlprozess zu verbessern, wurde das Forschungsprojekt VIPER ins Leben gerufen. Das FIR an der RWTH Aachen und das IPH – Institut für Integrierte Produktion Hannover gGmbH, haben sich zum Ziel gesetzt, Unternehmen darin zu unterstützen, durch die Betrachtung des gesamten soziotechnischen Informationssystems die Lebensdauer ihrer IT-Systeme zu erhöhen und bessere Entscheidungen bei der Auswahl neuer IT-Systeme zu treffen.
Gemeinsam mit Miele & Cie. KG, dem Werkzeugmaschinenlabor WZL der RWTH Aachen, All for One Group S, Forcam GmbH, IconPro GmbH und Klima.Metrix GmbH arbeitet der FIR e. V. an der RWTH Aachen als Konsortialführer an einem wegweisenden Projekt, das die Art und Weise verändern wird, wie produzierende Unternehmen in Zukunft arbeiten werden. Ziel ist es, ein innovatives, datenbasiertes Wertschöpfungssystem zu entwickeln, das die Kreislaufwirtschaft nahtlos in den operativen Geschäftsbetrieb von Unternehmen integriert. Hierbei werden durch den Einsatz von KI-Modellen prädiktive Vorhersagen der Kreislaufwirtschaftsaufwände für Produkte im Nutzungszyklus ermöglicht, um eine optimale Kreislaufwirtschaftsstrategie zu definieren, die sowohl ökonomische
als auch ökologische Aspekte berücksichtigt. Das Projekt basiert auf der Entwicklung einer multizirkulären Auftragsabwicklung und einer skalierbaren, hybriden Produktion. Zusätzlich untersuchen wir die Auswirkungen auf die Produktkonfiguration und kreislaufwirtschaftsfähige Geschäftsmodelle. Die praxisnahe und validierte Implementierung zeigt die Umsetzbarkeit des Vorhabens und eröffnet ein breites Anwendungsfeld in der gesamten deutschen Industrie.
Industrie 4.0 umfasst nicht nur hochautomatisierte Maschinen und High-End-Technologien, sondern auch eine große Menge Daten und die dazugehörigen IT-Systeme. Die DFA Demonstrationsfabrik Aachen GmbH bietet einen Raum, in dem die abstrakten Industrie-4.0-Konzepte im realen Betrieb umgesetzt und präsentiert werden. Somit steht in der DFA Industrie 4.0 „zum Anfassen“ bereit. Nun wurde ein weiterer Usecase umgesetzt: Zusammen mit dem Kölner Unternehmen ONIQ wurde in der bereits bestehenden Infrastruktur die Industrial-Process-Mining-Software IQ|A implementiert, um Prozesse transparent zu machen und automatisiert zu analysieren.
iP4MoVE
(2023)
In dem Projekt ‚iP4MoVE‘ (Intelligente Plattform für E-Mobilität und Vernetzung von Energieinformationen) wurde eine Intelligente, datenbasierte Plattform entwickelt, die es ermöglicht, den E-Mobilitätssektor mit innovativen Energiequartieren zu koppeln.
Die Plattform bildet gemeinsam mit einer kontextbasierten Applikation die Grundlage für die Vermittlung zwischen den Energieinformationen, also dem Energieangebot und der Energienachfrage, sowie dem echtzeitfähigen Austausch zwischen Elektrofahrzeugen und -quartieren bzw. der Verfügbarkeit von Ladestationen innerhalb und außerhalb eines Quartiers. Das Forschungsprojekt stellt einen wichtigen Beitrag zur ökologischen und ökonomischen Gestaltung der Elektromobilität, mit dem Fokus auf den Straßengüterverkehr, und der nachhaltigen Quartiersbildung dar. Es wird dazu beigetragen, dass durch die Integration regenerativer Energiequellen und Speichertechnologien Treibhausgasemissionen reduziert werden. Wichtige Bestandteile dessen sind die Ermittlung des optimalen Elektrifizierungsgrads im Lastverkehr und die Bestimmung des ressourcenoptimalen Einsatzes von Transporten und Logistikketten. Die prototypische Umsetzung des Vorhabens zeigt exemplarisch synergetische Potenziale, insbesondere am Standort NRW, auf und bildet einen Baustein für eine Smarte Mobilität (Mobilität 4.0).
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft einen hohen Stellenwert erlangt. Durch eine bessere Produktrückverfolgung und höhere Transparenz in Supply-Chains wird ressourcenschonendere Wertschöpfung ermöglicht. Zusätzlich fordern Kunden eine Einsicht in die Lieferkette und wollen über Produktion und Herkunft der Produkte informiert werden. Die Blockchain als verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit bietet dabei die technologische Grundlage, die Transparenz in den Lieferketten zu erhöhen. So können Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien entlang der Lieferkette aufgenommen und verteilt werden.
Die Anforderungen von Anwendern und Lösungsanbietern an eine Blockchain-Applikation flossen in eine Referenzarchitektur für diese ein. Dabei wurden z. B. die Gestaltung von Schnittstellen, benötigte Daten und Zugangsrichtlinien definiert. Gemeinsam mit dem DIN wurden die Ergebnisse in eine Standardisierung überführt. Anschließend wurden Gestaltungsempfehlungen zur Integration einer Blockchain-Applikation abgeleitet und die Ergebnisse in Unternehmen validiert.
Die Referenzarchitektur dient der erleichterten Entwicklung und Implementierung von Blockchain-Applikationen und damit einer Reduzierung von Kosten, Risiken und Zeitaufwand für KMU. Dem Kunden wird ein besserer Zugang zu Informationen über die Herkunft seiner Produkte ermöglicht, um ökologisch sinnvolle und nachhaltige Kaufentscheidungen treffen zu können.
In diesem White Paper wird zunächst die Bedeutung von Nachhaltigkeit beschrieben und die neue CSRD-Berichtspflicht in einen größeren Zusammenhang gestellt. Anschließend wird aufgezeigt, wie ein ERP-System bei der Erstellung des CSRD-Berichts unterstützen kann. Mit einer Reihe verschiedener Praxisbeispiele wird das Thema veranschaulicht.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
For developing a European industrial cooperation and involvement in the furniture industry, the international research project INEDIT conducted a survey for furniture customers. By finding out the needs and wishes of the customer regarding innovative products and the production process the project will establish a new way for designing and producing furniture. Within INEDIT a platform is built on which customized, technologically innovative and sustainable furniture can be created and produced in a co-creation process. The furniture industry should thus become significantly more flexible, transparent and sustainable. Following the "do-it-together" approach, a business ecosystem will be generated which creates added value not only for customers but also for designers, suppliers and manufacturing companies. In order to involve the customer even more actively in the design process and the production, the platform will provide access to a mix of digital and physical services and is linked to all other stakeholders in the value chain. To match the platform and the process to the needs, wishes and demands of the customer an anonymous survey with 300 participants was developed and conducted. By analyzing the survey, important factors were found for buying and for using furniture considering new technological inventions (e.g. 3D-printing or smart objects), sustainability of the products and the production process. Furthermore, the potential customer-group and their usage of the do-it-together process and additional activities can be tightened.
In the last decade, enterprises realized the high value of data and learned to successfully utilize it for internal processes and business models, and they are trying to find more ways to acquire relevant data. Since enterprises are part of complex networks, the data from their partners and customers can also be beneficial: from adjusting the demand and supply to planning production and aligning capacities. One such example is adaptive process control: detailed material data from a supplier can be used to adjust process parameters in their production. This approach may be especially beneficial for the steel industry, as there is a possibility to adjust the material properties by changing the speed, force, or temperature in their own production processes. However, such an approach requires tight collaboration, e.g., regarding improving IT infrastructure, ensuring data acquisition and transfer and most importantly, the utilization of such data.
SynLApp: Assistenzsystem für die wechselseitige Synchronisation der Produktions- und Interlogistik zur Effizienzsteigerung von KMU
Ziel des Forschungsprojekts 'SynLApp' war die Optimierung der Schnittstelle Laderampe durch die Entwicklung einer Lösung zur Synchronisation von Produktions- und Interlogistik
Supply chains form the backbone of modern economies and therefore require reliable information flows. In practice, however, supply chains face severe technical challenges, especially regarding security and privacy. In this work, we consolidate studies from supply chain management, information systems, and computer science from 2010–2021 in an interdisciplinary meta-survey to make this topic holistically accessible to interdisciplinary research. In particular, we identify a significant potential for computer scientists to remedy technical challenges and improve the robustness of information flows. We subsequently present a concise information flow-focused taxonomy for supply chains before discussing future research directions to provide possible entry points.
Long-term production management defines the future production structure and ensures the long-term competitiveness. Companies around the world currently have to deal with the challenge of making decisions in an uncertain and rapidly changing environment. The quality of decision-making suffers from the rapidly changing global market requirements and the uniqueness and infrequency with which decisions are made. Since decisions in long-term production management can rarely be reversed and are associated with high costs, an increase in decision quality is urgently needed. To this end, four different applications are presented in the following, which support the decision process by increasing decision quality and make uncertainty manageable. For each of the applications presented, a separate digital shadow was built with the objective of being able to make better decisions from existing data from production and the environment. In addition, a linking of the applications is being pursued:
The Best Practice Sharing App creates transparency about existing production knowledge through the data-based identification of comparable production processes in the production network and helps to share best practices between sites. With the Supply Chain Cockpit, resilience can be increased through a data-based design of the procurement strategy that enables to manage disruptions. By adapting the procurement strategy for example by choosing suppliers at different locations the impact of disruptions can be reduced. While the Supply Chain Cockpit focuses on the strategy and decisions that affect the external partners (e.g., suppliers), the Data-Driven Site Selection concentrates on determining the sites of the company-internal global production network by creating transparency in the decision process of site selections. Different external data from various sources are analyzed and visualized in an appropriate way to support the decision process. Finally, the issue of sustainability is also crucial for successful long-term production management. Thus, the Sustainable Footprint Design App presents an approach that takes into account key sustainability indicators for network design. [https://link.springer.com/referenceworkentry/10.1007/978-3-030-98062-7_15-1]
Massenproduktion und Massenkonsum waren gestern. Heute konzentrieren sich Unternehmen zunehmend auf Nachhaltigkeit, Effizienz und Individualität, um erfolgreich die Herausforderungen anzugehen, die durch den Klimawandel, Ressourcenknappheit sowie gestiegene regulatorische Nachhaltigkeitsanforderungen, etwa das Lieferkettensorgfaltsgesetz, entstehen. Die Grundlage dafür bildet ein nachhaltiges Produktionsmanagement, das alle Schritte des Wertschöpfungsprozesses integriert: die Auftragsabwicklung inkl. der Produktionsplanung und -steuerung sowie die dazugehörigen IT-Systeme. Eine losgelöste Betrachtung der wertschöpfenden Produktionsprozesse ist in der heutigen industriellen Praxis nicht mehr möglich, zu sehr greifen die Vorgänge der Auftragsabwicklung und dazugehöriger IT-Systeme, wie ERP, MES und Co., mittlerweile ineinander.
Das moderne Produktionsmanagement als Organisator der Entscheidungen und Prozesse in der industriellen Auftragsabwicklung ist ein zentraler Baustein zur Umsetzung der Nachhaltigkeitswende. Seine Aufgabe besteht darin, nachhaltige und kreislaufwirtschaftliche Prozesse durch den geeigneten Einsatz von effizienten IT-Systemlandschaften zu fördern und umzusetzen. Die Digitalisierung dient dabei als zentrales Element der Umsetzung ökonomischer, ökologischer und sozialer Unternehmensziele.
Daten als Ressource
(2023)
Obwohl immer mehr Unternehmen den Wert von Daten für sich entdecken und intern zu nutzen beginnen, wird dem Datenaustausch und der Datenmonetarisierung bisher wenig Aufmerksamkeit geschenkt. In diesem Beitrag werden die Kernergebnisse der Acatech-Expertise zu Aufbau, Nutzung und Monetarisierung der industriellen Datenbasis vorgestellt.
„Promovieren? Promovieren!" Mit diesem Slogan wirbt das FIR an der RWTH Aachen in seinen Stellenanzeigen für die industrienahe Promotion am Forschungsinstitut. Was junge Hochschulabsolvent:innen der Ingenieur- und Wirtschaftswissenschaften dazu motiviert, diesen Weg zu gehen, welche Erfahrungen sie am FIR machen und welche Perspektiven die Mitarbeit sowie die Promotion am FIR für ihre zukünftige Karriere eröffnet, beantworteten Dr. Jana Frank, ehemals Bereichsleiterin Dienstleistungsmanagement am FIR und heute 'Country Business Head' für Singapur und Malaysia bei der Henkel AG & Co. KGaA sowie Antoine Gaillard, seit Februar 2022 wissenschaftlicher Mitarbeiter des FIR an der RWTH Aachen im Bereich Produktionsmanagement.
Gesamtziel des Forschungsprojekts war es, durch den Einsatz der Blockchaintechnologie die Transparenz und Sicherheit der Prozesse und Strukturen der Lebensmittelproduktion und -logistik zu erhöhen. So sollte eine hochauflösende Rückverfolgbarkeit ermöglicht und gleichzeitig Fälschungssicherheit sichergestellt werden.
Die Ergebnisse des Vorhabens bieten für Unternehmen, neben der erhöhten Transparenz und Sicherheit, die Basis für neue Produkte und Geschäftsmodelle, einen Nachweis der technischen Machbarkeit einer Blockchain in der Rückverfolgung von Lebensmitteln und einen Ansatz zur nachhaltigen Stärkung von Kundenbeziehungen.
In short-term production management of the Internet of Production (IoP) the vision of a Production Control Center is pursued, in which interlinked decision-support applications contribute to increasing decision-making quality and speed. The applications developed focus in particular on use cases near the shop floor with an emphasis on the key topics of production planning and control, production system configuration, and quality control loops.
Within the Predictive Quality application, predictive models are used to derive insights from production data and subsequently improve the process- and product-related quality as well as enable automated Root Cause Analysis. The Parameter Prediction application uses invertible neural networks to predict process parameters that can be used to produce components with desired quality properties. The application Production Scheduling investigates the feasibility of applying reinforcement learning to common scheduling tasks in production and compares the performance of trained reinforcement learning agents to traditional methods. In the two applications Deviation Detection and Process Analyzer, the potentials of process mining in the context of production management are investigated. While the Deviation Detection application is designed to identify and mitigate performance and compliance deviations in production systems, the Process Analyzer concept enables the semi-automated detection of weaknesses in business and production processes utilizing event logs.
With regard to the overall vision of the IoP, the developed applications contribute significantly to the intended interdisciplinary of production and information technology. For example, application-specific digital shadows are drafted based on the ongoing research work, and the applications are prototypically embedded in the IoP.
Crises are becoming more and more frequent. Whether natural disasters, economic crises, political events, or a pandemic - the right action mitigates the impact. The PAIRS project plans to minimize the surprise effect of these and to recommend appropriate actions based on data using artificial intelligence (AI). This paper conceptualizes a cascading model based on scenario technique, which acts as the basic approach in the project. The long-term discipline of scenario technique is integrated into the discipline of crisis management to enable short-term and continuous crises management in an automated manner. For this purpose, a practical crisis definition is given and interpreted as a process. Then, a cascading model is derived in which crises are continuously thought through using the scenario technique and three types of observations are classified: Incidents, disturbances, and crises. The presented model is exemplified within a non-technical application of a use case in the context of humanitarian logistics and the COVID-19 pandemic. Furthermore, first technical insights from the field of AI are given in the form of a semantic description composing a knowledge graph. In summary, a conceptual model is presented to enable situation-based crisis management with automated scenario generation by combining the two disciplines of crisis management with scenario technique.
Smart Speaker
(2023)
Intelligente, mit dem Internet verbundene Lautsprecher inklusive Spracherkennung sowie -steuerung – sogenannte Sprachassistenzsysteme oder Smart Speaker – sind in immer mehr Privathaushalten zu finden. Mittlerweile ist bei jedem vierten deutschen Bürger mindestens ein Smart Speaker vorhanden. Auch im industriellen Kontext existiert eine Vielzahl von interagierenden Anwendungen, daher kann die Erweiterung der Anwendungen um die Sprachtechnologie wesentliche Wertschöpfungspotenziale hervorbringen. Forschungsziel war die Identifikation und Bewertung von nutzenstiftenden Einsatzszenarien von Sprachassistenzsystemen mit hinterlegter Datenverarbeitung und Informationsgenerierung in KMU des Maschinen- und Anlagenbaus.
Numerous start-ups and now even some major corporates are currently trying to improve visibility and foresight in the manufacturing industry through connected supply chains, or in other words, through increased data sharing. This study strives to support companies in leveraging the potential of increased data sharing in supply chain collaborations. Despite the great potential of digitizing manufacturing and automated data sharing throughout the supply chain, most companies are not yet able or willing to implement this kind of openness. The main reason for this lack of transparency in the supply chain is the high complexity and high cost of the required interfaces. In practice, instead of automated and extensive data sharing, companies exchange spreadsheets and PDFs with minimum information. This study supports companies in the pre-stage before automated data sharing is technically implemented. We find that building trustful relationships is a necessary step towards extended and automated data sharing. Moreover, we find that social capital provides a means to partially compensate for a lack of automation in terms of shortening lead times and dealing with disruptions. Introducing a supply chain collaboration typology and showcasing descriptive and qualitative results for 36 firms, we show how to navigate the frontend of the Internet of Production.
Daten sind das neue Öl. Aber wie werden die Potenziale der Daten in Industrie 4.0 genutzt? In der neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchten der FIR an der RWTH Aachen und das Industry 4.0 Maturity Center den Aufbau, die Nutzung und die Monetarisierung der industriellen Datenbasis. Mithilfe einer Umfrage sowie Experteninterviews ermittelte das Projektteam den aktuellen Stand und die Herausforderungen deutscher Unternehmen hinsichtlich der Nutzung und der wirtschaftlichen Verwertung von industriellen Daten. Darauf aufbauend wurden Handlungsoptionen dazu erarbeitet, wie produzierende Unternehmen den Nutzungsgrad ihrer Datenbasis erhöhen sowie Potenziale bei der Monetarisierung ausschöpfen können. Darüber hinaus gibt die Studie Impulse dazu, welchen Beitrag Politik, Wissenschaft und Verbände leisten können.
Die neue Expertise des Forschungsbeirats Industrie 4.0 bei der acatech beschäftigt sich mit der Frage, wie hiesige Unternehmen ihre Datenbasis aufbauen, nutzen und monetarisieren. Aus Umfrage-Erkenntnissen haben die Experten Handlungsoptionen abgeleitet, mit denen Firmen ihre Daten Schritt für Schritt in den Dienst der eigenen Wertschöpfung stellen können.
Forschungsarbeit trägt wesentlich der Weiterentwicklung und Adoption neuer Technologien bei. Oftmals werden in Forschungsprojekten jedoch spezifische Ergebnisse im wissenschaftlichen Kontext erarbeitet, die für themenfremde Interessenten nicht immer leicht verständlich beziehungsweise zugänglich sind. Damit Unternehmen einen Mehrwert aus den Ergebnissen der Forschungsprojekte beziehen können, müssen die Ergebnisse für den Transfer in die Industrie entsprechend vorbereitet werden. Daher spielen der Wissenstransfer und die gewählte Methode des Transfers eine große Rolle.
Implementierung von Manufacturing Execution Systems basierend auf Industrie-4.0-Reifegradmodellen
(2022)
Steigende Kundenanforderungen hinsichtlich Qualität, Lieferzeit und Termintreue führen zur steigenden Dynamisierung der Märkte. Unternehmen stehen dabei vor der Herausforderung, die externe Dynamisierung und die daraus resultierenden, unternehmensinternen Herausforderungen zu bewältigen. Hierbei stellt die vierte industrielle Revolution einen möglichen Befähiger zur Bewältigung der zunehmenden externen und internen Herausforderungen dar. Zur Umsetzung der Vision von Industrie 4.0 existieren verschiedene Rahmenwerke, jedoch sind in Unternehmen bisweilen nur vereinzelt Use-Cases sowie Leuchtturmprojekte umgesetzt worden. Eine durchgängige, unternehmensweite Umsetzung der Rahmenwerke steht bis heute aus. Für eine digitale Unterstützung in der Produktion und den angrenzenden Bereichen des Produktionsmanagement stellen Manufacturing-Execution-Systeme (MES) ein mögliches Informationssystem dar. ME-Systeme sind bereits erprobt und haben sich durch die stetige Weiterentwicklung als marktreife Lösung zur Umsetzung von Industrie-4.0-Ansätzen etabliert. Für Unternehmen stellen Implementierungsprojekte von ME-Systemen häufig strategische Projekte mit Bezug zu Industrie 4.0 dar. Durch die Anzahl an betroffenen Unternehmensfunktionen und eingebundenen Stakeholder sind sie – wie andere IT-System-Einführungsprojekte – häufig komplex. Auf Grund des modularen, funktionalen Aufbaus der ME-Systeme sowie möglicher Lerneffekte und der frühzeitigen Ausschöpfung des Systemnutzens bietet sich die sukzessive, also schrittweise, Implementierung an. In der Praxis wird dies häufig als Vorgehen gewählt, wodurch Unternehmen vor der Herausforderung stehen, die Implementierungsreihenfolge – also zeitliche Abfolge und Ort der zu implementierende Funktionsmodule – zu bestimmen.
Zur Unterstützung der Unternehmen bei der Implementierung von ME-Systemen wird in dieser Dissertationsschrift daher das Ziel verfolgt,
ein Vorgehensmodell zur sukzessiven Implementierung, basierend auf Industrie-4.0-Reifegradmodellen, zu entwickeln. Mit der umfangreichen
Analyse der Wechselwirkungen zwischen den betroffenen Kernaufgaben eines Unternehmens, den MES-Funktionen sowie den Zielen der digitalen Transformation wird den Anwender:innen mit dieser Dissertationsschrift nun ein Reifegradmodell sowie ein anwendbares Vorgehen zur Verfügung stellt. Dieses befähigt sie, eine nutzenzentrierte, sukzessive Einführung von MES unternehmensspezifisch zu strukturieren.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Besonders in den letzten Krisen konnte die Anfälligkeit unserer gesamten Wert-schöpfungsnetzwerke beobachtet werden. Auch, wenn sich alle Krisen im Detail fundamental unterscheiden, haben alle Eines gemeinsam: eine frühzeitige Risiko-bewertung sowie eine gezielte Reaktion sind zur Bewältigung einer Krise notwen-dig. Um dies zu ermöglichen, wird im Forschungsprojekt PAIRS (Privacy-Aware, In-telligent and Resilient CrisiS Management) eine szenariobasierte Krisenmanage-mentplattform entwickelt, in welcher auf Basis von hybriden KI-Methoden Krisen identifiziert und deren Entwicklung antizipiert werden können. Hierfür wurden ver-schiedene Anwendungsfälle erfasst und deren domänenübergreifenden Wechselwirkungen systematisch untersucht.
Crises pose significant short and long-term threats to companies. The research project PAIRS aims to strengthen the resilience of actors in the supply-chain, en-ergy, and healthcare sectors in crisis situations. The basis for this is the newly created potential in data exchange, which is leveraged by combining internal with external (company-)data, e.g. in the GAIA-X network. AI is then the key to iden-tifying the time of the crisis and deriving appropriate actions to deal with it. Therefore, crisis scenarios are generated, and risks are assessed. In this paper, the project fundamentals are discussed. This includes the development of a project definition of the term "crisis", which is based on literature research of various scientific disciplines (e.g. economics or political science), as well as interviews with professional and academic experts from different fields. Moreover, a specif-ic example from the supply-chain domain is introduced to illustrate the process of requirement identification.
Im neu gestarteten Forschungsprojekt ‚STAFFEL‘ soll eine Internetplattform entstehen, die mithilfe von KI-Algorithmen Langstrecken des Straßengüterverkehrs in Teilstrecken
zerlegt. Speditionen können dann die Teilstrecken ihrer Touren über einen Lenkzeiten-Marktplatz an geeignete Frachtführer vermitteln. Am Ende einer Teilstrecke sollen die Trailer durch digitalisierte IoT-Schlösser schlüssellos an den nächsten, ausgeruhten Fahrer übergeben werden. Durch die IoT-Schlösser soll ein sicherer und robuster Übergabeprozess etabliert werden, sodass die Übergabe des Trailers auch speditionsübergreifend gewährleistet werden kann. Zudem sollen weiterführende Services für Fahrer wie Hotelreservierung oder Mautbuchung inkludiert und so der Planungsprozess für die
Fahrer vereinfacht werden.
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Obwohl Sprachassistenzsysteme im privaten Alltag immer beliebter werden, finden solche Systeme noch kaum Anwendung in der Industrie. In der Theorie werden diverse Potenziale wie Zeiteinsparungen, verbesserte Ergonomie oder optimierter Informationsfluss durch den industriellen Einsatz von Sprachassistenten erwartet. Jedoch wurde dieser Einsatz im industriellen Kontext noch nicht praxisnah erforscht. Aus diesem Grund wurde im Rahmen des Forschungsprojektes „Smart Speaker“ eine Laborstudie durchgeführt, um den Einsatz von Sprachassistenzsystemen am Beispiel eines Montageprozesses zu untersuchen. Es konnten dabei drei wichtige Faktoren identifiziert werden, die maßgeblich die Nutzungseffizienz eines Sprachassistenzsystems beeinflussen.
Die verarbeitende Industrie in Deutschland steht vor der Transformation von der bisher vorherrschenden ökonomisch orientierten Produktion hin zu einer nachhaltigen Produktion. Durch die Anpassung von Parametern der Produktionsplanung und -steuerung, wie z. B. der Losgröße durch u. a. die Konsolidierung von Transportaufwänden oder geringe Reinigungsaufwände, kann dabei eine nachhaltigere Produktion erreicht werden. Hierfür wurde mittels einer systematischen Methodik ein digitaler Schatten konzeptioniert, der eine nachhaltige Konfiguration von Losgrößen ermöglicht. Dafür erfolgen eine Aggregation von Daten aus verschiedenen Informationssystemen und die Simulation des Verhaltens eines Produktionssystems bei veränderten Losgrößen. Diese ermöglichen eine optimierte Auslegung der Losgröße, basierend auf ökonomischen und ökologischen Zielgrößen.
Resiliente Supply-Chains
(2022)
Die vorliegende Arbeit liefert einen Beitrag zur systematischen Untersuchung der Aufgaben und Prozesse der Produktionsplanung und -steuerung im Kontext von Industrie 4.0. Der Schwerpunkt liegt dabei insbesondere auf der Rolle des Menschen in diesem Zusammenhang. Hierfür wird zunächst ein Beschreibungsmodell für die Aufgaben der Produktionsplanung und -steuerung entwickelt. Die Aufgabenreferenzsicht des Aachener PPS-Modells bildet dabei den Ordnungsrahmen des Beschreibungsmodells. Darauf aufbauend werden Merkmale und Merkmalsausprägungen zur Beschreibung der Produktionsplanung und -steuerung identifiziert und beschrieben. Anschließend erfolgt die Entwicklung eines Reifegradmodells für die Produktionsplanung und -steuerung. Grundlage des Reifegradmodells bildet der ‚acatech Industrie 4.0 Maturity Index‘. Nach der Herleitung der Reifegradstufen werden die zuvor identifizierten und beschriebenen Merkmalsausprägungen den einzelnen Reifegradstufen zugeordnet. Im Anschluss erfolgt die Entwicklung eines reifegradbasierten Referenzmodells für die Prozesse der Produktionsplanung und -steuerung unter besonderer Berücksichtigung der Verteilung der Aufgaben zwischen Mensch und betrieblichem Anwendungssystem. Das Referenzmodell ermöglicht eine Erklärung der Aufgaben der Mitarbeiter*innen und der betrieblichen Anwendungssysteme auf zuvor definierten Reifegradstufen.
Weiterhin liegt das Ziel dieser Arbeit in der zielgerichteten Unterstützung des Menschen in der Produktionsplanung und -steuerung. Um dieses Ziel zu erreichen, wird ein Gestaltungsmodell für lernunterstützende Applikationen für Produktionsplanungs- und -steuerungssysteme entwickelt. Hierfür werden zunächst im Kontext des Internet of Production die Einsatzmöglichkeiten von Apps als Ergänzung zu bestehenden betrieblichen Anwendungssystemen aufgezeigt. Anschließend wird das Gestaltungsmodell für lernunterstützende Applikationen für Produktionsplanungs- und -steuerungssysteme entwickelt, das eine zielgerichtete Unterstützung des Menschen in der Produktionsplanung und -steuerung ermöglicht.
(Quelle: https://www.apprimus-verlag.de/gestaltungsmodell-zur-lernunterstutzenden-erweiterung-von-produktionsplanungs-und-steuerungssystemen.html)
Dieser Bericht enthält die zentralen Ergebnisse einer Studie des Center Integrated Business Applications im Auftrag der proALPHA Business Solutions GmbH und wurde in Kooperation mit dem FIR e. V. an der RWTH Aachen durchgeführt.
Ziele der Studie:
- Analyse des Marktes von CO2-Management-Software,
- die Bestimmung der Informationsverfügbarkeit zur CO2-Bilanzierung sowie potenzieller Stellschrauben zur CO2-Reduktion mittels Business-Software.
Souveränität: Ein Begriff, der für uns in Europa im Jahr 2022 eine besondere Bedeutung gewonnen hat. Wo Handelsbeziehungen und Energiepolitik neugestaltet werden, um nach haltig und sozialgerecht wirtschaften zu können, spielen auch Daten eine entscheidende Rolle. Digitale Souveränität in Europa erfordert eine sichere und vernetzte Dateninfrastruktur. Mit diesem Ziel wurde 2019 das Projekt ‚Gaia-X‘ ins Leben gerufen; hier gestalten internationale Vertreterinnen und Vertreter aus Wirtschaft, Wissenschaft und Politik gemeinsam die Rahmenbedingungen für den Datenaustausch und die Geschäftsmodelle der Zukunft. Die Beteiligung von kleinen und mittleren Unternehmen (KMU) ist ein essenzieller Bestandteil der Gaia-X-Strategie, denn sie bilden das Rückgrat unserer Wirtschaft. Das FIR an der RWTH Aachen gestaltet diesen Transfer im Rahmen des wissenschaftlichen Projekts ‚Uranos-X‘. Das zukünftige Gaia-XperienceLab im Cluster Smart Logistik wird dabei die zentrale Anlaufstelle für den interaktiven Einstieg in die digitalen Ökosysteme Europas sein.
Um die Energiewende in Deutschland voranzutreiben, werden alternative Speichermedien und Antriebsstoffe benötigt. Grüner Wasserstoff, der mit Energie aus regenerativen Quellen erzeugt wird, spielt dabei eine tragende Rolle. Der nationale Wasserstoffbedarf bis 2030 beträgt dabei 5 Gigawatt Elektrolyse-Kapazität, sodass eine schnelle Steigerung
der Kapazitäten benötigt wird. Um das zu erreichen, sollen Elektrolyseurproduzenten wie Siemens Energy bei einem schnellen Ausbau ihrer Kapazitäten unterstützt werden. Im Projekt „SEGIWA – Serienproduktion von Elektrolyseuren im Gigawatt-Bereich” sollen Grundlagen erarbeitet werden, die SILYZER 300®-Serie von der manuellen Fertigung in die Serienfertigung im Gigawattbereich zu überführen. Im Sinne der nationalen Wasserstoffstrategie soll somit ein reibungsarmer Markthochlauf erreicht werden. Ein Fokus liegt hierbei auf der Konzeption und Implementierung weitgehend automatisierter Produktionsprozesse sowie deren Verknüpfung in einem übergeordneten Produktionskonzept. Zur Sicherstellung eines schnellen Produktionshochlaufs bei hoher Effizienz wird ein stufenweise skalierbares Fabriksystem konzipiert. Innerhalb des Produktionskonzepts werden die einzelnen Fertigungs- und Montageprozesse durchgängig digital abgebildet und ein synchronisierter Informationsfluss aufgebaut. Über das Manufacturing-Execution-System (MES) und die digitale Infrastruktur werden die Planung, die Steuerung, der Betrieb und die Optimierung
der Produktion im Zusammenspiel mit dem digitalen Zwilling der Elektrolyseure realisiert. Das FIR entwickelt dabei Konzepte zur Prozesskontrolle und Qualitätssicherung durch die digitale Vernetzung in der Fertigung. Die Kernaspekte zur durchgängigen, digitalen Synchronisation der Produktionsprozesse bilden das MES, Automatisierung und digitale Zwillinge der Produkte. So soll das Ziel der Sicherstellung einer wirtschaftlichen und effizienten Serienfertigung der Wasserelektrolyseure am Hochlohnstandort Deutschland erreicht werden.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
Die Anforderungen an den Einsatz von IT-Systemen haben sich in den letzten Jahren geändert. Anstelle von allumfassenden Komplettlösungen stehen insbesondere Flexibilität und Funktionalität im Mittelpunkt der Gestaltung von ERP-zentrierten IT-Systemlandschaften. Es besteht der vermehrte Wunsch nach einer verbesserten funktionalen Abdeckung, welches u. a.durch den verstärkten Einsatz von weiteren IT-Systemen erreicht werden kann. IT-Systemlandschaften rund um das ERP-System werden so immer vielschichtiger. Problematisch dabei ist, dass durch eine fehlende systematische Gestaltung der IT-Systemlandschaften unklare Verantwortlichkeiten, komplexe Schnittstellen sowie funktionale Überschneidungen und Datenchaos entstehen. Ein weiterer Effekt ist die wachsende Anzahl an Schatten-IT, die entsteht, weil die allumfassende Komplettlösung nicht alle benötigten Funktionen abdeckt.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Companies operate in an increasingly volatile environment where different developments like shorter product lifecycles, the demand for customized products and globalization increase the complexity and interconnectivity in supply chains. Current events like Brexit, the COVID-19 pandemic or the blockade of the Suez canal have caused major disruptions in supply chains. This demonstrates that many companies are insufficiently prepared for disruptions. As disruptions in supply chains are expected to occur even more frequently in the future, the need for sufficient preparation increases. Increasing resilience provides one way of dealing with disruptions. Resilience can be understood as the ability of a system to cope with disruptions and to ensure the competitiveness of a company. In particular, it enables the preparation for unexpected disruptions. The level of resilience is thereby significantly influenced by actions initiated prior to a disruption. Although companies recognize the need to increase their resilience, it is not systematically implemented. One major challenge is the multidimensionality and complexity of the resilience construct. To systematically design resilience an understanding of the components of resilience is required. However, a common understanding of constituent parts of resilience is currently lacking. This paper, therefore, proposes a general framework for structuring resilience by decomposing the multidimensional concept into its individual components. The framework contributes to an understanding of the interrelationships between the individual components and identifies resilience principles as target directions for the design of resilience. It thus sets the basis for a qualitative assessment of resilience and enables the analysis of resilience-building measures in terms of their impact on resilience. Moreover, an approach for applying the framework to different contexts is presented and then used to detail the framework for the context of procurement.
Generation of a Data Model For Quotation Costing Of Make To Order Manufacturers From Case Studies
(2022)
For contract or make to order manufacturers, quotation costing is a complex process that is mainly performed based on experience. Due to the high diversity of the product range of these mostly small or medium-sized companies (SMEs) and the poor data situation at the time of quotation preparation, the quality of the calculation is subject to strong variations and uncertainties. The gap between the initial quotation costing and the actual costs to be spent (pre- and post-calculation) is crucial to the existence of SMEs. Digitalization in general can help companies to get a better understanding of processes and to generate data. For improving these processes, an understanding of the important data for that specific process is crucial. Accurate quotation costing for customized products is time-consuming and resource-intensive, as there is a lack of an overview of data to be used within the process. This paper therefore derives a data model for supporting quotation costing in the company, based on literature-based costing procedures and recorded case studies for quotation and calculation. Based on the results, SMEs will have a first overview of the needed data for quotation costing to optimize their calculation process.
The environment in which companies operate is increasingly volatile and complex. This results in an increased exposure to disruptions. Past disruptions have especially affected procurement. Thus, companies need to prepare for disruptions. The preparedness for disruptions in the context of procurement is significantly influenced by the design of the procurement strategy. However, a high number of purchased articles and a variety of influencing factors lead to high complexity in procurement. The systematic design of the procurement strategy should therefore take into account the criticality of the purchased articles. This enables to focus on the purchased articles that have a high impact on the disruption preparedness. Existing approaches regarding the design of the procurement strategy in uncertain environments either lack practical applicability and objective evaluation or focus on the criticality of raw materials rather than of purchased articles. Therefore, a data-based approach for the systematic design of the procurement strategy in the context of the Internet of Production has been proposed. One central aspect of this approach is the identification of success-critical purchased articles. Thus, this paper proposes a framework for characterizing purchased articles regarding supply risks by combining two systematic analyses. First, a systematic literature review is performed to answer the question of what factors can be used to describe the supply risks of purchased articles. The results are analyzed regarding sources and impacts of risks and thus contribute to a structured characterization of supply risks. Second, existing criticality assessment approaches for raw materials are analyzed to identify categories and indicators that describe purchased articles. The results of both reviews provide the basis for linking product characteristics with supply risks and assessing product criticality which will be integrated into an app prototype.
Im Rahmen des Forschungsprojekts ‚IPPSLaBeM‘ (Intelligente Produktionsplanung und -steuerung für das Laser-Beam-Melting) entwickelt das FIR an der RWTH Aachen in Kooperation mit dem Fraunhofer IAPT ein Produktionsplanungstool für die additive Fertigung (AM). Durch einen Simulations- und KI-Ansatz soll der manuelle Aufwand zur Fertigungsplanung minimiert und die Anlagenauslastung erhöht werden. Miteinbezogen werden Expertinnen und Experten von Anlagenherstellern, Fertigungsdienstleistern und Softwareentwicklern aus der Industrie, um einen Planungsansatz für betriebliche Anwendungssysteme der PPS zu entwickeln. Nach einer Integration in die IT-Systemlandschaft anhand eines Usecase entsteht ein Leitfaden, sodass eine praktische Umsetzung in produzierenden Unternehmen selbstständig vorgenommen werden und ein Transfer der Erkenntnisse in die Wirtschaft erfolgen kann.
Im Zuge der fortschreitenden Globalisierung ist die Steigerung der Leistungsfähigkeit für produzierende Unternehmen von zunehmender Relevanz. Im Laufe der Jahrzehnte haben Unternehmen diverse Maßnahmen ergriffen, um die eigene Leistungsfähigkeit zu steigern. Hierzu existieren verschiedene Methoden, welche unter dem Begriff „Performance-Management“ zusammengefasst werden können. Durch die Anwendung dieser Methoden konnten in der Vergangenheit umfassende Leistungssteigerungen erreicht werden. Aufgrund veränderter Rahmenbedingungen sind die klassischen Methoden der Leistungssteigerung, welche vor allem unternehmensinterne Faktoren adressieren, jedoch nicht mehr zielführend. So fokussieren Unternehmen z. B. aufgrund steigender Kundenanforderungen zunehmend die eigenen Kernkompetenzen und lagern andere Wertschöpfungsaktivitäten aus. Dies führt zu einer sinkenden Fertigungstiefe der Unternehmen bei gleichzeitig steigender Komplexität der Wertschöpfungsnetzwerke. Die zunehmende unternehmensübergreifende Verflechtung erhöht die Relevanz des Supply-Chain-Managements für den Leistungserstellungsprozess produzierender Unternehmen und erfordert eine Erweiterung des Betrachtungsbereichs bei Optimierungsinitiativen.
Daher wird durch die Dissertationsschrift das Ziel verfolgt, eine kennzahlenbasierte Bewertungsmetrik leistungsbestimmender Faktoren in Supply-Chains von Industriebetrieben zu entwickeln. Durch diese Bewertungsmetrik sollen Unternehmen dazu befähigt werden, Leistungssteigerungspotenziale unter Berücksichtigung von Supply-Chain-bedingten Einflussfaktoren identifizieren zu können. Hierzu werden zunächst relevante Schlüsselkennzahlen zur Beschreibung der operativen Leistungsfähigkeit ermittelt sowie Unternehmens- und Supply-Chain-Eigenschaften in Bezug auf die operative Leistungsfähigkeit charakterisiert. Darauf aufbauend erfolgen die Selektion und Analyse der leistungsbestimmenden Faktoren der Schlüsselkennzahlen. Zur Bestimmung des Supply-Chain-Einflusses auf die Leistungsfähigkeit werden die leistungsbestimmenden Faktoren hinsichtlich der Einflussart in die Kategorien Unternehmensinterner, Supply-Chain-bedingter und Exogener Einfluss eingeteilt. Anschließend werden auf Basis dieser Erkenntnisse typenspezifische Bewertungsmetriken entwickelt. Durch die Entwicklung einer Vorgehensweise wird abschließend eine anwenderspezifische Nutzung der erarbeiteten Erkenntnisse sichergestellt. (Quelle: Einband)
Digitales Prozessmanagement
(2022)
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center untersuchten die Anfälligkeit von Unternehmen gegenüber Krisensituationen: Die Expertise „Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen“ nimmt sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0/acatech – Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz und der aktuellen Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a.
Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Die Anforderungen eines Unternehmens und die Leistungsfähigkeit des
eingesetzten ERP-Systems driften oftmals stark auseinander. Viel zu früh erneuern Unternehmen deshalb ihr ERP-System, verbunden mit hohem Aufwand und entsprechenden Kosten. Um einen langfristigen, effizienten Betrieb ihres ERP-Systems zu ermöglichen, sollten Unternehmen die Kluft zwischen den benötigten Systemanforderungen und der tatsächlich vorhandenen Funktionalität eines ERP-Systems so klein wie möglich halten, idealerweise erst gar nicht entstehen lassen. Den Grundstein dazu legen sie bereits bei der Auswahl und Implementierung ihrer ERP-Systeme. Hier den richtigen Fokus zu setzen und darüber hinaus Änderungen in der Umsetzungs- und der Betriebsphase kontinuierlich zu analysieren, sind fundamentale Schritte zum Erfolg.
Die Unternehmen der blechumformenden Industrie und deren Zulieferer sind in besonderer Weise mit dem Druck und den Chancen der digitalen Transformation konfrontiert:
Die Mobilitäts-, Produktions- und Nachhaltigkeitswende, aber auch die Transformation der Arbeitswelt wirken auf die Unternehmen. Um diese bei der Digitalisierung zu unterstützen und die langfristige Wettbewerbsfähigkeit zu erhalten, führt das FIR gemeinsam mit dem Industrieverband Blechumformung (IBU) eine fünfteilige Workshopreihe im Themenfeld Digitalisierung durch. Die ersten drei Veranstaltungen wurden bereits erfolgreich durchgeführt, wobei ein Highlight der gemeinsame Werksbesuch bei MIELE in Gütersloh war.
Die Siemens Energy AG verfügt über 80 Produktionsstandorte auf der ganzen Welt. Die IT-Systemlandschaft in der Produktion ist – wie in gewachsenen Strukturen üblich – sehr heterogen. Folgerichtig stellt sich das übergeordnete Ziel, diese IT-Systemlandschaften zu harmonisieren. Dabei ist es unumgänglich, die unterschiedlichen Anforderungen aus den verschiedenen Unternehmensbereichen zu berücksichtigen. Nur so können die übergeordneten Effizienzgewinne mit einer Harmonisierung erreicht werden. Die Verbindung der Expertise von FIR und Siemens Energy war hier das Erfolgsrezept.
Im Rahmen der digitalen Transformation und der damit verbundenen Gestaltung digitaler und durchgängiger Prozesse müssen Unternehmen häufig neue Business-Software auswählen und beschaffen. Sie modernisieren hierbei ihre in die Jahre gekommene Software oder führen eine zusätzliche ein. Häufig erfolgen Auswahl und Beschaffung mittels klassischer Projektmanagementmethoden, die im Kontrast zu den agilen Methoden während der Implementierung stehen. Dieser Beitrag zeigt, wie agile Methoden schon in der Auswahl genutzt werden, um einerseits den Einstieg in die Implementierung zu erleichtern und andererseits aktives, nutzerzentriertes Change-Management von der Auswahl bis zum Einsatz der Software ermöglichen. Sie sind daher von Beginn an ein wichtiger Baustein zur Sicherung des Projekterfolgs.
Heutzutage werden in der Möbelindustrie oftmals kostengünstige Möbel in Serienproduktion gefertigt, bei denen die Produkte vor allem von Kurzlebigkeit und geringer Qualität geprägt sind. Die hohe Konkurrenz drängt kleinere Betriebe vom Markt und Aspekte der Produktindividualisierung, um unterschiedlichen Wohnräumen und Lebensanforderungen zu entsprechen, rücken immer stärker in den Hintergrund. Kommt der Wunsch nach einem individualisierten, innovativen und nachhaltigen Möbelstück auf, gibt es derzeit verschiedene Anbieter, die aber oftmals nicht allen Kriterien entsprechen und lange Lieferzeiten, hohe Preise und geringe Kundeneinbindung aufweisen. Mit dem EU-Projekt ‚INEDIT‘ wird deshalb das Ziel verfolgt, eine Plattform zu entwickeln, auf der maßgefertigte, innovative und nachhaltige Möbelstücke zu einem fairen Preis produziert und gehandelt werden können. Nach dem „Do-it-together“-Ansatz entsteht ein Geschäftsökosystem, das nicht nur für Kund:innen, sondern auch für Designer:innen, Zulieferer und Fertigungsbetriebe einen Mehrwert schafft. Für diese neuartige Form der Zusammenarbeit müssen auch potenzielle Erlösmodelle neu gedacht werden und Anreize für die gemeinsame Nutzung der Plattform geschaffen werden. Ziel ist es, den strategischen Fit von Plattformnutzern und passenden Geschäftsmodellen zu gewährleisten und die Nutzung der Plattform für alle optimal zu gestalten.
Unternehmen stehen vor der Herausforderung, zukünftig neben ökonomischen Zielen auch ökologische Ziele zu erreichen. Allerdings ist die Integration ökologischer Kriterien in Entscheidungen für viele Unternehmen komplex, sodass es einer adäquaten Entscheidungsunterstützung bedarf. Im Rahmen des Exzellenzclusters „Internet of Production” der RWTH Aachen wird daher eine Entscheidungsunterstützung entwickelt, die eine datenbasierte Konfiguration von Parametern der Produktionsplanung nach ökologischen und ökonomischen Zielgrößen ermöglicht. Dies schafft eine aufwandsarme
und datenbasierte Möglichkeit zur Realisierung einer nachhaltigeren Produktion.
Das Projekt wird gefördert durch die Deutsche Forschungsgemeinschaft (DFG) im Rahmen der Exzellenzstrategie des Bundes und der Länder.
Advanced Planning Systems
(2022)
Die Marktstudie wurde von dem Center Integrated Business Applications
(CIBA) gemeinsam mit dem Forschungsinstitut für Rationalisierung (FIR) an der RWTH Aachen durchgeführt und ausgewertet. Befragt wurden 22 Unternehmen, welche als Anbieter von APS-Lösungen verschiedene Planungssysteme für die Produktion für Kunden bereitstellen. Dabei lag der Fokus auf dem Funktionsumfang und den jeweiligen Planungsaufgaben in Supply-Chains.
In der neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR e. V. an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten. Handlungsoptionen für Unternehmen, Verbände, Politik und Wissenschaft zeigen auf, wie der Nutzungsgrad der Datenbasis erhöht werden kann und wie sich Potenziale bei der Monetarisierung ausschöpfen lassen. Der Fokus liegt dabei auf produzierenden Unternehmen.
Das heutige unternehmerische Umfeld ist – nicht zuletzt seit der COVID-19-Pandemie – sowohl durch zunehmend kurzzyklischere globale als auch unternehmerische Veränderungen geprägt. Vor diesem Hintergrund rückt die Gestaltung von Unternehmensnetzwerken zur Stabilisierung von Supply-Chains in den Fokus unternehmerischer Tätigkeiten. Eine essenzielle Voraussetzung hierfür stellt die Evaluation der Ist-Situation bestehender Supply-Chains dar. Insbesondere kleinen und mittleren Unternehmen (KMU) mangelt es jedoch häufig sowohl an Informationen als auch an Kapazitäten, um diese zu erheben.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Produktionssystem ist ein offenes, sozio-technisches System. Es besitzt eine komplexe Struktur, in der Menschen, Maschinen, Material und Informationen zusammenwirken, um eine Wertsteigerung zu erreichen. Das Produktionssystem steht in ständiger Interaktion mit seiner Umwelt (Westkämper et al. 2013). So sind die Kunden-Lieferanten-Beziehungen von Produktionssystemen häufig dynamisch und instabil. In dieser Gesamtkomplexität können Störungen auftreten, z.B. Maschinen- und Personalausfall sowie Fehlmaterial, die zu Termin- und Lieferverzögerungen führen. Dabei bildet die kundenbezogene Liefertermintreue mit Abstand die führende logistische Zielgröße für produzierende Unternehmen in Deutschland (Brambring et al. 2013). Vor allem im Maschinen- und Anlagenbau, der durch eine besonders komplexe Auftragsabwicklung geprägt ist, stellt eine hohe Liefertermintreue einen bedeutenden Wettbewerbsvorteil dar. Sie wird häufig als Indikator für Prozessqualität herangezogen, welche dem Kunden Zuverlässigkeit demonstriert und zugleich eine interne Voraussetzung für die Planbarkeit des eigenen Geschäftsbetriebs ist (VDMA 2007). Während eine planmäßige und somit termintreue Abwicklung des Leistungserstellungsprozesses Kundenbindung bewirkt, führen Terminüberschreitungen häufig zum Verlust von Kundenbeziehungen sowie Vertragsstrafen (Arnolds et al. 2016).Störungen im Produktionssystem gefährden die Liefertermintreue und damit die Kundenzufriedenheit (Bosshardt 2007). Durch Gegenmaßnahmen entstehen außerdem Zusatzkosten, z.B. durch Zusatzschichten oder Auslagerung von Fertigungsschritten, die die Profitabilität der Aufträge gefährden können. Daher ist es für Unternehmen wichtig, bei Störungen nicht nur die potenziellen Handlungsoptionen, sondern viel mehr deren finanziellen Auswirkungen auf das Produktionssystem zu kennen, um eine optimale Strategie entwickeln zu können. Nur diese Transparenz ermöglicht es Unternehmen, die negativen finanziellen Auswirkungen gegen die negativen Auswirkungen auf die Kundenbeziehungen abzuwägen. In der Praxis stellt sich diese Aufgabe allerdings als sehr schwierig heraus. Unternehmen reagieren häufig nur reaktiv und erfahrungsbasiert. Mitarbeiter müssen sowohl die komplexen Abläufe im Betrieb kennen als auch potenzielle Handlungsoptionen sowie deren Auswirkungen abschätzen können. Dabei müssen die Mitarbeiter eine Komplexität überwinden, die insbesondere bei Einzel- und Kleinserien aufgrund der hohen Vielfalt von Produkten und Prozessen besonders hoch ist. Dies trifft besonders auf KMU zu, die nur über rudimentäre Softwareunterstützungen verfügen.In der Folge werden häufig suboptimale und teure Maßnahmen getroffen. Gleichwohl sind die finanziellen Auswirkungen nicht immer direkt nachvollziehbar, was die finanzielle Stabilität des Unternehmens gefährdet. Darüber hinaus kann die Liefertermintreue der Aufträge, die nicht direkt durch die Störungen betroffen sind, stark negativ beeinflusst werden. Die Summe der daraus entstehenden Folgen kann sich in manchen Fällen stärker auf das Unternehmen auswirken als die Verspätung eines einzelnen, wenn auch wichtigen Auftrages, der direkt durch die Störung betroffen ist. Das durchgeführte Forschungsprojekt „EkuPro“ unterstützt Unternehmen bei der Bewältigung dieser Herausforderungen, indem eine transparente Entscheidungsunterstützung durch das entwickelte Softwaretool ermöglicht wird.
Zielsetzung:
Das Ziel des erarbeitenden Forschungsprojektes war die Entwicklung eines Tools zur objektiven Entscheidungsunterstützung, mit dem kompensatorische Maßnahmen zur Beschleunigung einzelner Aufträge quantitativ und finanziell bewertet werden können. Das Tool unterstützt den Produktionssteuerer, indem es bei kurzfristigen Entscheidungen einen Überblick über die möglichen Handlungsalternativen zur Verfügung stellt. Der Produktionssteurer kann somit auf Basis der angezeigten potenziell entstehenden Kosten eine optimale Entscheidung treffen. Zur Unterstützung wurden die Simulationsergebnisse visualisiert, um die Analyse zu erleichtern. Zudem ist das Tool auf mobilen Endgeräten einsatzfähig. Das Grundprinzip des Tools besteht darin, beim Auftreten einer Störung zunächst die aktuelle Situation des Produktionssystems und die Störung selbst zu erfassen. Dabei werden interne und externe Störungen berücksichtigt, wobei externe Störungen nicht direkt, sondern durch ihre Auswirkungen auf die interne Produktionslogistik beschrieben werden. Die notwendigen Daten zur Abbildung der aktuellen Situation sollen den gängigen Systemen, z.B. MES und ERP, entnommen werden. Auf dieser Basis kann der Produktionsplaner verschiedene Szenarien definieren, die jeweils ein unterschiedliches Set an Maßnahmen beinhalten. Die Auswirkung dieser Maßnahmen wird mithilfe einer Software simuliert und die Ergebnisse, vor allem die Liefertermintreue der Aufträge sowie die finanziellen Mehrkosten, werden visualisiert. Dadurch werden die Szenarien untereinander quantitativ vergleichbar. Dies ermöglicht dem Produktionsplaner die Auswahl einer aus seiner Sicht sinnvollen Maßnahmenkombination.
Gegenüber den klassischen Systemen, z.B. MES und ERP, hat das Tool die folgenden Vorteile:
Zielgerichtete Entscheidungsunterstützung
Quantitative Vorhersage durch Simulation
Systematische Integration der Kostenermittlung und Liefertermintreue
Entgegen dem ursprünglichen Ziel, nur die Kosten des direkt durch die Störung betroffenen, verzögerten Auftrages zu betrachten, wurde in Absprache mit dem projektbegleitenden Ausschuss (pbA) entschieden, die finanzielle Auswirkung aller Aufträge zu berücksichtigen. Nur dadurch kann die Gesamtauswirkung der Maßnahmen vollständig untersucht und gegeneinander abgewogen werden. Diese Erweiterung der Zielstellung des Projektes stellt einen erheblichen Mehrwert im Vergleich zum ursprünglichen Forschungsvorhaben dar.
Kleine und mittelständische Unternehmen (KMU) der Fertigungsindustrie stehen durch die zunehmend individualisierten Kundenwünsche und -anforderungen unter einem großen Wettbewerbsdruck. Als eine logische Folge wächst daraus eine intrinsische Motivation seitens der Unternehmen, ihre Geschäftsbereiche zu optimieren. Jedoch mangelt es mehrheitlich neben freien Kapazitäten an einer zielgerichteten, systematischen Herangehensweise.Gerade das Ersatzteilmanagement bietet in diesem Kontext große Nutzenpotentiale für die KMU, da dieser Bereich weitestgehend von den Unternehmen als Randbereich wahrgenommen wird und somit die enthaltenen Potentiale weder wahrgenommen noch ausgeschöpft werden.
Produzierende KMU stehen aufgrund von zunehmendem Wettbewerb vor der Herausforderung, dass sie mit immer wertigeren und gleichzeitig günstigeren Produkten bei kurzfristigeren Verfügbarkeiten punkten müssen. Ein dabei nicht selten vernachlässigtes Potenzial liegt im Ersatzteilmanagement. Im Rahmen eines Forschungsprojekts des FIR an der RWTH Aachen zur Etablierung eines systematischen Ersatzteilmanagements wurde eine Ist-Analyse von KMU durchgeführt, welche große Nutzenpotenziale aufzeigte.
The COVID-19 pandemic has shown companies that their on-premise infrastructures often reach their limits with a large number of remote accesses. The transition to cloud-based solutions could represent a more efficient alternative. However, many German companies, especially small and medium-sized enterprises (SME), are still hesitant to take this big step of transferring applications to the cloud. For this reason, this paper examines the question of whether existing migration approaches in the analysis phase fit the specific requirements of SMEs. Using a literature review methodology, we first identify and analyze determinant factors for cloud adoption in SMEs. On this basis, we analyze existing methods in the analysis phase for migrations from on-premise software to cloud solutions. We investigate whether these factors are considered in the analysis phase of the approaches and conclude their suitability for SMEs. Of the migration approaches we examined, none included all the factors we identified as relevant to SMEs. Fewer have considered all factors fully and in detail. We present the results of the literature search process in tabular form and conclude this paper with a discussion and synthesis of the literature as well as an outlook on further research fields.
Nachhaltig dank Blockchain
(2021)
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft sowie für Unternehmen einen hohen Stellenwert erlangt. Das belegt etwa das 12. Hermes-Barometer von 2020. Um Aussagen zur Nachhaltigkeit von Endprodukten treffen zu können, müssen relevante Informationen über die gesamte Lieferkette aufgenommen und verteilt werden. Dies erfordert Transparenz. Mit der stärkeren Verflechtung der Unternehmen und dem Austausch umfassender, teilweise sensibler Daten, gewinnen aber auch die Themen Datensicherheit und Datenschutz an Relevanz.
Die zunehmende Integration von IT-Systemen erhöht ebenfalls den potenziellen Schaden durch Angriffe. Die technologische Grundlage für die geforderte Transparenz und IT-Sicherheit kann die Blockchain bieten – eine verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit. Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien lassen sich so entlang der Lieferkette aufnehmen und verteilen. Im Forschungsprojekt „ABChain“ untersuchen Wissenschaftler am Forschungszentrum FIR der RWTH Aachen, wie eine Blockchain-Applikation im Supply Chain Management aufgebaut sein muss, um den Anforderungen durch die beteiligten Stakeholder sowie den technologischen Bedingungen der Blockchain-Technologie zu entsprechen.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Nach heutigem Stand werden Industrie-4.0-Technologien überwiegend innerhalb der eigenen Unternehmensgrenzen eingesetzt. Ob Cloud-Computing, Big Data oder Künstliche Intelligenz – deutsche Unternehmen treiben die Entwicklung neuester Technologien hauptsächlich im Kontext der eigenen Produktion, Forschung oder allgemeiner interner Prozessoptimierung voran. Im Sinne einer ganzheitlichen Betrachtung sollten unternehmensübergreifende Initiativen jedoch nicht vernachlässigt werden. So sehen sich Unternehmen zunehmend neuen Herausforderungen ausgesetzt, von immer komplexerer Produktion bis hin zu globalem Wettbewerb und internationalen Wertschöpfungsketten. Gerade Disruptionen wie die COVID-19-Pandemie verdeutlichen, dass Agilität und Robustheit von Wertschöpfungsketten eine Grundvoraussetzung für den Unternehmenserfolg sind und die Supply-Chain-Resilienz in der aktuellen Zeit von großer Relevanz ist. Ziel dieser Veröffentlichung ist es, zu verdeutlichen, wie Industrie-4.0-Technologien in der Supply-Chain eingesetzt werden können, um die Resilienz zu steigern. Hierzu werden die bestehenden Herausforderungen, grundlegende Mechanismen der Resilienz, allgemeine Lösungsansätze sowie konkrete Technologien detailliert betrachtet.
Blockchain ist eines der großen Trendwörter der Digitalindustrie. Die damit verbundene Technologie sorgt bereits seit geraumer Zeit für Gesprächsstoff und ist wohl eine der in den vergangenen Jahren am meisten diskutierte digitale Innovation. Außerhalb der Fachkreise von Informatikern, Mathematikern oder Ökonomen ist der Begriff für viele eng mit der Kryptowährung Bitcoin verknüpft. Dabei ist das weltweit verwendbare, dezentrale und digitale Zahlungssystem nur ein Anwendungsfeld für die Blockchain.
Die Variantenfließfertigung erlaubt die wirtschaftliche, weil weitestgehend standardisierte, Herstellung kundenindividueller Produkte in hoher Stückzahl. Die zielkonforme Gestaltung der Prozesse der Produktionsplanung und –steuerung ist dabei jedoch äußerst anspruchsvoll. In dieser Dissertation wird ein Referenzprozessmodell für die Reihenfolgeplanung der Variantenfließfertigung entwickelt und um ein praxisorientiertes Vorgehen zur unternehmensspezifischen Konfiguration ergänzt.
Trotz technischer Möglichkeiten für eine hochfrequentere Planung werden noch immer nächtliche IT-Planungsläufe zur „Aktualisierung“ von Daten in der PPS durchgeführt. Produzierende Unternehmen sind nicht in der Lage zu bewerten, in welcher Häufigkeit Planungsläufe durchzuführen und welche Rahmenbedingungen dazu notwendig sind. Ergebnisse dieser Arbeit sind eine Unterstützung zur Bewertung der Häufigkeit von Planungsläufen sowie Gestaltungsempfehlungen für relevante Rahmenbedingungen der PPS.
The digital transformation brings up various new tasks to manage new business application software and integrate them into existing business processes and legacy systems, which are necessary to keep e.g. a production system running. Today, all these tasks are on the one hand not clearly defined and on the other hand, responsibility of these cross-disciplinary tasks is unclear in companies being mostly structured in a function-oriented way. While quality management has developed to a firmly established function of process excellence years ago, IT-application management is still to become an inevitable part of the digital transformation. There are just a few authors trying to define and describe this part, the related tasks, and necessary roles in an organization. In this paper, we show how the business needs of a company can influence the ideal adaptation of the digitization solutions and thus become the success of the digital transformation. We base the paper on a use case in manufacturing companies. We then describe how companies deal with business application systems today. Based on the framework Aachen Digital Architecture Management we describe how a company can holistically improve the management of business application systems.