Refine
Document Type
- Contribution to a Periodical (20)
- Working Paper (12)
- Part of a Book (6)
- Article (4)
- Book (4)
- Report (4)
- Conference Proceeding (1)
- Internet Paper (1)
Language
- German (52) (remove)
Is part of the Bibliography
- no (52)
Keywords
- 1 (2)
- 3 PhasenKonzept (1)
- 3PhasenKonzept (2)
- AM4Industry (1)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Auftragsabwicklung (1)
- Bahn (2)
Institute
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Der Marktspiegel "Business Software ERP/PPS 2017/2018" ist ein Werk, welches einen schnellen Überblick über den Markt für ERP/PPS-Software vermittelt. Der einführende Teil schafft Transparenz hinsichtlich des Begriffs ERP/PPS und hinsichtlich der Struktur von Planungsaufgaben innerhalb des Begriffs ERP/PPS. Es folgt eine grundlegende Bewertung der untersuchten ERP/PPS-Software im Hinblick auf die Aufgabenunterstützung. Anschließend werden konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines ERP/PPS-Systems gegeben. Schließlich bietet der Marktspiegel eine Übersicht über die relevanten ERP/PPS-Anbieter, deren Software-Angebot und typische Implementierungsprojekte.
Aktuell ist noch nicht geklärt, wie sich das Zusammenwirken von Menschen und betrieblichen Anwendungssystemen bei der Bearbeitung der Aufgaben der PPS nach der Umsetzung von Industrie 4.0 entwickelt. Zur Systematisierung der Auswirkungen von Industrie 4.0 auf die PPS werden in diesem Beitrag die sechs Reifegradstufen des acatech Industrie-4.0-Maturity-Index mit der Aufgabensicht des Aachener PPS-Modells kombiniert und die Reifegradstufen für ausgewählte Unteraufgaben der PPS spezifiziert.
Der Marktspiegel "Business Software ERP/PPS 2019/2020" ist ein Werk, welches einen schnellen Überblick über den Markt für ERP/PPS-Software vermittelt. Der einführende Teil schafft Transparenz hinsichtlich des Begriffs ERP/PPS und hinsichtlich der Struktur von Planungsaufgaben innerhalb des Begriffs ERP/PPS. Es folgt eine grundlegende Bewertung der untersuchten ERP/PPS-Software im Hinblick auf die Aufgabenunterstützung. Anschließend werden konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines ERP/PPS-Systems gegeben. Schließlich bietet der Marktspiegel eine Übersicht über die relevanten ERP/PPS-Anbieter, deren Software-Angebot und typische Implementierungsprojekte.
Im Mittelpunkt der IT-Systemarchitektur der großen und kleinen Unternehmen fungiert als zentrale Instanz seit jeher das Enterprise-Resource-Planning-System (kurz ERP-System). Damit dient es als Schnittstelle zur hochgradigen Integration von Anwendungen, die verstärkt die Kernapplikationen erweitern und modernisieren. Für die zunehmend an Projekten ausgerichtete Prozessmodellierung ist das implementierte ERP-System in seiner Agilität und Offenheit zu begrenzt. Individuelle Lösungen werden für unternehmerische Anforderungen geschaffen, aber nicht in den Standard überführt. In diesem Positionspapier zeigen wir, die Fachgruppe Produktionsplanung des FIR, anhand verschiedener Sichtweisen ausgewählte Trends auf, die großes Potenzial für die Zukunft des ERP-Systems bereithalten.
Künstliche Intelligenz ist eine der Schlüsseltechnologien der Digitalen Transformation. Auch das ERP-System, also der digitale Prozess- und Datenhub in Unternehmen, wird zunehmend mit KI-Technologien angereichert. Bis dato sind jedoch die Zahl der Anwendungsfälle im ERP-Umfeld und das Angebot der ERP-Anbieter im Bereich KI noch überschaubar. KI in Business Anwendungen wird zukünftig jedoch viele Facetten haben. So werden KI-gestützte Datenanalytik, Prognosesysteme, Suchmaschinen, maschinelle Übersetzungen, Bots und wissensbasierte Expertensysteme sehr schnell Einzug in Geschäftsanwendungen halten. Somit steht fest: Die Einbindung und Nutzung von Künstlicher Intelligenz wird die ERP-Landschaft deutlich verändern.
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
Im Forschungsprojekt 'railconnect' erarbeitet ein Konsortium aus Industrievertretern und dem FIR an der RWTH Aachen als Forschungseinrichtung die Hebung von Digitalisierungspotenzialen im Schienengüterverkehr. Im Zuge dessen wird der aktuell stark analog geprägte Prozess der Zugabfertigung digitalisiert und eine Kollaborationsplattform für mehr Transparenz und Steigerung der Zusammenarbeit geschaffen. Neben den aktuellen Herausforderungen der Bahnbranche werden der Lösungsansatz von railconnect sowie der Lösungsweg beschrieben.
In diesem White Paper wird zunächst die Bedeutung von Nachhaltigkeit beschrieben und die neue CSRD-Berichtspflicht in einen größeren Zusammenhang gestellt. Anschließend wird aufgezeigt, wie ein ERP-System bei der Erstellung des CSRD-Berichts unterstützen kann. Mit einer Reihe verschiedener Praxisbeispiele wird das Thema veranschaulicht.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
IT-Systeme zur Planung, Steuerung, Durchführung und Überwachung der komplexen Stoff- und Informationsflüsse (PPS-Systeme) sind heute für einen effizienten Produktionsablauf nahezu unverzichtbar. Mit der Weiterentwicklung zu Enterprise Resource Planning-Systemen (ERP Systeme) wurden angrenzende Aufgabenbereiche (Einkauf, Rechungswesen, Vertrieb, Lagerhaltung, usw.) integriert, sodass heute ein breites Spektrum für ERP Systeme unterschiedlichster Herkunft und Funktionalität am Markt angeboten wird.
In dem Marktspiegel werden knapp 500 der derzeit am deutschen Markt verfügbaren ERP/PPS-Lösungen untersucht.
Die Anforderungen an den Einsatz von IT-Systemen haben sich in den letzten Jahren geändert. Anstelle von allumfassenden Komplettlösungen stehen insbesondere Flexibilität und Funktionalität im Mittelpunkt der Gestaltung von ERP-zentrierten IT-Systemlandschaften. Es besteht der vermehrte Wunsch nach einer verbesserten funktionalen Abdeckung, welches u. a.durch den verstärkten Einsatz von weiteren IT-Systemen erreicht werden kann. IT-Systemlandschaften rund um das ERP-System werden so immer vielschichtiger. Problematisch dabei ist, dass durch eine fehlende systematische Gestaltung der IT-Systemlandschaften unklare Verantwortlichkeiten, komplexe Schnittstellen sowie funktionale Überschneidungen und Datenchaos entstehen. Ein weiterer Effekt ist die wachsende Anzahl an Schatten-IT, die entsteht, weil die allumfassende Komplettlösung nicht alle benötigten Funktionen abdeckt.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.