000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Working Paper (19) (remove)
Is part of the Bibliography
- no (19)
Keywords
- 01 (1)
- 02 (1)
- 3PhasenKonzept (1)
- 5G (2)
- 5G-Monitoring (2)
- 5G-Netze (2)
- 5G-Potenziale (2)
- 5G-Technologie (2)
- Anwendungsszenarien (2)
- Architektur (2)
Institute
5G in der Industrie
(2023)
Mit dem Ziel, die Relevanz der fünften Mobilfunkgeneration in industriellen wie auch gesellschaftlichen Anwendungsszenarien zu verdeutlichen, entstand dieses Whitepaper im Rahmen des Forschungsprojekts ‚Competence Center 5G.NRW‘ in Zusammenarbeit mit der Technischen Universität Dortmund, der Universität Duisburg-Essen, der Bergischen Universität Wuppertal und dem FIR an der RWTH Aachen als verantwortliche Forschungseinrichtungen.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Die vernetzte Digitalisierung als Befähiger für Intelligente Produkte und datenbasierte Geschäftsmodelle stellt Unternehmen vor zahlreiche und vielfältige Herausforderungen auf dem Weg durch die digitale Transformation. Zur Unterstützung dieser Unternehmen wurden in den vergangenen Jahren diverse Referenzarchitekturmodelle entwickelt. Eine detaillierte Analyse derselben und insbesondere ihrer Nutzung durch Unternehmen zeigt schnell, dass aktuell bestehende Referenzmodelle große Schwächen in der Anwendung und somit in der Praxistauglichkeit aufweisen. Mit dem Aachener Digital-Architecture-Management (ADAM) wurde ein Modell entwickelt, das gezielt die Schwächen bestehender Referenzarchitekturen adressiert, ohne ihre Stärken zu vernachlässigen. Als holistisches Modell, speziell für die Anwendung durch Unternehmen entwickelt, strukturiert das ADAM-Modell die digitale Transformation von Unternehmen in den Bereichen der digitalen Infrastruktur und der Geschäftsentwicklung. Systematisch werden Unternehmen dazu befähigt, die Gestaltung der Digitalarchitektur unter Berücksichtigung von Gestaltungsfeldern voranzutreiben. Dabei bietet das Modell nicht nur eine Strukturierungshilfe, sondern beinhaltet auch einen Baukasten, um das Vorgehen in der digitalen Transformation zu konfigurieren. Durch die Breite und Tiefe von ADAM werden Unternehmen befähigt, den Weg durch die digitale Transformation systematisch und strukturiert zu bestreiten, ohne die wertschöpfenden Bestandteile der Digitalisierung aus den Augen zu verlieren.
Durch die steigende Vernetzung in produzierenden Unternehmen nimmt die potenzielle Gefahr durch Cyberangriffe zu. Die meisten kleinen und mittleren Unternehmen (KMU) sind sich heute bewusst, dass hierbei nicht mehr ausschließlich Großkonzerne ein beliebtes Angriffsziel darstellen. Durch automatisierte Malware-Kampagnen und die wachsende Anzahl von Cyberangriffen rücken alle Akteure der Wertschöpfungskette produzierender Unternehmen zunehmend in das Visier von Angreifern – dabei können KMU direkt oder indirekt, zur Schädigung ihrer Partner, angegriffen werden. Die steigende Bedrohungslandschaft ist allerdings nicht die einzige Herausforderung, mit der sich KMU konfrontiert sehen. Besonders schwerwiegend und besorgniserregend ist ihr Umgang mit Cybersicherheit: Viele KMU setzen sich trotz zunehmender Digitalisierung bislang nur unzureichend mit ihrer Cybersicherheit auseinander. Durch die Verschmelzung unterschiedlicher Domänen steigt nicht nur die Komplexität der Technologien, sondern auch die der Prozesse sowie der Organisation in Unternehmen. Die Sicherheit von Systemen definiert sich nicht mehr nur über einzelne Komponenten, sondern durch die Sicherheit des unternehmensübergreifenden Gesamtsystems. Klassische Lösungsansätze zur Absicherung einzelner Komponenten decken die gestiegenen Schutzanforderungen nicht mehr ausreichend ab. Um KMU einen selbständigen und pragmatischen Einstieg in die Thematik zu ermöglichen, muss diese Komplexität beherrschbar gemacht werden. Aus Sicht der Cybersicherheit darf die Komplexität jedoch nicht dadurch reduziert werden, relevante Aspekte zu ignorieren. Es bedarf neuer und angepasster Sichtweisen, die KMU den Einstieg erleichtern.
In the age of digitalization, IT strategies are becoming increasingly important. This is due to the fact that corporate IT is the key enabler of digitalization. In many companies, however, corporate IT is not well-aligned with the overall organizational strategy, preventing it from providing the best possible value for the different organizational units. A major challenge is posed by what we term IT complexity, which reduces efficiency and generates high costs for the corporate IT department.
This white paper outlines solutions for companies facing this issue. First, we provide an overview of the relevant terms and highlight the challenges confronting enterprises today. Central to this paper, we describe a four-step approach for the design development of an IT strategy. We introduce various tools with which to assess the current situation and identify relevant aspects of the business environment. Subsequently we outline an approach to strategy formulation and describe tools for strategy implementation and monitoring. Finally, an outlook into the future highlights what companies need to do to thrive into the future.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Deutschland als Produktionsstandort befindet sich in einem revolutionären Wandel und sieht sich mit komplexen Anforderungen konfrontiert. Neben kurzen Lieferzeiten und günstigen Preisen fordert der Markt ständig differenziertere und qualitativ hochwertigere Produkte. Gleichzeitig steigt die Marktdynamik aufgrund der starken Kundenorientierung und der damit verbundenen Auftragsschwankungen. Dadurch nimmt die Komplexität von Koordination, Planung und Steuerung der betrieblichen Abläufe zu, wodurch Unternehmen oftmals an ihre Grenzen stoßen. Um den Kundenanforderungen dennoch gerecht zu werden, sehen Unternehmen die Digitalisierung als einen entscheidenden Faktor für den Unternehmenserfolg an. Jedoch stehen die Unternehmen vor der Herausforderung, jene im Rahmen von Industrie 4.0 erfolgreich in ihrem Unternehmen umzusetzen.
Die andauernde Globalisierung stellt Unternehmen weiterhin vor erhebliche Herausforderungen. Während sich zum einen die Wettbewerbssituation verschärft, steigen zum anderen die Kundenansprüche. Um dem Kundenwunsch nach individuellen Produkten gerecht zu werden, differenzieren Unternehmen ihr Produktangebot. Gleichzeitig erlaubt die fortschreitende Vernetzung eine höhere Innovationsgeschwindigkeit, die u. a. eine Verkürzung der Produktlebenszyklen bewirkt. Dieser Anstieg an zeitgleich zu erbringenden Leistungen sorgt für immer komplexere Unternehmensprozesse und Wertschöpfungsketten. Auch die zunehmende Anzahl an Partnern und Dienstleistungen sowie deren beständiger Wechsel steigern die Komplexität und damit den Koordinationsbedarf in Supply-Chains. Dieser Aufwand nimmt dabei mit steigender Anzahl der Faktoren exponentiell zu. Darüber hinaus rufen die steigende Anzahl an IT-Systemen sowie deren Änderungsgeschwindigkeit hochkomplexe und dynamische Strukturen hervor. Insbesondere die wechselseitigen Beziehungen zwischen den genannten Einflussfaktoren führen zu einem intransparenten Gesamtsystem.