000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Working Paper (19) (remove)
Is part of the Bibliography
- no (19)
Keywords
- 01 (1)
- 02 (1)
- 3PhasenKonzept (1)
- 5G (2)
- 5G-Monitoring (2)
- 5G-Netze (2)
- 5G-Potenziale (2)
- 5G-Technologie (2)
- Anwendungsszenarien (2)
- Architektur (2)
Institute
5G in der Industrie
(2023)
Mit dem Ziel, die Relevanz der fünften Mobilfunkgeneration in industriellen wie auch gesellschaftlichen Anwendungsszenarien zu verdeutlichen, entstand dieses Whitepaper im Rahmen des Forschungsprojekts ‚Competence Center 5G.NRW‘ in Zusammenarbeit mit der Technischen Universität Dortmund, der Universität Duisburg-Essen, der Bergischen Universität Wuppertal und dem FIR an der RWTH Aachen als verantwortliche Forschungseinrichtungen.
Der Betrieb lokaler privater Mobilfunknetze in lizenzierten Frequenzbändern ist eine der Kerninnovationen aktueller 5G- und zukünftiger 6G-Netze. Die prognostizierte Leistungsfähigkeit privat verfügbarer und störungsfreier Frequenzbereiche, wie z. B. privater 5G-Netze, sogenannter Campusnetze, ist für Industrieunternehmen oft von großem Interesse. Die Integration der 5G-Netzwerkinfrastruktur in bestehende Brownfield-Umgebungen muss jedoch erhebliche technische und Management-Herausforderungen überwinden. Im Vergleich zu selten anzutreffenden Greenfield-Szenarien kann das Potenzial von 5G nur gezeigt werden, wenn signifikante Leistungsvorteile gegenüber bestehender drahtloser Netzwerkinfrastruktur (z. B. Wi-Fi) nachgewiesen werden können und gleichzeitig eine nahtlose Integration in die Prozessumgebung in der Praxis gewährleistet werden kann.
Vor diesem Hintergrund stellt das Competence Center 5G.NRW in diesem Beitrag ein agiles System zur kontinuierlichen, netzwerkübergreifenden Überwachung von Ende-zu-Ende-Leistungsgarantien in Bezug auf Durchsatz, Latenz und Zuverlässigkeit vor. Während einzelne punktuelle Messungen während der Netzwerk-Inbetriebnahme und -Erprobung oft die erwarteten Leistungsspitzen anzeigen, untersucht dieser Beitrag speziell das Potenzial eines räumlich verteilten Stresstests, der die Netzwerkqualität aktiv und kontinuierlich während des Produktivbetriebs überwacht. Anhand einer umfangreichen Fallstudie wird die Leistungsfähigkeit des verteilten Ansatzes für die Leistungsbewertung von Mehrbenutzer- und Zellenrandumgebungen demonstriert.
In diesem Leitfaden werden vier Phasen („Identifikation von Anwendungsfällen“, „Ist-Analyse der Infrastruktur“, „Konzeption in der BaSys-4.0-Umgebung“ und „Umsetzung der Entscheidungsunterstützung“) zur Umsetzung der BaSys-Architektur empfohlen, die hier näher beschrieben werden. Darauf folgt ein Glossar, das die wesentlichen Begrifflichkeiten rund um BaSys 4 und ‚BaSys4Dash‘ erläutert.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Durch die steigende Vernetzung in produzierenden Unternehmen nimmt die potenzielle Gefahr durch Cyberangriffe zu. Die meisten kleinen und mittleren Unternehmen (KMU) sind sich heute bewusst, dass hierbei nicht mehr ausschließlich Großkonzerne ein beliebtes Angriffsziel darstellen. Durch automatisierte Malware-Kampagnen und die wachsende Anzahl von Cyberangriffen rücken alle Akteure der Wertschöpfungskette produzierender Unternehmen zunehmend in das Visier von Angreifern – dabei können KMU direkt oder indirekt, zur Schädigung ihrer Partner, angegriffen werden. Die steigende Bedrohungslandschaft ist allerdings nicht die einzige Herausforderung, mit der sich KMU konfrontiert sehen. Besonders schwerwiegend und besorgniserregend ist ihr Umgang mit Cybersicherheit: Viele KMU setzen sich trotz zunehmender Digitalisierung bislang nur unzureichend mit ihrer Cybersicherheit auseinander. Durch die Verschmelzung unterschiedlicher Domänen steigt nicht nur die Komplexität der Technologien, sondern auch die der Prozesse sowie der Organisation in Unternehmen. Die Sicherheit von Systemen definiert sich nicht mehr nur über einzelne Komponenten, sondern durch die Sicherheit des unternehmensübergreifenden Gesamtsystems. Klassische Lösungsansätze zur Absicherung einzelner Komponenten decken die gestiegenen Schutzanforderungen nicht mehr ausreichend ab. Um KMU einen selbständigen und pragmatischen Einstieg in die Thematik zu ermöglichen, muss diese Komplexität beherrschbar gemacht werden. Aus Sicht der Cybersicherheit darf die Komplexität jedoch nicht dadurch reduziert werden, relevante Aspekte zu ignorieren. Es bedarf neuer und angepasster Sichtweisen, die KMU den Einstieg erleichtern.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Die vernetzte Digitalisierung als Befähiger für Intelligente Produkte und datenbasierte Geschäftsmodelle stellt Unternehmen vor zahlreiche und vielfältige Herausforderungen auf dem Weg durch die digitale Transformation. Zur Unterstützung dieser Unternehmen wurden in den vergangenen Jahren diverse Referenzarchitekturmodelle entwickelt. Eine detaillierte Analyse derselben und insbesondere ihrer Nutzung durch Unternehmen zeigt schnell, dass aktuell bestehende Referenzmodelle große Schwächen in der Anwendung und somit in der Praxistauglichkeit aufweisen. Mit dem Aachener Digital-Architecture-Management (ADAM) wurde ein Modell entwickelt, das gezielt die Schwächen bestehender Referenzarchitekturen adressiert, ohne ihre Stärken zu vernachlässigen. Als holistisches Modell, speziell für die Anwendung durch Unternehmen entwickelt, strukturiert das ADAM-Modell die digitale Transformation von Unternehmen in den Bereichen der digitalen Infrastruktur und der Geschäftsentwicklung. Systematisch werden Unternehmen dazu befähigt, die Gestaltung der Digitalarchitektur unter Berücksichtigung von Gestaltungsfeldern voranzutreiben. Dabei bietet das Modell nicht nur eine Strukturierungshilfe, sondern beinhaltet auch einen Baukasten, um das Vorgehen in der digitalen Transformation zu konfigurieren. Durch die Breite und Tiefe von ADAM werden Unternehmen befähigt, den Weg durch die digitale Transformation systematisch und strukturiert zu bestreiten, ohne die wertschöpfenden Bestandteile der Digitalisierung aus den Augen zu verlieren.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Deutschland als Produktionsstandort befindet sich in einem revolutionären Wandel und sieht sich mit komplexen Anforderungen konfrontiert. Neben kurzen Lieferzeiten und günstigen Preisen fordert der Markt ständig differenziertere und qualitativ hochwertigere Produkte. Gleichzeitig steigt die Marktdynamik aufgrund der starken Kundenorientierung und der damit verbundenen Auftragsschwankungen. Dadurch nimmt die Komplexität von Koordination, Planung und Steuerung der betrieblichen Abläufe zu, wodurch Unternehmen oftmals an ihre Grenzen stoßen. Um den Kundenanforderungen dennoch gerecht zu werden, sehen Unternehmen die Digitalisierung als einen entscheidenden Faktor für den Unternehmenserfolg an. Jedoch stehen die Unternehmen vor der Herausforderung, jene im Rahmen von Industrie 4.0 erfolgreich in ihrem Unternehmen umzusetzen.