000 Informatik, Informationswissenschaft, allgemeine Werke
Refine
Year of publication
Document Type
- Working Paper (19) (remove)
Is part of the Bibliography
- no (19)
Keywords
- 01 (1)
- 02 (1)
- 3PhasenKonzept (1)
- 5G (2)
- 5G-Monitoring (2)
- 5G-Netze (2)
- 5G-Potenziale (2)
- 5G-Technologie (2)
- Anwendungsszenarien (2)
- Architektur (2)
Institute
Der Betrieb lokaler privater Mobilfunknetze in lizenzierten Frequenzbändern ist eine der Kerninnovationen aktueller 5G- und zukünftiger 6G-Netze. Die prognostizierte Leistungsfähigkeit privat verfügbarer und störungsfreier Frequenzbereiche, wie z. B. privater 5G-Netze, sogenannter Campusnetze, ist für Industrieunternehmen oft von großem Interesse. Die Integration der 5G-Netzwerkinfrastruktur in bestehende Brownfield-Umgebungen muss jedoch erhebliche technische und Management-Herausforderungen überwinden. Im Vergleich zu selten anzutreffenden Greenfield-Szenarien kann das Potenzial von 5G nur gezeigt werden, wenn signifikante Leistungsvorteile gegenüber bestehender drahtloser Netzwerkinfrastruktur (z. B. Wi-Fi) nachgewiesen werden können und gleichzeitig eine nahtlose Integration in die Prozessumgebung in der Praxis gewährleistet werden kann.
Vor diesem Hintergrund stellt das Competence Center 5G.NRW in diesem Beitrag ein agiles System zur kontinuierlichen, netzwerkübergreifenden Überwachung von Ende-zu-Ende-Leistungsgarantien in Bezug auf Durchsatz, Latenz und Zuverlässigkeit vor. Während einzelne punktuelle Messungen während der Netzwerk-Inbetriebnahme und -Erprobung oft die erwarteten Leistungsspitzen anzeigen, untersucht dieser Beitrag speziell das Potenzial eines räumlich verteilten Stresstests, der die Netzwerkqualität aktiv und kontinuierlich während des Produktivbetriebs überwacht. Anhand einer umfangreichen Fallstudie wird die Leistungsfähigkeit des verteilten Ansatzes für die Leistungsbewertung von Mehrbenutzer- und Zellenrandumgebungen demonstriert.
In diesem Leitfaden werden vier Phasen („Identifikation von Anwendungsfällen“, „Ist-Analyse der Infrastruktur“, „Konzeption in der BaSys-4.0-Umgebung“ und „Umsetzung der Entscheidungsunterstützung“) zur Umsetzung der BaSys-Architektur empfohlen, die hier näher beschrieben werden. Darauf folgt ein Glossar, das die wesentlichen Begrifflichkeiten rund um BaSys 4 und ‚BaSys4Dash‘ erläutert.
5G in der Industrie
(2023)
Mit dem Ziel, die Relevanz der fünften Mobilfunkgeneration in industriellen wie auch gesellschaftlichen Anwendungsszenarien zu verdeutlichen, entstand dieses Whitepaper im Rahmen des Forschungsprojekts ‚Competence Center 5G.NRW‘ in Zusammenarbeit mit der Technischen Universität Dortmund, der Universität Duisburg-Essen, der Bergischen Universität Wuppertal und dem FIR an der RWTH Aachen als verantwortliche Forschungseinrichtungen.
In the age of digitalization, IT strategies are becoming increasingly important. This is due to the fact that corporate IT is the key enabler of digitalization. In many companies, however, corporate IT is not well-aligned with the overall organizational strategy, preventing it from providing the best possible value for the different organizational units. A major challenge is posed by what we term IT complexity, which reduces efficiency and generates high costs for the corporate IT department.
This white paper outlines solutions for companies facing this issue. First, we provide an overview of the relevant terms and highlight the challenges confronting enterprises today. Central to this paper, we describe a four-step approach for the design development of an IT strategy. We introduce various tools with which to assess the current situation and identify relevant aspects of the business environment. Subsequently we outline an approach to strategy formulation and describe tools for strategy implementation and monitoring. Finally, an outlook into the future highlights what companies need to do to thrive into the future.
Die vernetzte Digitalisierung als Befähiger für Intelligente Produkte und datenbasierte Geschäftsmodelle stellt Unternehmen vor zahlreiche und vielfältige Herausforderungen auf dem Weg durch die digitale Transformation. Zur Unterstützung dieser Unternehmen wurden in den vergangenen Jahren diverse Referenzarchitekturmodelle entwickelt. Eine detaillierte Analyse derselben und insbesondere ihrer Nutzung durch Unternehmen zeigt schnell, dass aktuell bestehende Referenzmodelle große Schwächen in der Anwendung und somit in der Praxistauglichkeit aufweisen. Mit dem Aachener Digital-Architecture-Management (ADAM) wurde ein Modell entwickelt, das gezielt die Schwächen bestehender Referenzarchitekturen adressiert, ohne ihre Stärken zu vernachlässigen. Als holistisches Modell, speziell für die Anwendung durch Unternehmen entwickelt, strukturiert das ADAM-Modell die digitale Transformation von Unternehmen in den Bereichen der digitalen Infrastruktur und der Geschäftsentwicklung. Systematisch werden Unternehmen dazu befähigt, die Gestaltung der Digitalarchitektur unter Berücksichtigung von Gestaltungsfeldern voranzutreiben. Dabei bietet das Modell nicht nur eine Strukturierungshilfe, sondern beinhaltet auch einen Baukasten, um das Vorgehen in der digitalen Transformation zu konfigurieren. Durch die Breite und Tiefe von ADAM werden Unternehmen befähigt, den Weg durch die digitale Transformation systematisch und strukturiert zu bestreiten, ohne die wertschöpfenden Bestandteile der Digitalisierung aus den Augen zu verlieren.
Geschäftskritischer Erfolgsfaktor oder notwendiges Übel: Stammdatenmanagement ist eine Disziplin, die in der Praxis oft nicht den angemessenen Stellenwert erfährt. Meist wird eine schlechte Datenqualität zwar als Problem wahrgenommen, jedoch von den Unternehmen nicht behandelt. Das Resultat ist, dass Redundanzen und Inkonsistenzen in den Stammdaten weiter anwachsen und letztendlich auch die Prozesse, die auf die Daten zugreifen, ins Stocken geraten. Die mangelnde Konsequenz in der Datenpflege hat zwei Hauptursachen: Zum einen sind die konkreten Nutzenpotentiale mitunter nur schwer ersichtlich und der direkte Beitrag zum Unternehmenserfolg häufig nicht greifbar. Zum anderen mangelt es oftmals an geeigneten Lösungsansätzen oder deren konsequenter Umsetzung.
Ganzheitliches betriebliches SDM erfordert sowohl strategische, organisatorische als auch informationstechnische Maßnahmen in Unternehmen. Es ist notwendig, das SDM mit der strategischen Planung des Unternehens in Einklang zu bringen und geeignete Datenpflegeprozesse zu definieren, die, unter Einbindung von IT- und Fachabteilungen, sowohl Verantwortlichkeiten als auch das Vorgehen beschreiben. Eine Stammdatenarchitektur, die aktuelle und korrekte Stammdaten innerhalb der IT-Landschaft gewährleistet, muss gewählt, und geeignete Datenstrukturen, die sowohl die Anforderungen der Fachabteilungen abdecken, als auch den benötigten Grad an Interoperabilität ermöglichen, müssen geschafften werden.
Das Ziel des vorliegenden White Papers ist es, dem Leser einen Einblick in das Themengebiet SDM zu gewähren. Es beschreibt die verschiedenen Handlungsfelder von SDM und liefert Methoden für die einzelnen Gestaltungsbereiche. Weiterhin liefert es eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
Ziel des vorliegenden Whitepapers ist es, dem Leser einen Einblick in das Themengebiet Stammdatenmanagement zu gewähren. Anfangs werden
hierfür das Stammdatenthema vorgestellt und die Grundlagen beschrieben. Ferner werden die einzelnen Handlungsfelder und Gestaltungsbereiche
aufgezeigt. Ein weiterer Abschnitt widmet sich der Schnittstelle zwischen Big Data und Stammdaten. Letztendlich liefert das Whitepaper eine Vorgehensweise, um systematisch die Stammdatenqualität zu optimieren und nachhaltiges SDM im Unternehmen zu etablieren.
The change from the traditional to the digital service provider is not easy. The digital maturity level of many industrial companies is still too low to successfully place these digital service innovations on the market. One problem of service development is the increasing involvement of information and communication technology in service development and implementation. The additional technology makes the innovation processes for services on the part of manufacturers increasingly complex by involving different internal and external stakeholders (e.g. IT partners, data protection officers or product development departments). In addition to this, data-driven services also require that manufacturers (e.g. data scientists) develop new competencies in order to use the customer data obtained to increase machine productivity and to offer new business models. Furthermore, industrial companies that want to successfully offer data-driven services must develop new market introduction strategies to create a high degree of acceptance and trust among their customers. This is necessary to get access to relevant data. These and other challenges caused the success rate of companies in regarding the development of new, industrial services to shrink.
To change this, this white paper presents six principles that help industrial enterprises to develop new successful data-driven services.
Smart Operations
(2015)
Ziel des vorliegenden Whitepapers ist es, dem Leser
einen Einblick in das Themengebiet „Smart Operations“
am FIR an der RWTH Aachen zu geben. Es beschreibt die
derzeitigen Umfeldveränderungen im Kontext produzierender
Unternehmen und zeigt auf dieser Basis die Handlungsfelder
eines zukunftsorientierten Produktionsmanagements
im Umfeld der Digitalisierung auf.
[Whitepaper] ToMiC
(2011)
Social-Software-Lösungen gewinnen im beruflichen Kontext stetig an Bedeutung. Durch ihren Einsatz bilden sich unternehmensinterne Communitys, die einem Lebenszyklus unterliegen, der aus Phasen mit unterschiedlichen Eigenschaften besteht. Das Whitepaper stellt ein Modell zur Verfügung, um die Phase einer solchen Community zu bestimmen. Aufbauend darauf werden Handlungsempfehlungen zum lebenszyklusorientierten Management bereitgestellt, um den unternehmerischen Wert der Community zu maximieren.
Deutschland als Produktionsstandort befindet sich in einem revolutionären Wandel und sieht sich mit komplexen Anforderungen konfrontiert. Neben kurzen Lieferzeiten und günstigen Preisen fordert der Markt ständig differenziertere und qualitativ hochwertigere Produkte. Gleichzeitig steigt die Marktdynamik aufgrund der starken Kundenorientierung und der damit verbundenen Auftragsschwankungen. Dadurch nimmt die Komplexität von Koordination, Planung und Steuerung der betrieblichen Abläufe zu, wodurch Unternehmen oftmals an ihre Grenzen stoßen. Um den Kundenanforderungen dennoch gerecht zu werden, sehen Unternehmen die Digitalisierung als einen entscheidenden Faktor für den Unternehmenserfolg an. Jedoch stehen die Unternehmen vor der Herausforderung, jene im Rahmen von Industrie 4.0 erfolgreich in ihrem Unternehmen umzusetzen.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
Durch die steigende Vernetzung in produzierenden Unternehmen nimmt die potenzielle Gefahr durch Cyberangriffe zu. Die meisten kleinen und mittleren Unternehmen (KMU) sind sich heute bewusst, dass hierbei nicht mehr ausschließlich Großkonzerne ein beliebtes Angriffsziel darstellen. Durch automatisierte Malware-Kampagnen und die wachsende Anzahl von Cyberangriffen rücken alle Akteure der Wertschöpfungskette produzierender Unternehmen zunehmend in das Visier von Angreifern – dabei können KMU direkt oder indirekt, zur Schädigung ihrer Partner, angegriffen werden. Die steigende Bedrohungslandschaft ist allerdings nicht die einzige Herausforderung, mit der sich KMU konfrontiert sehen. Besonders schwerwiegend und besorgniserregend ist ihr Umgang mit Cybersicherheit: Viele KMU setzen sich trotz zunehmender Digitalisierung bislang nur unzureichend mit ihrer Cybersicherheit auseinander. Durch die Verschmelzung unterschiedlicher Domänen steigt nicht nur die Komplexität der Technologien, sondern auch die der Prozesse sowie der Organisation in Unternehmen. Die Sicherheit von Systemen definiert sich nicht mehr nur über einzelne Komponenten, sondern durch die Sicherheit des unternehmensübergreifenden Gesamtsystems. Klassische Lösungsansätze zur Absicherung einzelner Komponenten decken die gestiegenen Schutzanforderungen nicht mehr ausreichend ab. Um KMU einen selbständigen und pragmatischen Einstieg in die Thematik zu ermöglichen, muss diese Komplexität beherrschbar gemacht werden. Aus Sicht der Cybersicherheit darf die Komplexität jedoch nicht dadurch reduziert werden, relevante Aspekte zu ignorieren. Es bedarf neuer und angepasster Sichtweisen, die KMU den Einstieg erleichtern.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Die andauernde Globalisierung stellt Unternehmen weiterhin vor erhebliche Herausforderungen. Während sich zum einen die Wettbewerbssituation verschärft, steigen zum anderen die Kundenansprüche. Um dem Kundenwunsch nach individuellen Produkten gerecht zu werden, differenzieren Unternehmen ihr Produktangebot. Gleichzeitig erlaubt die fortschreitende Vernetzung eine höhere Innovationsgeschwindigkeit, die u. a. eine Verkürzung der Produktlebenszyklen bewirkt. Dieser Anstieg an zeitgleich zu erbringenden Leistungen sorgt für immer komplexere Unternehmensprozesse und Wertschöpfungsketten. Auch die zunehmende Anzahl an Partnern und Dienstleistungen sowie deren beständiger Wechsel steigern die Komplexität und damit den Koordinationsbedarf in Supply-Chains. Dieser Aufwand nimmt dabei mit steigender Anzahl der Faktoren exponentiell zu. Darüber hinaus rufen die steigende Anzahl an IT-Systemen sowie deren Änderungsgeschwindigkeit hochkomplexe und dynamische Strukturen hervor. Insbesondere die wechselseitigen Beziehungen zwischen den genannten Einflussfaktoren führen zu einem intransparenten Gesamtsystem.