Refine
Document Type
- Contribution to a Periodical (9)
- Working Paper (6)
- Part of a Book (3)
- Report (2)
- Book (1)
- Internet Paper (1)
Language
- German (22) (remove)
Is part of the Bibliography
- no (22)
Keywords
- 01 (2)
- 02 (3)
- Auftragsabwicklung (1)
- Blockchain (1)
- DaFuER (4)
- Daten (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenauswertung (1)
- Datenfusion (5)
Institute
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Besonders in den letzten Krisen konnte die Anfälligkeit unserer gesamten Wert-schöpfungsnetzwerke beobachtet werden. Auch, wenn sich alle Krisen im Detail fundamental unterscheiden, haben alle Eines gemeinsam: eine frühzeitige Risiko-bewertung sowie eine gezielte Reaktion sind zur Bewältigung einer Krise notwen-dig. Um dies zu ermöglichen, wird im Forschungsprojekt PAIRS (Privacy-Aware, In-telligent and Resilient CrisiS Management) eine szenariobasierte Krisenmanage-mentplattform entwickelt, in welcher auf Basis von hybriden KI-Methoden Krisen identifiziert und deren Entwicklung antizipiert werden können. Hierfür wurden ver-schiedene Anwendungsfälle erfasst und deren domänenübergreifenden Wechselwirkungen systematisch untersucht.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Supply-Chain-Management 4.0
(2020)
Viele Unternehmen erhoffen sich enorme Wachstumschancen durch Digitalisierung, Vernetzung und neue Technologien. Daher ist der Reifegrad der Digitalisierung eines Unternehmens von besonderer Bedeutung, um den Status des Unternehmens zu überprüfen. Im Rahmen der acatech-Studie wurde ein Index entwickelt, um den Reifegrad von produzierenden Unternehmen zu bestimmen. Diese Bewertung berücksichtigt jedoch den Bereich des Lieferkettenmanagements nicht ausreichend. Infolgedessen müssen diesbezüglich weitere Merkmale entwickelt werden, um den Reifegrad der Digitalisierung innerhalb einer Lieferkette zu bestimmen. Der Schwerpunkt liegt auf Datenverarbeitung, Kommunikation, Schnittstellenarbeit und Sicherheit, Netzwerkzusammenarbeit und Änderungsmanagement.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.