Refine
Document Type
- Contribution to a Periodical (20) (remove)
Language
- German (20)
Is part of the Bibliography
- no (20)
Keywords
- 1 (1)
- 3 PhasenKonzept (1)
- 3PhasenKonzept (1)
- AM4Industry (1)
- APS-System (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Bahn (2)
- DQC (1)
- DaFuER (2)
Institute
Die Anforderungen an den Einsatz von IT-Systemen haben sich in den letzten Jahren geändert. Anstelle von allumfassenden Komplettlösungen stehen insbesondere Flexibilität und Funktionalität im Mittelpunkt der Gestaltung von ERP-zentrierten IT-Systemlandschaften. Es besteht der vermehrte Wunsch nach einer verbesserten funktionalen Abdeckung, welches u. a.durch den verstärkten Einsatz von weiteren IT-Systemen erreicht werden kann. IT-Systemlandschaften rund um das ERP-System werden so immer vielschichtiger. Problematisch dabei ist, dass durch eine fehlende systematische Gestaltung der IT-Systemlandschaften unklare Verantwortlichkeiten, komplexe Schnittstellen sowie funktionale Überschneidungen und Datenchaos entstehen. Ein weiterer Effekt ist die wachsende Anzahl an Schatten-IT, die entsteht, weil die allumfassende Komplettlösung nicht alle benötigten Funktionen abdeckt.
Die Anforderungen eines Unternehmens und die Leistungsfähigkeit des
eingesetzten ERP-Systems driften oftmals stark auseinander. Viel zu früh erneuern Unternehmen deshalb ihr ERP-System, verbunden mit hohem Aufwand und entsprechenden Kosten. Um einen langfristigen, effizienten Betrieb ihres ERP-Systems zu ermöglichen, sollten Unternehmen die Kluft zwischen den benötigten Systemanforderungen und der tatsächlich vorhandenen Funktionalität eines ERP-Systems so klein wie möglich halten, idealerweise erst gar nicht entstehen lassen. Den Grundstein dazu legen sie bereits bei der Auswahl und Implementierung ihrer ERP-Systeme. Hier den richtigen Fokus zu setzen und darüber hinaus Änderungen in der Umsetzungs- und der Betriebsphase kontinuierlich zu analysieren, sind fundamentale Schritte zum Erfolg.
Heutige Implementierungsprojekte sind davon geprägt, dass nach dem Go-Live keine Prozesse zur Verfügung stehen, die es ermöglichen, dass neue Anforderungen effizient und kostengünstig umgesetzt werden. Dies resultiert in einem sinkenden Nutzen für die Anwender. Erst, wenn das eingesetzte System durch zahlreiche Workarounds und selbst entwickelte Anwendungen nicht mehr handhabbar ist, werden kostenintensive Anpassungs- und Neueinführungsprojekte angestoßen. Ein Ausweg hieraus kann ein konsequent umgeetztes, kontinuierliches und kurzzyklisches Anforderungsmanagement sein, dass Prozesse und eingesetzte IT-Lösungen deckungsgleich hält.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.