+ All Categories
Home > Documents > Interdisziplinäre Datenanalyse für Industrie 4.0

Interdisziplinäre Datenanalyse für Industrie 4.0

Date post: 25-Jan-2017
Category:
Upload: marcus
View: 218 times
Download: 1 times
Share this document with a friend
6
Interdisziplinäre Datenanalyse für Industrie 4.0 Viele Unternehmen stehen kurz vor der vierten industriellen Revolution – auch Industrie 4.0 genannt. Die reale und die virtuelle Welt sind dabei, zu einem großen „Internet der Dinge“ zu verschmelzen. Besonders bei der komplexen Interaktion zwischen Mensch und Maschine wird die Beherrschung dieser Prozesse zu einer interdisziplinären Herausforderung. Uwe Wieland, Marcus Pfitzner 80 Controlling & Management Review Sonderheft 1 | 2014 IT-Trends | Analyseprozess
Transcript
Page 1: Interdisziplinäre Datenanalyse für Industrie 4.0

Interdisziplinäre Datenanalyse für  Industrie 4.0Viele Unternehmen stehen kurz vor der vierten industriellen Revolution – auch Industrie 4.0 genannt. Die reale und die virtuelle Welt sind dabei, zu einem großen „Internet der Dinge“ zu verschmelzen. Besonders bei der komplexen Interaktion zwischen Mensch und Maschine wird die Beherrschung dieser Prozesse zu einer interdisziplinären Herausforderung.

Uwe Wieland, Marcus Pfitzner

80 Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess

Page 2: Interdisziplinäre Datenanalyse für Industrie 4.0

Aus der besonderen Bedeutung von Produktionsprozessen als Mittelpunkt der Wertschöpfung in Industrieunternehmen resultiert bekanntermaßen die unternehmerische Notwendigkeit, gewünschte Prozessergebnisse durch eine bewusste Beeinflussung zu erzielen. Die damit angestrebte Prozessbeherr-schung zielt auf eine definierte Qualität von Prozessergebnissen bei hoher Wirtschaftlichkeit ab. Allerdings sind besonders industrielle Prozesse durch ihre hohe Individualität und Komplexität sowie wegen ständiger Flexibili-tätserfordernisse nur schwer zu beherrschen. Um auch zukünftig Hochlohn-Standorte wettbewerbsfähig zu halten, müssen die Kosten dafür durch eine Erhöhung von Effizienz und Effektivität der Prozesse kompensiert werden (vgl. Wieland et al. 2013a, S. 63 f.).

An dieser Stelle setzt Industrie 4.0 an, ein Zukunftsprojekt in der High-tech-Strategie, das 2012 Arbeitskreise konzipierten, die damals von der Bun-desregierung eingesetzt wurden. Es vereint die Potenziale moderner Infor-mations- und Kommunikationstechnologien im Kontext industrieller Pro-zesse mit den Stärken deutscher Kernbranchen wie beispielsweise dem

Maschinenbau. Trotz leistungsfähigerer autonomer Produktionssysteme be-darf es einer Regulierung, Gestaltung und Steuerung dieser intelligenten und vernetzten Produktionsressourcen durch den Menschen. Dieser muss, be-zogen auf die situativen und kontextabhängigen Zielvorgaben, intelligent Einfluss nehmen können (vgl. Kagermann et al. 2013).

Ein vollständig autonomes Produktionssystem, das kein menschliches Entscheiden und Eingreifen benötigt, ist weder realistisch noch anzustreben (Spath/Weisbecker 2013). Das Beherrschen komplexer Systeme sowie das Anpassen von Arbeitsorganisation und Arbeitsgestaltung zählen folglich zu den wichtigsten Handlungsbereichen bei der Transformation der industri-ellen Produktion hin zu Industrie 4.0 (vgl. Kagermann et al. 2013).

Data Mining integriert ProzessdatenZur Beherrschung dieser komplexen sozio-technischen Systeme und Pro-zesslandschaften werden besondere Erklärungsmodelle benötigt. Diese schaffen möglichst kurzfristig ein vollkommenes Prozessverständnis hin-sichtlich der Ziel- und Einflussgrößen sowie der dazwischen bestehenden Wirkungszusammenhänge. Die derzeitige Umsetzungsempfehlung für In-dustrie 4.0 besagt, dass ein maßgebender Innovationsvorsprung nur gelingt, wenn bereits vorhandene Basistechnologien und Methoden anwendungs-orientiert für die Besonderheiten der neuen Produktionscharakteristik wei-terentwickelt werden (vgl. Kagermann et al. 2013). Explorative Datenana-lyseverfahren des Data Minings, das heißt des systematischen Entdeckens und Extrahierens unbekannter, verborgener und wichtiger Informationen

Marcus Pfitznerist wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftsinformatik an der Technischen Universität Dresden, Tel.: +49 (0)351 463-33629, E-Mail: [email protected]

Uwe Wieland, MBAist wissenschaftlicher Mitarbeiter und Doktorand am Lehrstuhl für Wirtschafts-informatik an der Technischen Universität Dresden, Tel.: +49 (0)351 463-34997, E-Mail: [email protected]

„Der Mehrwert der Analyse kann nur durch eine effiziente Zusammenarbeit aller Beteiligten entstehen.“

81Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess

Page 3: Interdisziplinäre Datenanalyse für Industrie 4.0

aus großen Mengen von Daten (vgl. Fayyad et al. 1996), bie-ten an dieser Stelle die Möglichkeit, vorhandene Prozess-daten hypothesenfrei auf potenzielle Erklärungsmodelle zu analysieren, um das menschliche Wissen mit dem aus Pro-zessdaten explizierten Wissen zu kombinieren (vgl. Wieland et al. 2013 (b), S. 69).

Die interdisziplinäre ZusammenarbeitBei diesem Analyseprozess stellt sowohl die Modellkonstruk-tion als auch die Interpretation der erzeugten Modelle eine Herausforderung für die interdisziplinärere Zusammenarbeit von Ingenieuren, Praktikern, Informatikern und dem Con-trolling dar. Diese Zusammenarbeit reicht von der Transfor-

mation von Prozesszielen in analytische Fragestellungen über die Auswahl und Validierung von Algorithmen bis hin zur Interpretation der Ergebnisse (vgl. Watson 2013).

Für die systematische Durchführung von Data-Mining-Projekten orientiert sich dieser Beitrag mit CRISP-DM (Cross Industry Standard Process for Data Mining) an einem der meistverwendeten Vorgehen, das besonders im Anwendungs-bereich der Industrie zu finden ist (vgl. Mariscal et al. 2010). Abbildung 1 zeigt das Referenzvorgehen von CRISP-DM.

Wichtige Phasen im Data-Mining-ProzessDie Reihenfolge dieses Prozesses ist nicht zwingend sequenzi-ell und erlaubt mehrfache Iterationen. Dies ermöglicht und er-fordert gerade die erwähnte Abstimmung zwischen Fachexper-ten (FE) und Data-Mining-Experten (DME). Der Prozess lässt sich anhand der folgenden drei Schritte nachvollziehen:1. Untersuchung der Geschäftsziele: Dabei werden durch den

FE die Geschäftsziele des zu analysierenden Bereichs spe-zifiziert und Data-Mining-Ziele durch den DME abgelei-

Zusammenfassung•Die Beherrschung von komplexen Systemen und die Anpassung der Arbeitsorganisation zählen zu den wich-tigsten Handlungsfeldern bei der Transformation der industriellen Produktion hin zu Industrie 4.0.•Diese Beherrschung der Systeme und Prozessland-schaften erfordert besondere Erklärungsmodelle.•Mit Data Mining lassen sich vorhandene Prozessda-ten hypothesenfrei auf potenzielle Erklärungsmodelle analysieren.

„Die Möglichkeit zur maschinellen Auswertung strukturierter und unstrukturierter Daten stellt keinen Garant für bessere Entscheidungen dar.“

Quelle: eigene Darstellung in Anlehnung an CRISP-DM

Abb. 1 Der Analyseprozess

DM

E in

Dat

a-M

inin

g-Pr

ozes

s

Modellierung und Auswertung

Modellie-rungs-

verfahren auswählen

Modell

erstellen

Ergeb nisse

evalu ieren

Untersuchung Geschäftsziele

Geschäfts-ziele be-stimmen

Data-Mining-Ziele

bestimmenDatenvorverarbeitung

Daten-untersuchung

Daten- aufbereitung

Prozess-daten

Bereitstellung

82 Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess

Page 4: Interdisziplinäre Datenanalyse für Industrie 4.0

tet. Die Schwierigkeit an dieser Stelle liegt in der „Überset-zung“ der Geschäftsziele in Data-Mining-Ziele durch die Abstimmung zwischen FE und DME. Es werden unterstüt-zende Kommunikationsmittel benötigt, um die Formulie-rung bedarfsgerechter Analyseziele zu gewährleisten und somit bereits hier den Mehrwert der Analyse zu sichern.

2. Datenvorverarbeitung: Hier werden die erforderlichen Da-ten selektiert, zusammengeführt und aufbereitet. Für den Umgang mit Ausreißern, Datenlücken, statistischen Ab-hängigkeiten und Mehrdeutigkeiten kann wiederum nur durch die Verbindung der besonderen Kenntnisse von FE und DME eine adäquate Lösung gefunden werden (vgl. Grob et al. 2008).

3. Modellierung und Auswertung der Daten: Die vorbereite-ten Prozessdaten gehen anschließend in die Phase der Modellierung und Auswertung über. Gemäß Data-Mi-ning-Zielstellung werden durch den DME unterschied-liche Verfahren ausgewählt, um die Prozessdaten in ein Erklärungsmodell zu integrieren.

Folgende Verfahrensklassen können bei der Integration von Prozessdaten unterschieden werden (vgl. Otte et al. 2004):

Verfahren zum Auffinden von Zusammenhängen: Dabei geht es um die Suche nach Zusammenhängen zwischen Pro-zess- und Zielvariablen. Für diesen Zweck sind Prognose- und Klassifikationsverfahren des Data Minings geeignet. Klassi-fikationsmodelle für Prozessdaten beschreiben die Klassen-zugehörigkeit von Prozessobjekten hinsichtlich einer nomi-nalen Zielvariablen auf Basis individueller Merkmalskombi-nationen. Prognosemodelle hingegen formu lieren einen funktionalen Zusammenhang von Prozess variablen bezüglich einer metrischen Zielvariablen (vgl. Fayyad et al. 1996). Aus-

Kernthesen•Industrie 4.0 vereint Potenziale der Informationstech-nologie mit den Stärken deutscher Kernbranchen.•Ein komplett autonomes Produktionssystem ist bei Industrie 4.0 weder realistisch noch wünschenswert.•Menschliches Entscheiden und Eingreifen bleiben auch bei Industrie 4.0 unverzichtbar.

83Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess

Empfohlen vom BVBC - Bundesverband der Bilanzbuchhalter und Controller e.V.

In Deutschland sind alle kapitalmarktorienti-erten Unternehmen zur Aufstellung von IFRS Abschlüssen verp� ichtet. Zahlreiche weitere Unternehmen stellen IFRS Abschlüsse auf frei-williger Basis auf. Unternehmen und deren Bera-ter müssen daher die IFRS sicher beherrschen.Dieser Kommentar ist ein wichtiger Ratgeber in allen Fragen der Praxis.

2011, 1235S. Geb.€ (D) 149,95 | € (A) 154,15 | *sFr 187,00ISBN 978-3-8349-1989-2

€ (D) sind gebundene Ladenpreise in Deutschland und enthalten 7% MwSt. € (A) sind gebundene Ladenpreise in Österreich und enthalten 10% MwSt. Die mit * gekennzeichneten Preise sind unverbindliche Preisempfehlungen und enthalten die landesübliche MwSt. Preisänderungen und Irrtümer vorbehalten.

Michael Buschhüter, Andreas Striegel (Hrsg.) Internationale Rechnungslegung – IFRSKommentar

springer-gabler.de

Jetzt bestellen: springer-gabler.de

Page 5: Interdisziplinäre Datenanalyse für Industrie 4.0

gehend von einer Menge an Prozessvariablen, werden die Ein-flussgrößen durch die Anwendung von Prognose- und Klas-sifikationsverfahren auf das Wesentlichste reduziert sowie der Zusammenhang in Bezug auf eine vorgegebene Zielgröße beschrieben.

Verfahren zum Auffinden von Regeln: Die Generierung von Regeln zählt zu den wichtigsten Data-Mining-Verfahren. Es entstehen Ergebnisse in Form von expliziten Wenn-Dann-Regeln, die leicht durch den Menschen zu interpretieren und zu validieren sind. Entscheidungsbaum-Verfahren leiten da-bei aus Prozessdaten induktiv, d. h. vom Besonderen auf das Allgemeine schließend, Regeln ab, die durch das Kombinie-ren von Aussagen über Prozessvariablen die Zuordnung eines Prozessobjektes zu einer Zielgröße erklären. Die aus der Assoziationsanalyse abgeleiteten Regeln beschreiben dagegen Korrelationen zwischen gemeinsam auftretenden Punkten, indem Elemente einer Menge, z. B. Prozesszustände, ermittelt werden, die das Auftreten anderer Elemente innerhalb einer Transaktion implizieren. Da Assoziationsregeln im Unter-schied zu den Entscheidungsbäumen keine disjunkte, das heißt ohne Schnittmenge erstellte, Zerlegung des Datenrau-mes durchführen, eignen sie sich auch für die Entdeckung sehr schwacher Zusammenhänge, beispielweise zum Aufspü-ren von Einflussgrößen für seltene Störungen (vgl. Otte et al. 2004).

Verfahren zum Auffinden von Strukturen: Die Struktur-analyse fasst Prozessobjekte, basierend auf ihren Merkmalen, zu Klassen oder Gruppen so zusammen, dass unter den Ob-jekten einer Klasse größtmögliche Ähnlichkeit und zwischen den Objekten unterschiedlicher Klassen größtmögliche Ver-schiedenheit vorherrscht. Zu diesem Zweck sind Clusterver-

fahren geeignet (Fayyad et al. 1996). Allerdings werden mit der Zergliederung der Prozessobjekte keine Beziehungen zwischen Prozessvariablen erklärt. Es erfolgt lediglich eine Gruppenbildung. Das neue Gruppenmerkmal kann jedoch

als Einflussgröße oder Zielvariable in die weitergehende Analyse mit den oben vorgestellten Verfahren zum Auffinden von Zusammenhängen und Regeln einfließen und damit einen Beitrag zum Erklärungsmodell liefern.

Auch in dieser Phase kann der Mehrwert der Analyse nur durch eine effiziente Zusammenarbeit aller Beteiligten entste-hen. Während die Auswahl, Anwendung und Bewertung ei-nes geeigneten Data-Mining-Verfahrens durch den DM-Ex-perten erfolgen, kann die Ergebnisvalidierung nur in Abstim-mung mit den Fachexperten, z. B. mit den Controllern oder auch den Produktionsingenieuren, zielführend sein. Diese greifen dabei auf historisch bewährtes Prozesswissen zurück (vgl. Watson 2013).

Prozesssteuerung und -verbesserungIm Anschluss werden die Ergebnisse zur Bereitstellung über-geben, aus der auf zwei Arten ein Nutzen generiert werden kann. Zum einen können die Ergebnisse in Form von anwend-baren Data-Mining-Modellen direkt in den Steuerungsprozess einfließen. Zum anderen sollte den Prozessbeteiligten ein ge-eignetes Instrumentarium übergeben werden, um mit den Ana-lyseergebnissen eine nachhaltige Steuerung zu betreiben und die erreichte Prozessverbesserung zu erhalten. Hier kommt auch die Forderung von Industrie 4.0 nach Unterstützungssys-temen, die in ihrer Informationsbereitstellung bedarfsgerecht auf den jeweiligen Prozess und dessen Beteiligte abgestimmt sein müssen, zum Tragen (vgl. Wieland et al. 2013 (a), S. 65).

An dieser Stelle eignet sich der Einsatz eines Process-Per-formance-Measurement-Systems (PPMS), mit dem die Pro-zessleistung gezielt gesteuert und nachhaltig verbessert wer-den kann (vgl. Kueng 2000). Dieses erlaubt die multidimen-sionale Darstellung relevanter Steuerungs- und Einflussgrößen auf Basis der identifizierten Ursache-Wirkungs-Beziehungen.

Handlungsempfehlungen•Entwickeln Sie neue Kompetenzen und Ansätze für die Didaktik sowie die Konzeption von Entscheidungs-unterstützungs- und Assistenzsystemen.•Leiten Sie Ihre Mitarbeiter auf dem Transformations-weg an, damit sie die zukünftigen, interdisziplinären Herausforderungen bewältigen können.•Übergeben Sie den am Prozess beteiligten Personen ein geeignetes Instrumentarium, um mit den Analyse-ergebnissen eine nachhaltige Steuerung und Prozessver-besserung zu erreichen.

„Von herausragender Wichtigkeit ist die genaue Abstimmung auszuwertender Datenströme und einzusetzender Prognosemodelle auf den jeweiligen Anwendungsfall.“

84 Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess

Page 6: Interdisziplinäre Datenanalyse für Industrie 4.0

Im Ergebnis lassen sich verifizierte Ursachen- und Perfor-mance-Variablen mittels Online Analytical Processing (OLAP) kontinuierlich auf verschiedenen Aggregationsebe-nen überwachen und Prozesskennzahlen im Zeitverlauf prü-fen. Auf Dashboards lassen sich Zusammenhänge für alle Pro-zessbeteiligten transparent darstellen. Die Erstellung eines PPMS erfordert wiederum die Zusammenarbeit der fachspe-zifischen Experten sowie die Einbeziehung weiterer Nutzer, um die relevanten Informationen effizient bereitzustellen.

FazitDie Möglichkeit zur maschinellen Auswertung strukturierter und unstrukturierter Daten stellt keinen Garant für bessere Entscheidungen dar. Von herausragender Wichtigkeit ist viel-mehr die genaue Abstimmung auszuwertender Datenströme und einzusetzender Prognosemodelle auf den jeweiligen An-wendungsfall. Dies erfordert zum einen eine optimale Zusam-menarbeit zwischen den einzelnen Experten und zum ande-ren die Verknüpfung der menschlichen Expertise mit expli-ziertem Wissen aus Prozessdaten (vgl. Fahner 2013, S.13).

LiteraturFahner, G.: Skepsis tut Predicitive Analytics gut, in: BI Spektrum Heft 5 (2013), S. 11 – 13.

Fayyad, U. M./Piatetsky-Shapiro, G./Smyth, P.: From Data Mining to Knowledge Discovery in Databases, in: AI Magazine Vol. 17 (1996), No. 3, S. 37 – 54.

Grob, H. L./Bensberg, F./Coners, A.: Regelbasierte Steuerung von Geschäftsprozessen. Konzeption eines Ansatzes auf Basis von

Process Mining, in: Wirtschaftsinformatik, 50 Jg. (2008), Heft 4, S. 268 – 281.

Kagermann, H./Wahlster, W./Helbig, J.: Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. Abschlussbericht des Arbeits-kreises Industrie 4.0, Deutsche Akademie der Technikwissenschaf-ten e.V., München 2013.

Kueng, P.: Process performance measurement system: a tool to support process-based organizations, in: Total Quality Management and Business Excellence, Jg. 11 (2000), Heft 1, S. 67 – 85.

Mariscal, G./Marban, O./Fernandez, C.: A survey of data mining and knowledge discovery process models and methodologies, in: The Knowledge Engineering Review, Vol. 15 (2010), No. 2, S. 137 – 166.

Otte, R./Otte, V./Kaiser, V.: Data Mining für die industrielle Praxis, 1. Aufl., München 2004.

SAS Institute GmbH: Auswertung von Maschinendaten. Ergebnisse einer Befragung von Unternehmen des verarbeitenden Gewerbes, Forsa-Studie, http://www.sas.com/offices/europe/germany/down-load/files/pdf/BA_ST_Manufacturing_Forsa_03_2013.pdf (letzter Abruf: 16.04.2013).

Spath, D./Weisbecker, A.: Potenziale der Mensch-Technik Interak-tion für die effiziente und vernetzte Produktion von Morgen, Stutt-gart 2013.

Watson, J. H.: The Necessary Skills for Advanced Analytics, in: Busi-ness Intelligence Journal, Vol. 17 (2013), No. 4, S. 4 – 7.

Wieland, U./Fischer, M./Hilbert, A. (a): Prozessverbesserung im Kontext von Industrie 4.0 – ein Geschäftsmodell für IT-Unterneh-men, in: HMD – Praxis der Wirtschaftsinformatik, 50. Jg. (2013), Heft 292, S. 63 – 72.

Wieland, U./Fischer, M./Hilbert, A. (b): Menschliches Expertenwis-sen und Prozessdaten im Verbund – Six Sigma und Data Mining im Kontext von Industrie 4.0, in: HMD-Praxis der Wirtschaftsinforma-tik, 50. Jg. (2013), Heft 294, S. 66 – 75.

a Zusätzlicher Verlagsservice für Abonnenten von „Springer für Professionals | Finance & Controlling“

Zum Thema “Industrie 4.0” Suche

finden Sie unter www.springerprofessional.de 72 Beiträge, davon 9 im Fachgebiet Finance & Controlling Stand: Januar 2014

Medium

☐ Online-Artikel (24) ☐ Kompakt-Dossier (3) ☐ Interview (1) ☐ Zeitschriftenartikel (16) ☐ Buch (1) ☐ Buchkapitel (19) ☐ Nachrichten (8)

Sprache

☐ Deutsch (71) ☐ Englisch (1)

Von der Verlagsredaktion empfohlenSeidler, U. (Hrsg.): Industrie 4.0 – Beherrschung der industriellen Komplexität mit SysLM, Berlin Heidelberg 2013,

www.springerprofessional.de/4605354.html

Westkämper, E./Spath, D./Constantinescu, C./Lentes, J. (Hrsg.): Digitale Produktion, Berlin Heidelberg 2013,

www.springerprofessional.de/4779946

85Controlling & Management Review Sonderheft 1 | 2014

IT-Trends | Analyseprozess


Recommended