COMPLEXITY MANAGEMENT JOURNAL - Smart Complexity Management - Schuh Group
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Inhalt Editorial Schwerpunkt: Digitalisierung, Künstliche Intelligenz, Data Science… Begriff- Nicht verwunderlich also, dass zu den wirtschaftlichen Pro- Smart Complexity Management lichkeiten, die in aller Munde sind und in Medien, Wirtschaft fiteuren der Corona-Krise neben der Pharmaindustrie insbe- und Politik intensiv diskutiert werden. sondere solche Unternehmen gehören, deren Geschäftsmodell digital und auf Datensammlung sowie deren Verwertung Angetrieben von Firmen wie Google, Amazon und Co. wurden ausgelegt ist. die Themen über die vergangenen Jahre vorangetrieben. Pro- minente Anwendungsbeispiele wie Sprachassistenzsysteme Auch wir standen vor einigen Jahren vor der Fragestellung, 04 Unser Netzwerk 26 Zitate sind in die Alltagswelt der Menschen vorgedrungen und deu- ten an, welches Potential sich in den Technologien verbirgt. inwieweit sich das Beratungsgeschäft im Allgemeinen und das Management von Komplexität im Speziellen durch die fortschreitende Digitalisierung und smarte Algorithmen Längst haben viele weitere Branchen und Unternehmen die verändern wird. Schnell war uns klar: Tiefgreifend und Macht der Daten erkannt und ihr Betriebssystem – zumindest nachhaltig. 05 Smart Complexity Management 28 Advanced Process Mining teilweise – auf digital gestellt. In der Landwirtschaft beispiels- Dr. Stephan Krumm / Jan-Hendrik Kraus Jan-Hendrik Kraus / Lena Kriesel weise kann die intensive Datensammlung dabei helfen, besser Die Ergebnisse unserer Denkreise können Sie in unseren und umweltschonender zu wirtschaften. In Produktionsan- Artikeln nachvollziehen – und gerne gemeinsam mit uns im lagen der Automobilindustrie können durch hochmoderne Dialog vertiefen. Sensoren und dahinterliegende Algorithmen Qualitätspro- 09 33 bleme noch vor deren Auftreten entdeckt und entsprechend Ich wünsche Ihnen viel Spaß bei der Lektüre. Data Driven Portfolio Quick Check Künstliche Intelligenz in der F & E verhindert werden. Lernplattformen wie italki oder Udemy Jan-Hendrik Kraus / Jan Schneider Jan-Hendrik Kraus / Dr. Christian Dölle revolutionieren, wie wir Sprachen lernen und uns weiterbilden. Herzlich Ihr 14 6 Fragen an ... Lena Kriesel / Alexander Menges 36 Schon gewusst? 17 Produktkomplexität datenbasiert managen Dr. Markus Stoffel / Jan Schneider 38 Plexity Dr. Markus Stoffel / Rodion Orlinskiy 21 Mit Data Analytics versteckte Potenziale aufdecken Dr. Markus Stoffel / Dr. Thomas Busam 40 News aus dem Netzwerk 22 Smart Complexity Management auf einen Blick 43 Impressum Dr. Stephan Krumm Geschäftsführender Partner 2 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 3
Smart Complexity Management Mehr als 25 weitere Center Daten nutzen, um Komplexität zu beherrschen Dr. Stephan Krumm / Jan-Hendrik Kraus Unsere Partner auf dem RWTH Aachen Campus 2,5 Trillionen1. Diese schier unvorstellbare Zahl repräsentiert die Menge an Bytes, die jeden Tag von Menschen rund um den Globus erzeugt wird. Tendenz steigend. Ob Kommunikation, Freizeit oder Weiterbildung – kaum ein Bereich, vor dem die rasant wachsende Digitalisierung Halt macht. Digitalisierung verändert alles. Auch das Komplexitätsmanagement. Eine neue Zeitrechnung VUCA meets Smart Complexity Management Wirkungsbereich von Prof. Schuh Institute In einer Welt, die von Dynamik und Ambivalenz geprägt ist, Mit Smart Complexity Management bezeichnen wir unseren steigen auch die Anforderungen an das Management. Ent- Themenbereich, welcher die in den Unternehmen zur Verfügung scheidungsträger müssen immer schneller und unter hoher stehenden Daten verwendet, um komplexe Fragestellungen Unsicherheit handeln – und das nicht erst, seitdem uns Corona schnell und objektiv zu analysieren. Mit Hilfe modernster Ver- Kooperation einmal mehr gezeigt hat, wie schnell sich in unserer vernetzten fahren des Data Analytics kann dabei eine bisher unerreichte Welt fundamentale Rahmenbedingungen über Nacht verändern Transparenz erzeugt und somit die Grundlage für faktenba- können. sierte Entscheidungen gelegt werden. Das häufig mit VUCA (Das Akronym VUCA steht für Volatility, Dabei ist – und dieser Umstand behält auch in digitalen Zeiten Uncertainity, Complexity, Ambiguity) umschriebene Unterneh- seine Gültigkeit – ein ganzheitlicher Ansatz des Komplexitäts- mensumfeld verlangt nach neuen Lösungen, die die verantwort- managements von essenzieller Bedeutung. Die Verfahren und lichen Führungskräfte und Mitarbeiter in die Lage versetzen, mit Methoden mögen sich geändert (und glücklicherweise auch der gestiegenen Komplexität und Geschwindigkeit Schritt zu verbessert) haben; unser grundlegender Beratungsansatz hatte halten. An dieser Stelle können Unternehmen auf einen Rohstoff und hat jedoch weiterhin Bestand. Nur, wer das Wechselspiel zurückgreifen, der ihnen in exponentiell steigendem Maße zur aus Kundenanforderungen, Produktportfolio und -struktur Verfügung steht: Daten. sowie der internen Wertschöpfung berücksichtigt, kann auch wirkungsvolle und nachhaltige Verbesserungen erzeugen. Wir unterscheiden und behandeln daher in unseren Projekten die Erfolgreiche nachfolgenden Komplexitätsdimensionen. Spin-Offs Unser Netzwerk Als führendes Beratungsunternehmen im Komplexitätsmanagement sind wir eingebunden in ein umfassendes Netzwerk. Das macht uns nicht nur aus, sondern auch besser. Das Netzwerk besteht aus Instituten unter der Leitung von Professor Schuh, Partnern auf dem RWTH Aachen Campus und erfolgreichen Spin-Offs. Wir beweisen, dass Forschung, Beratung und konkrete Anwendung zusammen gehören. Themenspezifisch werden wir in unserem Complexity Management Journal immer wieder Gastbeiträge einfließen lassen. 4 Complexity Management Journal 01/2020 01/2021 Complexity Management Journal 01/2021 5
Dimension 3: Produktionskomplexität In unserem Artikel Advanced Process Mining stellen wir Ihnen Smart Complexity Management Durch die Globalisierung der Märkte ist die Produktionsnetz- unseren datenbasierten Ansatz zur Analyse von Geschäfts- werkkomplexität in vielen Unternehmen rasant gestiegen. prozessen anhand eines Projektbeispiels zum Änderungs- Dimension 1: Dimension 2: Dimension 3: Dimension 4: Zahlreiche Produktionsstandorte mit unterschiedlichen Pro- management eines Automobilherstellers vor. Portfoliokomplexität Produktkomplexität Produktionskomplexität Organisationskomplexität duktportfolios, unzureichende Spezifizierung der Werksrollen und fehlende Standards erschweren es, den Überblick zu • Markt- und • Teilekomplexität • Produktions- • Prozesskomplexität behalten. An dieser Stelle hilft die Analyse von Transaktions- Datenqualität und -verfügbarkeit als zentrale Anforderungskomplexität • Komponentenkomplexität netzwerkkomplexität • Strukturkomplexität daten aus ERP-Systemen. Durch die Visualisierung logistischer Herausforderungen • Produktportfoliokomplexität • Wertschöpfungskomplexität • IT-Komplexität Warenströme kann das Produktionsnetzwerk hinsichtlich seiner Lieferverflechtungen und Wirtschaftlichkeit analysiert Die Möglichkeiten datenbasierter Verfahren sind enorm. So auch werden. Ausgehend von der Ist-Analyse können im Anschluss die Herausforderungen, die sich mit ihnen ergeben. Daten wer- verschiedene Szenarien für die Anpassung des bestehenden den zunehmend zu einem kritischen Wettbewerbsfaktor. Sie … Produktionsnetzwerks erstellt und simuliert werden. helfen, Kundenanforderungen besser zu verstehen, die eigenen PLM Aktivitäten zielgerichtet auszurichten und die Effizienz interner CRM Auch kann die Wertschöpfungskomplexität im Produktions- Abläufe zu verbessern. Der richtige Umgang mit dem „Rohstoff“ MES ERP verbund oder bezogen auf einzelne Werke betrachtet werden: Daten ist daher von entscheidender Bedeutung. Es gilt jetzt Wie wirkt sich das Produktportfolio auf die Produktionspro- sicherzustellen, dass sowohl Datenquantität als auch Daten- zesse aus? Welche Produkt- und Prozesstechnologien kommen qualität in ausreichendem Maße gewährleistet sind. Abb. 1: Smart Complexity Management steht für ein ganzheitliches, datenbasiertes Komplexitätsmanagement zur Steigerung für welche Teile und Komponenten zum Einsatz? An welcher der Transparenz und Effizienz von Analysen sowie der Ableitung faktenbasierter Entscheidungen Stelle ergeben sich Potentiale zur Senkung der Durchlaufzeiten? Dabei geht es in erster Linie nicht um „mehr“, sondern um die „richtigen“ Daten. Welche Daten werden an welcher Stelle in In unserem Artikel zur Produktionskomplexität thematisie- welchem Maße benötigt? Wie können Datenredundanzen durch ren wir darüber hinaus, wie durch die Identifizierung bisher eine Single-source-of-Truth Strategie reduziert werden? Und unbekannter Zusammenhänge in der Produktion mittels Data welche konkreten Potentiale bieten die neuen Technologien im Vier Dimensionen der Komplexität der Portfolios ergeben oder welche Kundengruppen in welcher Analytics Produktivitätssteigerungen erreicht werden können. spezifischen Einzelfall? Fragestellungen, welche Kernbestand- Weise durch die Abkündigung von Produktvarianten betroffen teil einer jeden Digitalisierungsstrategie sein sollten und auf Dimension 1: Portfoliokomplexität sind. Teilweise fehlt auch ganz einfach der Überblick, wie viele Dimension 4: Organisationskomplexität die Agenda einer jeden Führungskraft gehören. Individualisierung, kürzere Produktlebenszyklen, gestiegener Produktvarianten überhaupt angeboten werden. Durch die Anwendung datenbasierter Verfahren ergibt sich Kundenanspruch: Die Themen sind bekannt, die sich daraus zum ersten Mal überhaupt die Möglichkeit, einen sogenannten An dieser Stelle möchten wir Sie auf unseren Artikel Künstli- ergebenen Herausforderungen spüren Unternehmen jeden Tag. In unserem Artikel Data Driven Portfolio Quick Check zeigen „digitalen Zwilling“ der Organisation zu kreieren. Basierend auf che Intelligenz in der F&E sowie unser Interview mit Alexan- wir Ihnen auf, wie bereits innerhalb weniger Wochen komplexe den digitalen Fußspuren, die Mitarbeiter bei der Verwendung der Menges vom WZL zum Thema Stammdatenbereinigung Zum einen wäre da die gestiegene Markt- und Anforderungs- Produktportfolios visualisiert, Schwachstellen aufgedeckt und von IT-Systemen hinterlassen, können Geschäftsprozesse re- mittels Künstlicher Intelligenz verweisen. Während ersterer komplexität. Um überhaupt eine Chance im Umgang mit den Optimierungspotentiale identifiziert werden können. konstruiert und die bestehende Prozesskomplexität detailliert ein Startpunkt für die strategische Auseinandersetzung mit den gestiegenen Herausforderungen zu haben, sind Unternehmen analysiert werden: Wo liegen die Bottlenecks? An welcher Stel- o. g. Fragestellungen sein kann, nimmt letzterer eine operative gezwungen, ihre Märkte in einzelne Segmente zu unterteilen. Dimension 2: Produktkomplexität le werden Prozesse umgangen? Wie viele Prozessvarianten Perspektive ein. Thematisiert wird die automatisierte Verbes- Doch nach welchen Kriterien sollte die Segmentierung erfolgen? Sind Marktsegmente und das daraus abgeleitete Produktport- existieren? Welche Durchlaufzeiten haben Entscheidungen? serung bestehender Stammdaten in unterschiedlichen IT- Und wie viele Segmente sollten es sein? folio definiert, gilt es, dieses mit einer möglichst geringen Und wie viele Hierarchieebenen sind involviert? Fragen, die in Systemen. internen Komplexität abzubilden. Die Wahl der richtigen der betrieblichen Praxis täglich diskutiert werden und hinter Datenbasierte Verfahren können hier behilflich sein, indem sie Produktarchitektur beeinflusst hierbei maßgeblich die Teile- denen sich hohe Rationalisierungspotentiale verstecken. basierend auf Ähnlichkeitsanalysen sowohl bezogen auf die und Komponentenkomplexität. Häufig verfügen Unternehmen möglichen Segmentierungskriterien als auch hinsichtlich der über eine riesige Anzahl von Teilen oder Komponenten, welche In Verbindung mit Kommunikationsanalysen, die basierend zu wählenden Marktsegmente einen ersten Vorschlag erstellen. eine hohe Ähnlichkeit hinsichtlich ihrer Merkmale aufweisen. auf Kommunikationsdaten (z. B. E-Mails) Schnittstellen zwi- Dieser automatisch generierte Entwurf kann dann als Grund- Inwiefern diese wirklich benötigt werden, ist im Einzelfall zu schen Funktionsbereichen identifizieren und quantifizieren, lage für weitergehende Diskussionen verwendet werden. entscheiden. Mögliche Einsparungen zwischen 20 und 30 kann die organisatorische Strukturkomplexität detailliert Prozent sind allerdings eher die Regel, als die Ausnahme. analysiert werden. Zum anderen leiden Unternehmen unter einer historisch ge- wachsenen Produktportfoliokomplexität. Das Portfolio an Auch hier können – z. B. ausgehend von Verwendungsnachwei- Die genannten Punkte helfen auch, die ausufernde IT-Komple- den richtigen Stellen zu bereinigen, ist eine anspruchsvolle sen und Stücklisten – Ähnlichkeitsanalysen eingesetzt werden, xität in Unternehmen proaktiv zu gestalten. Durch die genaue und mitunter kontrovers diskutierte Aufgabenstellung. Unter- um Standardisierungspotentiale innerhalb des Teile- und Kenntnis der Abläufe sowie der darin involvierten Personen schiedliche Unternehmensfunktionen haben verschiedene Komponentenportfolios zu identifizieren. Diese und weitere und deren Anforderungen, können die IT-Architektur und die Sichtweisen und verfolgen divergierende Zielstellungen. Zudem Beispiele finden Sie in unserem Artikel Produktkomplexität abgeleitete IT-Roadmap sehr viel zielgerichteter geplant und ist häufig unklar, welche Potentiale sich durch eine Anpassung datenbasiert managen. umgesetzt werden. 6 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 7
Fazit In den von Unsicherheit und Dynamik geprägten Marktbe- Data Driven Portfolio dingungen sind die vorgestellten Inhalte wichtiger denn je. Unternehmen, welche die enormen Potentiale neuer, digitaler Technologien mit einem ganzheitlichen Komplexitätsma- Quick Check nagement verbinden, sind hervorragend aufgestellt, um auch Potenziale im Produktportfolio schnell unter herausfordernden Rahmenbedingungen zu prosperieren. und zielgerichtet heben Quelle Jan-Hendrik Kraus / Jan Schneider 1 https://blog.wiwo.de/look-at-it/2015/04/22/big-data-25-trillionen-byte-daten-jeden- tag-wachst-vier-mal-schneller-als-weltwirtschaft/ Mit dem Slogan „Zarte Vielfalt“ wirbt Milka auf seiner Website und bietet, in unterschiedlichen Formaten, über 140 verschiedene Schokoladenvarianten an1. Zum Renovieren Ihres Hauses können Sie bei Würth aus einem Angebot von über 84.000 unterschiedlichen Verbindungselementen wählen 2 . Die Konfigurationsmöglichkeiten des neuen Audi Q7: Unzählbar. Ob Automobilindustrie, Maschinenbau oder Konsumgüter, allen Unternehmen ist gemein: Die ausufernde Produktportfoliokomplexität – sowie die Herausforderung, diese systematisch zu steuern. Ein unaufhaltsamer Trend zu steigender Ganzheitliche Perspektive auf das Produktportfolio fehlt Produktvielfalt? Ein übergreifender, ganzheitlicher Überblick über das beste- Angetrieben von innovativen Lösungen für differenzierte Kun- hende Produktportfolio fehlt jedoch in der Regel. Dabei ist es denanforderungen konnten viele Unternehmen über die letzten entscheidend zu wissen, wie sich die Stückzahlen, Umsätze Jahrzehnte ihren Umsatz kontinuierlich steigern. Doch der Erfolg und insbesondere auch die Profitabilität von Produktvarianten am Markt hat auch eine Kehrseite: Die sich aus einem breit gefä- entwickeln. Eine Transparenz hierüber innerhalb der Vielzahl cherten Produktportfolio ergebende interne Komplexität stellt an Segmenten und entlang des Produktlebenszyklus fehlt hohe Anforderungen an die gesamte Wertschöpfungskette und häufig. Zudem liegt die Schwierigkeit für Produktmanager schmälert in der Folge häufig die Gewinnmargen. Ein Dilemma, darin, dass die Informationsquellen vielfältig und unklar sind dessen einzige Auflösung in einem professionellen Komplexitäts- – verstecken sich doch die notwendigen Informationen in management und einer kontinuierlichen Optimierung des Konfiguratoren, ERP-, CRM- und weiteren Systemen sowie Produktportfolios liegt. wohlbehüteten, lokalen Excel-Tabellen. Aufgrund fehlender Transparenz werden Entscheidungen in der Praxis daher oft „aus dem Bauch heraus“ getroffen. Dies kann insbesondere in sehr komplexen Fragestellungen zu Fehlsteuerungen führen. Unser Ansatz: Data Driven Portfolio Quick Check „Durch den Druck, jedes Jahr Innovationen im dreistelligen Bereich Um dem entgegenzuwirken, setzen wir gemeinsam mit unseren Kunden erfolgreich unseren datenbasierten Portfolio Quick Check auf den einschlägigen Messen ein, um innerhalb kürzester Zeit eine ganzheitliche Transparenz präsentieren zu müssen, haben wir in über das gesamte Produktportfolio herzustellen und Optimie- Kontakt rungspotenziale offenzulegen. Dies geschieht in drei Phasen: den vergangenen Jahren eine enorme Dr. Stephan Krumm Jan-Hendrik Kraus interne Komplexität aufgebaut, die uns 1. Festlegung der relevanten Fragestellungen Geschäftsführender Partner Manager und Ableitung geeigneter Kennzahlen, in der täglichen Arbeit behindert.“ Schuh & Co. GmbH Schuh & Co. GmbH 2. Aufbau eines vernetzten Datenmodells und Analyse Telefon: +49 241 51031 0 Telefon: +49 241 51031 0 Leiter Produktmanagement, Maschinenbau der Datenqualität, internen und externen Vielfalt, stephan krumm@schuh-group.com jan-hendrik.kraus@schuh-group.com Profitabilität und Optimum der Vielfalt sowie 3. Potenzialbestimmung und Ableitung von Handlungsempfehlungen. 8 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 9
Nur wer das Ziel kennt, findet den richtigen Weg • An welcher Stelle im Produktlebenszyklus befinden sich die Produkte? Zu Beginn des Quick Checks werden die wesentlichen Frage- stellungen definiert und strukturiert. Dieser Schritt ist es- • Werden die Produktvarianten aufwandsgerecht bepreist? senziell, um im Anschluss aus einer typischerweise riesigen Menge an zur Verfügung stehenden Daten die relevanten • Wo liegt das analytische Optimum der Produktvielfalt auszuwählen und entsprechend aufzubereiten. Zudem werden unter Berücksichtigung der internen Vielfalt? in einem zweiten Schritt Kennzahlen wie z. B. der Portfolio- Fitness-Index, der Sales-N-Index oder der Product-Sales-Ba- • … lance-Index für die anschließende Analyse festgelegt. Typische Fragestellungen, die im Rahmen des Quick Checks beantwortet Bewertung der Portfoliorentabilität Clustering von Produktmerkmalen werden, sind zum Beispiel: Das vernetzte Datenmodell • Wie viele Produktvarianten werden am Markt angeboten? Zur Beantwortung der Fragen aggregieren wir relevante Sys- Welche Varianten zahlen sich am Markt aus? temdaten aus unterschiedlichen Systemen (z. B. ERP, PDM/ PLM, CRM, etc.) in einem konsistenten Datenmodell. Als Input • Welche Potenziale ergeben sich durch die zielgerichtete dienen verschiedene Datenquellen, wie Stücklisten, Typenlisten Portfoliooptimierung und Eliminierung nicht profitabler und Absatzzahlen. Diese werden anschließend in ein zentrales und marktseitig unwirksamer Varianten? Datenmodell überführt, welches die unterschiedlichen Quellen intelligent miteinander verbindet. • Welche Kundengruppen ähneln sich in ihrem Kaufverhalten? In der Analysephase werden zunächst die Varianten hinsichtlich ihres Erfolgs am Markt bewertet. Hierzu werden die Verkaufs- • Welche Produkteigenschaften wünschen sich daten herangezogen. Durch die Einbeziehung der Verkaufs- die Kunden wirklich? zeitpunkte lässt sich die Entwicklung des Produktportfolios Ähnlichkeitsanalyse von Kundengruppen Visualisierung der Portfoliostruktur Abb. 2: Komplexitätsmanagement trifft auf Data Science: Beispielhafte Analysen und Visualisierungen im Rahmen des Data Driven Portfolio Quick Checks dynamisch visualisieren. Die Analyse der Verkaufsdaten wird den niedrigen Stückzahlen und den hohen indirekten Auf- um die Kundeninformationen ergänzt, um beispielsweise zu wänden gerecht. Insbesondere bei einer großen Produktviel- erfahren, inwieweit ähnliche Kundenanforderungen regional falt ist an dieser Stelle der Einsatz intelligenter, datenbasier- 1. Fokusfragen und 3. Potenzial und 2. Vernetztes Datenmodell und Analyse mit unterschiedlicher Hardware gelöst werden. Dieser Bewer- ter Methoden unabdingbar. Portfolio-Kennzahlen Handlungsempfehlung tung schließt eine Analyse der Verkaufs- und Verbauraten („Take / Build Rates“) von Produktkonfigurationen und Pro- • Definition des Bewertung der Analyse und Preis- und Definition des • Potenzialbestimmung duktkomponenten an. Insbesondere um die Abgrenzbarkeit Potenziale quantifizieren, Handlungsempfehlungen Betrachtungsumfangs Datenverfügbarkeit Bewertung der Rentabilitäts- analytischen der Produktvarianten aus externer und interner Perspektive ableiten und Datenqualität externen Vielfalt analyse Optimums der • Ableitung von • Festlegung Variantenvielfalt Handlungs- zu beleuchten, werden Ähnlichkeiten analysiert. Die Ähn- der relevanten empfehlungen lichkeitsanalyse wird hierbei durch leistungsstarke Cluster- Im abschließenden Schritt werden, basierend auf dem zuvor Fragestellungen Analyse und • Definition nächster Algorithmen unterstützt. generierten, vernetzten Datenmodell, die identifizierten Poten- • Ableitung und Auswahl Bewertung der Schritte ziale quantifiziert und mögliche Stellhebel zu deren Erreichung geeigneter Kennzahlen internen Vielfalt Ein weiterer Teil des Quick Checks betrachtet die Profitabilität aufgezeigt. Als Maßstab dienen hierbei die zu Beginn abgelei- der Produkte: Welche Produkte sind profitabel und wird die teten Kennzahlen. In einem gemeinsamen Workshop mit Produktkomplexität innerhalb des Pricings ausreichend be- Mitarbeitern und Managern des Unternehmens werden die rücksichtigt? Die Erfahrung zeigt: Kosten für Exoten werden Handlungsempfehlungen im Anschluss diskutiert. Dabei Abb. 1: Inhalte des Data Driven Portfolio Quick Checks in der Mehrheit der Fälle zu niedrig kalkuliert. Zwar ist oftmals kann durch modernste Visualisierungsformen auf eine bisher ein Trend des Preisanstiegs hin zu Low-Runner-Varianten unerreichte Transparenz zurückgegriffen und faktenbasierte erkennbar, dieser Preisanstieg wird allerdings nicht hinreichend Entscheidungen getroffen werden. 10 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 11
In nur wenigen Wochen zum Ergebnis Anspruchsvolle Kunden und kompetitive Wettbewerbsarenen führen zu einem unaufhaltsamen Trend der steigenden Pro- duktvielfalt. Bei der Optimierung des Produktportfolios stoßen Unternehmen immer wieder auf die gleichen Probleme. Zum einen hindert der Fokus auf Produktbereiche den ganzheitlichen Blick auf das Portfolio, zum anderen mangelt es an Transparenz sowie schnellen und faktenbasierten Analysen zur Entschei- dungsfindung. Mit dem Data Driven Portfolio Quick Check kombinieren wir unseren ganzheitlichen Ansatz des Manage- ments von komplexen Produktportfolios mit modernsten Methoden des Data Science. Dadurch können bereits nach wenigen Wochen tiefgehende Analysen des bestehenden Produktportfolios erstellt und Optimierungspotenziale identifiziert werden. Mit unseren Tools Plexity und Complexity Manager schaffen wir die „Mit unseren Tools Plexity und Transparenz, die es in der heutigen Zeit braucht, um Produkt- portfolios zielgerichtet zu gestalten. Complexity Manager schaffen Quellen wir die Transparenz, die es in https://www.milka.de/alle-produkte/tafel-schokolade der heutigen Zeit braucht, um 1 2 https://eshop.wuerth.de/Produktkategorien/Verbindungselemente/140135.cyid/ 1401.cgid/de/DE/EUR/ Markt-, Produkt-, Produktions- und Organisationskomplexität zielgerichtet zu managen.“ Kontakt Jan-Hendrik Kraus Jan Schneider Manager Senior Consultant Schuh & Co. GmbH Schuh & Co. GmbH Telefon: +49 241 51031 0 Telefon: +49 241 51031 0 jan-hendrik.kraus@schuh-group.com jan.schneider@schuh-group.com www.schuh-group.com www.schuh-group.com 12 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 13
Alexander Menges promoviert zum Thema Data Mining bei Prof. Günter Schuh am WZL der RWTH Aachen. Im Rahmen unterschiedlicher Projekte mit produzieren- den Unternehmen stellte er fest, dass sich intelligente Algorithmen für die Analyse und Pflege von Stammdaten hervorragend eignen und hier eine Reduktion des manuellen Aufwands ermöglichen können. Mit einem Team entwickelt er ein Tool, das Verfahren der Künstlichen Intelligenz zum Stamm- datenmanagement nutzt. 2 4 Künstliche Intelligenz gilt als wesentlicher Befähiger Inkonsistente oder veraltete Stammdaten haben der digitalen Transformation. Was genau verbirgt erheblichen Einfluss auf unternehmerische Ent- sich hinter dem Begriff? scheidungen. Welche Potenziale bietet die Stamm- 6 Fragen an ... Der Begriff umspannt ein extrem breites Anwendungs- feld, das schwierig in einem Satz zusammenzufassen datenpflege mit KI heute schon? In ersten Kooperationen mit Unternehmen haben ist. Wir verstehen darunter u. a. die Möglichkeit, bisher wir Datensätze mit im Schnitt 500.000 Komponenten Inkonsistent, unvollständig oder veraltet: Trotz hoher Investitionen in die Bereinigung und Aktualisierung von Stammdaten nicht analysierbare Daten analysierbar und maschinell bzw. deren Stammdaten analysiert. Die Unterneh- ist deren Qualität in vielen Unternehmen nicht ausreichend. Der maßgebliche Grund hierfür ist der hohe manuelle Aufwand, verarbeitbar zu machen, sodass auch große Datenmen- men hatten je nach Umsetzungsgrad des Stammda- der für ein erfolgreiches und kontinuierliches Stammdatenmanagement betrieben werden muss. gen zugänglich und darin enthaltene Zusammenhänge tenmanagements unterschiedliche Zielsetzungen. transparent und verständlich gemacht werden können. Die Ergebnisse haben wir im engen Austausch mit Um die Effizienz des Stammdatenmanagements zu steigern, bieten sich neuartige Verfahren der Datenanalyse an. Ein viel- Dies geschieht beispielsweise durch das Erkennen und den Unternehmen analysiert. Ohne Selbstlob zu üben versprechender Ansatz ist der Einsatz intelligenter Datenanalyseverfahren, auch bekannt unter dem Schlagwort Künstliche die automatische Verarbeitung von Mustern in Daten. haben wir hier ausschließlich positive Rückmeldun- Intelligenz (KI). Diese ermöglichen nicht nur die Analyse großer Datenmengen, sondern auch deren Interpretation. Mit Künstliche Intelligenz umfasst noch weit mehr, aber gen bekommen, was uns in der weiteren Erarbeitung Alexander Menges, Gruppenleiter in der Abteilung Innovationsmanagement am Werkzeugmaschinenlabor WZL der das ist der Kern der für uns wichtig ist. des Themas bestärkt und motiviert. Im Vergleich zu 3 RWTH Aachen, haben wir über die Potenziale, Voraussetzungen und zukünftigen Entwicklungen von KI im Bereich früheren Projekten sparen wir durch die Unterstüt- Stammdatenmanagement gesprochen. Und wie kann künstliche Intelligenz im Bereich des zung intelligenter Methoden viel Zeit und mühsamen Stammdatenmanagements eingesetzt werden? Aufwand. Im Schnitt kann man sagen, dass man den manuellen Aufwand um etwa 80 % reduzieren kann Wir differenzieren zwischen zwei Phasen: Die erste und ganz gezielt dort eingreift bzw. den Algorithmus 1 Alexander, qualitativ hochwertige Stammdaten schneller, ein Teil neu zu konstruieren, statt die richtige Phase dient der Transparenz in bestehenden Stamm- korrigiert, wo es erforderlich ist. werden für Unternehmen zunehmend wichtiger. Lösung zu suchen. Das Problem ist, dass mit jeder zu- daten, um hier Zusammenhänge zu identifizieren und 5 Was sind aus deiner Sicht die wesentlichen Her- sätzlichen Materialnummer einmalige und laufende eine Grundlage für die Analyse großer Datensätze zu Für viele Unternehmen ist dieser Ansatz neu. Mit ausforderungen bei der Analyse, Bereinigung und Kosten entstehen. Durch Stammdatenmanagement schaffen. Somit können beispielsweise relevante Klas- welchen Schritten sollten Unternehmen beginnen, Aktualisierung von Stammdaten? lassen sich die laufenden Kosten eliminieren und sen identifiziert werden. Die zweite Phase überführt um möglichst schnell sichtbare Erfolge zu erzielen? die Entstehung neuer Materialnummern verhindern, die Stammdaten in eine neue, einheitliche Struktur. In Gesprächen und Projekten mit produzierenden Un- da bestehende Lösungen schneller gefunden werden Dies kann z. B. eine neue Benennungslogik nach der Der erste Schritt ist auf jeden Fall die Definition der ternehmen stellen wir immer wieder fest, dass eine der können. Heute besteht ein Großteil der Aufwände im Sachmerkmalleisten-Logik sein. Hierdurch sollen zwei Zielsetzung. Erfolg wird häufig unterschiedlich inter- größten Herausforderung in der Produktentwicklung Stammdatenmanagement aus manuellen, meist we- Ziele verfolgt werden: Komplexität zu reduzieren und pretiert. Unser Ziel ist es, Unternehmen die Einsparung das Finden bestehender Lösungen, beispielsweise von nig kreativen und repetitiven Tätigkeiten – die macht insbesondere Komplexität zu vermeiden. Das ist die unnötiger Kosten zu ermöglichen, indem wir gleiche Bauteilen, Baugruppen oder Modulen, ist. Häufig ist es eigentlich keiner gerne. beste Möglichkeit, die Kosten der Variantenvielfalt und ähnliche Produktbestandteile zusammenfassen. In gering zu halten. einem Projekt mit zunächst 10 produzierenden Unter- 14 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 15
nehmen ermitteln wir die verschiedenen Zielstellungen in Bezug auf das Stammdatenmanagement, erarbeiten ein generisches Vorgehen und implementieren ein Tool, Produktkomplexität das dieses Vorgehen anhand von Verfahren der Künstli- chen Intelligenz unterstützt. Dieses Vorgehen werden wir kontinuierlich erweitern und um spezifische Use- datenbasiert managen Cases erweitern, um ein generisches Set an Methoden zum Stammdatenmanagement zur Verfügung zu stel- Ursache und Wirkung der Produktkomplexität len und für verschiedene Anforderungen und Ziele die richtige Lösung zu haben. digital analysieren Dr. Markus Stoffel / Jan Schneider 6 Abschließend: Wird in Zukunft die Stammdaten- pflege vollkommen automatisch ablaufen? Ganzheitliches Management der Produktkomplexität ist notwendiger denn je. Datenbasiertes Komplexitätsmanagement Vollkommen nicht. Es wird immer Abkürzungen, unter- ermöglicht es, die Auswirkungen der Produktkomplexität entlang der Perspektiven Markt, Produkt und Produktion sichtbar nehmensspezifisch geprägte Begrifflichkeiten etc. geben, zu machen und zu managen. die auch ein noch so intelligenter Algorithmus nicht kennt. Man kann sich das so vorstellen, als würde man einen unbekannten Begriff in eine Online-Suchma- Produktkomplexität als Schlüsselfaktor der Lage sind, die genannten Perspektiven zusammenzuführen, schine eingeben. Die haben schon viel gesehen – aber für Rentabilitätssteigerung Ursache- und Wirkzusammenhänge zu verStehen und schluss- sicher noch nicht alles. Wir hoffen, die Verfahren über endlich zu managen. Doch wie lassen sich die Perspektiven die Zeit so zu verbessern, dass wir eine Vielzahl unter- In mehr als 30 Jahren Branchenführerschaft im Bereich Kom- auf ein ganzheitliches Management von Produktkomplexität schiedlicher Daten verarbeiten können. Ein bisschen plexitätsmanagement beobachten wir weiter stetigen Anstieg vereinen? Ein Schlüssel hierzu ist, heute mehr denn je, daten- menschliche Intelligenz wird es aber immer brauchen. der Produktkomplexität. Motiviert, den marktseitig wachsenden basiertes Komplexitätsmanagement. Bedürfnissen gerecht zu werden, und fokussiert auf Innovation und Differenzierung, begeben sich produzierende Unternehmen auf einen Pfad steigender Produktkomplexität. Der Zuwachs Data Analytics und systemübergreifende Vernetzung an Komplexität bedeutet an vielen Stellen im Unternehmen von Daten zur Entscheidungsunterstützung erhebliche Mehraufwände und somit Rentabilitätsverluste. Potenziale sind häufig nicht offensichtlich. Im Zuge der fortschreitenden Digitalisierung, liegen den Unter- nehmen heute eine Vielzahl von Daten vor. Vielfach bleiben Für deren Aufdeckung und Freisetzung bedarf es einer ganz- diese bislang ungenutzt. Diese Daten zu nutzen, um damit heitlichen Perspektive: vom Markt, über Produkt, bis hin zu nicht nur schneller, sondern auch präziser unternehmerische Produktion. Es zeigt sich, dass erfolgreiche Unternehmen in Entscheidungen zu finden, wird zunehmend zum Wettbewerbs- Kontakt Lena Kriesel Alexander Menges Senior Consultant Research Assistant Schuh & Co. GmbH Complexity Management Academy Telefon: +49 241 51031 0 Mobil: +49 151 43159457 lena.kriesel@schuh-group.com alexander.menges@complexity-academy.com www.schuh-group.com www.complexity-academy.com 16 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 17
vorteil. Vielversprechende Methoden der Data Science werden Plattform zum digitalen Komplexitätsmanagement – Perspektive Perspektive Perspektive zugleich zugänglicher. Der Einsatz von lernenden Algorithmen Plexity Produktion / Operations Produkt Markt / Vertrieb ist längst nicht mehr nur Forschungseinrichtungen und High- Tech-Unternehmen vorbehalten. Mit unserer digitalen Plattform Plexity haben wir eine leis- tungsstarke Basis geschaffen, um diese schnelle und flexible Doch die Nutzbarkeit der vorhandenen Daten ist nicht selten Verknüpfung verschiedener Datenquellen, wie in Abbildung 2 mit Hindernissen verbunden. Grund dafür ist, dass die Daten dargestellt, zu realisieren. Vielfältige Fragestellungen lassen in verschiedenen dezentralen, bereichsspezifischen IT-Lösun- sich hiermit einfach modellieren und reproduzierbar beantwor- Bestellungen gen und Systemen verborgen liegen. Die Herausforderung ten. Beispiele für solche nun beantwortbaren Fragestellungen durch Systembrüche wird im Tagesgeschäft, bei sporadischen können sein: Welche kundenrelevanten Produktmerkmale Stücklisten Kundendaten Analysen, in den seltensten Fällen gemeistert. Um auf Grund- haben Auswirkungen auf welche Produktionsprozesse? Wo Auftrags- lage diverser Systemdaten, wie ERP & Co., fundierte Analysen liegen die größten Kostenpotenziale der Standardisierung von daten durchzuführen und Informationen bereitzustellen, ist eine Komponenten und Baugruppen? Bei welchen Lieferanten Arbeitspläne Verknüpfung der Daten und Systeme notwendig. In unserem können Mengeneffekte einzelner Materialien zusätzliche ganzheitlichen Ansatz werden hierbei Systemdaten aus allen Kostenpotenziale realisierbar machen? Schauen wir uns einen Fertigungs- Produkt- Perspektiven (Markt, Produkt, Produktion) in einem zentralen konkreten Anwendungsfall an. aufträge merkmale Datenmodell verknüpft, die Wirkzusammenhänge analysiert, und das Ergebnis zur Entscheidungsfindung bereitgestellt (Abb. 1). Praxisbeispiel: Identifikation von Bauteilen mit Standardisierungspotenzial bei einem Hersteller Das zentrale Datenmodell ermöglicht dann die Formulierung für Industriegüter spezifischer Fragestellungen, die bis dahin nur unter großem Aufwand und fehlender Reproduzier- und Aktualisierbarkeit Welche Bauteile weisen hohe konstruktive Ähnlichkeit auf und Abb. 2: Von Daten zu Informationen – Verschiedene produktrelevante Datenquellen werden zu einem komplexen realisierbar waren. Wirkzusammenhänge werden durch das an welchen Stellen ließe sich der größte Kosteneinsparungs- Netzwerkmodell verknüpft Strukturieren und Verknüpfen der Informationen ungeahnt effekt, bei geringfügigster Auswirkung auf das Portfolio, durch transparent. die Reduzierung der Bauteilvielfalt, erzielen? Zur Beantwortung dieser Frage haben wir, zusammen mit einem Hersteller für Skaleneffekten und Aufbau eines Baukastens. Auf dieser Basis Industriegüter, Methoden des digitalen Komplexitätsmanage- konnten verschiedene Bauteile für eine Standardisierung ments angewandt. Mithilfe von Systemdaten (ERP, CRM und identifiziert werden. PPS) konnten mehr als 1 Millionen Datenpunkte entlang der Wertkette einfach aus den Systemen ausgelesen und miteinan- der verknüpft werden. Dazu wurden Verkaufsdaten, wie Auf- Erfolgsfaktoren des Datenmanagements tragsdaten und Kundendaten, mit den jeweiligen Informationen Produkt Produktion Markt zu Produktkonfiguration, den Stücklisten und schlussendlich Die Korrektheit der Daten ist bei der Analyse von enormer Arbeitsplänen in Plexity in einem Analysemodell zusammen- Relevanz. Bei dem Auslesen von Bauteil-Sachmerkmalen und Informations- geführt. -Ausprägungen aus den Systemen haben wir, im beschriebe- Bereitstellung nen Projekt, unterstützende Algorithmen, sogenanntes Text Im Projekt haben Szenarioanalysen gezeigt, dass gewisse Bau- Mining, angewandt, um Informationen aus unstrukturierten Korrelations- Cluster- Lernende Ähnlichkeits Analytik analysen teilkategorien, in diesem Fall Gewindestücke, besonders hohes Textfeldern nutzbar zu machen. Eine schlechte Datenqualität algorithmen Algorithmen -analysen Standardisierungspotenzial aufwiesen. Durch spezifische Fall- muss somit nicht immer das „Aus“ bedeuten. Eine gute Daten- betrachtungen konnten solche Bauteile identifiziert werden, qualität erleichtert allerdings das Analyseergebnis und Perfor- Datenmodell Verknüpftes Datenmodell die besondere Kapazitäten in der Fertigung beanspruchten, manz. Aus unseren Projekterfahrungen haben sich dabei die jedoch marktseitig nur einen geringfügigen Absatzbeitrag leis- folgenden Erfolgsfaktoren herauskristallisiert, die die Modellie- teten. Es zeigte sich beispielsweise, dass durch Standardisierung rung signifikant erleichtern und Analyseprojekte beschleunigen: PLM CAD FEM ERP / SCM MES CRM eine Reduktion von 30 % der aktuell geführten Gewindestücke Systeme Produkt- CAD- Simulations- Geschäfts- Maschinen- Kunden- möglich ist, ohne dass marktrelevante Produktvarianten davon • Konsistenz: widerspruchsfreie Verwendung von (stamm)- daten daten daten prozessdaten daten daten beeinflusst wären. Die kommerziellen Effekte konnten anhand Schlüsseln zur Datenverwaltung erleichtert die der Verknüpfung der Produktionsressourcen über Arbeitspläne, Verknüpfung der einzelnen Datenbanken in Kürze abgeschätzt werden. Aufbauend auf dieser Analyse, wurden Fokusbauteile anhand der Daten, auf ihrer Ähnlichkeit • Vollständigkeit: Datensätze, die alle notwendigen Abb. 1: Systemdaten nutzen, um entlang des gesamten Produktlebenszyklus Empfehlungen abzuleiten bewertet – der erste wichtige Schritt zur Generierung von Attribute enthalten, gewährleisten den maximalen Analyseoutput 18 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 19
• Einheitlichkeit: Eine Einheitliche Strukturierung der Datensätze erlaubt es, reproduzierbare Analyseergebnisse zu generieren Mit Data Analytics versteckte • Korrektheit: Fehler in den Daten, beispielsweise aufgrund von manuellen Eingaben, sollten vorab bereinigt werden Potenziale aufdecken (z. B. mittels Text Mining) Dr. Markus Stoffel / Dr. Thomas Busam Nicht selten geben Analyseprojekte den Impuls zu einer Ver- Sie haben eine automatisierte Produktionslinie, die laufend Daten generiert? Ihre Prozess-Experten haben gefühlt bereits besserung und nachhaltigen Verankerung des Datenmanage- das letzte Pulver zur Verbesserung an der Linie verschossen, die Qualitäts- und Kostenziele sind jedoch noch immer nicht ments. Im Projekt wurden im Anschluss systemseitig Lösungen erreicht? In Ihrer Produktion stecken noch weitere Potenziale – versteckt in der Flut an generierten Prozessdaten! implementiert, um unstrukturierte Bauteilsachmerkmale aus Freitexten, zukünftig strukturiert zu erfassen. Herausforderungen in komplexen Verfügung gestellt werden und somit die Umsetzungskraft Produktionsumgebungen und wertvolles Expertenwissen fehlt. Wie also, können unter Komplexität datenbasiert managen durch ganzheitliches, diesen sich verstärkenden Herausforderungen die Qualitäts- digitales Komplexitätsmanagement Vielfalt, Dynamik und Unsicherheit. Diese drei Dimensionen und Kostenziele weiterhin erreicht werden? der Komplexität zeigen sich in produzierenden Unternehmen Produktkomplexität ist eine der Hauptursachen für geringere nicht nur in Form von Auftragsschwankungen. Kürzere Pro- Rentabilität in Unternehmen. Die negativen Auswirkungen zu duktlebenszyklen, die sich in immer häufigeren Produktions- Potenziale der Datenflut hoher Produktkomplexität bleiben oft verdeckt und wirken anläufen niederschlagen sowie zahlreiche und häufig bis in entlang aller Geschäftseinheiten und -prozesse. Eine Chance die Produktion reichende Änderungen führen zu häufig wech- Doch die Komplexität hat aus Sicht der Produktion auch etwas dieser Herausforderung zu begegnen, ist die Nutzung von Sys- selnden Anforderungen an die Produktionslinie. Gutes: Moderne, automatisierte Produktionslinien generieren temdaten und Data Analytics, um komplexe Strukturen zu eine Vielzahl an Daten. Mittels Data Analytics können aus verstehen und Handlungsoptionen abzuleiten. Hierbei liegt Vielfach steht man in der Produktion trotzdem vor der Her- diesen Daten neue Erkenntnisse gewonnen und zur Steigerung der Schlüssel zum Erfolg in der ganzheitlichen Vernetzung ausforderung, in immer kürzerer Zeit immer größere Kosten- der Produktivität und Qualität genutzt werden. aller vorhandenen, produktbezogenen Daten. Damit lassen einsparungen realisieren zu müssen. Jedoch lässt sich in der sich verschiedene Fragestellungen datenbasiert beantworten Industrie beobachten, dass vielfach nicht die für die Realisierung Dies ist jedoch nur möglich, wenn einige Anforderungen erfüllt und das Wechselspiel zwischen Portfolio, Produkt und Wert- der angestrebten Optimierung erforderlichen Ressourcen zur sind. Zum einen müssen die Daten strukturiert aufgebaut sein. schöpfung beherrschen. Mit Plexity haben wir ein leistungs- starkes Werkzeug zum datenbasierten Komplexitätsmanagement an der Hand. Knappere Ressourcen / Verkürztes stabiles Verfügbarkeit von Anforderungsprofil Experten Kontakt Dr. Markus Stoffel Jan Schneider Associate Partner Senior Consultant Reduzierung der Schuh & Co. GmbH Schuh & Co. GmbH Herstellkosten Telefon: +49 241 51031 0 Telefon: +49 241 51031 0 markus.stoffel@schuh-group.com jan.schneider@schuh-group.com www.schuh-group.com www.schuh-group.com Abb. 1: Sich aufschaukelnde Herausforderungen für automatisierte Produktionslinien 20 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 21
Smart Complexity IT-Komplexität neuro nale N etze Management Netzwerk-Komplexität Segment C Segment A Komponenten- Komplexität Markt-Komplexität Wertschöpfungs- Struktur- Komplexität Komplexität Segment B K-Means Produktportfolio- Komplexität Prozesskomplexität Korrelations- analyse Szenarioanalyse Process Mining Robotic-Process- Automation 22 Complexity © Schuh Group Management Journal 01/2021 Complexity Management Journal 01/2021 23
Anzahl aufbereitete Datensätze Anzahl Prozessschritte Anzahl Aufzeichnungspunkte im Prozess & Umgebung Abb. 2: Grundsätzliche Anforderungen an die Daten Abb. 3: Prinzipskizze der aufbereiteten Korrelationsmatrix zur Auswahl von Detailanalysen Es bedarf einer eindeutigen Bezeichnung, einer prozessüber- erforderliche Domänenwissen, um die richtigen Schlüsse aus Schließlich ermöglichen Scatterplots mit der Ergebnisverteilung greifenden Identifikationsnummer sowie damit verknüpfter den durchgeführten Analysen zu ziehen. Für die identifizier- der Qualitätsprüfung eine genauere Untersuchung der voraus- Zeitstempel. Zum anderen werden ausreichend Daten sowohl ten Korrelationen werden schließlich geeignete Scatterplots gewählten Attributspaarungen. Auf dieser Ebene konnte eine in der Tiefe, also die verschiedenen Aufzeichnungspunkte erstellt. An diesem Punkt sind ausreichend Informationen geringere Druckabfallrate bei einem Schweißprozess unter einem innerhalb eines Prozessschrittes und der Umgebung, als auch verfügbar, um diese gemeinsam mit Ihren Prozessexperten gewissen Verfahrweg erkannt werden. In Kombination mit dem in der Breite, sprich genügend aufeinanderfolgende Prozess- hinsichtlich einer kausalen Ursachen-Wirkbeziehung zu disku- Scatterplott des Wärmeeintrags beim Schweißprozess ließen schritte sowie ausreichend Datensätze von vollständig durch- tieren. Können diese Beziehungen durch das Erfahrungswissen sich somit Qualitätsmängel logisch erklären und gezielt durch laufenen Produktionszyklen vorhanden sein. oder durch nachträglich durchgeführte Versuche bestätigt Anpassung der Prozesseinstellungen gegensteuern. werden, kann das neue Wissen in konkrete Verbesserungsvor- schläge überführt werden. Unser Ansatz zur Prozessverbesserung mittels Fazit Data Analytics Anwendungsbeispiel eines Automobilzulieferers Auf dem Level der Korrelationsmatrix und der Scatterplotts Ziel ist es, in den Datensätzen bisher unbekannte Ursachen- können die Korrelationen ausreichend genau untersucht und Wirkbeziehungen zu erkennen. Entgegen dem Vorgehen in Die hochautomatisierte Produktionslinie arbeitet mit einer bzgl. einer möglichen kausalen Ursachen-Wirkbeziehung dis- klassischen Workshops zur Prozessverbesserung werden nicht Zykluszeit von acht Sekunden und nimmt in über 40 Teilpro- kutiert werden. Diese zielgenaue Diskussion mündet unter zuerst aufgestellte Hypothesen anhand von Feldversuchen zessen zusammen knapp 6000 Aufzeichnungspunkte in das geringem Aufwand der Experten in neue Erkenntnisse oder überprüft, sondern es wird andersherum vorgegangen. MES auf. Auch in wenigen Tagen stehen somit nach einer kann auch bisherige Bauchgefühle quantitativ bestätigen, um Anpassung der Linie ausreichend neue Daten zur Verfügung. Verbesserungen an der Linie zu ermöglichen. Unser Ansatz beinhaltet im Kern zunächst eine Korrelati- Der Datensatz von über zwei Monaten wurde in der Aufberei- onsanalyse, die auf die Gesamtheit der aufbereiteten Daten- tungsphase von über 650 Millionen Datenpunkten auf 70 Zusätzlich können die auf diese Weise aufgedeckten Ursache- sätze angewendet wird. Anschließend bereiten wir die durch Millionen beschränkt. Diese Größenordnung zeigt, warum die Wirkbeziehungen zur Prognose des Prozessverhaltens bei der Kontakt den Algorithmus erzeugten Ergebnisse in einer Heatmap Daten nur selten im Zusammenhang stehend zur Prozessver- Anpassung von Einstellwerten genutzt werden. Dadurch lassen grafisch auf, um erste interessante Korrelationen überprüfen besserung benutzt werden. Über einen Algorithmus werden sich Versuchszeiten deutlich reduzieren. Dr. Markus Stoffel zu können. Automatisierte Algorithmen führen bereits zu in einer Matrix der Korrelationsgrad zwischen jeweils zwei Associate Partner ersten Erkenntnissen, doch nur in Kombination mit dem not- Aufzeichnungspunkten erzeugt. Um den Fokus der Experten Schuh & Co. GmbH wendigen Expertenwissen werden Daten interpretierbar und auf die interessanten Stellen zu lenken, wurden im Folgeschritt Telefon: +49 241 51031 0 entfalten ihre volle Wirkung zur Erkenntnisgewinnung. Un- sieben Korrelationen in der aufbereiteten Korrelationsmatrix markus.stoffel@schuh-group.com sere Produktionsexperten verfügen daher über das zwingend identifiziert. www.schuh-group.com 24 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 25
“Data is the new oil.” „Wenn wir keine Wege finden, um uns in der rasch ansteigenden Clive Humby (britischer Mathematiker und Datenflut über Wasser zu halten, Unternehmer im Bereich Datenwissenschaft) werden wir schlussendlich in ihr ertrinken.“ Dr. David Lewis (britischer Neuropsychologe) “In God we trust; all others bring data.” “It is a capital mistake to W. Edwards Deming theorize before one has data.” Sherlock Holmes „Wahrscheinlich war der einzelne Mensch zu dem, der was wissen konnte, niemals “Every company has big unwissender als heute. In der informierten data in its future and every Gesellschaft werden paradoxerweise die Be- company will eventually be reiche, in denen man wirklich „durchblickt“ in the data business.” und aufgrund eigener Kenntnis urteilt, immer Thomas H. Davenport kleiner. Das gilt gerade für die relevanten Bereiche des politischen, technischen und ethischen Wissens.“ Roman Herzog (ehemaliger Bundespräsident der Bundesrepublik Deutschland) 26 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 27
Advanced Process Mining potenzialen darstellt. Einmal aufgebaut, kann das digital er- zeugte Prozessmodell jederzeit auf Knopfdruck dazu dienen, Neben den technischen Voraussetzungen ist ein systematisches Vorgehen entscheidend für den effektiven und effizienten Einsatz von APM. Basierend auf den Erfahrungen aus zahlreichen Pro- Digitale Analyse und Optimierung von ad hoc Analysen über die aktuelle Prozessperformance durch- zuführen und somit zu einer kontinuierlichen Prozessverbes- jekten haben wir ein 5-Phasen Modell entwickelt, welches als serung genutzt werden. methodische Grundlage dient. Im Folgenden stellen wir Ihnen Geschäftsprozessen dieses sowie ausgewählte Ergebnisse anhand eines Projekt- beispiels aus der Automobilindustrie vor. Jan-Hendrik Kraus / Lena Kriesel …zu Advanced Process Mining Unser Ansatz des Advanced Process Mining (APM) geht sogar APM-Projektbeispiel Schneller, objektiver, transparenter: Die digitale Analyse und Optimierung von Geschäftsprozessen verspricht immenses noch einen Schritt weiter. Über den Einsatz von Künstlicher Potenzial. Doch wie und wo sollte man anfangen? Welche Daten werden benötigt? Und welche Rolle kann Künstliche Intelligenz können, basierend auf den Erkenntnissen der Process Phase 1: Projektvorbereitung Intelligenz spielen? Mining Analyse, weiterführende, detaillierte Aussagen über die Prozesse und Organisationsstrukturen abgeleitet werden. Die Zunächst wurden die Ziele und der Betrachtungsumfang des Möglichkeiten in diesem Bereich sind mannigfaltig und reichen Verbesserungsprojekts definiert. Da in Abhängigkeit der je- Von manueller Prozessgestaltung … Einen ganzheitlichen (oder: End-to-End) Überblick, haben – von klassischen Data-Analytics-Methoden bis hin zu intelligen- weiligen Fragestellungen auch unterschiedliche Datenquellen wenn überhaupt – die Wenigsten. Eine steigende Varianz der ten Machine-Learning-Algorithmen, die automatisch nach in Betracht kommen, lohnt es sich, ein klares, gemeinsames Unklare Verantwortlichkeiten, intransparente Abläufe, häufige Prozesse aufgrund eines dynamischen Umfelds erschwert die Mustern oder Gesetzmäßigkeiten zur Identifikation von Opti- Zielbild über den Projektinhalt zu generieren. Im betrachteten Abstimmungen, überdimensionierte Gemeinkostenbereiche Schaffung von Transparenz über den Ist-Zustand zusätzlich. mierungspotenzialen suchen. So können beispielsweise durch Projektbeispiel sollte ein APM-Pilotprojekt durchgeführt wer- und aufgeblähte Prozessdokumentationen – die Ursachen or- Korrelationsanalysen die relevanten Einflussgrößen auf die den, um die spezifischen Potenziale der Technologie für den ganisatorischer Komplexität sind vielfältig. Nicht zuletzt deshalb Prozessperformance identifiziert, mittels Sensitivitätsanalysen Automobilhersteller zu bewerten. Als Referenzprozess wurde haben Unternehmen in der Vergangenheit gewaltige Aufwände … über Process Mining … mögliche Auswirkungen quantifiziert und durch Clusteranaly- das Änderungsmanagement innerhalb der F&E und Produk- zur Optimierung ihrer Geschäftsprozesse betrieben. Zur ziel- sen bisher unbekannte Strukturen in den Prozessen transparent tion gewählt, welches sich im konkreten Fall durch eine hohe gerichteten Verbesserung der ausgewählten Prozesse waren Um diesen Nachteilen zu begegnen, wurde bereits vor mehre- gemacht werden. Fragmentierung und komplexe Abwicklung kennzeichnete. eine zeitintensive Schaffung von Transparenz und eine detail- ren Jahren die Methode Process Mining entwickelt. Mit ihr ist lierte Analyse des Ist-Zustands notwendig. Die einzelnen Akti- es möglich, Prozesse erstmals so darzustellen, wie sie in der vitäten des Prozessablaufs wurden manuell, meist in mehreren Realität durch die Mitarbeiter auch tatsächlich durchgeführt Interviews und /oder Workshops erfasst und zu einem Pro- werden. Basierend auf digitalen Fußspuren, die Mitarbeiter bei zessmodell rekonstruiert. Das Ergebnis war genau das: Eine der systemgestützten Ausführung von Aktivitäten u. a. in modellhafte Abbildung des jeweiligen Prozesses, wie er von ERP-, PLM-, CRM- oder MES- Systemen hinterlassen, können den an der Modellierung beteiligten Personen wahrgenommen die jeweiligen Prozesse rekonstruiert und zu einem ganzheit- wurde. lichen Prozessmodell zusammengesetzt werden. Sämtliche Prozessvarianten sowie umfangreiche Performance-Parameter Die Nachteile eines solchen Vorgehens sind offensichtlich: An und Abweichungen vom Soll-Prozess werden ebenso erfasst, vorderster Stelle steht der hohe personelle und zeitliche Auf- wie die involvierten Rollen und Schnittstellen zwischen den wand. Insbesondere in komplexen Prozessen wie der Pro- Abteilungen. Auf diese Weise wird ein sogenannter Digitaler duktentwicklung oder der Auftragsabwicklung sind zahlreiche Zwilling – ein virtuelles Modell – der Organisation generiert, Abteilungen und Mitarbeiter involviert, welche jeweils nur einen welcher Ineffizienzen offenlegt und damit die Grundlage für Teilausschnitt des zu optimierenden Prozesses aktiv begleiten. die effektive und effiziente Realisierung von Verbesserungs- Abb. 1: Prozesstransparenz auf Knopfdruck 28 Complexity Management Journal 01/2021 Complexity Management Journal 01/2021 29
Sie können auch lesen