In den späten 2010er-Jahren arbeitete ich für einen der weltweit führenden Hersteller von Haushaltsgeräten als Six Sigma Master Black Belt und leitete dort Projekte zur Qualitätsverbesserung. Wir waren äußerst erfolgreich und erzielten Einsparungen von jährlich ca. 30 Millionen $, indem wir neue Six Sigma Black Belts in der Problemlösung schulten und betreuten. Ich erinnere mich, wie ich mich damals dagegen sträubte, Werkzeuge für die prädiktive Analyse einzubeziehen. Wir hatten keine Ahnung, was uns dadurch entging!
Damals wurde Black Belts beigebracht, sich Problemen über datengestützte, geplante Experimente zu nähern. Zum Beispiel: Als sich Servietickets für einen neuen Defekt in einer unserer Waschmaschinen häuften, verifizierten wir zunächst, dass wir das Problem präzise messen konnten und die Streuung in Bezug auf das Problem verstanden. Möglicherweise nutzten wir dann die Versuchsplanung (DOE), um die Ursachen und Auswirkungen unserer Theorien und voraussichtlichen Lösungen zu erfahren. Im neuen Zeitalter der Fertigung (das auch als Industrie 4.0 bezeichnet wird) sind immer mehr Daten verfügbar geworden, und die Führungskräfte erwarten, Antworten immer schneller zu bekommen.
Unsere Gemeinschaft der Problemlöser hatte eine etablierte Methode, um Probleme zu priorisieren. Wir warteten oft auf einen Bericht zur Servicevorfallrate (SIR), um zu bestimmen, welche Probleme am häufigsten auftreten. Leider war SIR eine verzögert gemeldete Kennzahl, oftmals 6 Monate nach den Zeitpunkten, zu denen die Probleme bei den Kunden daheim auftraten. Unser Dilemma war offensichtlich: Wir mussten diese Probleme schneller lösen.
Neben der Zeit, die es brauchte, bis Probleme an die Oberfläche kamen, hatten wir auch einige Schwierigkeiten damit, von Small Data zu Big Data überzugehen. Unsere Black Belts gingen so weit, große Datenmengen in einen faktoriellen Versuchsplan (DOE) einzukochen, weil die Dinge halt so gemacht wurden! Dies war schließlich die Methode, die ihnen von ihrem Master Black Belt beigebracht wurde.
Endlich übernahmen die technischen Verantwortlichen wie die leitenden Ingenieure, die Master Black Belts und andere in der Fertigungsbranche Werkzeuge für die Arbeit mit dem neuen Konzept von „Big Data“. Dabei bestand die Hoffnung, dass die Ausfälle im Einsatz mittels Big Data endlich mit den Werksdaten verknüpft werden konnten, um Aspekte wie Garantiekosten zu prognostizieren und zu reduzieren sowie die Qualität zu verbessern. Ich betone, dass dies ein neues Konzept für uns war, denn obwohl wir seit Jahren oder sogar Jahrzehnten über diese Daten verfügten, hatten wir sie bis dahin noch nie zusammengebracht.
Servicetechniker, die an Servicevorfällen arbeiteten, erfassten einige Testdaten und die Seriennummern von defekten Geräten bei den Kunden daheim. Doch weder die Entwicklungsdaten noch die Fertigungsdaten wurden jemals ausdrücklich mit den vor Ort erfassten Servicedaten verknüpft.
Teil des Problems waren die unterschiedlichen Datenspeicherungsmethoden. Die Leute wussten nicht, wie sie mit diesen massiven Datenquellen umgehen sollten, und es gab normalerweise kein Budget, damit sie lernen konnten, diese zusammenzuführen. Und selbst wenn wir sie hätten zusammenführen können, gab es keine gängige Methode, daraus Erkenntnisse zu gewinnen.
Schlussendlich investierten wir Millionen, damit uns Berater halfen, unsere massiven Datenquellen zusammenzubringen und für die Analyse vorzubereiten. Dieser Prozess – das „Ausheben des Data Lakes“ – ist keine einfache Aufgabe. „Data Lake“ ist ein Begriff aus der Welt von Big Data, den ich hier nur erwähne, um zu beschreiben, wie diese großen Datenquellen zusammengeführt wurden. Jetzt hatten wir eine große Datenmenge, mit der wir Ausfälle im Einsatz über die Seriennummer mit den Fertigungsdaten für dieselbe Seriennummer verknüpfen konnten. Nun konnten wir nach Erkenntnissen suchen, nach Gemeinsamkeiten zwischen den ausgefallenen Geräten.
Es ist schwieriger, Erkenntnisse zu gewinnen, als Sie anhand dieses Blogs vielleicht vermuten. In der Fertigung werden äußerst viele Testmetriken erfasst. Es gibt so wenig Streuung und so viel Multikollinearität zwischen all diesen Prädiktoren. Wenn Sie lediglich y=Ventilausfälle vs. 100erte von prädiktiven x anpassen, sind die Daten zu unstrukturiert, und mit der Regressionsanalyse wird nicht viel aufgedeckt. Das R² ist furchtbar niedrig. Wir hatten nicht mehr viel Vertrauen in diese älteren Modellierungsverfahren.
Schließlich schlugen unsere Berater vor, dass wir uns mit der prädiktiven Analyse beschäftigen sollten. Wir fanden heraus, dass dieser Ansatz viel besser mit unstrukturierten Daten umgehen konnte! Beim Ausprobieren dieser neuen Methoden in unserer Pilotanlage fanden wir einige Signale und nahmen einige Verbesserungen vor. Jetzt besaßen wir Methoden zum Aggregieren und Vorbereiten unserer Daten, damit wir nach Erkenntnissen dieser Art suchen konnten.
Unser Vizepräsident hatte sich jedoch verpflichtet, dass diese Investitionen für Data Warehouses und Berater eine große Rendite abwerfen sollten. Zu der Zeit hatten wir neue Berater, und sie halfen uns, viele Erkenntnisse zu gewinnen. Sie waren jedoch keine Ingenieure, und die Ergebnisse der prädiktiven Analysen ergaben für sie häufig nur wenig Sinn. Sie wussten einfach nicht, wie ein Haushaltsgerät funktioniert. Alles, was die Datenwissenschaftler wussten, war, dass die Metriken für verschiedene End-of-Line-Tests einen Ausfall prognostizierten.
Schließlich, nur zwei Jahre nach Beginn dieses kostenintensiven Prozesses, beschloss mein Unternehmen, dass es genug von den Beratern gelernt hatte, um die Analyse selbst durchzuführen. Insbesondere das „Skunk Works“-Team des Vizepräsidenten für Qualität, der leitende Master Black Belt und einige Ingenieure aus der Pilotanlage eigneten sich genug Wissen an, um die Ergebnisse der Berater nachvollziehen zu können.
Unser kleines Team hatte nun ausgezeichnete PA-Kenntnisse. Doch es war sehr schwierig, diese PA-Methodologie auf das gesamte Unternehmen zu skalieren. Die Nutzung der prädiktiven Analyse war so komplex, dass sich nur eine Handvoll Personen als ausreichend kompetent dafür hielten. Der Rest der Organisation wusste nicht einmal davon; wie sollten wir also beginnen, mehr Leute zu schulen? Es wurde entschieden, dass der leitende Master Black Belt die Erkenntnisse sammeln und einfach die Engineering-Teams betreuen würde, wenn diese zur Problemlösung eingeteilt wurden. Dies war nicht besonders effektiv. Zu der Zeit war es zu schwierig, die Expertise aufzubauen und intern mehr Experten für die PA zu schulen.
Schauen Sie sich die Optionen und die Ausgabe aus PA-Werkzeugen wie Klassifikations- und Regressionsbäumen, Random Forests, und TreeNet an. Man konnte nicht einfach einen großen Datensatz öffnen und auf „Analysieren“ klicken. Dafür wurden umfassende Kenntnisse benötigt. Deshalb gibt es so etwas wie die Datenwissenschaft!
Für einige Zeit in den späten 2010er- und den frühen 2020er-Jahren hatten wir eine Aufteilung. Für einige Produkte wurde die PA genutzt, für andere weiterhin die älteren Methoden. Die prädiktive Analytik ermöglichte die Garantieprognose, schnellere Qualitätsverbesserung und Vermeidung von Defekten. Die anderen Mitarbeiter, die noch die älteren Methoden nutzten, warteten immer noch sechs Monate auf den Bericht zur Servicevorfallrate und nutzten dann Six Sigma-Werkzeuge, um die häufigsten Probleme zu beheben.
Die moderne prädiktive Analytik hat sich seit der Zeit vor mehr als 10 Jahren, zu der ich sie zum ersten Mal genutzt habe, um Lichtjahre weiterentwickelt. Es muss nicht mehr die komplexe und spezialisierte Aufgabe von damals sein. Die prädiktive Analytik mit automatisiertem maschinellem Lernen (AutoML) in Minitab macht prädiktive Analysen für alle zugänglicher. Sie kann die besten Modelle auf der Grundlage Ihrer Daten vorschlagen und ermöglicht es Ihnen über die eingängige Benutzeroberfläche, Alternativmodelle anzufordern.
Ich lege Ihnen nahe, für sich selbst zu entdecken, wie die Kombination aus Minitab Connect zum Aggregieren und Vorbereiten der Daten und der prädiktiven Analytik mit AutoML in Minitab zum Gewinnen von Erkenntnissen Ihr Leben erleichtern kann und Ihnen schneller bessere Ergebnisse liefert. Der Einsatz der Minitab-Angebote auf diese Art in der Fertigung ermöglicht die Qualitätsverbesserung und die Garantieprognose nahezu in Echtzeit. Bevor es diese Werkzeuge gab, dauerte die Qualitätsverbesserung ein halbes Jahr oder länger, und die Garantieprognose basierte auf den Daten der vergangenen Jahre, nicht des laufenden Jahres. Und das ist unseren Kunden und Stakeholdern Millionen von Euros wert.