Effizienzsteigerung in der Produktion mit prädiktiven Verfahren

Die Produktion setzt seit Jahrzehnten zur Fertigungsoptimierung auf Six Sigma. Doch inzwischen lässt sich dieses auch durch modernere prädiktive Verfahren ergänzen. Lesen Sie hier, wie Sie die Effizienz der Produktion so in neue Höhen treiben können.

Effizienzsteigerung in der Produktion mit prädiktiven Verfahren

Laut statistischem Bundesamt arbeiten ca. 7,4 Millionen Beschäftige in Deutschland im produzierenden Gewerbe. Dieser Wirtschaftszweig erwirtschaftet ca. 2,2 Billionen Euro Gesamtumsatz, wobei die Personalkosten bei ca. 18,9% der Gesamtkosten liegen. Der Markt ist hart umkämpft und insbesondere Zulieferer der großen Konzerne arbeiten unter immensem Kostendruck. Aus diesem Grund sind die Optimierung von Fertigungsprozessen, die Sicherstellung der notwendigen Qualität der Produkte sowie die Vermeidung von Stillstandzeiten klassische zentrale Themen dieser Branche. Bevor die IT im entscheidenden Maße Einzug in Produktionsstätten erhielt, wurden Produktionsprozesse von mehr oder weniger erfahrenen Experten überwacht und gesteuert. Durch die immer stärker zunehmende Komplexität der Produktionsprozesse für immer komplexere Produkte mit einer immer geringeren Fehlertoleranz für das Endprodukt stiegen Ausfallzeiten, Produktionsausschuss und Stillstandzeiten im Laufe der Jahre an.

Parallel dazu entwickelte sich die moderne Datenverarbeitung und mit Hilfe der Daten aus der Produktion, die gemessen und gespeichert wurden, etablierten sich IT-gestützte Verfahren, um die Effizienz in der Fertigung zu erhöhen. Ein Meilenstein der Effizienzsteigerung wurde mit dem Six Sigma Verfahren erreicht. Die Firma Motorola entwickelte dieses Verfahren Ende der 1980er Jahre auf Grundlage von Ansätzen des Managements von Prozessen und Qualität, wie sie bereits in den 1970er Jahren zunächst in der japanischen Schiffs- und dann in der Elektronik- und Konsumgüterindustrie angewandt wurde.

Die prädiktiven Verfahren der Fertigungsoptimierung kann man als Weiterentwicklung des Six Sigma Prozesses verstehen, der daher einleitend beschrieben wird; auch weil er zentrale Grundlage für die prädiktiven Methoden liefert bzw. prädiktive Methoden Six Sigma entscheidend erweitern und verfeinern. Der Kernprozess von Six Sigma unterteilt sich in fünf Schritte (DMAIC).

  • Definition (D): Der gewünschte Zielzustand wird beschrieben (z.B. Verringerung der Ausschussquote in der Fertigung um 20%). Die mutmaßlichen Ursachen für die bisherig zu hohe Ausschussquote werden gesammelt.
  • Measure (M): Es wird (in diesem Beispiel) der Fertigungsprozess visualisiert und es werden Versuchsszenarien definiert und durchgeführt, wobei Daten zum Produktionsprozess erhoben werden (z.B. Temperaturen, Rüstzeiten, Werkzeugverschleiß etc.).
  • Analyze (A): In dieser Phase werden der visualisierte Prozess wie auch die erhobenen Daten untersucht, um Ursachen für die Abweichung zum erwünschten Zielzustand zu ermitteln. Hier beispielsweise könnte ein hoher Verschleiß eines bestimmten Werkzeuges ab einer bestimmten Taktung der Produktionsstraße mit den Messdaten der Produktion (etwa von Sensoren) mittels einer Korrelationsanalyse erkannt werden. Hierbei kommen u.a. auch (multivariate) statistische Verfahren zum Einsatz.
  • Improve (I) bzw. Engineer (E): Es wird ein verbesserter (improved) Prozess definiert, etabliert und getestet bzw. ein neuer Prozess (engineered) aufgebaut.
  • Control (C): Laufende (statistische) Kontrolle des neuen bzw. verbesserten Prozesses.

Im Kern geht es bei Six Sigma darum, die Abweichung von Messgrößen einzelner Prozessschritte innerhalb einer möglichst kleinen Streuung um den Erwartungs- oder Zielwert zu halten. Hierzu wird die Standardabweichung (standardisierte Streuung, formal dargestellt mit dem Buchstaben Sigma) im Vergleich zur Breite des Toleranzbereiches herangezogen. Ohne auf die genaue mathematische Definition einzugehen, lässt sich vereinfacht sagen, dass die Toleranzgrenzen für einen Prozessschritt so kalkuliert werden, dass die Fehlerwahrscheinlichkeit extrem gering ist. In der Industrie haben sich Toleranzgrenzen etabliert, die bei weit weniger als 0,5% Ausschuss liegen. In unserem Beispiel bedeutet das im Rückschluss, dass entweder das in der Analyse herausgefundene Werkzeug in kürzeren Intervallen ersetzt wird (was allerdings mit mehr Rüstzeiten einher geht) und/oder die Taktung der Fertigungsstraße gedrosselt wird (was den Output je Zeiteinheit verringert).

Six Sigma ist in der Fertigungsindustrie heute ein Quasi-Standard. Konsequent auf einem hohen Sigma Level (niedrige Fehlertoleranz) angewandt, geht es allerdings tendenziell mit einer verfahrensbedingten (weil extrem risiko-avers) reduzierten Produktionsmenge einher. Zudem steht und fällt das Verfahren mit dem Wissen und der Erfahrung der Experten, welche die Prozesse visualisieren, die Einflussgrößen festlegen und die Prozessverbesserung definieren. Werden bestimmte Abhängigkeiten nicht berücksichtigt, können die zur Prüfung des Prozesses herangezogenen Messgrößen überinterpretiert werden, weil sie unter Umständen selbst auch von nicht berücksichtigten Faktoren abhängen. So wird im Prozess unter Umständen nicht auf die Ursache eines Problems reagiert, sondern auf ein Symptom. In Kombination mit der Forderung einer sehr geringen Fehlerquote, führt dies zwangsläufig zu eher pessimistischen Prozess-Konfigurationen.

Moderne prädiktive Verfahren nutzen durchaus diverse Techniken, die auch zum Werkzeugkasten des Six Sigma gehören, wie etwa multivariate Verfahren um Korrelationen zu untersuchen oder auch Entscheidungsbäume. Es gibt aber mehrere entscheidende Unterschiede:

  • Es kommen neben statistischen Verfahren auch andere Verfahren der Mustererkennung (wie etwa neuronale Netze) zum Einsatz
  • Die Verfahren werden iterativ angewandt und verbessern sich idealerweise im Laufe der Iterationen durch:
    • Verfeinerung des Modells durch den Entwickler der implementierten Methode(n),
    • Reduzierung der falschen Entscheidungen dank einer immer größer werdenden Datenmenge (Reduzierung der statistischen Fehler als Komponente des Machine Learning),
    • Persistenz von Ursache-Wirkungs-Zusammenhängen, die sich das System „abspeichert“,  um die Wiederholung gleicher Fehler zu vermeiden (im Rahmen des Trainings neuronaler Netze und der iterativen Anpassung von Schwellenwerten auf Basis gelernter Erfahrung des Deep Learning oder auch durch Rückmeldeprozesse beim Machine Learning).
  • Im Gegensatz zum Six Sigma Prozess, werden nicht mutmaßliche Zusammenhänge innerhalb einer Prozesskette und der Messgrößen von Experten definiert, sondern es werden alle verfügbaren Daten mit Hilfe algorithmischer Verfahren oder Deep Learning Methoden auf Korrelationen und/oder Muster analysiert und erst im zweiten Schritt gemeinsam mit Experten für den jeweiligen Prozess weiter analysiert.

Die wesentlichen Vorteile liegen auf der Hand und wirken sehr stark auf die Verbesserung der Prozessschritte des zentralen DMAIC Prozesses im Six Sigma Management.

  • Es werden Einflussgrößen erkannt, die vorher verborgen blieben. Die Wahrscheinlichkeit steigt, dass auf eigentliche Ursachen von Problemen reagiert wird und nicht nur auf Symptome.
  • Die Toleranzbereiche sind dynamischer und weniger pessimistisch gesetzt.
  • Die Grenzen der Produktionsprozesse werden stärker ausgelotet und die Grenzproduktivität steigt.
  • Es wird stärker vorausschauend reagiert, da auch komplexe Zusammenhänge (die sich beispielsweise in Mustern von vielen Messwerten widerspiegeln) erkannt werden und Handlungen auf das Auftreten solcher Muster zeitgenauer abgeleitet und durchgeführt werden.
  • Das System ist selbstlernend (machine und deep learning).
  • Die Visualisierung der Daten und der Zusammenhänge lässt sich viel besser in moderne Auswertungssoftware, wie etwa Business Intelligence Systeme, einbinden.

Viele Unternehmen scheuen die Investition in prädiktive Verfahren zur Qualitätssteigerung und zur Optimierung von Wartungsprozessen (vorausschauende Wartung) mit dem Argument, dass sie bereits nach Six Sigma arbeiten und die Einführung von Six Sigma sehr kostenintensiv war. Die prädiktiven Verfahren sind jedoch eher eine sehr sinnvolle Ergänzung als ein Ersatz für das bereits implementierte Six Sigma und können die Effizienz der Fertigung noch zusätzlich steigern. Ein Proof of Concept (POC), ob die Prozesse und Daten das ausreichende Potential haben, ist vom Aufwand her überschaubar und typischerweise lassen sich aus diesem POC aussagekräftige Business Cases bzw. Investitionsrechnungen ableiten. Für Unternehmen, die noch nicht nach Six Sigma arbeiten, liefern die Methoden sehr gute Resultate, um ein gutes Fundament zu schaffen, auf dem aufbauend der gesamte Fertigungsprozess nach Six Sigma unter Nutzung der prädiktiven Methoden implementiert wird.


Autor: Jörg Kremer, Head of Consulting, mip GmbH

Jörg Kremer ist Head of Consulting bei der mip Information Management Informationspartner GmbH in München, die 1988 gegründet wurde. Sein Aufgabenumfeld in der mip umfasst die Team- und Projektsteuerung im Consulting Umfeld, sowie das disziplinarische Personalmanagement der Berater. Er kümmert sich um den Knowledge Aufbau und die Personalentwicklung seiner Mitarbeiter. Als IT Manager bzw. Projektmanager bringt er eine langjährige Erfahrung in Class A Projekten und der Leitung großer internationaler Teams mit. Er besitzt ein fundiertes architektonisches Know How im Bereich Data Warehouse und tiefgreifende betriebswirtschaftliche Kenntnisse insbesondere im Marketing und im Controlling. Speziell im Bereich der Db2 Datenbank, bei Schulungen von Kunden und Mitarbeitern sowie im Presales bringt er sein umfangreiches Wissen gerne selbst in die Projekte ein. Als ehemaliger Universitäts-Dozent betreut Jörg unsere Werksstudenten sowie wissenschaftliche Arbeiten und forscht gemeinsam mit Teilen seines Teams im Bereich der KI. Jörg Kremer hat einen Abschluss als Diplom-Kaufmann durch ein Studium an der Universität Trier, mit den Schwerpunkten Marketing, Wirtschaftsinformatik und Controlling. Er war mehrere Jahre als wissenschaftlicher Mitarbeiter und Honorardozent an der Hochschule tätig. Zahlreiche Publikationen zur EDV-gestützten Kostenrechnung, SAP R/3 in Forschung und Lehre, Controlling in der öffentlichen Verwaltung und Fachartikel wie beispielsweise „Künstliche Intelligenz – vom Aufblühen einer alten Disziplin“ 07/18, sind unter seinem Namen erschienen.

Über mip Management Informationspartner GmbH:

Die mip Management Informationspartner GmbH ist seit über 30 Jahren ein zuverlässiger Partner und Ideengeber für mittelständische sowie große Unternehmen, die ihre Unternehmensdaten intelligent verknüpfen und profitabel einsetzen wollen. Mit dem Hauptsitz in München und einer Niederlassung in Stuttgart agiert das Unternehmen vom Süden Deutschlands aus im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen seit der Firmengründung 1988 in den Bereichen Data Warehouse und Business Intelligence. Heute berät die mip GmbH mittelständische sowie große Unternehmen und entwickelt für diese nutzenorientierte Datenanalyse-Lösungen als Basis für die
digitale Transformation. Strategische Partnerschaften mit großen Herstellern und spezialisierten Häusern sorgen für den technologischen Unterbau.

Post Author: Redaktion des ROBINAUT