In der Produktionsbranche, insbesondere bei Automobilzulieferern und -herstellern, umfasst eine Standardstichprobe für Prozessfähigkeitsanalysen 30 Teile.
Wie bei allen statistischen Berechnungen ist der Stichprobenumfang umgekehrt proportional zum Fehler. Ein größerer Stichprobenumfang bedeutet einen kleineren Fehler. Wenn wir die Prozessfähigkeit bestimmen, soll der Fehler minimiert werden. Daher ist ein größerer Stichprobenumfang wohl günstiger.Warum werden Prozessfähigkeitsanalysen durchgeführt? Es gibt drei Gründe:
- Zum Bewerten des Prozessverhaltens – ist er stabil/prognostizierbar („beherrscht“) oder instabil/nicht prognostizierbar („nicht beherrscht“)?
- Zum Bewerten der tatsächlichen Leistung des Prozesses im Bezug auf die Spezifikationen sowie seines Potenzials, in Zukunft Teile zu produzieren, die den Spezifikationen entsprechen.
- Zum Bestimmen, zu wie vielen nicht den Spezifikationen entsprechenden Teilen der Prozess vermutlich führen wird.
Woher stammt die 30er-Regel?
30 Teile gelten häufig als Grenzwert, weil fälschlicherweise davon ausgegangen wird, dass 30 Stichproben benötigt werden, damit eine Analyse „statistisch signifikant“ ist. 30 ist auf diese Weise etwas willkürlich zu der Zahl geworden, bei der viele sich einig sind, dass dieser Wert groß genug ist. Es ist richtig, dass die Zahl 30 in der Statistik eine Rolle spielt, insbesondere bei der t-Verteilung. Doch es gibt keine Verbindung zwischen dieser Zahl und der Fähigkeit, das Verhalten eines Prozesses und seiner Eignung, Spezifikationen zu erfüllen, richtig zu bewerten. Leider ist in dieser Anwendung der Wert 30 nicht ausreichend, um den Prozess richtig abzubilden.
Hätten Sie‘s gewusst? In der Automobilindustrie gilt vielmehr die 100er-Regel!
So wird beispielsweise in den Handbüchern für die statistische Prozessregelung (SPC) und das Produktionsteil-Abnahmeverfahren (PPAP) der Automotive Industry Action Group (AIAG) definiert, dass 100 Teile ein geeigneter Stichprobenumfang für eine erste Prozessfähigkeitsanalyse sind (auf der Grundlage von 20 Teilgruppen mit 5 Teilen oder 25 Teilgruppen mit 4 Teilen). Allerdings ist jeder Prozess anders, daher ist die „richtige“ Zahl für Ihren Prozess immer abhängig von den Quellen der Streuung.
Laden Sie den kostenlosen Leitfaden herunter. Er gibt Ihnen einen Überblick darüber, wie bequem und präzise die Prognostizierbarkeit und Anpassung Ihres Prozesses zu beurteilen. Mit den folgenden vier Schritten kommen Sie schnell zum perfekten Capability Sixpack
Worum geht es also? 30 Teile? 100 Teile? Weniger oder mehr?
Im Gegensatz zur Versuchsplanung und zu Hypothesentests geht es bei Prozessfähigkeitsanalysen nicht um statistische Trennschärfe, sondern um Streuung. Habe ich alle (oder die wichtigsten) Quellen der Streuung in meinem Prozess bei der Untersuchung richtig erfasst? Unabhängig von der Anzahl der Stichproben erhalten Sie durch die Nutzung von Konfidenzintervallen in Ihrer Prozessfähigkeitsanalyse einen Bereich, in dem die Prozessfähigkeit tatsächlich liegen könnte. Ein zu großer Bereich kann ein Hinweis darauf sein, dass die Stichprobe einfach zu klein war
Beispiel:
Betrachten wir eine theoretische Grundgesamtheit (10.000) aus einer Normalverteilung, bei der der Mittelwert bei 30 mm und die Standardabweichung bei 1 mm liegt
Mit einer unteren Spezifikationsgrenze (USG) von 25 mm und einer oberen Spezifikationsgrenze (OSG) von 35 mm wissen wir, dass die „wirkliche“ Prozessfähigkeit (der Einfachheit halber „Pp“) 1,67 beträgt:
Wenn wir in Minitab die gesamte Grundgesamtheit betrachten, erhalten wir Pp = 1,67, was dem erwarteten Wert entspricht.
Betrachten wir Pp jetzt bei Stichproben aus dieser Grundgesamtheit:
Szenario 1: 100 Stichproben aus der Grundgesamtheit mit n=30
Das bedeutet, dass die Ergebnisse der Stichproben mit 30 Teilen eine hohe Streuung aufweisen, wobei die Pp-Werte vom tatsächlichen Pp-Wert der Grundgesamtheit signifikant nach oben und unten abweichen. Wenn nur dieser Stichprobenumfang verwendet wird, besteht das Risiko einer falschen Schlussfolgerung.
Wie können wir also sicherstellen, dass wir möglichst nah an den richtigen Pp-Wert herankommen?
Ein gutes Verfahren zum Bestimmen der Zuverlässigkeit des geschätzten Pp-Werts sind Konfidenzintervalle in Minitab (Statistik > Qualitätswerkzeuge > Prozessfähigkeitsanalyse > Optionen). Wenn wir einmal eine Stichprobe mit 30 Teilen aus dem Prozess ziehen und Konfidenzintervalle einsetzen, führt dies zu folgendem Ergebnis:
Sie sehen, dass mit einer einmaligen Stichprobe von 30 Teilen einer der niedrigen Pp-Werte bei 1,36 liegt – nicht sehr nah an der tatsächlichen Prozessfähigkeit der Grundgesamtheit und damit ein weiterer unzuverlässiger Schätzwert. Wenn wir nur diese Zahl betrachten, würden wir zu dem Schluss kommen, dass der Prozess keine Fähigkeit von 1,67 aufweist.
Verwenden wir jedoch ein Konfidenzintervall von 95 %, erkennen wir, wo die tatsächliche Prozessfähigkeit wahrscheinlich liegt. Und bei einem so großen Bereich wie hier, mit so niedrigen Werten wie 1,01 (im Allgemeinen keine gute Prozessfähigkeit) und Werten bis 1,71 (im Allgemeinen eine sehr gute Prozessfähigkeit), zeigt dies, dass wir die tatsächliche Prozessfähigkeit hier nicht sicher beurteilen können. Mit mehr Stichproben wird der Bereich eingeschränkt.
Schlussfolgerung
Ganz allgemein lässt sich anhand größerer Stichproben die tatsächliche Prozessfähigkeit besser abschätzen. Die AIAG-Handbücher zu SPC und PPAP empfehlen mindestens 100 Stichproben. In einigen Fällen kann das Erfassen von Stichproben schwierig oder teuer sein. In beiden Fällen erhalten Sie mit Konfidenzintervallen in Minitab einen besseren Überblick über die Streuung und vermeiden kostspielige Fehler, die durch einen zu kleinen Stichprobenumfang entstehen können.
Holen Sie sich Ihre kostenlose 30-Tage-Demoversion der Minitab Statistical Software. Herunterladen >