400
Swen Günther Design for Six Sigma

Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

  • Upload
    others

  • View
    12

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Swen Günther

Design for Six Sigma

Page 2: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

GABLER RESEARCH

Forum Marketing

Herausgegeben von

Professor Dr. Reinhard Hünerberg, Universität Kassel,

Professor Dr. Andreas Mann, Universität Kassel,

Professor Dr. Stefan Müller, Technische Universität Dresden und

Professor Dr. Armin Töpfer, Technische Universität Dresden

Die zunehmende Globalisierung führt zu einem verschärften Wettbewerb, vor allem

in den Bereichen Qualität, Zeit und Kosten. Vor diesem Hintergrund werden in der

Schriftenreihe aktuelle Forschungsergebnisse sowohl zu strategischen Fragen der

marktorientierten Unternehmensführung als auch zur operativen Unsetzung durch

konsequente Kundenorientierung präsentiert. Dazu werden innovative Konzeptionen

entwickelt, theoretische Ursache-Wirkungs-Beziehungen analysiert und pragmati-

sche Gestaltungsempfehlungen gegeben.

Page 3: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Swen Günther

Design for Six SigmaKonzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer Algorithmen

Mit einem Geleitwort von Prof. Dr. Armin Töpfer

RESEARCH

Page 4: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Bibliografi sche Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der

Deutschen Nationalbibliografi e; detaillierte bibliografi sche Daten sind im Internet über

<http://dnb.d-nb.de> abrufbar.

Dissertation Technische Universität Dresden, 2010

1. Aufl age 2010

Alle Rechte vorbehalten

© Gabler Verlag | Springer Fachmedien Wiesbaden GmbH 2010

Lektorat: Ute Wrasmann | Nicole Schweitzer

Gabler Verlag ist eine Marke von Springer Fachmedien.

Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media.

www.gabler.de

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede

Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist

ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere

für Vervielfältigungen, Übersetzungen, Mikroverfi lmungen und die Einspei-

cherung und Verarbeitung in elektronischen Systemen.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem

Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche

Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten

wären und daher von jedermann benutzt werden dürften.

Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg

Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier

Printed in Germany

ISBN 978-3-8349-2507-7

Page 5: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Geleitwort

Das Managementkonzept „Six Sigma“ hat in den vergangenen Jahren sowohl in der betriebswirtschaftlichen Praxis als auch in der wirtschaftswissenschaftlichen Forschung erheblich an Bedeutung gewonnen. Der aus der Statistik entlehnte Begriff 6σ steht für „praktikable Null-Fehler-Qualität“. Er tangiert heute alle Wertschöpfungsprozesse/ -bereiche des Unternehmens, also auch Forschung und Entwicklung. Hier liegt nach einschlägigen Erfahrungen der Six Sigma-Anwender der größte Hebel, um fehlerfreie Produkte/ Dienstleistungen zu erzeugen. Aus diesem Grund nimmt der Stellenwert von Design for Six Sigma (DFSS) als geziel-te Adaption des Six Sigma-Konzeptes für F&E immer mehr zu.

Die Erfolge, die mit der Anwendung von DFSS bis dato erzielt wurden, können bestenfalls als „durchwachsen“ bezeichnet werden. Als Schwachpunkt gelten u.a. die eingesetzten Vorgehensmodelle, anhand derer die Six Sigma-Pojekte durchge-führt werden. Sie zeichnen sich durch ein systematisch-analytisches Vorgehen aus, welches die Generierung von Innovationen häufig behindert. Aus diesem Grund haben sich in der Vergangenheit eine Reihe von praxisorientierten Publika-tionen diesem Thema gewidmet – ein wirklicher Durchbruch, der dem Konzept zu nachhaltiger Akzeptanz verholfen hätte, blieb jedoch aus.

Swen Günther hat in seiner Dissertation diesen Sachverhalt erstmals wissenschaft-lich analysiert. Dabei geht er insbesondere der Frage nach, wie aus theoriebasier-ter Sicht der DFSS-Problemlösungszyklus zu gestalten und/ oder zu verändern ist, um einer kundenorientierten Produktentwicklung gerecht zu werden. Ganz im Sinne der „Pragmatic Science“ verbindet er methodische Stringenz mit praktischer Relevanz. Dem vorliegenden Buch ist daher nicht nur eine gute Aufnahme in die Scientific Community, sondern auch in die Six Sigma Community zu wünschen.

Eine besondere Note erhält die Arbeit durch die Berücksichtigung von evolutionä-ren Algorithmen bei der Ableitung konkreter Gestaltungsempfehlungen. Sie sind das Ergebnis einer innovativen Theorieexploration, bei der im Analogieschluss-verfahren Erkenntnisse aus dem Bereich der mathematischen Optimierung auf den Design for Six Sigma-Zyklus übertragen werden. Swen Günther zeigt dabei neben den theoretischen Grundlagen auch die praxisbezogene Anwendung anhand von zwei Beispielen auf. Hier werden unmittelbar die Vorzüge eines an evolutionären Prinzipien ausgerichteten Produktentstehungsprozesses deutlich.

Die Ergebnisse dieses interdisziplinären Forschungsansatzes mögen durch die Aufnahme in unsere Schriftenreihe herausragender Forschungsarbeiten einer brei-teren Fachöffentlichkeit zugänglich werden und auch andere Forschungszweige im Bereich Marketing/ Unternehmensführung befruchten.

Prof. Dr. Armin Töpfer

Page 6: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Vorwort

Mit dem Six Sigma-Konzept bin ich erstmalig nach meinem Studium des Wirt-schaftsingenieurwesens in Berührung gekommen. Dabei näherte ich mich dem Thema nicht nur als angehender Wissenschaftler und Doktorand; in mehreren praxisbezogenen Weiterbildungsmaßnahmen habe ich den Grad des „Black Belts“ – einem unter Six Sigma-Anwendern anerkannten Qualifizierungsgrad – erreicht. Aufgrund der integrierten Projekttätigkeit(en) konnte ich die Stärken und Schwä-chen von Six Sigma respektive Design for Six Sigma (DFSS) unmittelbar „am eigenen Leib“ erfahren. Dies war eine wichtige Hilfestellung bei der Ausarbeitung des exploratorisch-instrumentellen Forschungsdesigns.

Der vorliegende Band wurde im Wintersemester 2007/ 08 als Dissertationsschrift an der Fakultät Wirtschaftswissenschaften der TU Dresden mit dem Titel „Kun-denorientierte Produktentwicklung mit evolutionären Algorithmen im Rahmen des Design for Six Sigma-Zyklus“ angenommen. Während der Bearbeitung des The-mas am Lehrstuhl für Marktorientierte Unternehmensführung habe ich von ver-schiedenen Personen vielfältige Unterstützung und wertvolle Hinweise erhalten. Bei allen möchte ich mich an dieser Stelle recht herzlich bedanken.

Zu besonderem Dank bin ich meinem Doktorvater, Prof. Dr. Armin Töpfer, der mir als Ideengeber und konstruktiver Diskussionspartner in allen Phasen meines Promotionsvorhabens zur Verfügung stand. Weiterhin möchte ich mich bei Prof. Dr. Bernhard Schipp und Prof. Dr. Reinhard Hünerberg für Ihr Interesse an der Arbeit und die Übernahme der beiden Gutachten bedanken.

Bei der Durchführung des empirischen Teils der Arbeit war ich teilweise auf die Mitwirkung von Studenten der Fakultät angewiesen. Ihnen allen sei ein herzlicher Dank gesagt. Zudem möchte ich mich beim Unternehmen Michael Jäckel Erzge-birgische Bürstenfabrik GmbH für die aktive Unterstützung bei der Umsetzung des Pilotprojektes bedanken. Insbesondere hat der zuständige Vertriebsleiter und langjährige Freund, Alexander Jäckel, die Konzeption und Erstellung der benötig-ten Prototypen nachhaltig vorangetrieben. Die Aussagekraft der Modelle sowie Validität der Forschungsergebnisse wurde hierdurch deutlich erhöht. Eine Viel-zahl von praxisbezogenen Anregungen konnte ich zudem im Rahmen meiner Black Belt-Tätigkeit bei der M+M Consulting GmbH, Kassel, sammeln.

Zu großem Dank bin ich auch meinen Kollegen am Lehrstuhl für Marktorientierte Unternehmensführung verpflichtet, allen voran Jörn Großekatthöfer für die vielen Gespräche und inhaltlichen Anregungen. Außerdem möchte ich mich an dieser Stelle ganz herzlich bei meinem Vater bedanken, der das gesamte Manuskript mit viel Ausdauer und Akribie gelesen und redigiert hat. Für verbliebene, nicht korri-gierte Fehler trage ich als Autor allein die Verantwortung.

Page 7: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

VIII Vorwort

Ein ausdrücklicher Dank geht auch an Aileen Pohl, die mich bei der Durchsicht und Optimierung des Quellenverzeichnisses tatkräftig unterstützt hat, sowie an Martina Voss, die mir als „gute Seele des Lehrstuhls“ stets bei der Klärung von organisatorischen Dingen und Fragen zur Seite stand.

Last but not least, möchte ich mich bei meinen Eltern bedanken, die mich in mei-ner wissenschaftlichen Laufbahn stets liebevoll unterstützt haben, sowie bei mei-ner Frau, Nadine-Madeleine, für die ich während der mehrjährigen Bearbeitungs-zeit des Öfteren nur sehr eingeschränkt zur Verfügung stand, vor allem wenn ich bei kniffligen Problemen stundenlang über meinem Laptop brütete. Ihr und mei-nem in dieser Zeit geborenen Sohn, Terence, sei dieses Buch gewidmet.

Swen Günther

Page 8: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Inhaltsverzeichnis

Geleitwort ............................................................................................................... V

Vorwort................................................................................................................ VII

Inhaltsverzeichnis ..................................................................................................IX

Abbildungsverzeichnis........................................................................................ XIII

Abkürzungsverzeichnis......................................................................................XVII

1 Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP) ......................................... 1

1.1 Problemstellung und Zielsetzung ........................................................... 1

1.1.1 Der wissenschaftliche Anspruch von Six Sigma und Design for Six Sigma...................................................................... 1

1.1.2 Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma................................................................................. 6

1.1.3 Theoriegeleitete Verbesserung des DFSS-Problemlösungs- zyklus als Ziel ............................................................................... 12

1.2 Untersuchungs- und Forschungsdesign ............................................... 17

1.2.1 Forschen im „mode 2“ – Verbindung von rigour und re- levance .......................................................................................... 17

1.2.2 Konzeptionelle Grundlagen und inhaltliche Vernetzung .............. 21

1.2.3 Aggregatbezogene Differenzierung auf vier Ebenen .................... 36

2 Six Sigma – Zeitgemäßes Managementkonzept zur Erzielung von Null-Fehler-Qualität im Wertschöpfungsprozess ...................................... 49

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Manage- mentkonzept ........................................................................................... 49

2.1.1 Theoretische Begriffsdeutung nach Wortstamm........................... 49

2.1.2 Praktische Differenzierung nach Strategiepotenzial ..................... 53

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität...................................................................................... 58

2.2.1 Kontinuierlicher Verbesserungsprozess (KVP) ............................ 58

2.2.2 Business Process Reengineering (BPR)........................................ 61

2.2.3 Six Sigma und Design for Six Sigma (DFSS) .............................. 64

Page 9: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

X Inhaltsverzeichnis

2.2.4 Kritische Bewertung der Konzepte auf der Basis eines multidimensionalen Vergleichs..................................................... 67

2.3 „Weiche Hülle“ und „Harter Kern“ von Management- konzepten am Beispiel von Six Sigma .................................................. 75

2.3.1 These: Six Sigma als Mode........................................................... 75

2.3.2 Antithese: Six Sigma als Technologie .......................................... 81

2.3.3 Synthese: Six Sigma als Mode & Technologie............................. 85

3 Praxis-Theorie-Transformation als induktive Vorgehensweise: Vom konkreten zum abstrakten Vorgehensmodell ................................... 92

3.1 Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen ............................................................................... 92

3.1.1 Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma...................................................................................... 92

3.1.2 Drei Dimensionen der Innovation als Anforderung an DFSS....... 97

3.2 Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität ................................................ 102

3.2.1 Vorgehensmodelle zur kreativen Problemlösung ....................... 102

3.2.2 Innovationsprozess als selbstregulierender Prozess.................... 108

3.2.3 Vorgehensmodelle zur kontinuierlichen Verbesserung .............. 113

3.2.4 Qualitätsmanagement als selbstregulierender Prozess................ 118

3.3 Konzeption und Inhalte der Six Sigma-Verbesserungszyklen......... 129

3.3.1 DMAIC-Zyklus zur Prozessoptimierung .................................... 129

3.3.2 DMADV-Zyklus zur Neuproduktentwicklung ........................... 137

3.4 Formal-analytische Beschreibung und Analyse der Six Sigma-Verbesserungszyklen ........................................................................... 147

3.4.1 DMAIC-Zyklus als abstraktes Vorgehensmodell ....................... 147

3.4.2 DMADV-Zyklus als abstraktes Vorgehensmodell ..................... 152

4 Mathematische Vorgehensmodelle zur funktionellen Optimie- rung und Lösung schwieriger Probleme................................................... 158

4.1 Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen................. 158

4.1.1 Mathematische Optimierung und Optimierungsrechnung .......... 158

4.1.2 Algorithmen und Heuristiken zum Auffinden des Optimums .... 160

Page 10: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Inhaltsverzeichnis XI

4.2 Klassische Algorithmen....................................................................... 163

4.2.1 Extremwertberechnung bei bekanntem/ unbekanntem Funktionsverlauf ......................................................................... 163

4.2.2 Analytische vs. statistische Verfahren zur Extremwert- berechnung.................................................................................. 173

4.2.3 Exakte vs. heuristische Lösungsverfahren für Optimie- rungsprobleme ............................................................................ 189

4.3 Evolutionäre Algorithmen .................................................................. 194

4.3.1 Die natürliche Evolution als Vorbild zur Lösung komp- lexer Probleme ............................................................................ 195

4.3.2 Evolutionäre Ökonomik – Übertragung evolutionärer Prin- zipien auf die Organisations-/ Managementwissenschaften ....... 200

4.3.3 Evolutionary Design – Anwendung evolutionärer Algo- rithmen in der Forschung & Entwicklung................................... 207

4.3.4 Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel ............................................................ 212

5 Theorie-Praxis-Transformation als deduktive Vorgehensweise: Vom abstrakten zum konkreten Vorgehensmodell ................................. 229

5.1 Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als er- weiterter DFSS-Problemlösungszyklus.............................................. 229

5.1.1 Vorgehensmodell mit 5+1 Phasen .............................................. 229

5.1.2 Vorgehen und Methoden der Innovate-Phase ............................. 230

5.2 Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als kon- krete Anwendung Evolutionärer Algorithmen ................................. 237

5.2.1 Vorgehensmodell mit 5 Phasen .................................................. 237

5.2.2 Phasenbezogener Methodeneinsatz............................................. 246

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen ........................................................ 269

5.3.1 Optimierung der Flugzeit eines Papier-Rotors (Labor- experiment) ................................................................................. 269

5.3.2 Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie) .................................................................................. 305

6 Zusammenfassung, Schlussfolgerungen und Ausblick............................ 333

Literaturverzeichnis ............................................................................................. 349

Page 11: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Abbildungsverzeichnis

Abb. 1–1: Der Problemlösungsfluss in Six Sigma-Projekten.............................. 5

Abb. 1–2: Phasen der DFSS-Vorgehensmodelle im Überblick........................... 7

Abb. 1–3: Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen........ 9

Abb. 1–4: Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSS-Problemlösungszyklus..................................................... 16

Abb. 1–5: Einordnung der Dissertationsschrift in die Forschungstypologie nach Anderson/ Herriot/ Hodgkinson (2001) ................................... 18

Abb. 1–6: Struktur der Arbeit............................................................................ 23

Abb. 1–7: Vorgehen der Untersuchung (Untersuchungsdesign) ....................... 30

Abb. 1–8: Vernetzung der Inhalte (Forschungsdesign) ......................................... 38

Abb. 1–9: Überprüfung der Hypothesen (Prüfungsdesign) ................................... 48

Abb. 2–1: Inhalte/ Wirkungsbereiche von Managementkonzepten................... 52

Abb. 2–2: Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte .. 57

Abb. 2–3: Das Führungsmodell Total Quality Management............................. 60

Abb. 2–4: Das Reorganisationsmodell Business Process Reengineering.......... 63

Abb. 2–5: Die Six Sigma Umsetzungstreiber.................................................... 66

Abb. 2–6: 10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR ........................................................................................... 70

Abb. 2–7: Diffusionskurve eines neuen Managementkonzeptes....................... 77

Abb. 2–8: Kennzeichen von Managementmoden am Beispiel von Six Sigma .80

Abb. 2–9: Gegenüberstellung von Daten- und Konzeptwissen......................... 82

Abb. 2–10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma................................................................................................ 86

Abb. 2–11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept .. 89

Abb. 3–1: Die prozessuale Vernetzung der fünf Qualitätsdimensionen nach Garvin (1984)........................................................................... 95

Abb. 3–2: Basisinnovationen als Grundlage für Technologiesprünge ............ 100

Abb. 3–3: Kriterienbasierte Bewertung der Vorgehensmodelle...................... 105

Abb. 3–4: Problemlösungsprozess nach dem OPM-Modell (Schema) ........... 108

Page 12: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XIV Abbildungsverzeichnis

Abb. 3–5: Innovationsprozess als kybernetischer Prozess .............................. 111

Abb. 3–6: Modell der Qualitätsregelung nach DIN EN ISO 9001:2000......... 114

Abb. 3–7: Kontinuierliche Verbesserung mit dem PDCA-Zyklus .................. 117

Abb. 3–8: Qualitätsmanagement als kybernetischer Prozess .......................... 121

Abb. 3–9: Die fünf Phasen des DMAIC-Zyklus ............................................. 135

Abb. 3–10: Die fünf Phasen des DMADV-Zyklus............................................ 141

Abb. 3–11: Rekonstruktion des DMAIC-Zyklus als analytisches Optimie- rungsmodell .................................................................................... 148

Abb. 3–12: Rekonstruktion des DMADV-Zyklus als analytisches Optimie- rungsmodell .................................................................................... 153

Abb. 4–1: Schematische Darstellung des Sekantenverfahrens ........................ 164

Abb. 4–2: Schematische Darstellung des Tangentenverfahrens...................... 166

Abb. 4–3: Graphische Lösung eines linearen Optimierungsproblems ............ 175

Abb. 4–4: . 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf Basis eines Polynoms 2. Grades mit einem lokalen Maximum...... 183

Abb. 4–5: Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren ........................................ 185

Abb. 4–6: Sequentielles Vorgehen nach der Methode des steilsten Anstiegs .187

Abb. 4–7: Sequentielles Vorgehen nach dem Simplex-Verfahren .................. 188

Abb. 4–8: Terminologie von Evolutionären Algorithmen .............................. 199

Abb. 4–9: Vergleich von Evolutorischer und Klassischer Ökonomik............. 202

Abb. 4–10: Das Forschungsprogramm der Evolutorischen Ökonomik............. 203

Abb. 4–11: Die vier Felder des Evolutionary Design (ED)............................... 208

Abb. 4–12: Grundkonzeption eines Genetischen Algorithmus (GA)................ 213

Abb. 4–13: Schema für die binäre Lösungscodierung bei einem GA ............... 215

Abb. 4–14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness ......... 216

Abb. 4–15: Schematischer Zusammenhang zwischen Codier- und Suchraum .218

Abb. 4–16: Morphologischer Kasten zur Einordnung von GAs ....................... 222

Abb. 4–17: Fitnessfunktion fit(y) mit zwei lokalen Maxima ............................ 224

Abb. 4–18: Initialisierung und Evaluierung der Ausgangspopulation .............. 225

Abb. 4–19: Programmiercode für die Erzeugung von Mutationen ................... 226

Page 13: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Abbildungsverzeichnis XV

Abb. 4–20: Entwicklung der durchschnittlichen Fitness über die Zeit.............. 227

Abb. 5–1: Der erweiterte DMADV-Zyklus..................................................... 231

Abb. 5–2: Konzeption und Inhalte der 4 TRIZ-Säulen ................................... 233

Abb. 5–3: Kontinuierliche Verbesserung mit IESRM-Zyklus ........................ 238

Abb. 5–4: Das „magische Dreieck“ der evolutionären Produktentwicklung .. 240

Abb. 5–5: Die fünf Phasen des IESRM-Zyklus .............................................. 247

Abb. 5–6: Morphologischer Kasten am Beispiel Kugelschreiber ................... 252

Abb. 5–7: Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt) ............. 253

Abb. 5–8: Nutzwertanalyse am Beispiel Kugelschreiber ................................ 257

Abb. 5–9: Entwicklung der durchschnittlichen Fitness der Population........... 259

Abb. 5–10: Vorgehen bei proportionaler Selektion am Beispiel....................... 263

Abb. 5–11: Vorgehen bei rangbasierter Selektion am Beispiel......................... 264

Abb. 5–12: 1-Point-Crossover mit Flipmutation am Beispiel ........................... 266

Abb. 5–13: Abmessungen des Papier-Rotors .................................................... 270

Abb. 5–14: Projektcharter für die Optimierung des Papier-Rotors ................... 272

Abb. 5–15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor .................... 274

Abb. 5–16: Ishikawa-Diagramm für Papier-Rotor ............................................ 276

Abb. 5–17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor ........................ 278

Abb. 5–18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor ........ 280

Abb. 5–19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren ................. 281

Abb. 5–20: Altschuller´sche Konflikte-Matrix (Auszug).................................. 285

Abb. 5–21: Definierter Suchraum zum Auffinden des optimalen Rotors ......... 289

Abb. 5–22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstellung der Merkmalsausprägungen .................... 290

Abb. 5–23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen............................ 291

Abb. 5–24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspopulation ................................................................. 293

Abb. 5–25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsverteilung zur Bildung der Intermediärpopulation....... 294

Abb. 5–26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel .... 296

Page 14: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XVI Abbildungsverzeichnis

Abb. 5–27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor ................ 296

Abb. 5–28: Population nach 1. Optimierungsrunde mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation ............. 297

Abb. 5–29: Entwicklung der Fitness der Rotoren-Population in 10 Runden .... 298

Abb. 5–30: Wesentliche Designtypen in der Endpopulation der Rotor-Optimierung ................................................................................... 300

Abb. 5–31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus) ........................................ 301

Abb. 5–32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus) ............................................. 302

Abb. 5–33: Projektcharter für die Optimierung von Straßenbesen ................... 306

Abb. 5–34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel) ........ 311

Abb. 5–35: Ablaufschema zur Reinigung der normierten Kehrfläche .............. 313

Abb. 5–36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung ............. 316

Abb. 5–37: Skizze zur Dimensionierung eines Straßenbesens.......................... 317

Abb. 5–38: Pareto-Chart der standardisierten Effekte beim Besen ................... 319

Abb. 5–39: Morphologischer Kasten zur Bestimmung der Ausgangs- population....................................................................................... 320

Abb. 5–40: Codier-Tableau zur Lösungsrepräsentation auf der Genotyp- ebene (Ausschnitt) .......................................................................... 321

Abb. 5–41: Daten zur Ermittlung der Fitnesswerte für die Besen der Aus-gangspopulation.............................................................................. 322

Abb. 5–42: Selektion der Besen nach dem Roulette-Wheel-Verfahren ............ 324

Abb. 5–43: Rekombination der Besen der 1. Elterngeneration per Zufalls....... 324

Abb. 5–44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung ......................................................................... 325

Abb. 5–45: Entwicklung der Fitness der Besen-Population.............................. 327

Abb. 5–46: Morphologischer Kasten mit Profillinien für beste Besen.............. 328

Abb. 5–47: Gegenüberstellung von DMADV, DMAIDV und IESRM ............ 331

Abb. 6–1: Übersicht der Hypothesen und empirische Belege ......................... 336

Page 15: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Abkürzungsverzeichnis

6σ Six Sigma als statistische Messgröße 7 M Mensch, Maschine, Messung, Material, Methode, Mitwelt, Mana-

gement Abb. Abbildung ACO Ant Colony Optimization (Ameisenalgorithmus) A-E Arenga-Elaston AFE Antizipierende Fehlererkennung AL Artificial Life (Künstliche Lebensformen) ANOVA Analysis of Variances (Varianzanalyse) ARIZ Algoritm Reshenije Izobretatjelskich Zadacz (russ. Akronym) Aufl. Auflage α-Fehler Fehler 1. Art bei Statistischem Test β-Fehler Fehler 1. Art bei Statistischem Test BB Black Belt BBD Box-Behnken-Design BE Business Excellence BFGS Broyden-Fletcher-Goldfarb-Shanno BPM/ BPR Business Process Management/ Business Process Reengineering BSC Balanced Scorecard, Balanced Score Card BSH Bosch Siemens Hausgeräte bspw. beispielsweise BVW Betriebliches Vorschlagwesen BWL Betriebswirtschaftslehre bzgl. bezüglich bzw. beziehungsweise ca. circa CAD Computer Aided Design CAM Computer Aided Manufacturing CCD Central-Composite-Design CCM Core Competence Management C/D Confirmation/ Disconfirmation

Page 16: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XVIII Abkürzungsverzeichnis

CDF Cumulative Density Function (Kumulierte Häufigkeitsverteilung) CED Creative Evolutionary Design CEO Chief Executive Officer CI Confidence Interval (Konfidenzintervall) CIP Contineous Improvement Process, auch KVP cm Zentimeter CM Conjoint Measurement, auch Conjoint Analyse CNC Computerized Numerical Control COPQ Cost of Poor Quality (Fehlerkosten) CP Wahrgenommenes Kostenführerschaftspotenzial c.p. ceteris paribus Cp Prozessfähigkeitsindex (Streuungsindex) Cpk Prozessfähigkeitsindex (Lageindex) CPS Creative Problem Solving CRM Customer Relationship Management CSI Customer Satisfaction Index CTB Critical to Business CTC Critical to Customer CTP Critical to Process CTQ Critical to Quality (Characteristic) CTQs Critical to Qualities χ2 Chi-Quadrat Δ Granularität (Genauigkeit) d.b. das bedeutet DCCDI Define, Customer, Concept, Design, Implementation df Anzahl der Freiheitsgrade d.h. das heißt DFMA Design for Manufacturing and Assembly DFSS Design for Six Sigma DIN Deutsche Industrie Norm DLZ Durchlaufzeit DMADV Define, Measure, Analyse, Design, Verify DMAIDV Define, Measure, Analyse, Innovate, Design, Verify DMAIC Define, Measure, Analyse, Improve, Control

Page 17: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Akürzungsverzeichnis XIX

DMEDI Define, Measure, Explore, Develop, Implement DNS Desoxyribonucleinsäure DOE Design of Experiments (Statistische Versuchsplanung) DP Wahrgenommenes Differenzierungspotenzial DPMO Defects Per Million Opportunities (Fehler pro 1 Mio. Fehlermög-

lichkeiten) DPU Defects Per Unit (Fehler pro Einheit) ε bzw. e Residuum EA Evolutionärer Algorithmus EAL Evolutionary Artificial Life-Forms EArt Evolutionary Art EBF Erzgebirgische Bürstenfabrik EC Evolutionary Computation ED Evolutionary Design EDO Evolutionary Design Optimisation EDV Elektronische Datenverarbeitung EFQM European Foundation for Quality Management ehem. ehemalig EN Europäische Norm EP Evolutionäre Programmierung ES Evolutionsstrategien ESRM Evaluierung, Selektion, Rekombination, Mutation et al. et alii (lat. und andere) etc. et cetera EVA Economic Value Added EVOP Evolutionary Operations F&E Forschung und Entwicklung f. folgende ff. fortfolgende fit Fitness FMEA Fehler-Möglichkeits und Einfluss-Analyse FTY First Time Yield (Ausbeute ohne Nacharbeit) FWW Faktorwechselwirkung g Gramm

Page 18: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XX Abkürzungsverzeichnis

GA Genetischer Algorithmus Gage R&R Messsystemanalyse (Reliability & Reproducibility) % R&R Messfähigkeitsindex GB Green Belt GE General Electric GEMS GE Medical Systems GG Grundgesamtheit ggf. gegebenenfalls GmbH Gesellschaft mit beschränkter Haftung GP Genetische Programmierung GPM Geschäftsprozessmanagement GRR Messsystemfehler GS Growth Strategies h Stunde H0 Nullhypothese bei Statistischem Test H1 Alternativhypothese bei Statistischem Test HoQ House of Quality Hrsg. Herausgeber i.A. im Allgemeinen i.d.R. in der Regel IESRM Initialisierung, Evaluierung, Selektion, Rekombination, Mutation i.e.S. im engeren Sinn i.H.v. in Höhe von i.O. in Ordnung i.w.S. im weiteren Sinn IM Innovationsmanagement inkl. inklusive insb. insbesondere IPO Input, Process, Output ISO International Organization for Standardization i.S.v. im Sinne von IT Informationstechnologie Jg. Jahrgang JIT Just in Time

Page 19: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Akürzungsverzeichnis XXI

KBI Kundenbindungsindex KKT Karush-Kuhn-Tucker KM Knowledge Management KNN Künstlich Neuronale Netze kg Kilogramm KPI Key Performance Indicator (Steuerungsgröße) KTQ Kooperation für Transparenz und Qualität im Gesundheitswesen KVP Kontinuierlicher Verbesserungsprozess L Lern-/ Degressionsrate LCL bzw. UEG Lower Control Limit (Untere Eingriffsgrenze) LDS Lightspeed Diagnostic Scanner lg Dekadischer Logarithmus LM Lean Management LMS Learning Management System ln Natürlicher Logarithmus LP Linear Programming (Lineare Optimierung) LSA Local Search Approaches (Lokale Suchverfahren) LSM Least Squares Method (Methode der kleinsten Quadrate) LSL bzw. USG Lower Specification Limit (Untere Spezifikationsgrenze) LSS Lean Six Sigma μ bzw. E Mu – Erwartungswert der Grundgesamtheit m Meter M Merkmal MA Mitarbeiter M&A Mergers & Acqusisitions MAIC Measure, Analyse, Improve, Control max Maximiere MBB Master Black Belt MBNQA Malcolm Baldrige National Quality Award MbO Management by Objectives m.E. mit Einschränkung MGP Multi Generation Plan Mio. Million min Minimiere

Page 20: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XXII Abkürzungsverzeichnis

min. minimal mind. mindestens mm Millimeter MPI Milestone Perfomance Index MPSP Management-Planungs-Steuerungs-Programm Mrd. Milliarde MSE Mean Square Error (Mittlerer quadratischer Fehler) MT Manntage n Stichprobengröße N(µ; σ) o. NV Normalverteilung NB Nebenbedingung n.i.O. nicht in Ordnung NIST National Institute of Standards and Technology NLP Non-linear Programming (Nicht-lineare Optimierung) NNB Nichtnegativitätsbedingung NW Nutzwert NY Normalized Yield (Normierte durchschnittliche Ausbeute) OE Organisationsentwicklung OEM Original Equipment Manufacturer OFAT One Factor At Time OFD Opportunities For Defects (Fehlermöglichkeiten) o.g. oben genannt OPM Offenes Problemlösungsmodell OT Organisationstransformation p Wahrscheinlichkeit PBR Projekt Business Review PDCA Plan, Do, Check, Act PEP Produktentstehungsprozess PERT Project Evaluation and Review Technique Pop Population PPM Parts Per Million (Fehler pro 1 Mio. gefertigte Teile) PPS Produktionsplanung und -steuerung PR Public Relation P-Regelkarte Prozess-Regelkarte

Page 21: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Akürzungsverzeichnis XXIII

p-Wert Signifikanzwert bei Statistischem Test QC Quality Circle QFD Quality Function Deployment QL Quality Leader QM Qualitätsmanagement QMS Qualitätsmanagement-System Q-Regelkarte Qualitätsregelkarte QS Quality System QVS Qualitätsverbesserungssystem R Spannweite r Korrelationskoeffizient R-sq bzw. R2 Bestimmtheitsmaß RPZ Risikoprioritätszahl RSM Response Surface Methodology RTY Rolled Throughput Yield (Durchschnittliche Ausbeute) σ Sigma – Standardabweichung der Grundgesamtheit σ2 Varianz der Grundgesamtheit S bzw. StDev Standardabweichung der Stichprobe s2 bzw. Var Varianz der Stichprobe s Sekunden s. siehe SA Simulated Annealing s.o. siehe oben S/N Signal to Noise SS Sum of Squares (Summe der quadrierten Abweichungen) Sample Stichprobe SIPOC Supplier Input Process Output Costumer SIS System Installation Status sog. sogenannte SPC Statistical Process Control / Statistische Prozesskontrolle SQP Sequential Quadratic Program SRM Selektion, Rekombination, Mutation SRP Saving Realisation Plan SSCI Social Science Citation Index

Page 22: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

XXIV Abkürzungsverzeichnis

SVM Shareholder Value Management SVP Senior Vice President SWOT Strengths Weaknesses Opportunities Threats TIPS Theory of Inventive Problem Solving T Toleranz TPM Total Productive Maintenance TQM Total Quality Management TRIZ Theorija Reshenija Izobretatjelskich Zadacz (russ. Akronym) TSP Traveling Salesman-Problem u.a. unter anderem u.ä. und ähnliche UCVP Unique Customer Value Proposition u.U. unter Umständen UCL bzw. OEG Upper Control Limit (Obere Eingriffsgrenze) USL bzw. OSG Upper Specification Limit (Obere Spezifikationsgrenze) USP Unique Selling Proposition usw. und so weiter VA Verfahrensanweisung VC Virtual Corporations VDA Verband der Automobilindustrie vgl. vergleiche VOC Voice of the Customer vs. versus WS Wertschöpfung w.z.b.i. was zu beweisen ist X-bar bzw.⎯x Mittelwert der Stichprobe Xs Input-/ Prozessmessgrößen Ys Outputmessgrößen z.B. zum Beispiel z.T. zum Teil ZDF Zahlen, Daten, Fakten ZI Zielkostenindex ZP Zielplanung ZV Zielvereinbarung

Page 23: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1 Möglichkeiten und Grenzen des Einsatzes von Design for Six Sigma im Produktentstehungsprozess (PEP)

Der Einsatz von Six Sigma im Produktentstehungsprozess (PEP) wird bereits seit geraumer Zeit unter dem Schlagwort „Design for Six Sigma“ (DFSS) diskutiert. Es existieren verschiedene Ansätze, wie die von Six Sigma geforderte Null-Fehler-Qualität am besten in den PEP zu integrieren sei. Als vorläufige Best prac-tice gilt ein auf die Anforderungen des F&E-Bereichs abgestimmter Six Sigma-Problemlösungszyklus. Dieser wurde in der Vergangenheit jedoch nur von weni-gen Unternehmen mit nachweisbarem Erfolg eingesetzt. Die Gründe hierfür sind vielfältig und bis dato nur wenig erforscht. Nach Expertenmeinung liegt das Scheitern von DFSS-Projekten vor allem in der bestehenden Austauschbeziehung (Trade-off) zwischen hoher Produktqualität auf der einen Seite und der Forderung nach einem hohen Innovationsgrad auf der anderen Seite begründet. Ob und wie dieser Trade-off aus wissenschaftlicher Sicht gelöst werden kann, ist Gegenstand der vorliegenden Dissertationsschrift. In diesem Zusammenhang wird sowohl auf die praktische Relevanz (relevance) der Forschungsergebnisse als auch auf die methodische Stringenz (rigour) des Bearbeitungsprozesses geachtet.

1.1 Problemstellung und Zielsetzung

1.1.1 Der wissenschaftliche Anspruch von (Design for) Six Sigma

Durch die Globalisierung der Märkte wird der Wettbewerbsdruck, der auf den Unternehmen lastet, immer stärker. Dieser Druck resultiert aus einer drastischen Verkürzung der Produktlebenszyklen, inkl. der Entwicklungszeiten, einem konti-nuierlich anwachsenden Preiskampf mit einhergehenden Kostenreduzierungen sowie einem ständig steigenden Qualitätsanspruch der Kunden. Die Beherrschung des magischen Dreiecks Kosten-Zeit-Qualität stellt heute in vielen Wirtschaftsbe-reichen eine wesentliche Anforderung an den Fortbestand der Unternehmen dar. Darüber hinaus ist in vielen Branchen ein ständig steigender Innovationsdruck zu beobachten (vgl. z.B. BCG Innovationsstudie 2006). Unternehmen, die insb. auf technologieorientierten Feldern tätig sind, haben erkannt, dass sich die Zukunft nur mit neuen, innovativen Produkten und Prozessen nachhaltig sichern lässt. Aus diesem Grund besteht ein starkes Interesse daran, Produktentstehungsprozesse zu definieren und zu implementieren, die diesen Anforderungen gerecht werden.

Um wettbewerbsfähige Produkte zu entwickeln, sind neben klar definierten Vor-gehensmodellen Methoden notwendig, welche die Suche nach neuartigen Prob-lemlösungen unterstützen. Die Ausnutzung von biologischen Phänomenen und Erkenntnissen (Bionik) ist dabei nur eine von vielen Ansätzen, um die allgemein einsetzbaren technischen Entwicklungs- und Konstruktionswerkzeuge, z.B. nach VDI 2221ff., wirkungsvoll zu ergänzen (vgl. Günther 2004, S. 1).

Page 24: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Zu einer umfassenderen Sicht der Qualitätssicherung in Unternehmen hat maßgeb-lich der japanische Statistiker und Qualitätsexperte GENICHI TAGUCHI (1989) beigetragen. Den Hauptansatzpunkt zur Erhöhung der Produktqualität sieht er in der Verringerung der Streuung der zugrundeliegenden Leistungserstellungsprozes-se. Diesem Aspekt der Qualitätssicherung trägt insbesondere die Six Sigma-Philo-sophie Rechnung. JACK WELCH, ehem. CEO von General Electric (GE) und maß-geblicher Förderer und Gestalter von Six Sigma im Unternehmen1, machte hierzu die treffende Bemerkung: „Abweichung ist der Teufel in allen Kundenkontakten!“ (vgl. Garthe 2002, S. 343ff.). Damit unterstrich er die Auffassung, dass den Kun-den die Verbesserung der internen Prozesse nicht interessiert, sondern nur, ob seine Anforderungen und Erwartungen durch das Produkt/ die Dienstleistung vollständig erfüllt werden. Deshalb sind alle Geschäftsprozesse unmittelbar auf die Bedürfnisse/ Anforderungen des Kunden auszurichten. Nur wenn dies gegeben ist, kann von einer wertorientierten Unternehmenstätigkeit gesprochen werden, die – bei wirtschaftlicher Umsetzung der Kundenanforderungen im Unternehmen – finanziellen Erfolg nach sich zieht (vgl. Töpfer 2006, S. 424ff.).

Welche Erkenntnis lässt sich im Hinblick auf die Gestaltung und den Einsatz von Managementkonzepten daraus ziehen? Konzepte, die eine höhere Effizienz (Wirt-schaftlichkeit) der Prozessabläufe bewirken, müssen noch lange nicht die Effekti-vität (Zielerreichungsgrad) des Unternehmens verbessern; „Die Dinge richtig tun“ ist nicht gleich „Die richtigen Dinge tun“ (vgl. Töpfer 2007a, S. 75).

In Bezug auf Six Sigma hat PRADEEP B. DESHPANDE2 (2004) den Sachverhalt wie folgt auf den Punkt gebracht: „We need to remember, all Six Sigma does is to enable us to operate our work processes in the best possible manner. Nothing more, nothing less. It is quite possible you are operating all your work processes the Six Sigma way, but your competition has come up with a better business model or better technology which could cost you marketshare. [...] it is quite pos-sible for a company to be six sigma compliant and yet go bankrupt. Six Sigma does not make us better innovators, but since it shows how to work smarter and not harder, there is more time available for innovation.” Die Erzeugung von Inno-vationen steht also nicht im Mittelpunkt von Six Sigma; diese Aufgabe fällt dem in der Wertschöpfungskette vorgelagerten Ansatz des Design for Six Sigma (DFSS) zu (vgl. hierzu und im Folgenden Töpfer/ Günther 2007b, S. 106).

Das Six Sigma-Konzept wurde bei Motorola entwickelt und im Jahr 1987 offiziell eingeführt (vgl. Baetke/ Hammer/ Zalesky 2002, S. 2ff.). Der Name „Six Sigma“ geht auf den damals federführenden Qualitätsingenieur, BILL SMITH, am Standort

1 Unter JEFFREY R. IMMELT, dem neuen CEO von GE seit 2001 und ausgebildeten Black

Belt, wird die Six Sigma Initiative mit der gleichen hohen Priorität weitergeführt (vgl. Effinger/ Layne 2002, S. 2f.).

2 President and CEO of Six Sigma & Advanced Controls, Inc. and Professor of Chemical Engineering at the University of Louisville

Page 25: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 3

Schaumburg, Illinois, USA zurück. Sein Ansatz bestand darin, die z.T. mangelnde Kundenorientierung im Rahmen von existierenden ganzheitlichen QM-Konzepten zu beseitigen. Oftmals führte zwar die Umsetzung von Total Quality Management zu einem hohen Qualitätsniveau, jedoch blieb die Kundenzufriedenheit weiterhin auf einem relativ niedrigen Niveau. Für sein Vorhaben, eine kundenorientierte Null-Fehler-Strategie im Unternehmen zu implementieren, formulierte er deshalb die folgenden zwei „forschungsleitenden“ Fragen:

• Was heißt Kundenorientierung im Technologieunternehmen Motorola?

• Wie wird Kundenorientierung im Unternehmen wirkungsvoll umgesetzt?

Obwohl es, insb. im Bereich der Psychologie, eine Reihe von Ansätzen und Theo-rien zum Themengebiet gibt, wählte Bill Smith einen eher pragmatischen Ansatz, der unter dem Slogan „Customer focused Quality“ weltweit Bekanntheit erlangte. Im Kern geht es darum, eine stringente Projektmanagementmethode zu implemen-tieren, welche die Erfüllung der wesentlichen Kundenanforderungen (CTQs – Critical to Quality Characteristics) erlaubt und gleichzeitig zu optimierten, d.h. fehlerfreien Prozessen führt (vgl. Töpfer/ Günther 2007a, S. 18).

Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich heute in zwei standardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADV-Zyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Beide Projektzyklen basieren auf dem klassischen DEMING-Zyklus PDCA (Plan, Do, Check, Act) und setzen bei der Messung und Analyse von wesentlichen Kunden-anforderungen an. Die unterschiedliche Phasenabfolge resultiert in erster Linie aus dem problemspezifischen Anwendungsbereich3: Während der DMAIC-Zyklus bei der Verbesserung von bestehenden Prozessen im Unternehmen zum Einsatz kommt, richtet sich die Anwendung des DMADV-Zyklus auf die Neuproduktpla-nung und -entwicklung (vgl. Töpfer/ Günther 2007b, S. 107ff.).

Die Philosophie von Six Sigma beruht im Wesentlichen darauf, durch eine zielge-richtete Übersetzung der „Stimme des Kunden“ (VOC – Voice of the Customer) in die „Sprache des Prozesses“ (VOP – Voice of the Process) Produkte und Dienstleistungen mit hoher Qualität zu erzeugen und so Wirtschaftlichkeit, also Effizienz, mit Kundenzufriedenheit, also Effektivität, zu verbinden. Richtet sich die Kundenstimme auf ein am Markt eingeführtes Produkt bzw. einen bestehenden

3 Bildlich gesprochen stellt dieses entwicklungsbezogene Six Sigma einen „Blick durch

die Frontscheibe“ dar, da hier zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden. Demgegenüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAIC-Zyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöpfungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbessern (vgl. Töpfer/ Günther 2007a, S. 10).

Page 26: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Prozess im Unternehmen, dann stehen bei der Bearbeitung des Verbesserungspro-jektes anhand des DMAIC-Zyklus die folgenden fünf Fragen im Mittelpunkt:

• Define: Was ist das Problem?/ Was ist das Projektziel?

• Measure: Wie lassen sich die Auswirkungen messen?

• Analyse: Was sind die Hauptursachen für das Problem?

• Improve: Wie lässt sich das Problem dauerhaft beseitigen?

• Control: Wie wird die Problemlösung praktisch umgesetzt?

Analog hierzu lässt sich für den DMADV-Zyklus ein Fragenkatalog konzipieren, der die speziellen Anforderungen im F&E-Bereich berücksichtigt. In den fünf Phasen werden dabei die folgenden Fragen schwerpunktmäßig behandelt:

• Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?

• Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?

• Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?

• Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?

• Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?

Unabhängig von der Art des gewählten Problemlösungszyklus beruht die Ent-scheidungsfindung im Rahmen von Six Sigma bzw. Design for Six Sigma auf dem Prinzip „ZDF – Zahlen, Daten und Fakten“. Intuition der Projektbeteiligten und/ oder Trial-and-Error-Verfahren sind bewusst ausgeschlossen und in keiner Phase des DMAIC-Zyklus explizit vorgesehen. Die Problemlösung erfolgt systematisch und zeichnet sich über weite Strecken durch eine analytische Vorgehensweise aus. Dabei werden zwei Ebenen der Problemlösung unterschieden (vgl. hierzu und im Folgenden Töpfer/ Günther/ Garzinsky 2007, S. 262ff.): Realitätsebene und Abs-traktionsebene. Durch diese Trennung ist es möglich, auch schwierige praktische Probleme zu lösen. Unter Berücksichtigung der zwei Ebenen vollzieht sich die Lösungsfindung in fünf Schritten (siehe Abb. 1-1):

(1) Auf der Realitätsebene wird das reale Problem definiert und – in der Define-Phase – zu einem 3- bis 6-monatigen Verbesserungsprojekt nominiert; dieses ist von drei bis fünf Akteuren in dem vorgesehenen Zeitraum zu bearbeiten.

(2) Das reale Problem wird in ein abstraktes Problem transformiert, d.h. aus dem realen Problem wird – in der Measure-Phase – ein statistisches Problem, wel-ches mithilfe von Variablen und Messgrößen beschrieben werden kann.

(3) Auf der Abstraktionsebene wird unter Nutzung mathematisch-statistischer Modelle eine abstrakte Lösung gesucht. Mittels Regression et al. werden – in der Analyse-Phase – die Hauptursachen des Problems identifiziert.

Page 27: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 5

(4) In der anschließenden Improve-/ Design-Phase besteht das Ziel darin, die gefundene abstrakte Lösung durch Outputsimulationen abzusichern. Des Wei-teren werden Optionen für die konkrete Umsetzung eruiert.

(5) Die abstrakte Lösung wird in eine reale Lösung zurücktransformiert. Nach der Implementierung im Prozess wird die gefundene Lösung – in der Control-/ Verify-Phase – kontinuierlich überwacht und verbessert.

Abb. 1-1: Der Problemlösungsfluss in Six Sigma-Projekten

Die Denkweise von Six Sigma unterscheidet sich damit deutlich von bisherigen Ansätzen des Qualitätsmanagements, wie z.B. TQM. Dies liegt vor allem daran, dass die Implementierung einer Lösung in der Realität erst dann vorgenommen wird, wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist. In diesem Fall haben die Mittelwert- und Streuungsmaße der wesentli-chen Outputgrößen des Prozesses das anvisierte Zielniveau erreicht. Andernfalls werden die Measure- und Analyse-Phase so lange durchlaufen, bis die Abhängig-keiten in Form von Ursachen-Wirkungsbeziehungen offengelegt und die geplanten Verbesserungen über Outputsimulationen hinreichend abgesichert sind.

Die Anforderungen, die an den Problemlösungsprozess gestellt werden, decken sich im großen und ganzen mit denen des wissenschaftlichen Arbeitens (vgl. Kromrey 2002, S. 88): Problem definieren, Wissen generieren, Modell formulie-ren, Aussagen ableiten und überprüfen sowie ggf. Maßnahmen umsetzen. Vor diesem Hintergrund richtet sich das Erkenntnisinteresse bei Six Sigma nicht nur auf die zu verbessernde Sache, also was verbessert wird, sondern auch auf die zugrunde gelegte Vorgehensweise, also wie etwas verbessert wird. Obwohl DMAIC- und DMADV-Zyklus auf dem gleichen Problemlösungsprinzip basieren, unterscheiden sie sich in ihren generellen Erfolgaussichten z.T. signifikant. Wäh-

Reales Problem

AbstraktesProblem

Abstrakte Lösung

RealeLösung

Trial & Error1

4

5

2

Abstraktions-ebene

Realitäts-ebene

Modell-bildung

3

Page 28: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

rend sich der DMAIC-Zyklus als prozessbezogener Verbesserungsansatz in der Praxis recht gut bewährt hat, stehen entsprechende Erfahrungsberichte für den DMADV-Zyklus und ggf. andere DFSS-Vorgehensmodelle noch aus.

1.1.2 Empirische Befunde zum Einsatz und zur Verbreitung von Six Sigma

Durch Berücksichtigung der Six Sigma-Philosophie in der Neuproduktentwick-lung respektive dem grundlegenden Re-Design von Produkten und Prozessen soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, er-reicht werden. Um F&E-Projekte möglichst ergebnisorientiert steuern und durch-führen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI.4 Die Mehr-heit der Six Sigma-Unternehmen hat sich für den DMADV-Zyklus entschieden, da er u.a. von den Six Sigma-Vorreiterunternehmen Motorola und General Elect-ric5 angewendet wird. Nach Bulk/ Faulhaber (2007, S. 406ff.) ist das Design von neuen Produkten und Prozessen einer von drei Eckpfeilern im Rahmen des ganz-heitlich ausgerichteten Six Sigma-Projektmanagements.

In Abb. 1-2 sind die Phasen von 10 Vorgehensmodellen aufgeführt, die im Zu-sammenhang mit DFSS seit geraumer Zeit diskutiert werden. Die Reihenfolge ergibt sich nach der Anzahl von Suchergebnissen (weltweit) für das entsprechende Akronym in Verbindung mit „Design for Six Sigma“ im Internet über die Such-maschine www.google.de (Stand: 25.06.2007).

4 DMEDI steht für Define, Measure, Explore, Develop and Implement und wird insb.

von der Beratungsgesellschaft PricewaterhouseCoopers propagiert (vgl. Simon 2002, S. 1f.). Das Akronym DCCDI beschreibt den 5-phasigen Zyklus Define, Customer, Concept, Design und Implementation. Von einigen Unternehmen wurde der DMADV-Zyklus in der Weise modifiziert, dass sie eine zusätzliche Phase „I“ für Implementation oder „L“ für Leverage eingeführt haben. Den einen Unternehmen ging es darum, die Wichtigkeit der Implementierung gefundener Lösungen hervorzuheben, während die anderen die Übertragung gefundener Lösungen auf die gesamte Organisation mit dem Ziel Hebelwirkungen zu erzielen als besonders wichtig ansahen.

5 Nach Deutsch (2000, S. C1) ist das radiologische Diagnosegerät Lightspeed Diagnostic Scanner (LDS) von GE Medical Systems (GEMS) das erste Produkt, welches nach dem DFSS-Ansatz entwickelt und konzipiert worden ist. An der Entwicklung waren Mitte der 1990er Jahre ca. 200 Mitarbeiter beteiligt bei einem F&E-Budget von 50 Mio. US-$. Über einen Zeitraum von 3 Jahren wurden insgesamt 250 DMADV-Projekte rund um das LDS durchgeführt. Im Ergebnis konnte die Fehlerrate in der Fertigung um 40% reduziert werden; die Anzahl der Reklamationen sank signifikant. Aus technologischer Sicht wurde ein deutlicher Sprung nach vorne gemacht. Wie Antony/ Bañuelas (2002, S. 335) berichten, reduzierte sich die Scanzeit für eine Ganzkörperuntersuchung von 3 Minuten auf 20 Sekunden ohne zusätzliche Kühlungszeit.

Page 29: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 7

Für den Einsatz und die Verbreitung verschiedener Management-Zyklen im Rah-men des Design for Six Sigma mit z.T. geringem Standardisierungsgrad lassen sich zwei Gründe anführen: Zum einen sind die branchen- und unternehmensspe-zifischen Bedingungen nicht gleich, so dass von den Unternehmen Vorgehenswei-sen gewählt werden, die aus ihrer Sicht den Anforderungen im Entwicklungspro-zess am nächsten kommen. Z.B. wird der DMEDI-Zyklus verstärkt in Service- und Dienstleistungs-Unternehmen eingesetzt, während der IDOV-Zyklus vor allem bei produzierenden Unternehmen im technischen Bereich zur Anwendung kommt (vgl. ProcessTeam 2006). Zum anderen besteht die Vermutung, dass bis-her noch kein geeignetes Vorgehensmodell für den Entwicklungsprozess gefunden worden ist, welches die Hauptanforderungen im PEP, nämlich qualitativ hochwer-tige Produkte mit innovativen Funktionen zu entwerfen, erfüllt.

Abb. 1-2: Phasen der DFSS-Vorgehensmodelle im Überblick

Diese These wird u.a. von verschiedenen Experten6 auf diesem Gebiet gestützt, die das Realisationsverhältnis von DMAIC- zu DMADV-Projekten auf bis zu 20 zu 1 schätzen, d.h. auf 1 erfolgreich durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Verbesserungsprojekte. Obwohl viele Unternehmen die Bedeutung von Null-Fehler-Qualität im Entwicklungsbereich erkannt haben, läuft

6 Ergebnisse auf der Basis einer mündlichen Befragung von ausgewählten QM- und Six

Sigma-Experten im Jahr 2006: Gebhard Mayer, MUTC; Gerd Streckfuss, IQM; Andre-as Riese und Dieter Wessel, TQC; Bernd Garzinsky, M+M.

Magnusson et al. (2004, S. 208) führen bei der Frage nach dem Reifegrad von Six Sigma aus, dass das Konzept im Bereich der Prozessentwicklung ein „ausgereiftes und erprobtes Verbesserungskonzept“ ist. In den Bereichen Designverbesserung, Projekt-management und Neuentwicklung von Produkten/ Technologien ist Six Sigma hinge-gen noch in der Entwicklung – weiterführende Anstrengungen sind hier notwendig.

PhasenTreffer in Google*

Vorgehens-modell

VerifyOptimiseCharacteriseDefine233DCOV

ImplementDesign Concept CustomerDefine351DCCDI

VerifyOptimiseDesign Concept 548CDOV

ImplementDevelopExploreMeasure Define644DMEDI

VerifyOptimiseDesignIdentify 2.030IDOV

VerifyDesign AnalyseMeasure Define40.500DMADV

VerifyOptimiseDesignIdentify Define45DIDOV

8

9

646

ControlImplement Design Analyse MeasureDefine DMADIC

VerifyOptimise Design Analyse MeasureDefineDMADOV

VerifyOptimise Design CharacteriseMeasureDefineDMCDOV

PhasenTreffer in Google*

Vorgehens-modell

VerifyOptimiseCharacteriseDefine233DCOV

ImplementDesign Concept CustomerDefine351DCCDI

VerifyOptimiseDesign Concept 548CDOV

ImplementDevelopExploreMeasure Define644DMEDI

VerifyOptimiseDesignIdentify 2.030IDOV

VerifyDesign AnalyseMeasure Define40.500DMADV

VerifyOptimiseDesignIdentify Define45DIDOV

8

9

646

ControlImplement Design Analyse MeasureDefine DMADIC

VerifyOptimise Design Analyse MeasureDefineDMADOV

VerifyOptimise Design CharacteriseMeasureDefineDMCDOV

* Abruf (weltweit) am 25.06.07 unter www.google.demit Zusatz „Design for Six Sigma“

Legende:Phase ist inhaltlich vergleichbar mit DMADV

Page 30: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

8 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002, S. 32). Bei Durchsicht der einschlägigen Literatur lassen sich nur wenige Hinweise auf erfolgreich abgeschlossene DMADV-Projekte finden (vgl. zu DFSS-Fallstudien u.a. Dorff/ Töpfer 2007; Islam 2003; Role 2002; Gavin 1999).

Die Ergebnisse einer empirischen STUDIE VON SCHMIEDER (2005) zum Thema „Six Sigma in Deutschland“ bestätigen die Expertenmeinung: Die meisten der befragten Unternehmen wenden Six Sigma vorzugsweise in den direkten Wert-schöpfungsprozessen an; im Produktionsbereich können bereits mehr als 80% der Unternehmen auf Six Sigma-Projekterfahrungen verweisen. Im Vergleich hierzu haben jeweils „nur“ ca. ein Drittel der Befragten Six Sigma-Projekte in den Berei-chen Konstruktion/ Entwicklung sowie Service/ Vertrieb durchgeführt.

In Abb. 1-3 sind die Bereiche, in denen bereits Six Sigma-Projekte durchgeführt wurden, den Bereichen, in denen der größte Handlungsbedarf für Verbesserungen besteht, gegenübergestellt. Wie leicht ersichtlich, besteht vor allem im Bereich Produktion/ Fertigung eine deutliche Lücke zwischen der Intensität und der Not-wendigkeit von Six Sigma-Verbesserungsmaßnahmen. Die Six Sigma-Methodik wird hier häufiger eingesetzt als eigentlich notwendig. Demgegenüber ergibt sich für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb tendenziell ein Defizit in der Anwendung von Six Sigma respektive Design for Six Sigma.

In einem viel beachteten Aufsatz leitete MICHAEL HAMMER7 (2002, S. 26ff.) die Gemeinsamkeiten und Unterschiede von Six Sigma und Prozessmanagement her. Unter letzterem subsumiert er sowohl die Verbesserung von Prozessen als auch das Re-Design. Im Ergebnis seiner Untersuchung kommt er zu dem Schluss, dass Six Sigma ein integraler Bestandteil des Prozessmanagements von Unternehmen ist und nicht umgekehrt. In einer prozessorientierten Organisation werden Six Sigma-Projekte aufgesetzt, um die strategischen Ziele, auf die ein Geschäftspro-zess ausgerichtet ist, in Zukunft besser zu erreichen. Dabei ist Six Sigma unmittel-bar mit dem DMAIC-Zyklus als strukturiertem Projektmanagementzyklus zur Verbesserung von bestehenden Prozessen verbunden.8

Jeder Versuch, den Six Sigma-Ansatz auf das Prozess-Re-Design als Teil des Prozessmanagements zu erweitern, ist nach der Auffassung von Hammer (2002, S. 32) zum Scheitern verurteilt: „Stretching the definition of Six Sigma to encompass process redesign and process management is like stretching the definition of bas-

7 President of Hammer & Company und Protagonist des Business Process Reenginee-

ring-Ansatzes (BPR) zu Beginn der 1990er Jahre. 8 Hierfür gibt es eine Reihe von empirischen Belegen. So stellen z.B. amerikanische

Unternehmen wie Bombardier, American Express, Merck und Motorola ihre Six Sigma-Aktivitäten unabhängig davon, in welchem Bereich der Wertschöpfungskette sie zum Einsatz kommen, auf den DMAIC-Zyklus ab. Die Grenzen der Vorgehensweise von Six Sigma liegen für diese Unternehmen beim Design von neuen Prozessen respektive Produkten (vgl. Hammer 2002, S. 30).

Page 31: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 9

ketball to include baseball. It is also likely to create confusion, because to most of the business world, Six Sigma is synonymous with DMAIC. Moreover, process design is not the same as product design, and DMADV's effectiveness as a tool for process design is still open to debate. Six Sigma should be part of process man-agement, not the other way around”. Nach dieser Aussage ist und bleibt Six Sigma die konzeptionelle Grundlage für die „Reparatur von bestehenden Prozessen“. Die Übertragung des Konzeptes auf das „Neu-/ Re-Design von Prozessen und Produk-ten“ wird grundlegend skeptisch beurteilt.

Abb. 1-3: Six Sigma-Projekte und Handlungsbedarfe für Verbesserungen

Die Debatte, um den Aufwand und Nutzen von Design for Six Sigma, hat sich in den vergangenen Jahren deutlich zugespitzt. In einem Aufsatz bei Reuters kommt MICHAEL FLAHERTY (2004) zu dem Schluss, dass Six Sigma nicht länger aus-reicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu erwartenden Wachstumsraten eines Unterneh-mens. Eine kontinuierliche Gewinnzunahme über mehrere Jahre, die aus systema-tischen Prozessverbesserungen resultiert, ist häufig nicht genug. Wird der Fokus von DFSS allein auf die Erzeugung und Auslieferung von Produkten/ Dienstleis-tungen mit Null-Fehler-Qualität gelegt, dann gilt die langfristige Wettbewerbsfä-higkeit von Unternehmen heute keineswegs mehr als gesichert.

Für ein überdurchschnittliches Wachstum sind sowohl Kosteneinsparungen als auch Umsatzsteigerungen notwendig. Diese Anforderungen werden durch die

82%

36% 33%41% 38%

47%

0%

20%

40%

60%

80%

100%

Produktion/ Fertigung Entwicklung/Konstruktion

Service/ Vertrieb

Bereiche, in denen Six Sigma Projekte bereits durchgeführt worden sind Bereiche, in denen der größte Handlungsbedarf für Verbesserungen besteht

Basis: Schmieder 2005

Page 32: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

10 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Anwendung von Six Sigma nur zum Teil erfüllt, so die Kritiker des Konzeptes. Unternehmen, die seit Anfang/ Mitte der 1990er Jahre den „Six Sigma Weg“ ge-gangen sind9, z.B. Motorola, Dow Chemical und General Electric, haben den Turnaround ihrer Profitabilität insbesondere dadurch geschafft, dass sie durch Six Sigma die Kostenseite besser in den Griff bekamen; die Umsatzseite wurde allen-falls indirekt durch die Six Sigma-Aktivitäten positiv berührt.

Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in im-mer kürzeren Zeitabständen auf den Markt gebracht werden und die Bedürfnisse/ Anforderungen der Kunden bestmöglich erfüllen (vgl. Töpfer/ Günther 2007a, S. 17). Nach JAY DESAI10 (2004) besitzt Six Sigma genau aus diesem Grund den Status einer „Durchbruchstrategie“ heute nicht mehr. Wie er an verschiedenen Unternehmensbeispielen zeigt, lassen sich mit Six Sigma keine wirklichen Innova-tionen generieren, da die Methodik die Kreativität im Unternehmen sprichwörtlich erstickt. Außerdem hält das „klassische“ Six Sigma keine effektiven Lösungen für die Entwicklung neuer Produkte bereit. Die Aktivitäten, die derzeit unter dem Schlagwort „Design for Six Sigma“ diskutiert werden, sind nach seiner Auffas-sung in vielen Fällen noch unausgereift. Deshalb laufen Unternehmen, die auf die Anwendung von prozessbezogenem Six Sigma schwören, langfristig Gefahr, Effizienz auf Kosten der Effektivität zu steigern. Spätestens wenn Kundenun-zufriedenheit nicht die Folge von einzelnen Fehlern im Leistungserstellungspro-zess ist, sondern aus einem mangelhaften Produktdesign resultiert, ist der Zeit-punkt für die Einleitung produktbezogener Verbesserungen gekommen.

Im Schumpeter´schen Sinne handelt es sich bei Innovationen um die schöpferische Zerstörung bisheriger Problemlösungen. Die Überführung eines Subjekts/ Objekts vom Zustand t0 in den Zustand t1 bezeichnet den Innovationsprozess, der – in Abhängigkeit von der Situation – mehr oder weniger bewusst gesteuert werden kann. Dass Six Sigma und Innovationen „Hand in Hand“ gehen, wird – trotz der vorstehend genannten Bedenken – von einer Reihe von Unternehmensführern in Amerika eindeutig positiv beurteilt (vgl. u.a. Gupta 2005; Lee 2004). Durch einen effektiven DFSS-Ansatz sollte es möglich sein, Produkte und Dienstleistungen von Grund auf so zu konzipieren, dass sie die Anforderungen der Kunden auf einem 6σ-Niveau bei Markteinführung erfüllen. Voraussetzung hierfür ist ein ausgewogenes Verhältnis von effizienten Prozessen und innovativen Produkten, oder wie MICHAEL CYGER11 (2004) es zusammenfasst: „What we need are indivi-duals at all key points in a company who can exhibit both ‚A’ thinking and ‚B’

9 In den USA wurde die Anzahl der Unternehmen, die Six Sigma nachhaltig anwenden,

im Jahr 2004 auf ca. 1.500 geschätzt; in Deutschland optimierten zur gleichen Zeit ca. 150 Unternehmen ihre Prozesse mit Six Sigma (vgl. Göggelmann 2004, S. 97).

10 Leiter des Instituts für Global Competitiveness und vormals langjähriger Berater bei General Electric; Quelle: Flaherty 2004, S. 1.

11 Gründer des weltweit führenden Six Sigma Internetportals www.isixsigma.com; Quelle: Lee 2004, S. 1.

Page 33: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 11

thinking, according to time and need. We cannot make money just by innovating, and we cannot make money just by having efficient processes. We need both.”

Die Dringlichkeit von diskontinuierlichen Verbesserungen (Innovationen) auf der Produkt- und Prozessseite wird u.a. von der ACCENTURE INNOVATIONSSTUDIE (2004) bestätigt. Nach dieser Studie messen deutsche Unternehmen der Optimie-rung des „magischen Dreiecks“ Kosten – Zeit – Qualität die größte Bedeutung bei. Über die gezielte Durchführung von Innovations-/ Verbesserungsprojekten sollen in erster Linie die unternehmensinternen Kosten gesenkt, die Reaktionsfähigkeit beschleunigt (Zeit) und die Fehlerquote verringert werden (Qualität). Dabei ist eine ausgewogene Aufteilung der Ressourcen auf Produkt- und Prozessverbesse-rungen notwendig, um eine überdurchschnittliche Rendite zu erzielen. Unterneh-men, die Produkt- und Prozessinnovationen ausgewogen vorantreiben, folgen dem Grundsatz „Die richtigen Dinge richtig tun“. Durch die simultane Optimierung von Effizienz und Effektivität verzeichnen sie gegenüber Unternehmen mit nur einer Stoßrichtung den höchsten Return on Investment. Als Gründe, warum Un-ternehmen nicht zu den erfolgreichen Innovatoren gehören, werden genannt: Stra-tegische Schwächen, unklare Verantwortlichkeiten, unzureichendes Prozess-Know-how und mangelnde interne Ressourcen.12

In der o.g. Studie ist eindeutig ersichtlich, dass auch bei „High Performance Inno-vators“ Innovationen häufig nicht einer bestimmten Strategie folgen, sondern eher einem kreativen Entwicklungsgang entspringen: Wenn eine gute Idee geboren ist, dann konkurriert sie zunächst mit anderen guten Ideen um die Aufmerksamkeit und Ressourcen auf der Ebene des verantwortlichen Managements. Im Fall, dass sie sich durchsetzen kann, wird sie weiterverfolgt; andernfalls gerät sie auf nicht absehbare Zeit in Vergessenheit. Vor diesem Hintergrund stellt sich die Frage, wie sich kreative Prozesse in Unternehmen wirkungsvoll in vorgegebene Bahnen len-ken lassen. Das Management hat dabei die Aufgabe, über organisatorische Struk-turen und administrative Systeme den generellen Rahmen für eine erfolgreiche Innovationstätigkeit zu setzen. Nach Prisching (2005, S. 239) ist dies äußerst schwierig, denn „Der Prozess, in dem etwas Neues auftritt, ähnelt in Wahrheit mehr einem evolutionären als einem geplanten Prozess.“13

12 Nach den Studienergebnissen sind nur 39% der befragten Unternehmen in der Lage, die

oben genannten Hürden im Innovationsprozess erfolgreich zu meistern. Bei der Gruppe der „Low Performance Innovators“ fällt auf, dass sie zwar konkrete Ziele für Verbes-serungsaktivitäten formulieren, diese aber aufgrund einer fehlenden bzw. ungeeigneten Strategie zum überwiegenden Teil nicht realisieren können. Über 50% der Befragten sehen in der Kombination von mangelhafter Strategie und unklaren Verantwortlich-keiten die Hauptursache für das Scheitern von Innovationsprojekten.

13 Wie Prisching (2005, S. 239) weiter ausführt, tritt an die Stelle der technokratischen „Maschinensprache“ in den 1990er Jahren ein neues Vokabular, welches aus der Bio-logie, der Systemtheorie, der Neurologie und der Informatik entlehnt ist, z.B. System, Entropie, Evolution, Netzwerk, Selbstorganisation, flexible Spezialisierung, Outsour-cing, autonome Einheiten, Synapsen und Neuronen. Für die Betriebswirtschaftslehre

Page 34: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

12 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

1.1.3 Theoriegeleitete Verbesserung des DFSS-Problemlösungszyklus

Ziel der vorliegenden Arbeit ist es, einen DFSS-Problemlösungszyklus zu entwi-ckeln, der den Anforderungen im F&E-Prozess besser gerecht wird. Ausgangs-punkt der Betrachtung bildet der DMADV-Zyklus, der von vielen Six Sigma-An-wendern bei der Neuproduktplanung/ -entwicklung genutzt wird. Die strukturellen und prozessualen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden sollen, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Konkret geht die Zielstellung dahin, durch die systemati-sche Planung und Kontrolle aller beteiligten Wertschöpfungsprozesse neue Pro-dukte/ Dienstleistungen auf einem 6σ-Niveau zu entwickeln. Infolgedessen kann bereits zum Serienstart Null-Fehler-Qualität ausgeliefert werden; das Ausmerzen von „Kinderkrankheiten“ zu Beginn des Produktlebenszyklus gehört somit der Vergangenheit an. Voraussetzung hierfür ist die fehlerfreie Umsetzung der Kun-denanforderungen in Produkt- und Prozessmerkmale. Dies geschieht durch strin-gentes Abarbeiten der fünf Phasen des DMADV-Zyklus unter Nutzung der darin vorgesehenen QM-Methoden. Obwohl das Vorgehen nicht immer zum gewünsch-ten Ergebnis führt (vgl. Abschnitt 1.1.2), stellt der DMADV-Zyklus zurzeit „Best practice“ im Bereich der DFSS-Produktentwicklung dar.

Dass die Kundenanforderungen oftmals verfehlt werden, liegt vor allem darin begründet, dass das Entwicklungsteam sowohl risikofreudiges als auch risikoaver-ses Verhalten an den Tag legen muss. Durch risikofreudiges Verhalten sollen auf der einen Seite möglichst innovative Produkte entstehen, die den Kunden begeis-tern. Mögliche Mängel in der Ausführung der neuen, einzigartigen Merkmale werden vom Kunden weniger stark wahrgenommen als bei einem „Standardpro-dukt“, das diese Merkmale nicht besitzt. Gleichzeitig steigt nach dem Kano-Modell (Berger et al. 1993) die Kundenzufriedenheit überproportional, sofern die Ausprägung der entsprechenden Produktmerkmale (sehr) gut ist. Risikoaverses Verhalten soll auf der anderen Seite bewirken, dass an Produkten und Prozessen, die sich in der Vergangenheit gut bewährt haben, festgehalten wird. Zu erwartende Qualitätseinbußen in der Produktion und daraus folgende Reklamationen der Kunden werden dadurch vermieden. Bei zu starkem Festhalten an alten Strukturen besteht jedoch die Gefahr, dass das neu entwickelte Produkt im Vergleich zum Wettbewerb als „wenig innovativ“ gilt und die Nachfrage hinter den Erwartungen der Unternehmensleitung zurück bleibt. Unter diesen Voraussetzungen ist die Forderung nach Null-Fehler-Qualität eher fraglich.

Produktentstehungsprozesse umfassen im Zeitablauf sowohl kreative als auch analytische Phasen. Während kreative Phasen dazu dienen, das Bestehende in Frage zu stellen und nach neuen Lösungswegen zu suchen, sind die analytischen Phasen darauf ausgerichtet, die gefundenen Ideen/ Lösungsansätze zu konkretisie-

bedeutet dies der Weg zu einer „unternehmerischen Managementlehre“, anstelle einer herkömmlichen Ansammlung von Definitionen, Kästchen und Pfeilen.

Page 35: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 13

ren und im Hinblick auf die Umsetzbarkeit zu überprüfen. Entscheidend für eine erfolgreiche Produktentwicklung ist die „richtige Mischung“ der beiden Phasenty-pen. Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. z.B. Günther 2004, S. 1). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefun-den; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analy-tisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodenein-satz14 gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Ein-fluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Me-thoden entscheidet letztendlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass zunächst von einer relativ hohen Effizienz ausgegangen werden kann.

Um die „richtige Mischung“ von Phasen und Methoden zu finden, wird in der Praxis üblicherweise inkremental vorgegangen. Die Methode des Inkrementalis-mus15 beschreibt ein schrittweises Fortbewegen von vertrauten Lösungen, also z.B. das Auffinden eines verbesserten Problemlösungszyklus im F&E-Bereich ausgehend vom DMADV-Zyklus. Abwertend sprechen Forscher häufig von der „Methode des Durchwurstelns“ (vgl. Lindblom 1975, S. 161ff.), was aber keines-wegs als ineffizient hingestellt werden muss. Denn besonders in Situationen, die sich durch eine hohe Unsicherheit/ Unübersichtlichkeit auszeichnen, besitzt das inkrementale (schrittweise) Vorgehen eine Überlegenheit gegenüber dem synopti-schen (ganzheitlichen) Vorgehen. Der Nachteil ist insbesondere darin zu sehen, dass durch geringfügige Änderungen keine innovativen, umfassenden Lösungen zum Vorschein kommen, selbst wenn sie erforderlich wären. Obwohl die Ziele nicht explizit definiert werden, verläuft der Entscheidungsprozess verfahrensratio-nal, d.h. die Schritte zur Entscheidungsfindung sind im großen und ganzen gut nachvollziehbar (vgl. Berger/ Bernhard-Mehlich 2002, S. 140ff.):

• Der Entscheider sucht (nur) nach vertrauten Mittel-Zweck-Relationen.

• Die Modifikation des Bestehenden erfolgt in kleinen, marginalen Schritten.

• Es findet keine endgültige Problemlösung statt, sondern ein fortwährendes Suchen nach Weiterentwicklungen der bestehenden Lösung.

14 Unter einer „Methode“ wird eine strukturierte Handlungsvorschrift zur Erlangung eines

vorgegebenen Ziels verstanden (vgl. Fähnrich/ Opitz 2006, S. 98). 15 Das Modell des Inkrementalismus in der Organisationstheorie geht von einem be-

grenzten Suchverhalten der Akteure nach einer befriedigenden Lösung aus. Dabei werden lokale anstelle von globalen Optima angestrebt. Der Entscheider vergleicht nacheinander alternative Handlungsweisen, bis er eine zufriedenstellende gefunden hat. Zielbestimmung sowie umfassende Analysen von Alternativen und Konsequenzen werden hierdurch überflüssig (vgl. Simon 1976, S. 80ff.).

Page 36: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

14 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Gegenüber dem Modell des Inkrementalismus handelt der Entscheidungsträger nach dem Modell der (vollkommen) rationalen Wahl unbeeinflusst von persönli-chen Werten und Gruppennormen. Die Grundlage für seine Entscheidung bildet die Nutzenmaximierung für das Unternehmen. Voraussetzung hierfür ist, dass es nur einen Entscheider gibt, der ein bestimmtes Ziel verfolgt. Als Einzelperson besitzt der Entscheidungsträger vollständige Informationen über die Ziele der Organisation, die Entscheidungsprobleme, die potenziellen Handlungsalternativen mit den jeweiligen Konsequenzen und dem daraus resultierenden Nutzen/ Wert für das Unternehmen. Durch sein synoptisches, d.h. ganzheitliches und planvolles Vorgehen ist es ihm möglich, die nutzenmaximale Lösung unter den gegebenen Alternativen zu finden und dann auch zu implementieren. Nach dem Theorie-Praxis-Verständnis des Methodischen Konstruktivismus16 vollzieht sich der Prob-lemlösungsprozess auf insgesamt drei Ebenen (siehe Abb. 1-4).

Durch Einfügen der Theoriegeleiteten Praxis als Bindeglied zwischen Primärer und Theoretischer Praxis wird erklärt, warum Menschen ihre Handlungsweisen lernend verändern (können) und damit eine Dynamik des Erkenntnisfortschritts in Gang setzen (vgl. hierzu und im Folgenden Scherer 2002, S. 24ff.):

1. Auf der Ebene der Primären Praxis bewältigen Menschen ihr Leben ohne bewusste und reflektierte Anwendung von Theorien. Es wird angenommen, dass der Mensch in der Lage ist, Know-how (unbewusst) zu aktivieren, um damit soziale, technische und/ oder politische Probleme zu lösen. In diesem Zusammenhang wird offen gelassen, ob das Handeln zum Erfolg/ Misserfolg bei der Bewältigung der jeweiligen Lebens-/ Tätigkeitssituation beiträgt.17

Die Verbesserung des DMADV-Zyklus auf der Ebene der Primären Praxis er-fordert vor allem „alltagsweltliches Können“ der Akteure. Dieses ergibt sich durch Sammeln von Erfahrungen im Umgang mit unterschiedlichen Metho-den und Vorgehensweisen im Entwicklungsprozess. In Bezug auf Six Sigma führt alltagsweltliches Können dazu, dass von den Verantwortlichen der Me-

16 Das Verhältnis von Theorie und Praxis, wie es insb. im Kritischen Rationalismus

zugrunde gelegt wird, gilt als konventionelle Betrachtungsweise. Sie basiert auf der Annahme, dass die Geltung empirischer und/ oder analytischer Sätze auf Erfahrung beruht. Das Ziel der Wissenschaft besteht dabei nicht in der Verifikation wissenschaft-licher Aussagen, sondern in der Falsifikation und damit im Herausstellen von bewähr-tem Wissen (vgl. Popper 1969, S. 18). Infolgedessen geht im Begründungsprogramm des Kritischen Rationalismus die Theorie der Praxis voraus.

17 Nach Scherer/ Dowling (1995, S. 220f.) erfüllt die Primäre Praxis zwei Funktionen: Zum einen gibt sie Anlass, systematisch und methodisch über gegenwärtiges und zu-künftiges Handeln nachzudenken. Da Menschen nach Erfolg und nicht nach Misserfolg ihres Tuns trachten, entsteht nach missglückten Handlungen überhaupt erst die Not-wendigkeit systematisch-methodisch vorzugehen. Zum anderen stellt sie die Voraus-setzung dar, um mit methodischem Denken zu beginnen. Denn ohne Vorhandensein von – zumindest ansatzweise gelungenem – praktischem Können ist kein Fortschreiten in methodischer Hinsicht möglich.

Page 37: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.1 Problemstellung und Zielsetzung 15

thodeneinsatz und die Phasenabfolge des DMADV-Zyklus gezielt verändert werden kann, um die Erfolgsaussichten von DFSS zu erhöhen.

2. Auf der Ebene der Theoretischen Praxis realisieren Menschen bei verschie-denen Gelegenheiten, dass ihr Tun/ Handeln nicht ohne Weiteres gelingt. I.d.R. unternehmen sie dann besondere Anstrengungen, um sich über die Si-tuation und die spezifischen Bedingungen des Erfolgs im Klaren zu werden. In diesem Zusammenhang analysieren sie systematisch die Ursachen-Wirkungs-Beziehungen, um auf dieser Grundlage Mittel-Zweck-Relationen abzuleiten. Im Gegensatz zur Primären Praxis bringen sich die Beteiligten hier „in Distanz zu dem, was vorher selbstverständlich war, um ‚objektiv’ zu bestimmen, was der Fall ist, bzw. was sein soll“.18

Indem der Akteur die situativen Einflüsse des Erfolgs/ Misserfolgs von DFSS-Aktivitäten analysiert, betreibt er ein „vorbereitendes Nachdenken“ über mögliche Verbesserungen. Durch implizites und/ oder explizites Aufstel-len von Ursachen-Wirkungsbeziehungen werden zunächst die Stärken und Schwächen des DMADV-Zyklus herausgearbeitet. Anschließend können auf dieser Basis Veränderungen theoretisch „durchgespielt“ werden. Gegenüber betrieblicher Verbesserungsarbeit zeichnet sich der wissenschaftliche Analy-seprozess durch die Bildung abstrakter Modelle aus, die Aussagen mit einem relativ hohen Verallgemeinerungsgrad erlauben.

3. Auf der Ebene der Theoriegeleiteten Praxis erörtern Menschen Geltungsan-sprüche, um Wissen zu bilden, mit dem sie soziale, technische und/ oder poli-tische Probleme lösen können. Wird das akkumulierte Wissen zur Problemlö-sung verwendet, vollzieht sich der Übergang von der theoretischen zur theo-riegeleiteten Praxis. Dabei ist es irrelevant, ob das Wissen nur zur empiri-schen Absicherung oder zur tatsächlichen Problemlösung eingesetzt wird.

Die Rückkopplung zur Primären Praxis erfolgt genau dann, wenn sich die Problemlösungshandlungen bewähren und in (unproblematisch funktionie-rende) Routinen überführen lassen. In diesem Fall tritt der Aspekt der kriti-schen Erörterung/ Auseinandersetzung mit verschiedenen Geltungsansprü-chen wieder in den Hintergrund. Solange keine (neuen) Probleme auftreten, haben die Akteure keine Veranlassung, sich in Distanz zu ihren Handlungen zu bringen – Sie tun die Dinge einfach!

18 Dazu werden (aus der Distanz) Geltungsansprüche zwischen Beobachter und Akteur in

jedem Lebensbereich erörtert, und zwar in Bezug auf (a) Verständlichkeit der sprach-lich vermittelten Aussagen des Akteurs, (b) Wahrheit der unterstellten Zweck-Mittel-Relationen des Akteurs, (c) Wahrhaftigkeit der Aussagen, d.h. der Akteur meint tat-sächlich, was er sagt, und (d) Richtigkeit der Aussagen, d.h. die vom Akteur anvisierten Ziele sind legitim. Theoretische Praxis ist nicht mit Wissenschaft gleichzusetzen, da auch ein Wissenschaftler über (unreflektierte) Routinen verfügt; sie stellt eine institutio-nalisierte Form der theoretischen Praxis dar (vgl. Habermas 1973).

Page 38: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

16 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Am Beispiel des DMAIC-Zyklus, der im Rahmen von Six Sigma branchenüber-greifend genutzt wird, lässt sich die geschilderte Situation gut nachvollziehen. Aufgrund der vielfach dokumentierten Erfolgsbeispiele und dem nachgewiesenen Wirkungsgrad wird der Problemlösungszyklus als institutionalisiertes Element von vielen Unternehmen unreflektiert übernommen. Zur Diskussion steht allen-falls der Einsatz bestimmter Methoden, welche die Projektarbeit (noch) effizienter gestalten sollen. Die unternehmensspezifischen Abweichungen im Methodenein-satz tragen jedoch eher marginalen Charakter. Sie stellen das Gesamtkonzept Six Sigma zur prozessbezogenen Verbesserung nicht in Frage.

Abb. 1-4: Von der Primären Praxis zur Theoriegeleiteten Verbesserung des DFSS-Problemlösungszyklus

Anders bei Design for Six Sigma: Hier kann der DMADV-Zyklus nicht ohne Wei-teres als „unproblematisch funktionierende Routine“ bezeichnet werden. Unab-hängig davon, von wo die Optimierungsanstrengungen ausgehen – Wissenschaft oder Praxis, ist ein „wissensbasiertes Handeln“ der Akteure zur Problemlösung notwendig, um zu einem verbesserten Vorgehensmodell zu gelangen. Ziel ist es, den DMADV-Zyklus theoriegeleitet so zu verändern, dass er aus Sicht der Betrof-fenen eine deutliche Verbesserung gegenüber dem bisherigen Vorgehen darstellt. Dies erhöht die Wahrscheinlichkeit, dass der überarbeitete DFSS-Zyklus als insti-tutionalisiertes Element in die Primäre Praxis übernommen wird. Durch die Be-rücksichtigung der Ebene der Theoretischen Praxis soll darüber hinaus ein generi-scher Modellrahmen entwickelt werden, der es ermöglicht, praxisbezogene Prob-lemlösungszyklen – auch außerhalb von DFSS – im Hinblick auf ihre Problemlö-sungsfähigkeit zu analysieren und ggf. theoriegeleitet zu verbessern.

Primäre PraxisPrimäre Praxis

Theoretische PraxisTheoretische Praxis

Theoriegeleitete PraxisTheoriegeleitete Praxis

„Vorbereitendes Nachdenken“ d. Akteurs über situativeEinflüsse des Erfolgs + abgeleiteter U-W-BeziehungenDFSS: Analysieren von DFSS-Projekten mit dem Ziel, Gründe für den Erfolg/ Misserfolg zu identifizieren

„Alltagsweltliches Können“ des Akteurs führt zum Han-deln/ Verhalten ohne theoretische Einsicht DFSS: Durchführen von DFSS-Projekten anhand des DMADV-Zyklus als „State of the art“-Vorgehensmodell

„Wissensbasiertes Handeln“ des Akteurs zur Problem-lösung bzw. zur Überprüfung der aufgestellten Theorie DFSS: Verbessern des DMADV-Zyklus auf der Basis analysierter + erkannter Ursachen-Wirkungsketten

Basis: Scherer 2002, S. 26

Page 39: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 17

1.2 Untersuchungs- und Forschungsdesign

1.2.1 Forschen im „mode 2“ – Verbindung von rigour und relevance

Nach Whitley (1985, S. 7) ist die praktische Relevanz von Wissenschaft kein vor-dergründiges, sondern eher ein nachgeordnetes, technisches Problem. Denn Wis-senschaft und Praxis finden in erster Linie dadurch zueinander, dass eine geeigne-te soziale Infrastruktur als vermittelnde „Brücke“ zwischen wissenschaftlicher und praktischer Ebene vorliegt. Er und andere Forscher vertreten deshalb die These, dass wissenschaftliche Akzeptanz („rigour“) und praktische Relevanz („relevan-ce“) sich nicht ausschließen müssen, sondern grundsätzlich miteinander vereinbar sind. Im Bereich Six Sigma ist dieser Brückenschlag nur z.T. gegeben. Wissen-schaft bezog sich hier in der Vergangenheit in erster Linie auf die Beschreibung der Anwendung und Umsetzung des Managementkonzeptes.

Auf der Basis von Unternehmensbefragungen und der Auswertung von Fallstu-dien wurde versucht, die Anwendungsvoraussetzungen für eine erfolgreiche Six Sigma-Implementierung zu eruieren (vgl. z.B. die Befragungsergebnisse von Schmieder 2003/ 05 sowie die Benchmarking-Resultate von DynCorp 2003). Verbesserungen und Weiterentwicklungen des Konzeptes gehen maßgeblich von beratenden Gesellschaften und/ oder den Six Sigma-Anwendern selbst aus. Bei-spielhaft ist zum einen der von der GEORGE GROUP (2003) entwickelte Lean Six Sigma-Ansatz19 zu nennen. Zum anderen gibt es Bestrebungen, Six Sigma mit bestehenden Betriebssoftware-Systemen, z.B. SAP R/3, zu kombinieren (vgl. Burton/ Sams 2005, S. 48ff.). Die Orientierung an praktischen Problemlösungen, inkl. der Weitergabe von mehr oder weniger wissenschaftlich fundierten Hand-lungsempfehlungen, stehen dabei naturgemäß im Vordergrund.

Die praktische Relevanz von Managementwissenschaften, in der die vorliegende Arbeit verankert ist, wird seit einigen Jahren, vor allem in den USA, intensiv dis-kutiert (vgl. z.B. Huff 2000; Rynes et al. 2001). Viele Diskurse zum Theorie-Praxis-Verhältnis gehen dabei auf die Arbeit von Gibbons et al. (1994) zurück. Die Kernforderungen des von ihnen vertretenen „mode 2“-Konzeptes sind

• die Auflösung der Grenzen zwischen wissenschaftlicher und unternehmens-bezogener Kommunikation sowie

• die simultane Orientierung an praktischer Problemlösung und wissenschaftli-cher Analysegenauigkeit.

19 In jüngster Zeit gibt es eine verstärkte Tendenz zu „Lean Six Sigma“. Dabei geht es in

erster Linie um eine konsequente Kombination der Philosophie des Lean Production im Sinne des Toyota-Produktions-Systems (TPS) mit dem von Motorola, General Electric, Siemens et al. erfolgreich eingeführten und angewandten Six Sigma-Projektmanage-ments (vgl. Töpfer/ Günther 2007a, S. 26). Ziel ist es, die Wirtschaftlichkeit des gesamten Verbesserungswesens im Unternehmen zu erhöhen.

Page 40: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

18 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Ziel ist es, von einem theorieorientierten, auf wissenschaftlichen Kommunikati-onsgewohnheiten basierenden „mode 1“ der Wissensproduktion zu einem praxis-orientierten, auf Probleme der Praktiker ausgerichteten „mode 2“ zu gelangen. In Abb. 1-5 ist das dominierende Schema zur Klassifizierung unterschiedlicher For-schungstypen in den Sozial- und Wirtschaftswissenschaften dargestellt. Es basiert auf einen viel zitierten Artikel der drei Forscher Anderson/ Herriot/ Hodgkinson (2001, S. 395) und hilft bei der Einordnung der vorliegenden Arbeit.

Abb. 1-5: Einordnung der Dissertationsschrift in die Forschungstypologie nach Ander-son/ Herriot/ Hodgkinson (2001)

Die Einteilung unterschiedlicher Wissenschaftsströmungen erfolgt nach den zwei Dimensionen „Theoretische/ methodische Exaktheit“ sowie „Praktische/ wirt-schaftliche Relevanz“. Durch Zuordnung der Merkmalsausprägungen „Niedrig“ und „Hoch“ zu jeder Dimension ergibt sich ein Vier-Quadranten-Schema, anhand dessen wissenschaftliche Arbeiten und Aufsätze auf dem Gebiet der Sozial- und Wirtschaftswissenschaften verankert werden können:

• Quadrant 1: „Popularist Science“: Das populärwissenschaftliche Feld um-fasst u.a. Beiträge von Unternehmensberatern, die sich um die Verbreitung von bestimmten Konzepten, auch als Managementmoden bezeichnet, bemü-

Basis: Anderson/ Herriot/ Hodgkinson 2001, S. 395

Niedrig

Hoch

Niedrig Hoch

Quadrant 4: „Puerile Science“

Quadrant 3:„Pedantic Science“

Quadrant 1: „Popularist Science“

Quadrant 2: „Pragmatic Science“

Theoretische/ metho-dische Exaktheit

Praktische/ wirtschaftliche

Relevanz

Mode 2: Analyse von „Six Sigma“

mit methodischer Stringenz und praktischer Relevanz

Mode 2: Analyse von „Six Sigma“

mit methodischer Stringenz und praktischer Relevanz

Page 41: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 19

hen. Besonderer Wert wird auf die praktische Relevanz, Aktualität und Popu-larität gelegt; das wissenschaftliche Vorgehen steht im Hintergrund.

• Quadrant 2: „Pragmatic Science“: Zur pragmatischen Wissenschaft gehören alle anwendungsorientierten Forschungsarbeiten auf dem Gebiet der Mana-gementwissenschaften. Das Ziel einer „guten Wissenschaft“ besteht darin, sowohl „streng/ exakt“ in Bezug auf die theoretischen und methodischen Grundlagen als auch „relevant/ verwertbar“ in Bezug auf die anvisierten Sta-keholder, z.B. Manager, Mitarbeiter und Kunden, zu sein. Im Vordergrund steht ein direkter Theorie-Praxis-Bezug, wie er auch in dieser Arbeit unmit-telbar verfolgt wird (vgl. Hodgkinson et al. 2001, S. S46).

• Quadrant 3: „Pedantic Science“: Zum Feld der exakten Wissenschaft gehö-ren in erster Linie akademische Disziplinen, die heute als feste Institutionen im Wissenschaftsbetrieb gelten, z.B. Arbeits- und Organisationspsychologie. Die vormals zumeist praxisorientierten Disziplinen wurden im Zuge der Aka-demisierung immer technischer, eigendynamischer und für die Allgemeinheit unverständlicher. Die Wissenschaft wird dann „pedantisch“.

• Quadrant 4: „Puerile Science“: Als nutzlose Wissenschaft bezeichnet man jene Forschungsbemühungen, die primär den Anschein des „kindlichen, ver-spielten“ tragen. Sie werden oftmals nur aufgrund von Begutachtungsprozes-sen in Fachzeitschriften legitimiert. Weder die „Praktische Relevanz“ noch der „Theoretische Anspruch“ spielen hierbei eine herausragende Rolle.

Die abgeleiteten Forderungen aus dem viel beachteten „mode 2“-Konzept von Gibbons et al. (1994) sind in den Managementwissenschaften bislang wenig er-folgreich geblieben. Insbesondere gibt es Hinweise darauf, dass die Management-wissenschaften der gestellten Anforderung eines Ausgleichs zwischen Theorie und Praxis nicht gerecht wird und es stattdessen zu einem Trade-off zwischen „rigour“ und „relevance“ kommt (vgl. hierzu und im Folgenden Nicolai 2004, S. 103ff.). Wie empirische Studien nahe legen, geht die wissenschaftliche Akzeptanz i.d.R. auf Kosten der praktischen Relevanz und umgekehrt. Es wird immer nur einer Richtung nachgegangen/ entsprochen, also entweder methodischer „Strenge“ oder praktischer Relevanz, aber nicht beiden zugleich (vgl. Shrivastava 1987). Infolge-dessen sind wissenschaftliche Artikel, die von Wissenschaftlern in renommierten Journalen veröffentlicht werden, nach wie vor nur schwer von Praktikern „konsu-mierbar“. Als Grund für diese Entwicklung lassen sich system- und problemtheo-retische Erklärungsansätze angeben (vgl. Gopinath/ Hofman 1995).

Bei der Bewertung von Managementkonzepten, wie z.B. Six Sigma, fallen Theo-rie- und Praxissicht häufig auseinander, da es kein einheitliches Effizienzkriteri-um gibt. In der Praxis existiert die Vorstellung eines „Marktes von Problemlö-sungstechniken“, die in unmittelbarer Konkurrenz zueinander stehen. Eine hohe Verbreitung von bestimmten Techniken wird als Indiz für eine hohe wissenschaft-liche Validität angesehen. Hier liegt die Annahme zugrunde, dass sich das beste auf dem Markt verfügbare Konzept im Wettbewerb durchsetzt (vgl. Marcus et al.

Page 42: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

20 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

1995). In der Wissenschaft existiert demgegenüber eine klare Vorstellung über die Definition von Effizienz und Effektivität zur Messung des Erfolgs von Problemlö-sungstechniken. Diese erfolgt auf theoretischer Grundlage und in enger Rückbin-dung an das bestehende Publikationsnetzwerk.20

Nach dem bekannten Philosophen und Wissenschaftstheoretiker KARL R. POPPER (1902-1994), auf den die Methodenlehre des Kritischen Rationalismus zurückgeht, kann die Wissenschaft jedoch keine endgültigen wahren Theorien/ Aussagen her-vorbringen (vgl. Popper 1935, 1969). Vielmehr kann sie lediglich Vorschläge zur Problemlösung machen, die auf theoretischen Konzepten basieren. Diese sind aber jeweils als vorläufig anzusehen. Entsprechend dem Prinzip von Versuch und Irr-tum steht nicht die Bestätigung (Verifizierung), sondern die Widerlegung (Falsifi-zierung) der aus den Theorien abgeleiteten Hypothesen im Vordergrund. Unter dieser Sichtweise ist die Wissenschaft dazu angehalten, über die Zeit immer neue-re und bessere Problemlösungsvorschläge zu entwickeln (Prinzip der schöpferi-schen Zerstörung). Dies bezieht sich nicht nur auf die naturwissenschaftliche For-schung, sondern auch auf den hier betrachteten Untersuchungsgegenstand „Mana-gementkonzepte für Unternehmen“ (vgl. Töpfer 2007a, S. 18ff.).

Um zu neuen wissenschaftlichen Erkenntnissen über den Untersuchungsgegens-tand zu gelangen, existieren aus wissenschaftstheoretischer Sicht genau genom-men zwei Ansätze. Der erste Ansatz geht von der Annahme aus, dass ein grund-sätzlich Theorie-geleiteter Wissenschaftszugang möglich ist, bei dem die „Hand-lungspraxis der Menschen“ durch die explizite und/ oder implizite Anwendung von Theorien geleitet wird. Beispiele für theorieabhängige wissenschaftstheoreti-sche Ansätze/ Positionen sind der o.g. „Falsifikationismus“ nach Popper und die „Forschungsprogramme“ nach IMRE LAKATOS (1922-1974). Der zweite Ansatz geht demgegenüber von einem Praxis-geleiteten Wissenschaftszugang aus, bei dem – auf erster Stufe – ein theorieunabhängiges Handeln und Verhalten der Ak-teure (Forscher) unterstellt wird (vgl. Scherer 2002, S. 26).

Auf „alltagsweltliches Können“ als Basis für strukturiertes, methodisches Denken stellt z.B. der „(Neue) Experimentalismus“ nach DEBORAH G. MAYO (1996) ab. Nach dieser sind für wissenschaftliche Revolutionen, d.h. die Entdeckung grund-legend neuer wissenschaftlicher Zusammenhänge, keine großangelegten Ände-rungen in den theoretischen Annahmen/ Bezugspunkten notwendig. Vielmehr ist wissenschaftlicher Fortschritt mit dem kontinuierlichen Zuwachs an experimentel-lem Wissen gleichzusetzen. Unabhängig vom zugrunde liegenden Wissenschafts-verständnis gilt der bekannte Ausspruch von Popper (1969, S. 71).: „Die Erkennt-nis beginnt nicht mit der Wahrnehmung, Beobachtung oder Sammlung von Daten

20 Probleme ergeben sich insoweit, als dass (a) beim Messvorgang nicht alle unabhäng-

igen Variablen erfasst werden (können) und (b) die Performance als abhängige Variable nur im Zusammenhang mit einer bestimmten Auswahl unabhängiger Variablen, die aus dem zugrunde gelegten theoretischen Modell abgeleitet sind, gemessen wird (vgl. March/ Sutton 1997; Nicolai/ Kieser 2002).

Page 43: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 21

oder Tatsachen, sondern sie beginnt mit Problemen [...] und ihren Lösungsversu-chen durch Hypothesenbildung, Theorien und/ oder Vermutungen.“

Die Probleme, welche in unserem Fall als Ausgangspunkt der Forschungsbemü-hungen dienen, ergeben sich aus der Übertragung des Managementkonzeptes Six Sigma auf den F&E-Bereich von Unternehmen (vgl. Abschnitt 1.2.2). Folgt man dem Praxis-geleiteten Wissenschaftszugang, dann stellen sowohl persönliche Erfahrungen des Forschers als auch empirische Fakten, die durch (sorgfältige und unvoreingenommene) Beobachtungen und/ oder Experimente gewonnen werden, die Grundlage des wissenschaftlichen Erkenntnisprozesses dar.21

Nach induktivistischem Prinzip werden diese direkt zur Ermittlung von (universel-len) Gesetzmäßigkeiten und Theorien herangezogen, wobei das Prinzip der logi-schen (validen) Induktion angewendet wird (vgl. hierzu und im Folgenden Chal-mers 1999, S. 41ff.). Aus den so gewonnenen, allgemeingültigen Aussagensyste-men werden anschließend Erklärungen und Vorhersagen deduziert sowie Gestal-tungsempfehlungen für die Praxis abgeleitet. Im Ergebnis liegt eine „Theoriegelei-tete Praxis“ vor, auf die im vorliegenden Fall systematisch hingearbeitet wird. Dem deduktivistischen Prinzip, bei dem die Theorie als allgemeines Aussagensys-tem den Ausgangspunkt bildet, um wissenschaftliche Aussagen (Fakten) logisch und systematisch herzuleiten, wird nicht an erster Stelle gefolgt. Dies wird im Zusammenhang mit der Struktur der Arbeit und dem Untersuchungsdesign, auf das im Folgenden näher eingegangen wird, unmittelbar deutlich.

1.2.2 Konzeptionelle Grundlagen und inhaltliche Vernetzung

Nach der Vorstellung von Anderson et al. (2001) hat die Wissenschaft zuallererst eine aufklärende Funktion. Dabei sollte es möglich sein, durch den Übergang von Quadrant 1 („Popularist Science“) in Quadrant 2 („Pragmatic Science“), Manage-mentmoden, wie z.B. Lean Six Sigma, die in der Praxis einen starken Zuspruch erfahren, auf wissenschaftlicher Basis zu überprüfen und ggf. durch bessere Kon-zepte zu ersetzen. Nach obigen Ausführungen besteht hier jedoch die Gefahr, dass es beim Versuch, von Quadrant 1 in Quadrant 2 zu wechseln, unweigerlich zu einem Sprung in Quadrant 3 („Pedantic Science“) kommt. Aus einer praxisorien-tierten Forschung wird unmittelbar eine theoretische, die im wissenschaftlichen Publikationsnetzwerk fest verankert ist (vgl. Nicolai 2004, S. 107). Die Vertreter dieses Trade-off-Gedankens begründen ihre These damit, dass sich die Wissen-schaft von den Erfolgskriterien der Praxis zunächst lösen muss, bevor ein wissen-schaftlicher Analyseprozess einsetzen kann. Durch die Festlegung eigener, theo-riebasierter Effizienz-/ Effektivitätskriterien besteht jedoch unmittelbar die Ge-fahr, dass der Praxisbezug schrittweise verloren geht.

21 Neben einer möglichst großen Anzahl von Beobachtungen/ Experimenten in unter-

schiedlichen Situation basiert die Ableitung von Theorien/ Gesetzmäßigkeiten auf dem explizit und/ oder implizit vorhandenen Erfahrungswissen des Forschers. Dieses ent-stammt zu einem großen Teil der „Primären Praxis“ (vgl. Abschnitt 1.2.1).

Page 44: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

22 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

In vielen Fällen kommt es zu einem immer stärker werdenden Auseinandertriften der beiden Kommunikationssysteme. Aufgrund der selbstreferentiellen Eigendy-namik wissenschaftlicher Kommunikation nimmt die Verzahnung von Erklärungs- und Gestaltungsfunktion eher ab als zu. Ist das Thema „Six Sigma“ erst einmal im Wissenschaftsbetrieb angekommen, dann ist fortan mit einem ansteigenden Ver-lust an praktischer Relevanz zu rechnen. Während praxisorientierte Berater dazu tendieren, Probleme von Klienten in der Weise zu definieren, dass sie möglichst gut auf die ihnen zur Verfügung stehenden Lösungskonzepte passen (vgl. Bloom-field/ Danieli 1995), also z.B. Einsatz von Six Sigma zur Verbesserung der Pro-zess- und Produktqualität in Richtung Null-Fehler-Qualität, ergründen wissen-schaftliche Beobachter zunächst den Wahrheitsgehalt der Probleme, die sie von Praktikern präsentiert bekommen, und zwar unter Rückgriff auf ein bestimmtes Wissenschaftsnetzwerk. Dies führt dazu, dass das Ausgangsproblem im Zuge der Publikationstätigkeit und dem einsetzenden Prozess der Problemevolution nach und nach aus dem Blickfeld gerät (vgl. Nicolai/ Kieser 2002).

Als Kompromisslösung wird deshalb die relative Autonomie von „mode 1“ und „mode 3“ anstelle der Verschmelzung von Theorie und Praxis im „mode 2“ gefor-dert.22 Dieser Ansatz soll in der vorliegenden Arbeit insoweit Berücksichtigung finden, dass bei der Analyse der beiden Vorgehensmodelle – DMAIC- und DMADV-Zyklus – zwischen zwei Untersuchungsebenen, nämlich Theorie- und Praxisebene bzw. Realitäts- und Abstraktionsebene, unterschieden wird. Wie an der Struktur der Arbeit in Abb. 1-6 ersichtlich ist, wird der Übergang zwischen den beiden Ebenen einerseits durch das Prinzip der Induktion (Praxis-Theorie-Transformation) sowie andererseits durch das Prinzip der Deduktion (Theorie-Praxis-Transformation) erreicht. Die Untersuchung erfolgt im Rahmen von 6 Kapiteln, deren Inhalte im Folgenden kurz skizziert sind.

Im einleitenden 1. Kapitel wurde zunächst die Bedeutung und Relevanz des The-mas sowie die Vorgehensweise erläutert. Nach Vorstellung des Forschungsdesigns und Ableitung der Hypothesen erfolgt im 2. Kapitel eine Einordnung von Six Sigma als Managementkonzept zur Erzielung von Null-Fehler-Qualität. In diesem Zusammenhang wird ein relativer Vergleich mit anderen bekannten QM-Konzep-ten zur Erhöhung der Prozess- und Produktqualität vorgenommen. Anschließend wird der Frage nachgegangen, ob es sich bei Six Sigma respektive Design for Six Sigma um ein nachhaltiges Konzept zur Steigerung der Unternehmensperforman-ce handelt, oder doch eher um eine Modeerscheinung, die von Unternehmen auf-grund von Legitimationsaspekten eingesetzt wird.

22 Die Vorteile, die aus einer Beibehaltung der Grenzen zwischen kritisch beobachtendem

und analysierendem Wissenschaftler und aktiv beteiligtem und handelndem Praktiker folgen, sind vielschichtig. Zum einen mündet das Engagement des Wissenschaftlers nicht in eine „Verwissenschaftlichung“ von Praxis. Die Wissenschaft läuft im Hinter-grund ab, so dass der Forscher nicht vom sozialen System der Praxis „absorbiert“ wird. Zum anderen ist die managementwissenschaftliche Betrachtung unabhängig von vorde-finierten Problemen und Lösungen der Praxis (vgl. Luhmann 1994, S. 645).

Page 45: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 23

Abb. 1-6: Struktur der Arbeit

Das 3. Kapitel gibt zunächst einen generellen Überblick über wesentliche Effekti-vitätskriterien (Erfolgsfaktoren) von F&E-Projekten: Generierung von Innovatio-nen und Erreichung von Null-Fehler-Qualität. Im Anschluss wird analysiert, wie diese Kriterien im Unternehmen mithilfe von Vorgehensmodellen aus dem Gebiet des Innovations- und Qualitätsmanagements dauerhaft und nachhaltig erfüllt wer-den können. Die Analyse findet ihre Fortsetzung am Beispiel der Verbesserungs-zyklen von Six Sigma; die Inhalts- und Vorgehensbeschreibung erfolgt sowohl am realen als auch am abstrakten Modell. Letzteres orientiert sich am Vorgehen bei der Optimierung einer zweigipfligen Funktion der Form y = f(x).

Auf dieser Grundlage werden im 4. Kapitel verschiedene mathematische Vorge-hensmodelle zur funktionellen Optimierung und Lösung schwieriger, d.h. schlecht strukturierter Probleme vorgestellt und diskutiert. Sie bilden den Ausgangspunkt für die Suche nach einem neuen, verbesserten DFSS-Problemlösungszyklus. Die eingehende Beschäftigung mit klassischen mathematischen Optimierungsalgo-rithmen führt zu der Erkenntnis, dass der DMADV-Zyklus um die Phase Innovate

1 Möglichkeiten und Grenzen des Einsatzes von DFSS im Produktentstehungsprozess

1.1 Problemstellung und Zielsetzung 1.2 Untersuchungs- und Forschungsdesign

2 Six Sigma – Zeitgemäßes Management-konzept für Null-Fehler-Qualität

2.1 Dimensionen des Begriffs Manage-mentkonzept

2.2 Managementkonzepte zur Verbes-serung der Prozess-/ Produktqualität

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten

3 Praxis-Theorie-Transformation als in-duktive Vorgehensweise: Vom konk-reten zum abstrakten Vorgehensmodell

3.1 Qualität und Innovation – Begriffe 3.2 Vorgehensmodelle für Innovatio-

nen und Null-Fehler-Qualität3.3 Six Sigma Verbesserungszyklen:

DMAIC & DMADV 3.4 Formal-analytische Beschreibung

der Verbesserungszyklen

4 Mathematische Vorgehensmodelle zur funktionellen Optimierung und Lösung schwieriger ökonomischer Probleme

4.1 Algorithmen/ Heuristiken – Begriffe4.2 Klassische Algorithmen4.3 Evolutionäre Algorithmen

1

2

5 Theorie-Praxis-Transformation als de-duktive Vorgehensweise: Vom abstrak-ten zum konkreten Vorgehensmodell

5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus

5.2 IESRM-Zyklus als Anwendung Evo-lutionärer Algorithmen

5.3 Empirische Überprüfung an Bei-spielen

6 Zusammenfassung, Schlussfolgerungen und Ausblick

3

5 4

6

Quelle: Eigene Darstellung

Page 46: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

24 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

nach Analyse zu erweitern ist. Über die Untersuchung der Lösungsprinzipien von evolutionären Algorithmen gelangt man im zweiten Schritt zu einem gänzlich neuen Vorgehensmodell, dem IESRM-Zyklus. Beide Vorgehensmodelle werden im 5. Kapitel operationalisiert. Analog der Beschreibung des DMAIC-/ DMADV-Zyklus in Kapitel 3 werden die Ziele und Inhalte der einzelnen Phasen sowie die zur Zielerreichung vorzugsweise einzusetzenden (QM-)Methoden erläutert.

Im Rahmen einer Wirtschaftlichkeitsbetrachtung wird anschließend gezeigt, dass die abgeleiteten Vorgehensmodelle dem bisherigen DMADV-Zyklus überlegen sind, und zwar sowohl in Bezug auf die Effizienz der Lösungssuche als auch in Bezug auf die Effektivität der Eingrenzung des Optimums. Die empirische Über-prüfung erfolgt explorativ anhand von zwei Beispielen: (1) Optimierung der Flug-zeit eines Papier-Rotors (Laborexperiment) und (2) Optimierung der Kehreigen-schaften eines Straßenbesens (Unternehmens-Fallstudie).

Im abschließenden 6. Kapitel werden die Untersuchungsergebnisse kurz zusam-mengefasst und kritisch bewertet. Außerdem wird ein Ausblick auf sinnvolle Wei-terentwicklungen auf dem Gebiet von Design for Six Sigma gegeben. Dringliche Forschungsbedarfe, die sich aus der Analyse der aktuell verwendeten Vorgehens-modelle im F&E-Bereich ergeben, werden aufgezeigt.

In Abb. 1-7 sind die Konzeption sowie die inhaltlichen Schwerpunkte der Disser-tationsschrift im Detail dargestellt (Untersuchungsdesign). Das Vorgehen der Untersuchung orientiert sich am eingangs vorgestellten Problemlösungsfluss bei Six Sigma-Projekten (siehe Abb. 1-1). Dieser ähnelt dem allgemeinen Lösungs-muster widerspruchsorientierter Problemlösungstechniken, wie z.B. TRIZ23, die darauf ausgerichtet sind, aus technisch-naturwissenschaftlichen Phänomenen/ Er-kenntnissen synergetische Effekte für innovative (Produkt-)Lösungen abzuleiten (vgl. Günther 2004, S. 1). Durch (mehrmaliges) Durchlaufen der fünf Schritte:

(1) Definition des realen Problems,

(2) Abstraktion des realen Problems,

(3) Suchen der abstrakten Lösung,

(4) Beschreiben der abstrakten Lösung und

(5) Spezifikation der realen Lösung

soll ein strukturierter Denkprozess in Gang gesetzt werden, der beim Auffinden neuartiger Lösungen hilft (vgl. auch Abschnitt 5.1.2).

Im Untersuchungsdesign werden die fünf Schritte ebenenübergreifend vernetzt, und zwar zum einen bezogen auf den Problemlösungsprozess (horizontal) und zum anderen bezogen auf das Abstraktionsniveau (vertikal). Die Abstraktion und Spezifikation der Vorgehensmodelle ist durch entsprechende Pfeile gekennzeich-

23 Russ. Akronym für „Theorija Reshenija Izobretatjelskich Zadacz“

Page 47: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 25

net; die inhaltliche Vernetzung der einzelnen Untersuchungsbereiche wird durch Verbindungslinien markiert. Der Problemlösungsfluss erstreckt sich – unabhängig von der Betrachtungsebene – über die fünf Schritte. Die Inhaltsbereiche der ein-zelnen Schritte stehen in einem sachlogischen Zusammenhang, der im Folgenden – jeweils getrennt nach Realitäts- und Abstraktionsebene – analysiert wird; die Verknüpfung der zwei Ebenen erfolgt über einen Analogieschluss.

(1) Definition des realen Problems

Die Definition des Problems bildet den Ausgangspunkt des wissenschaftlichen Analyseprozesses. Die Problemstellung, die hier zugrunde gelegt wird, ist die Bereitstellung effektiver, d.h. wirksamer Vorgehensmodelle zur Verbesserung von Produkten/ Prozessen. Unter Berücksichtigung der unterschiedlichen Anforderun-gen in den einzelnen Wertschöpfungsbereichen des Unternehmens sollen jeweils adäquate Problemlösungszyklen bereitgestellt werden. Nach Pleschak/ Sabisch (1996, S. 28) sollte die Problemformulierung als Mindestangaben den Ist-Zustand, den Soll-Zustand, die (langfristige) Zielsetzung sowie den zwischen Ist- und Soll-Zustand bestehenden Widerspruch bzw. Konflikt enthalten.

Bei (Design for) Six Sigma ist der Ist-Zustand dadurch gekennzeichnet, dass – in Abhängigkeit von der Aufgabenstellung im Unternehmen – zwei Problemlösungs-zyklen zur Verfügung stehen (siehe Abb. 1–7 (Teil 1/1)). Wie oben bereits ausge-führt, unterscheiden sich DMAIC- und DMADV-Zyklus im Hinblick auf die Ef-fektivität der Lösungssuche z.T. signifikant. In vielen Fällen ist die Ergebnisquali-tät, die mit dem DMADV-Zyklus erreicht werden kann, deutlich schlechter als die bei Anwendung des DMAIC-Zyklus. Vor diesem Hintergrund ist der Soll-Zustand dadurch gekennzeichnet, dass ein Problemlösungszyklus vorliegt, der einen höhe-ren Zielerreichungsgrad besitzt als der jetzige DMADV-Zyklus und folglich dem Anspruch des „Design for Six Sigma“ eher gerecht wird.

Die langfristige Zielsetzung besteht darin, den Six Sigma-Anwendern einen effek-tiven Verbesserungszyklus für den F&E-Bereich zu präsentieren, der eine mit der Anwendung des DMAIC-Zyklus in der Produktion vergleichbare Erfolgsrate und Ergebnisqualität besitzt. Zwischen Ist-Zustand und angestrebtem Soll-Zustand besteht ein Widerspruch, der aus dem in der betrieblichen Praxis häufig zu beo-bachtenden Trade-off zwischen Wirtschaftlichkeit (Effizienz) und Zielerreichungs-grad (Effektivität) resultiert. Bei der Suche nach einem verbesserten DFSS-Problemlösungszyklus ist infolgedessen darauf zu achten, dass die Erhöhung der Effektivität nicht zu Lasten der Effizienz geht.24

24 Ein Six Sigma-Projekt gilt als effizient, wenn sich die Netto-Einsparungen (Net Bene-

fit) innerhalb eines Jahres nach Projektende auf ca. 125.000 € summieren. Der Zeitraum für die Durchführung des Projektes sollte dabei nicht mehr als 6 Monate betragen und das Team, inkl. Projektleiter, nicht mehr als fünf Personen umfassen (vgl. Töpfer 2007b, S. 236). Entsprechende Zahlen für die Durchführung von DFSS-Projekten liegen bis dato nicht vor. Erfahrungsberichte aus der Praxis legen aber nahe, dass der

Page 48: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

26 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Im Weiteren ist zu klären, welche (realen) Aufgaben im Unternehmen mit der Problemstellung in Zusammenhang stehen respektive diese im Einzelnen betref-fen. Bei der Bearbeitung von wissenschaftlich-technischen Problemen, zu denen auch die Entwicklung neuer Methoden/ Verfahren zählt, hat sich das Prinzip der verbindlichen Aufgabenstellung bewährt (vgl. Pleschak/ Sabisch 1996, S. 28). Die Erarbeitung der Aufgabenstellung zur Problemlösung umfasst üblicherweise die vier Schritte Aufgabenfindung, -bewertung, -formulierung und -bestätigung. Aus-gehend von der genannten Problemstellung lassen sich im Wesentlichen zwei Arten von Optimierungsaufgaben in Unternehmen differenzieren.

(1a) Zum einen streben Unternehmen danach, durch die Entwicklung neuer Pro-dukte und Verfahren ihren Fortbestand in der Zukunft zu sichern. Nur durch die regelmäßige Einführung von Produkt- und Prozessinnovationen können Unter-nehmen langfristig am Markt bestehen (vgl. u.a. Schlicksupp 2004, S. 9ff.). Diese Aufgabenstellung wird im Rahmen der Dissertation vordergründig behandelt, und zwar bezogen auf die Anforderungen von Design for Six Sigma.

(1b) Zum anderen sind Unternehmen darum bemüht, am Markt eingeführte, be-reits bestehende Produkte und Prozesse kontinuierlich zu verbessern. Im Rahmen der Produktpflege soll nach und nach ein höheres Qualitäts-/ Nutzenniveau er-reicht werden, um so die Wettbewerbsfähigkeit zu sichern respektive zu steigern. Diese Aufgabe ist im Vergleich zu (1a) deutlich einfacher zu meistern, da jeweils nur Teilbereiche analysiert und optimiert werden.

Managementkonzepte, die in der Unternehmenspraxis beliebt sind und dort eine starke Verbreitung gefunden haben, zeichnen sich durch effektive Problemlö-sungszyklen aus, die auf eine breite Palette von Problemstellungen im Unterneh-men anwendbar sind. So ist z.B. der DMAIC-Zyklus im Rahmen von Six Sigma nicht auf die Behebung von Qualitätsproblemen in der Produktion beschränkt. Vielmehr bezieht sich sein Anwendungsgebiet auf eine ganze Reihe von Problem-stellungen im Unternehmen, z.B. Durchlaufzeiten-Minimierung in der Fertigung, Kosten-Minimierung in der Administration/ Verwaltung, Maximierung der Zuver-lässigkeit im IT-Support. Was der DMAIC-Zyklus für Six Sigma bedeutet, ist – im übertragenen Sinn – der PDCA-Zyklus für KVP und der DMADV-Zyklus für Design for Six Sigma. Sie sind der „harte Kern“ eines nach außen hin legitim-ierten Managementkonzeptes. Für Führungskräfte und/ oder Mitarbeiter stellen sie eine Art „Kochrezept“ dar, anhand dessen sie Probleme schnell und nachhaltig lösen können. Im Fall des DMADV-Zyklus wird dieser Anspruch nur teilweise erfüllt, was dazu führt, dass seit geraumer Zeit alternative Vorgehensmodelle diskutiert und umgesetzt werden (vgl. Abschnitt 1.1.2):

• Um sich gegenüber den maßgeblichen Wettbewerbern im Markt zu behaup-ten, sind von Seiten des Unternehmens kontinuierlich Verbesserungsmaß-

oben genannte Projektumfang/ -aufwand auch für DMADV-Pojekte im großen und ganzen zutrifft (vgl. z.B. Dorff/ Töpfer 2007, S. 526ff.).

Page 49: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 27

nahmen einzuleiten. Dadurch wird verhindert, dass das Unternehmen in seiner Entwicklung auf einem bestimmten Kosten- und/ oder Qualitätsniveau stehen bleibt und so Gefahr läuft, den Anschluss an den Wettbewerb zu verpassen. In Abhängigkeit von der Philosophie und der strategischen Ausrichtung des Un-ternehmens kann die konkrete Zielsetzung einerseits darin bestehen, kontinu-ierlich besser zu werden. Dabei erfolgt die Weiterentwicklung von Prozessen und Produkten in kleinen, marginalen Schritten. Als institutionalisiertes Ele-ment25 kommt der Kontinuierliche Verbesserungsprozess (KVP) zum Einsatz (vgl. Masing 1999, S. 9ff.). Auf der Abstraktionsebene entspricht diese Form der Verbesserung der ständigen Suche nach einer verbesserten Lösung für das o.g. mathematische Optimierungsproblem. In der Unternehmensrealität geht es um die Optimierung des „Magischen Dreiecks“.

• Im Gegensatz zu Unternehmen, die sich der jap. Kaizen-Philosophie ver-schrieben haben und an KVP festhalten, streben Unternehmen, die Six Sigma praktizieren, nach signifikanten Verbesserungen in relativ kurzen Zeiträumen. Durch die Anwendung des DMAIC-Zyklus sollen projektbezogen „Verbesse-rungen in Quantensprüngen“ innerhalb von 3 bis 6 Monaten erreicht werden (vgl. Töpfer/ Günther 2007a, S. 18). Umfassende und weitreichende Verände-rungen von Organisationsstrukturen und -abläufen in wenigen Monaten ste-hen auch bei Business Process Reengineering (BPR) im Vordergrund (vgl. Abschnitt 2.2.2). Die Verbesserungsaktivitäten konzentrieren sich bei beiden Ansätzen auf die Erhöhung des Qualitätsniveaus unter Berücksichtigung des Wirtschaftlichkeitsprinzips. Betrachtet man das Vorgehen aus der Sicht der mathematischen Optimierung, dann besteht die abstrakte Zielsetzung in der Suche nach dem nächstliegenden, lokalen Optimum bei einer – bekannten o-der unbekannten – Zielfunktion der Form y = f(x1, x2, ..., xn).

• Bei der Entwicklung eines neuen Produktes/ Prozesses besteht das Ziel vor-dergründig darin, einen „großen Sprung nach vorn“ zu machen bzw. eine ra-dikale Verbesserung zu erreichen. Um Produkt- und/ oder Prozessinnovatio-nen zu generieren, sollen in relativ kurzer Zeit möglichst große Veränderun-gen an Produkten/ Prozessen vorgenommen werden, die zu einer besseren Er-füllung der (zukünftigen) Kundenanforderungen führen. Das „klassische Vor-gehen“, um dieses Ziel zu erreichen, besteht darin, einen Produktentstehungs-prozess (PEP) zu definieren, nach dem neue Produkte/ Prozesse systematisch zu entwickeln sind. Dazu werden die zu durchlaufenden Phasen und anzu-wendenden Methoden verbindlich festgelegt. In Six Sigma-Unternehmen wird diese Form des F&E-Projektmanagements durch den DFSS-Ansatz er-

25 Walgenbach/ Beck (2003) präsentieren umfangreiche empirische Befunde zur Über-

nahme der ISO 9000 als institutionalisiertes Element in erwerbswirtschaftliche Orga-nisationen aufgrund von internen Effizienzüberlegungen und/ oder externem Anpas-sungsdruck. Ihre Hauptthese geht dabei dahin, dass die Ausgestaltung der formalen Organisationsstruktur aufgrund institutionalisierter Erwartungen in der Organisations-umwelt erfolgt; Effizienzüberlegungen bei der Einführung der ISO 9000 in Unterneh-men spielen in vielen Fällen eine untergeordnete Rolle.

Page 50: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

28 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

gänzt (siehe z.B. Unternehmen wie Daimler, Bosch und Siemens).26 Als Grundlage für die Planung und Steuerung von Aktivitäten im Entwicklungs-prozess dienen spezifische Vorgehensmodelle, z.B. DMADV-Zyklus.

(2) Abstraktion des realen Problems

Nach dem oben beschriebenen Prozess der Problemlösung ist das reale Problem im zweiten Schritt zu abstrahieren. In unserem Fall findet sich eine vergleichbare Problemstellung auf dem Gebiet der mathematischen Optimierung. Hier geht es um die Bereitstellung mathematischer Algorithmen/ Heuristiken zur Lösung kom-plexer Probleme. Bei letzteren handelt es sich i.A. um schlecht strukturierte bzw. strukturierbare mathematische Probleme, die somit gar nicht oder nur schwer auf analytischem Weg lösbar sind. Selbst komplizierte Rechenverfahren reichen häu-fig nicht aus, um die Optimallösung einer beliebigen, nicht-linearen Optimie-rungsfunktion y = f(x1, x2, ..., xn) zu bestimmen. Um zumindest eine annähernd „gute Lösung“ zu finden, werden Heuristiken eingesetzt, die nach einem plausib-len Algorithmus (Rechenschema) die Optimallösung suchen. Die Anforderungen an den zu programmierenden Algorithmus richten sich in erster Linie nach der Art der Darstellbarkeit der funktionellen Abhängigkeit.

(2a) Sind die Input- und Outputgröße(n) bekannt und liegen Erkenntnisse zu den kausalen Abhängigkeiten vor, dann lässt sich der zu untersuchende Sachverhalt in Form einer mathematischen Zielfunktion beschreiben. Im Fall von Optimierungs-problemen mit einer unimodalen Zielfunktion lautet die abstrakte Aufgabenstel-lung: max y = f(x1, x2, ..., xn) oder min y = f(x1, x2, ..., xn).

(2b) Liegen keine Erkenntnisse zu den abhängigen und unabhängigen Variablen und deren kausalen Abhängigkeiten vor, dann wird das Maximum/ Minimum simultan zur Bestimmung des funktionellen Zusammenhanges gesucht. Die Opti-mierung der Zielgröße Y gestaltet sich in diesem Fall deutlich schwieriger.

In beiden Fällen wird der Suchraum i.d.R. durch die Formulierung von Neben-bedingungen eingegrenzt. Die Optimierungsrechnung läuft dann auf die Lösung

26 Z.B. unterteilt sich beim Unternehmen Bosch Siemens Hausgeräte (BSH) der PEP in

die vier Phasen Produktidee, Produktdefinition, Produkt-/ Prozessentwicklung und Produktbetreuung; zwischen den einzelnen Phasen sind sog. Quality Gates definiert. Jede der genannten Phasen enthält wiederum mehrere Unterphasen, zwischen denen Entscheidungspunkte für den Projektfortgang festgelegt sind. Ein Katalog von Muss- und Kann-Methoden gibt zusätzlich an, welche Qualitätsinstrumente/ -methoden im Rahmen des PEP auf jeden Fall anzuwenden sind. So ist z.B. der Einsatz von Failure Mode and Effect Analysis (FMEA) fest vorgeschrieben, während die Anwendung von Quality Function Development (QFD) optional ist (vgl. Leifeld 2002, S. 7).

BSH wurde im Jahr 2003 von der Zeitschrift „Wirtschaftswoche“ und dem Beratungs-unternehmen „A.T. Kearney“ zum Unternehmen mit dem besten Innovations-management (Best Innovator) in Deutschland gekürt. Wie die Jury feststellt, resultiert die Innovationsfähigkeit/ -kraft vor allem aus dem weltweit standardisierten PEP mit „strikten Deadlines“ (vgl. Katzensteiner/ Leendertse 2003, S. 63).

Page 51: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 29

eines (komplexen) Gleichungssystems hinaus. In der weiteren Betrachtung wird auf der Abstraktionsebene der Aufgabenstellung (2b) gefolgt, da sie den Anfor-derungen/ Bedingungen der „realen Welt“ besser entspricht. Die betrieblichen Abläufe zur Erstellung eines Produktes oder einer Dienstleistung sind in vielen Unternehmen außerordentlich komplex; die Ursachen-Wirkungsbeziehungen sind häufig nur zu einem bestimmten Grad offen gelegt.

Die Definition eines konkreten Ziels ist Bestandteil der Aufgabenformulierung und hilft den Verantwortlichen/ Beteiligten, die Lösung der Aufgabe kontrollfähig zu machen und damit den Zielerreichungsgrad „richtig“ zu bestimmen. So variiert die (strategische) Zielsetzung nicht nur von Unternehmen zu Unternehmen, son-dern auch – unternehmensintern – von Prozess zu Prozess. In Abhängigkeit von den unter (1) spezifizierten generellen Aufgabenstellungen lassen sich insgesamt drei Zielsetzungen bei der Optimierung von Produkten und Prozessen differenzie-ren. Dabei wird das Erreichen der Ziele durch einschlägig bekannte Management-konzepte, z.B. Six Sigma und Design for Six Sigma, unterstützt, die in Unterneh-men – einzeln oder kombiniert – zum Einsatz kommen.

(3) Suchen der abstrakten Lösung

Auf abstrakter Ebene ist das Erreichen eines „vollkommenen“ Produkt-/ Dienst-leistungsangebotes vergleichbar mit der Suche nach dem globalen Optimum bei einer Zielfunktion y = f(x1, x2, ..., xn). Die mathematische Optimierung hält hier eine Reihe von Rechenverfahren in Form von Algorithmen bereit, um das globale Maximum bzw. Minimum einer beliebigen Funktion zu finden. Die Klassifizie-rung der Verfahren richtet sich in erster Linie nach der Art des zu lösenden Prob-lems (vgl. u.a. Jarre/ Stoer 2004). Wie eingangs erwähnt, kann es sich um gut oder weniger gut strukturierte Probleme handeln, die es zu lösen gilt. Aus übergeordne-ter Sicht lassen sich dabei insgesamt drei Gruppen von mathematischen Lösungs-verfahren/ -ansätzen unterscheiden (vgl. Unterkapitel 4.2).

In zweiter Linie ist es möglich, eine Klassifizierung nach der Art der gewählten Lösungsstrategie vorzunehmen. Für das Finden einer Problemlösung i.e.S. lassen sich hier im großen und ganzen zwei Verfahrensgruppen ausmachen.

(3a) Unter Klassischen Verfahren sollen alle mathematischen Algorithmen ver-standen werden, die am Ende der Optimierung eine Lösung präsentieren, welche die Zielfunktion maximiert bzw. minimiert. Ein häufig verwendetes Verfahren ist das auf Newton zurückgehende Gradientenverfahren, bei dem der Lösungsvektor nach dem Kriterium des steilsten Anstiegs in Richtung Optimum „verschoben“ wird. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf kommen zudem Lokale Suchverfahren zum Einsatz, die sich bei der Lösungssu-che ebenfalls in kleinen Schritten vorantasten (vgl. Wäscher 1998).

(3b) Eine gänzlich andere Strategie zur Lösung komplexer Probleme verfolgen Evolutionäre Algorithmen (EA). Sie gehören zur Gruppe der Naturadaptiven Ver-fahren. Anstelle der Verbesserung einer einzelnen Lösung sind sie darauf ausge-

Page 52: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

30 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Abb. 1-7 (Teil 1/2): Vorgehen der Untersuchung (Untersuchungsdesign)

Optimierung einesbestehenden Pro-duktes/ Prozesses

Entwicklung einesneuen Produkt-/ Prozessdesigns

Reale Problem-stellung

Bereitstellung effek-tiver Vorgehensmo-delle zur Verbesse-rung von Produkten/ Prozessen

Reale Aufgaben-stellung

Erreichen einermarginalen Verbesserung

Erreichen einersignifikanten Verbesserung

Erreichen einerradikalen Ver-besserung

Realitätsebene

AbstrakteProblemstellung

Abstrakte Aufgaben-stellung (Modell)

Suchen des lokalenOptimums

Suchen des globalenOptimums

AbstraktionsebeneSuchen einer verbesserten Lösung

Bereitstellung mathe-matischer Algorith-men/ Heuristiken zur Lösung komplexer Probleme

Optimierung der Zielgröße Y, wenn y = f(x) bekannt

Optimierung der Zielgröße Y, wenn y = f(x) unbekannt

Konkrete Ziel-setzung

Abstrakte Ziel-setzung

Problem-stellung

Problem-stellung

Abst

rakt

ion

1

32

1a

1b

2a

2b

Problemstellung i.e.S.

Ableitungszusammenhang

Inhaltliche Untergliederung

Legende:

Quelle: Eigene Darstellung

Page 53: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 31

Abb. 1-7 (Teil 2/2): Vorgehen der Untersuchung (Untersuchungsdesign)

Problem: Festlegen einesgeeigneten Start-punktes für die Lösungssuche

DFSS

Six Sigma

DMADV-Zyklus

DMAIC-Zyklus

Realer Problem-lösungszyklus

Management-konzept

KVP PDCA-Zyklus

Effektivität derLösungssuche

Klassische Verfahren

Newton-Verfahren

Evolutionäre Verfahren

Lösung:Simultane Opti-mierung v. meh-reren Lösungs-kandidaten

DMAIDV-Zyklus

IESRM-Zyklus

GenetischerAlgorithmus

MathematischerLösungsansatz

MathematischerAlgorithmus

Hoch

Gering

Lokale Such-verfahren

Hoch

Effektivität der Lösungssuche

Mittel

Gering

Problem-lösung

Problem-lösung

Hoch

Erkenntnis 1:DMADV führt zukeinen innovati-ven Lösungen

w.z.b.i.

Erkenntnis 2:DMAIC u. PDCAerfüllen i.d.R. dieZielsetzung(en)

Spezifikation

4

5

PEPKlassischer F&E-Prozess

3b

3a

4a

4b

4c

5c

5b

5a Problemlösung i.e.S.

Page 54: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

32 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

richtet, eine Population mit n Lösungskandidaten zu optimieren. Der Algorithmus ist beendet, wenn gleichzeitig mehrere Lösungen gefunden worden sind, welche die Zielfunktion maximieren bzw. minimieren. Dabei handelt es sich in der Mehrzahl der Fälle um heuristische Lösungsverfahren, bei denen das Auffinden des globalen Optimums der Zielfunktion nicht garantiert wird.

(4) Beschreiben der abstrakten Lösung

Die Entwicklung von neuen Vorgehensmodellen, z.B. DMAIC-Zyklus, basiert typischerweise auf vorhandenem Erfahrungswissen in der Praxis (vgl. Simon 1976, S. 26ff.). Häufig werden nach dem Trial-and-Error-Prinzip Veränderungen an bestehenden Problemlösungszyklen vorgenommen. Diese werden anschließend an konkreten Produkt-/ Prozessbeispielen getestet und im Hinblick auf ihre Prob-lemlösungsfähigkeit bewertet. Stellt sich der veränderte Optimierungsansatz als geeignet heraus, dann wird dieser als (vorläufige) Best practise in die institutional-isierten Strukturen und Abläufe des Unternehmens aufgenommen. Für die Ent-scheidungsträger ist dabei vor allem eins wichtig: Der „neue“ Problemlösungs-zyklus muss möglichst einfach, plausibel und in seinen Mittel-Zweck-Relationen nachvollziehbar sein (vgl. u.a. Zucker 1987, S. 443ff.). Diese Anforderung wird von wissenschaftlichen Konzepten/ Theorien häufig nicht erfüllt, was eine direkte Übernahme in die Primäre Praxis deutlich erschwert und den o.g. Trade-off zwischen Theorie und Praxis bestärkt (vgl. Abschnitt 1.2.1).

Aus diesem Grund ist es notwendig, die auf wissenschaftlichem Weg gewonnenen Erkenntnisse zur Verbesserung von Unternehmensabläufen in die „Sprache des Managements“ zu transformieren. Um eine gute Anwendbarkeit in der Praxis zu gewährleisten, sind die auf der Abstraktionsebene gefundenen Lösungsmuster zu spezifizieren, z.B. in Form von Handlungsanweisungen und Vorgehensmodellen.

Wie in Abb. 1-7 (Teil 2/2) nachvollziehbar ist, können aus den drei mathemati-schen Vorgehensmodellen (4a), (4b) und (4c) jeweils reale Vorgehensmodelle abgeleitet bzw. spezifiziert werden. In Bezug auf die gewählte Optimierungsstra-tegie lassen sich dabei die folgenden drei Analogien feststellen.

(4a) Die Strategie, die bei klassischen Six Sigma-Projekten zur Anwendung kommt, ist – auf abstrakter Ebene – vergleichbar mit dem auf Newton zurück gehenden Sekantenverfahren. Dabei wird die Nullstelle einer mathematischen Funktion linear interpoliert, was zu einem schrittweisen Eingrenzen des Optimums führt. Ein alternatives Vorgehen, um das Optimum einer Funktion y = f(x1, x2, ..., xn) zu bestimmen, ist das Newton´sche Tangentenverfahren (vgl. Göhler 1996, S. 95). Die Annäherung an das Optimum erfolgt hier ebenfalls allmählich; jedoch ist aufgrund der relativ kleinen Schrittweite eine größere Anzahl von Iterationen notwendig, um das Optimum einzugrenzen. Im Gegensatz zum Sekantenverfahren basiert der Suchprozess auf der Anwendung der Infinitesimalrechnung. Das Vor-gehen findet sich – auf realer Ebene – bei KVP wieder.

Page 55: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 33

(4b) Die Forderung nach der Überwindung von lokalen Optima, die kein globales Optimum darstellen, ist mit der Generierung von Innovationen bei realen Produk-ten/ Prozessen vergleichbar. Dabei sind u.U. temporäre Verschlechterungen des Produkt-/ Prozessdesigns in Kauf zu nehmen. Die diskontinuierliche Veränderung von kritischen Qualitätsmerkmalen führt häufig erst mittel-/ langfristig zu einem Wiederanstieg der Produkt-Performance. Aus diesem Grund setzen sich Innova-tionen in der Praxis nur relativ langsam durch; gerade im Anfangsstadium können sie mit der Leistungsfähigkeit von bestehenden Lösungen nicht mithalten.

In der Sprache der mathematischen Optimierung bedeutet dies, dass sich der Ziel-funktionswert beim Übergang von einem lokalen Optimum zum nächsten kurzfris-tig verschlechtert, sofern die Funktion glatt und stetig verläuft. Zu den klassischen Verfahren, die diese Eigenschaft des Zielfunktionsverlaufs bei der Optimierung berücksichtigen, gehören u.a. die Lokalen Suchverfahren (vgl. Wäscher 1998, S. 1302). Sie basieren auf dem Prinzip der Nachbarschaftssuche, welches besagt, dass neue, akzeptable Lösungen ausschließlich lokal, d.h. in der Nachbarschaft der aktuellen Lösung, zu suchen sind.

(4c) Ein ähnliches Prinzip, d.h. bestehende Lösungen in kleinen Schritten verän-dern und dadurch den Suchraum sukzessive nach besseren Lösungen „abtasten“, machen sich auch Genetische Algorithmen (GA) zu nutze. Sie stellen eine wichtige Untergruppe der o.g. Evolutionären Algorithmen (EA) dar. In den Ingenieur- und Naturwissenschaften hat sich die Genetische Programmierung vor allem bei der Lösung komplizierter Aufgaben mit einer Vielzahl von unabhängigen Einfluss-größen und z.T. unbekannten Funktionszusammenhängen bewährt (vgl. Sprave 1999). Im Rahmen der Dissertation wird gezeigt, dass sich diese Vorgehensweise durch eine entsprechende Operationalisierung auch für die Problemlösung in der Unternehmenspraxis nutzbar machen lässt. Analog zum DMADV-Zyklus wird ein Problemlösungszyklus konstruiert, der als Handlungsleitfaden bei F&E-Projekten dient; er beruht zum überwiegenden Teil auf bekannten Methoden und Instrumen-ten des Qualitäts- und Innovationsmanagements.

(5) Spezifikation der realen Lösung

Die Anwendung von entsprechenden Vorgehensmodellen im F&E-Bereich hat zum Ziel, ein optimales Design in möglichst kurzer Zeit, mit wenigen Arbeits-schritten (Iterationen) zu finden. Dabei liegt der Fokus auf diskontinuierlichen Verbesserungen, die über einen projektorientierten Ansatz realisiert werden sollen (vgl. von Regius 2006, S. 142ff.). Die Zielsetzung lässt sich auf abstrakter Ebene mit dem Auffinden des globalen Optimums einer komplexen Funktion mit mög-lichst wenig Rechenschritten vergleichen. In diesem Zusammenhang gilt es lokale Optima zu überwinden, die beim Lösungsprozess häufig „im Weg stehen“.

(5a) Um das vorstehend genannte Ziel zu erreichen, ist bei klassischen Verfahren darauf zu achten, einen geeigneten Startpunkt für die Lösungssuche zu finden. Bei der Anwendung des Newton-Verfahrens, mit dem u.a. das Vorgehen im Rahmen des DMADV-Zyklus erklärt werden kann, besteht die unmittelbare Gefahr, bei

Page 56: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

34 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Vorhandensein mehrerer lokaler Optima das globale Optimum zu verfehlen. In der Realität bedeutet dies, dass die bestmögliche Lösung im Zuge der Verbesserungs-aktivitäten verfehlt wird, weil sie nicht die nächstliegende Lösung bezogen auf die Ausgangssituation darstellt. Anstelle dessen wird eine sog. Second best-Lösung realisiert, die in praxi häufig einen deutlich geringeren Suchaufwand erfordert, jedoch nicht zum optimalen Outcome führt.

(5b) Das Prinzip von Lokalen Suchverfahren lässt sich relativ problemlos auf die Gestaltung von realen Problemlösungszyklen übertragen. Nach der Analyse der wesentlichen Ursachen-Wirkungszusammenhänge sind alternative Startpunkte, sprich Lösungskonzepte, für die Produktoptimierung zu suchen. Im Fall von De-sign for Six Sigma ist hierzu eine Erweiterung des DMADV-Zyklus vorzuneh-men. Im Ergebnis liegt dann ein 6-phasiger Problemlösungszyklus – DMAIDV –vor, der die Phase Innovate (I) als zusätzliche Phase vor der Design-Phase enthält. Dadurch wird die Bedeutung von Prozess- und Produktinnovationen im Rahmen von F&E-Vorhaben stärker in den Vordergrund gestellt. Gleichzeitig wird die Forderung nach Null-Fehler-Qualität, welches die bisherigen Aktivitäten von DFSS dominiert(e), relativiert; Qualitätssicherungs- und Innovationsstreben ste-hen fortan in einem ausgewogeneren Verhältnis zueinander.27

(5c) Neben der inkrementalen Weiterentwicklung des DMADV-Zyklus ergibt sich mit dem IESRM-Zyklus ein gänzlich neuer Ansatz für das (Re-)Design von Pro-dukten und Prozessen. Er leitet sich aus den unter (4c) benannten Genetischen Algorithmen ab und beinhaltet die fünf Phasen Initialisierung (I), Evaluierung (E), Selektion (S), Rekombination (R) und Mutation (M). Die letztgenannten vier Phasen werden zu einer Iterationsschleife zusammengefasst und solange durchlau-fen, bis eine zufriedenstellende, i.d.R. nutzenmaximale Lösung gefunden worden ist. Analog zur Programmierung von Genetischen Algorithmen basiert das Lö-sungsprinzip auf der simultanen Optimierung von n Lösungskandidaten, die in der Initialisierungs-Phase zu einer Ausgangspopulation zusammengefasst werden (vgl. Goldberg 1989). Ziel ist es, die Fitness der Population schrittweise zu erhö-hen und dabei möglichst herausragende Individuen „zu züchten“.

Nachdem die neuen Problemlösungszyklen DMAIDV und IESRM spezifiziert worden sind, stellt sich die Frage, wie effektiv die Lösungssuche im Vergleich zu DMAIC- und DMADV-Zyklus ist. Die Effektivität der Lösungssuche der überge-ordneten Verfahren, aus denen die beiden Vorgehensmodelle abgeleitet werden, ist mittel bis hoch. Das vorgegebene Ziel, ein globales Optimum bei einer kom-plexen, mehrdimensionalen Funktion zu finden, wird sowohl von den Lokalen

27 Aus Methodensicht ist diese Harmonisierung bereits voll im Gange. So fordern eine

Reihe von Autoren, die analytisch-systematischen Methoden aus dem Qualitätsmanage-ment, z.B. DOE, um kreativ-intuitive Methoden aus dem Innovationsmanagement, z.B. TRIZ, zu ergänzen (vgl. z.B. Töpfer/ Günther 2007b, S. 152; Averboukh 2004, S. 1f.; Yang/ El-Haik 2003, S. 235ff.). Letztere sind dann vorzugsweise innerhalb bzw. unmittelbar nach der Analyse-Phase des DMADV-Zyklus einzusetzen.

Page 57: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 35

Suchverfahren als auch den Genetischen Algorithmen sehr gut unterstützt. Insbe-sondere im Vergleich zu den Klassischen Verfahren ist ihr Zielerreichungsgrad deutlich größer. Bei gegebener Problemstellung werden die optimalen Input-Werte Xs für einen maximalen bzw. minimalen Output Y nicht nur genauer detek-tiert, sondern auch i.d.R. schneller, d.h. mit weniger Iterationen, gefunden (vgl. z.B. Michalewicz/ Fogel 2000; Gen/ Cheng 1997).

Auf der Realitätsebene steht die Bestätigung des Effektivitäts- und Effizienzvor-teils noch aus. Ausgehend von den abstrakten Vorgehensmodellen, wie sie bei der Lösung schwieriger Aufgaben in der Mathematik angewendet werden, liegt die Vermutung nahe, dass sowohl der DMAIDV- als auch der IESRM-Zyklus zu einer Verbesserung der Qualität der Lösungssuche führen. Unter dieser Voraussetzung stellen sie eine interessante Alternative zu dem in der Praxis vorherrschenden DMADV-Zyklus dar. Letzterer weist vor allem in Sachen „innovativer Lösungs-findung“ Defizite auf und ist deshalb – aus Praxissicht – verbesserungsbedürftig.

Wie in Abschnitt 1.2.1 ausgeführt wurde, geht die Anforderung des „mode 2“-Konzeptes dahin, auf der Grundlage von wissenschaftlichem Arbeiten direkt an-wendbares, instrumentelles Wissen zu produzieren. Um insbesondere den Trade-off zwischen methodischer Stringenz und praktischer Relevanz zu überwinden, ist die Forschungstätigkeit so auszurichten, dass sie die „Praktikersprache“ unmittel-bar bei der Problemkonstruktion und -lösung aufgreift.

Zwischen Realitäts- und Abstraktionsebene sind deshalb Anknüpfungspunkte zu definieren, welche eine bessere Kommunikation/ Interaktion zwischen Theorie und Praxis erlauben (vgl. Nicolai 2004). Zudem sind die theoretischen Überlegun-gen, die zur Weiterentwicklung des „harten Kerns“ von DFSS führen, durch ent-sprechende empirische Untersuchungen und/ oder problemorientierte Fallstudien zu bestätigen oder ggf. wieder zu verwerfen. Dabei stellt die Kommunikation von erfolgreich durchgeführten Projekten ein probates Mittel dar, um die Diffusion von managementwissenschaftlichem Methodenwissen in die Unternehmenspraxis zu beschleunigen.

Im Rahmen der Dissertation werden zum einen die Anwendungsvoraussetzungen für den Einsatz von DMAIDV- und IESRM-Zyklus in Unternehmen geprüft. Zum anderen werden – wie in Abschnitt 1.2.2 benannt – auf der Basis von Fallstudien Handlungsempfehlungen für die systematische Weiterentwicklung des DFSS-An-satzes gegeben. Darüber hinaus wird anhand eines umfangreichen Laborexperi-ments gezeigt, welche Chancen und Risiken die Anwendung des IESRM-Zyklus im Produktentstehungsprozess beinhaltet. Unter Berücksichtigung zeitlicher und finanzieller Restriktionen setzt auf dieser Grundlage eine explorative Untersu-chung im Unternehmensumfeld an. Diese soll vor allem das Anwendungspotenzial und den Effektivitätsvorteil der auf wissenschaftlichem Weg generierten, opti-mierten DFSS-Vorgehensmodelle bzw. Teile von selbigen verdeutlichen.

Page 58: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

36 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

1.2.3 Aggregatbezogene Differenzierung auf vier Ebenen

Nach Kromrey (2002, S. 82) ist neben dem Untersuchungsdesign (siehe Abb. 1-7) für jedes Forschungsvorhaben ein zur jeweiligen Thematik „maßgeschneiderter“ Forschungsplan zu entwerfen. In diesem sind die jeweiligen Forschungsfragen zu operationalisieren und – sofern es sich um eine empirische Forschungsarbeit han-delt – ein geeignetes Erhebungsinstrument zu entwickeln und zu testen. Dabei stehen für bestimmte Gruppen von Fragstellungen spezifische Designtypen mit jeweils spezifischer Forschungslogik zur Auswahl.28 Sie sind der Ausgangspunkt für die individuelle Ausgestaltung des Forschungsdesigns. Im Rahmen der empiri-schen Sozial- und Wirtschaftswissenschaften spiegelt es die Erkenntnis- und Handlungsorientierung der Arbeit auf einem Blick wider.29

Das Forschungsdesign, welches in Abb. 1-8 – analog zum Untersuchungsdesign – zweigeteilt auf den Seiten 38 und 39 dargestellt ist, erstreckt sich über die vier Ebenen: Einfluss-, Strategie-, Gestaltungs- und Auswirkungsebene. Sie bilden den theoretischen Bezugsrahmen von managementwissenschaftlichen Untersuchun-gen, die insb. am erweiterten situativen Ansatz ausgerichtet sind (vgl. Töpfer 2007a, S. 813ff.; Kieser/ Walgenbach 2003, S. 43ff.). Dabei kommt dem For-schungsdesign unmittelbar eine „Scharnierfunktion“ zu, indem es die im Untersu-chungsdesign festgelegten Aggregate inhaltlich vernetzt und konzeptualisiert. Gleichzeitig wird der konzeptionelle Rahmen für die eigenen theoretischen Analy-sen und empirischen Befunde gelegt (vgl. Töpfer 2009, S. 120f.).

Die Pfeile, die in Abb. 1-8 zwischen den einzelnen inhaltlichen Analysefeldern/ Aggregaten eingezeichnet sind, symbolisieren – in weiten Teilen – die vermuteten Ursachen-Wirkungsbeziehungen. Sie bilden die Basis für die anschließende For-mulierung von aussagefähigen Hypothesen. Während Verbindungslinien mit ei-nem Pfeil an einem Ende auf gerichtete Ursachen-Wirkungsbeziehungen hindeu-ten (Wirkungshypothesen), stehen Verbindungslinien mit zwei Pfeilen an den Enden für vermutete Zusammenhänge ohne eindeutige Ursache (Zusammen-hangshypothesen). Die acht Hypothesen (H1-H8), die aus erkenntnistheoretischer Sicht das Fundament der Arbeit bilden, sind in Abb. 1-8 mit Kreis gekennzeichnet und werden im Zuge der Erläuterungen zu den vier Ebenen des Forschungsdesigns

28 Als Grundlage dient häufig eines der folgenden vier Designtypen: (1) Theorie- oder

hypothesentestende Untersuchung, (2) Experiment sowie quasi-experimentelle Ansätze, (3) Standardmodell der Programm-Evaluation und (4) Deskriptives Surveymodell. Die verschiedenen Verfahren/ Instrumente aus dem Baukasten der Methodenlehre können in Abhängigkeit von der Nützlichkeit der Erfüllung des Untersuchungszwecks in viel-fältiger Weise miteinander kombiniert werden (vgl. Kromrey 2002, S. 83).

29 Weil die Arbeit empirischer Natur ist und damit eine theoretische und eine praktische Seite bzw. Ebene besitzt, kann sie sowohl Erkenntnis- als auch Handlungsziele verfol-gen. Grundsätzlich lässt sich jedes empirische/ praktische Problem erkenntnis- und/ oder handlungsorientiert erforschen. Im Rahmen der Aktionsforschung mit klarer Erkenntnis- und Handlungsdimension ist jedoch eine Oszillation zwischen den zwei Ebenen üblich (vgl. Frerichs 2002, S. 89; Eberhard 1999, S. 16).

Page 59: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 37

ausgeführt. Während die Hypothesen H1, H2 und H6 deskriptiv-erklärenden Cha-rakter besitzen, sind die restlichen Hypothesen vorhersagend-wertender Natur.

Die grau unterlegten Felder kennzeichnen im Weiteren die konkreten Gestaltungs- und Handlungsempfehlungen in Form von Instrumenten/ Methoden. Sie geben eine direkte Hilfestellung bei der Umsetzung der gewonnenen Erkenntnisse zur Problemlösung und Zielerreichung in der Unternehmenspraxis. Im Sinne des wis-senschaftlichen Forschungs-/ Analyseprozesses handelt es sich dabei um Elemente des sog. Gestaltungsdesigns, welches – im Anschluss an Untersuchungs-, For-schungs- und ggf. Prüfungsdesign – das Spektrum an geeigneten Maßnahmen zur Erreichung der formulierten Ziele aufzeigt (vgl. Töpfer 2009, S. 122).

Alles in allem lässt sich das hier vorliegende Forschungsdesign als exploratorisch-instrumentelles Design30 (EI-Design) klassifizieren (vgl. Fritz 1995, S. 60). Bei diesem steht die Anwendung der nach wissenschaftlichen Maßstäben gewonnenen Erkenntnisse auf konkrete betriebliche Sachverhalte generell im Vordergrund. Des Weiteren geht es um die Entwicklung neuer instrumenteller Konzepte und Metho-den, die bei der Lösung unternehmensspezifischer Probleme zum Einsatz kommen und dabei bisherigen Instrumenten/ Methoden überlegen sind.

Bevor auf die vier Ebenen mit den untersuchten Aggregaten und ihren Beziehun-gen im Einzelnen eingegangen wird, sind als „Vorstufe“ fünf forschungsleitende Fragen aufgelistet (vgl. Töpfer 2009, S. 129). Sie begleiten im Weiteren den ge-samten Detaillierungs-, Analyse- und Erkenntnisprozess und bilden die Grundlage für eine zielgerichtete Forschungsarbeit und Hypothesenbildung.

(1) Warum wird der bei DFSS standardmäßig eingesetzte Problemlösungszyklus (DMADV) den F&E-spezifischen Anforderungen nicht gerecht?

(2) Welche Änderungen sind am bestehenden Problemlösungszyklus (DMADV) vorzunehmen, um die Effizienz und Effektivität von DFSS zu erhöhen?

(3) Welche Handlungsempfehlungen ergeben sich aus theoriebasierter Sicht, um zu einem verbesserten DFSS-Problemlösungszyklus zu gelangen?

(4) Was sind die Inhalte und konzeptionellen Bausteine eines alternativen, auf evolutionären Algorithmen basierenden DFSS-Problemlösungszyklus?

(5) Welche ökonomischen Wirkungen werden durch Problemlösungszyklen er-reicht, die sich am Vorbild evolutionärer Algorithmen orientieren?

30 Fritz (1995, S. 59ff.) schlägt eine zweidimensionale Klassifizierung von empirischen

Forschungsdesigns vor. Die beiden Dimensionen sind einserseits das generelle „Unter-suchungsziel“ und andererseits die angestrebte „Aussagenart“. Beim Untersuchungs-ziel unterscheidet er zwischen exploratorisch und konfirmatorisch. Bei der Aussagenart differenziert er zwischen drei Ausprägungen, nämlich deskriptiv, explikativ und instru-mentell. In Kombination der einzelnen Ausprägungen der zwei Dimensionen ergeben sich damit sechs grundlegende empirische Forschungsdesigns.

Page 60: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

38 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)

Neue Produkte/ Prozesse ent-wickeln auf der Basis zukünf-tiger Kundenanforderungen

Bestehende Produkte/ Prozesse verbessern auf der Basis heu-tiger Kundenanforderungen

Praktizierte Null-Fehler-Qualität in allen Wertschöpfungsprozessen

Produktentstehungspro-zess (PEP) in Forschung und Entwicklung (F&E)

Vorgehensmodell/ Problemlösungszyklus

- Harter Kern -

Legitimitäts-steigerung

Effizienz & Effektivität

Differenzierung ggb. Wettbewerbern

Vollständige Erfüllung wesentlicher Kundenanforderungen (CTQs)

Einfluss-ebene

Strategie-ebene

Gestaltungs-ebene

Auswirkungs-ebene

Kosteneinsparung/Net Benefit

Kostendruck durch Globalisierung

Institutionalisierte s Rahmenkonzept- Weiche Hülle -

Projekt-organisation

Planung & Steuerung

Schutz des harten Kerns vor „Falsifizierung“

B

A

A

Nachhaltige Anwendung

Prozesse mit 6σσσσ-Qualität

Robuste s Design

Geringe(re) Abwei-chungskosten

Adoption durch an-dere Unternehmen

Managementkonzept mittlerer Reichweite- Projektorientiert -

Six Sigma

Managementkonzept mittlerer Reichweite- Projektorientiert -

Six Sigma

Einsatz von speziell auf F&E-Anforderungen

ausgerichtetem KonzeptDesign for Six Sigma (DFSS)

Einsatz von speziell auf F&E-Anforderungen

ausgerichtetem KonzeptDesign for Six Sigma (DFSS)

Zyklus für be-stehende Pro-

dukte/ Prozesse

DMAIC

Zyklus für be-stehende Pro-

dukte/ Prozesse

DMAIC

Zyklus für neue Produkte/ Pro-zesse in F&E

DMADV

Zyklus für neue Produkte/ Pro-zesse in F&E

DMADV

H1

H2

Legende:Vermuteter einseitig gerichteter ZusammenhangVermuteter einseitig gerichteter ZusammenhangVermuteter zweiseitig gerichteter ZusammenhangVermuteter zweiseitig gerichteter ZusammenhangHypothese (H1-H8)Hx Hypothese (H1-H8)Hx

Instrument/ MethodeInstrument/ Methode Quelle: Eigene Darstellung

Page 61: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 39

Suche nach alternativen Vorgehensmodellen/

Problemlösungszyklen

Überlebenssicherung des Unternehmens

Erwartungen der (externen) Umwelt/ Stakeholder

Adoption einschlägig bekannter Managementkonzepte

Maximaler „Fit“ zwischen Kundenanforderungen und

Produkt-/ Prozessmerkmalen

Produkt-/ Prozess-innovationen generieren

Inkrementelle Weiterentwicklung- Praxisorientiert -

Radikale Neuerung ggb. Ursprungsmodell

- Theoriebasiert -

Management-Moden

Technologische Konzepte

H5

Kundennutzen + Kundenzufriedenheit

Umsetzung in VWL:Evolutionäre

Ökonomik

Systematischer Inno-vationsprozess mit

alternierenden Phasen

Vorbild: Kyber-netischer Prozess in Regelungstechnik

Optimierung techni-scher Systeme

Optimierung bio-logischer Systeme

BIdeengenerierung:Intuitiv-kreative

Prozesse

Ideenbewertung:Systematisch-ana-lytische Prozesse

Robuste s + inno-vatives De sign

Populations-denken

Konzept kurzer Reichweite

- Inkrementell -

KVP

Konzept kurzer Reichweite

- Inkrementell -

KVP

Konzept großer Reichweite

- Synoptisch -

BPR

Konzept großer Reichweite

- Synoptisch -

BPR

Widerspruchsorientierte Innovationsstrategie

Widersprüchliche/ konfliktäreKundenanforderungen

Integration widerspruchs-orientierter Innovations-

Methode (TRIZ)

DMAIDV

Integration widerspruchs-orientierter Innovations-

Methode (TRIZ)

DMAIDV

Ableitung eines Problem-lösungszyklus auf der Basis Evolutionärer Algorithmen

IESRM

Ableitung eines Problem-lösungszyklus auf der Basis Evolutionärer Algorithmen

IESRM

Umsetzung in BWL:Evolutionäres Management

Evolutionäre Algorithmen

S-Kurven-Konzept

H4

H8

H3

H6

H7

Analogiebildung & Transformation

Einfluss-ebene

Strategie-ebene

Gestaltungs-ebene

Auswirkungs-ebene

Abb. 1-8 (Teil 1/2): Vernetzung der Inhalte (Forschungsdesign)

Page 62: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

40 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Einflussebene

Auf der Einflussebene sind zunächst wesentliche interne, unternehmensbezogene und externe, marktbezogene Einflüsse im Hinblick auf den effektiven und effi-zienten Einsatz von Managementkonzepten in Unternehmen aufgeführt. Sie wur-den bereits im Zusammenhang mit der Problemstellung und Zielsetzung in Unter-kapitel 1.1 benannt und im Hinblick auf (mögliche) Ursachen-Wirkungsbeziehun-gen analysiert. Die Kernaussage besteht darin, dass sich verschärfende Markt- und Wettbewerbsbedingungen aufgrund Globalisierung sowie steigender Kundenan-forderungen bzgl. Kosten, Zeit, Qualität und Innovation unmittelbar in den Anfor-derungen an den Produktentstehungsprozess (PEP) in Unternehmen niederschla-gen. Bei letztgenanntem geht es vor allem um das Generieren von innovativen, d.h. neuartigen, und robusten, d.h. fehlerfreien, Produkt-/ Prozessdesigns, welche eine nachhaltige Differenzierung vom Wettbewerb erlauben.

Dem Erreichen dieses Ziels stehen u.a. der sinkende eigene Wertschöpfungsanteil und damit die steigende Planungs-/ Steuerungskomplexität der Wertschöpfungs-prozesse entgegen sowie die widersprüchlichen, z.T. konfliktären Kundenanforde-rungen bezogen auf neue Produkte und Prozesse. Hinzu kommt die Tatsache, dass die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangs-punkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, häufig nicht eindeutig vom Kunden kommuniziert und damit für das Unternehmen nur ungenau bzw. vage bestimmbar sind. Dies stellt eine wichtige Voraussetzung für den weiteren Forschungsprozess dar und ist in Hypothese H1 als Wenn-dann-Aussage mit eindeutiger Ursachen-Wirkungsbeziehung präzisiert.31

H1: Wenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeu-gung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ die Generierung von Innovation als weitere Zielgröße hinzukommt, dann sind durch Unter-nehmen die wesentlichen zukünftigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln.

Als weitere Einflussgröße sind im Forschungsdesign in Abb. 1-8 (Teil 2/2) die Erwartungen der (externen) Umwelt, personalisiert in Form der Stakeholder, ex-plizit benannt. Den Hintergrund bildet die Frage, warum bestimmte Management-konzepte, z.B. Six Sigma, von Unternehmen eingesetzt bzw. nicht eingesetzt wer-den, und diese Frage häufig nicht allein aus dem Vorliegen „ökonomischer Zwän-ge“ heraus zu beantworten ist. So liegen nach dem Institutionalistischen Ansatz Veränderungen in der formalen Organisationsstruktur weniger im Wettbewerbs-druck und den daraus folgenden Effizienzanforderungen begründet, sondern insb.

31 Unter einer Hypothese wird nach allg. Auffassung nicht mehr als eine Vermutung über

einen Tatbestand verstanden. Im Fall von empirischen Theorien wird der Begriff stärker eingegrenzt. Hier wird unter einer Hypothese eine Vermutung über einen Zusammen-hang zwischen zwei Sachverhalten verstanden (vgl. Kromrey 2002, S. 48).

Page 63: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 41

in Vorschriften, Regeln, Erwartungen und Anforderungen der institutionellen Umwelt (vgl. Walgenbach 2002, S. 319ff.). Unternehmen erhöhen ihre Legitimität dadurch, dass sie institutionalisierte Elemente, wie z.B. den DMADV-Zyklus im Rahmen von Design for Six Sigma, in ihre Organisationsstruktur aufnehmen.

Die Entwicklung, dass Managementkonzepte vor allem aufgrund ihrer legitimi-tätssteigernden Wirkung adoptiert werden, führt dazu, dass das Rationalisierungs-kalkül als Treiber für den organisationalen Wandel von Unternehmen immer mehr in den Hintergrund tritt. Infolgedessen „passt“ das übernommene Management-konzept als Lösungskonzept häufig nicht zu den wirtschaftlichen Problemen/ Herausforderungen, denen das Unternehmen in der konkreten Situation gegenüber steht. Wie in Abschnitt 1.1.2 ausgeführt, geht auch die Erfahrung beim Einsatz des DMADV-Zyklus im Rahmen von DFSS dahin, dass der Problemlösungszyklus nicht immer zum gewünschten Erfolg führt. Bringt man dies in Zusammenhang mit der in Hypothese H1 formulierten Ausgangssituation bzgl. der schwierigen Bestimmung von CTQs im F&E-Prozess, dann ergibt sich die Hypothese H2 als weitere wichtige empirische Ursachen-Wirkungsbeziehung.

H2: Wenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP)

(a) nicht oder nur teilweise bekannt und/ oder (b) widersprüchlicher/ konfliktärer Natur sind, dann führen die in praxi bisher verwendeten Vorgehensmodelle/ Problem-

lösungszyklen zur Generierung von Null-Fehler-Qualität, z.B. DMADV-Zyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robuste und innovative Produkte/ Prozesse hervorzubringen.

Strategieebene

Das langfristige Ziel von Six Sigma besteht darin, praktizierte Null-Fehler-Quali-tät in allen Wertschöpfungsbereichen zu erreichen, d.h. beginnend vom Produkt-entstehungsprozess (PEP) in Forschung und Entwicklung (F&E) über Beschaf-fung/ Herstellung bis zu Marketing/ Vertrieb. Wie in Abschnitt 2.2.3 ausgeführt, erfolgt die Qualitätssteigerung dabei inkrementell-synoptisch und wird über einen projektorientierten Verbesserungsansatz (DMAIC, DMADV) erreicht. Damit unterscheidet sich das Six Sigma-Konzept von anderen, auf das gleiche Ziel fo-kussierten Konzepten in der Reichweite der angestrebten Veränderungen. So sind die mit der Einführung von Six Sigma verbundenen unternehmensbezogenen Veränderungen der Aufbau- und Ablauforganisation im Vergleich zum Kontinu-ierlichen Verbesserungsprozess (KVP) von größerer, im Vergleich zu Business Process Reengineering (BPR) von kleinerer Reichweite.

Die generellen Wirkungs- und Gestaltungsansätze, die sich aus dem Verfolgen einer Null-Fehler-Strategie in allen Wertschöpfungsprozessen ergeben, ist im linken Teil 1/2 des Forschungsdesigns in Abb. 1-8 verdeutlicht.

Page 64: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

42 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Design for Six Sigma (DFSS) wird im Weiteren als ein Derivat des Six Sigma-Konzeptes angesehen mit spezieller Ausrichtung auf den F&E-Bereich; das kon-krete Anwendungsfeld bezieht sich hier auf die Sicherstellung von Null-Fehler-Qualität im Produktentstehungsprozesses (PEP). In Abgrenzung zu Six Sigma besitzt Design for Six Sigma zwar das gleiche institutionalisierte Rahmenkonzept (weiche Hülle), aber einen unterschiedlichen Problemlösungszyklus (harter Kern). Durch den Übergang von DMAIC- auf DMADV-Zyklus soll den spezifischen Anforderungen im Entwicklungsprozess besser Rechnung getragen werden, insb. bei der vollständigen Erfüllung aller wesentlichen zukünftigen Kundenanforde-rungen (CTQs). In diesem Zusammenhang spielt das Erzeugen von Produkt-/ Prozessinnovationen eine wichtige Rolle, welche jedoch die in Hypothese H1 postulierten Schwierigkeiten bei der Bestimmung der CTQs nach sich ziehen.

Wie unter der Einflussebene erläutert, gibt es in F&E nicht nur generelle Ermitt-lungsschwierigkeiten bei den CTQs. Häufig kommt hinzu, dass die Kundenanfor-derungen – explizit oder implizit – widersprüchlicher bzw. konfliktärer Natur sind. Unter dieser Voraussetzung sehen sich Unternehmen i.A. außer Stande, Produkte/ Prozesse so zu entwickeln, dass alle wesentlichen Kundenanforderungen vollstän-dig erfüllt werden. Abhilfe kann hier eine Widerspruchsorientierte Innovations-strategie schaffen, bei der Widersprüche/ Konflikte nicht als Risiko, sondern als Chance für den Produktentstehungsprozess (PEP) gesehen werden. Die Grundidee besteht darin, dass durch die Auflösung der Widersprüche/ Konflikte unmittelbar Innovationen generiert werden. Zu diesem Zweck ist ein systematischer Innovati-onsprozess aufzusetzen, bei dem sich intuitiv-kreative Phasen zur Ideengenerie-rung und systematisch-analytische Phasen zur Ideenbewertung abwechseln und damit im Rahmen des PEP ergänzen.

Wie im mittleren Teil des Forschungsdesigns in Abb. 1-8 (Teil 2/2) dargestellt, ergibt sich aus der vorstehend genannten Forderung nach alternierenden Phasen im Innovationsprozess ein konkreter Ansatzpunkt für die Erhöhung der Wirksam-keit von einschlägig bekannten Vorgehensmodellen/ Problemlösungszyklen, die zur Generierung von Null-Fehler-Qualität im PEP eingesetzt werden. Indem auf ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten32 in der Ausgestaltung des jeweiligen Problemlö-sungszyklus geachtet wird, lässt sich der weiter oben geschilderte Trade-off zwi-schen Qualitäts- und Innovationsstreben minimieren. Diese Vermutung ist als zielorientierte Wenn-dann-Aussage in Hypothese H3 festgehalten und wird exem-plarisch am Beispiel des DMAIDV-Zyklus in Abschnitt 5.3.1 überprüft.

32 Nach Töpfer (2009, S. 131) wird die Qualität eines Forschungsdesigns zum einen

dadurch bestimmt, welche Beziehungen zwischen den einzelnen Aggregaten auf einer Ebene und zwischen den verschiedenen Ebenen, also horizontal und vertikal heraus-gearbeitet werden. Zum anderen ist für die Qualität eines Forschungsdesigns ent-scheidend, ob wesentliche „Treibergrößen“ erkannt und vernetzt werden. Im vorlie-genden Fall ist das Verhältnis von systematisch-analytischen und intuitiv-kreativen Prozessen/ Arbeitsschritten als „treibend“ bzw. bedeutsam einzustufen.

Page 65: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 43

H3: Wenn Problemlösungszyklen, die im Rahmen des Produktentstehungsprozes-ses (PEP) zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewogenes Verhältnis von systematisch-analytischen und intuitiv-kreati-ven Prozessen/ Arbeitsschritten besitzen, dann führt ihre strukturierte An-wendung zu robusten und innovativen Produkt-/ Prozessdesigns.

Im rechten Teil 2/2 des Forschungsdesigns in Abb. 1-8 ist – entsprechend dem institutionalisitischen Organisationsansatz – die Adoption einschlägig bekannter Managementkonzepte visualisiert. Dabei wird davon ausgegangen, dass sich Ma-nagementkonzepte in zwei Gruppen einteilen lassen: Management-Moden und Technologische Konzepte. Wie in Unterkapitel 2.3 argumentiert wird, unterschei-den sich letztgenannte von Modekonzepten i.e.S. dahingehend, dass sie Vorge-hensmodelle beinhalten, welche den Lösungsweg in Form eines Algorithmus beschreiben, der mehrere, aufeinander abgestimmte Phasen enthält. Dabei handelt es sich um den „harten Kern“ des Managementkonzeptes, der – idealerweise – durch ein institutionalisiertes Rahmenkonzept als „weiche Hülle“ ergänzt wird (siehe linken Teil 1/2 des Forschungsdesigns in Abb. 1-8).

Der Aufbau und die Struktur der Vorgehensmodelle/ Problemlösungszyklen orien-tieren sich häufig am Vorbild selbstregulierender (kybernetischer) Prozesse, wie sie in der Regelungstechnik Anwendung finden. Dabei geht es in erster Linie um die Regelung und Optimierung von technischen Systemen, und zwar auf der Basis systematisch-analytischer Prozesse. Neben technischen Systemen besteht die Möglichkeit, neuerdings biologische Systeme als Vorbild für den generellen Auf-bau von Vorgehensmodellen/ Problemlösungszyklen zu wählen. Hierzu finden sich in der betrieblichen Praxis aber bisher erst wenig konkrete Ansätze. In den Managementwissenschaften wird die Regelung und Optimierung von biologischen Systemen im Zusammenhang mit Forschungsfeldern „Evolutionäre Ökonomik“ und „Evolutionäres Management“ thematisiert (vgl. Abschnitt 4.3.1).

Gestaltungsebene

Auf der Gestaltungsebene werden zum einen die Bedingungen für den wirkungs-vollen Einsatz von Managementkonzepten in Unternehmen analysiert (siehe Mitte links in Abb. 1-8 (Teil 1/2)). Die Grundthese besteht darin, dass sich effektive von weniger effektiven Managementkonzepten dahingehend unterscheiden, dass sie – wie oben angesprochen – aus einem Problemlösungszyklus als „harten Kern“ sowie einem Rahmenkonzept als „weiche Hülle“ bestehen. Beides zusammen stellt eine nachhaltige Anwendung und hohe Adoptionsrate des Konzeptes sicher. Wie im Falle von Six Sigma gezeigt werden kann, bilden eine klar strukturierte Projektorganisation sowie eine effiziente Projektplanung/ -steuerung die unmittel-bare Voraussetzung für eine hohe Wirksamkeit des standardmäßig eingesetzten Problemlösungszyklus (DMAIC). Gleichzeitig wird im Zusammenhang mit De-sign for Six Sigma die einseitige Ausrichtung auf die Generierung von Null-Fehler-Qualität i.S.v. „robusten Produkten“ offensichtlich.

Page 66: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

44 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

Um das Ziel bzw. die Wirkung „robuste und innovative Produkt-/ Prozessdesigns“ zu erreichen, ist – wie in Hypothese H3 postuliert – ein stärkeres Augenmerk auf die Ausgewogenheit der zugrunde liegenden Prozesse/ Arbeitsschritte zu legen. Für die in Six Sigma bzw. Design for Six Sigma verankerten Problemlösungszyk-len bedeutet dies, die überwiegend systematisch-analytischen Prozesse/ Arbeits-schritte durch intuitiv-kreative zu ergänzen. Gleichzeitig bietet die Integration von Widerspruchsorientierten Innovationsmethoden, z.B. TRIZ, die Möglichkeit, Widersprüche/ Konflikte in den ermittelten Kundenanforderungen zu identifizie-ren und mittels innovativer Prinzipien aufzulösen. Der (vermutete) positive Zu-sammenhang zwischen der Erweiterung des DFSS-Problemlösungszyklus um widerspruchsorientierte Innovations-Methoden und dem Erreichen von robusten und innovativen Produkt-/ Prozessdesigns ist in Hypothese H4 formuliert.

H4: Wenn Unternehmen, welche Design for Six Sigma im Produktenstehungspro-zess anwenden, widerspruchsorientierte Innovations-Methoden in den Stan-dard-Problemlösungszyklus integrieren, dann wird hierdurch

(a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitiv- kreativen Prozessen/ Arbeitsschritten und (b) ein höherer Zielerreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns erreicht.

Die Umsetzung der in Hypothese H4 geforderte Integration von widerspruchsori-entierten Innovationsmethoden führt im Fall des DMADV-Zyklus zu einer Erwei-terung des Phasenablaufs um die Innovate-Phase (vgl. Abschnitt 1.2.2). Der erwei-terte DMAIDV-Zyklus stellt bei näherer Betrachtung eine inkrementelle Weiter-entwicklung des Standard-Problemlösungszyklus dar. Ziele und Inhalte orientieren sich relativ stark an den Vorgaben der Unternehmenspraxis und sind von Unter-nehmen, die DFSS anwenden, leicht zu übernehmen.

Die Änderung von Bestehendem in kleinen Schritten, wie es in der Praxis üblich ist, um Besseres hervorzubringen, eignet sich i.A. nicht, um radikale Neuerungen in kurzer Zeit zu erzielen (siehe Mitte rechts in Abb. 1-8 (Teil 2/2)). Zu diesem Zweck sind theoretische (Vor-)Überlegungen anzustellen, bei denen die zu än-dernden Strukturen und Prozesse auf abstrakter Ebene rekonstruiert und analysiert werden (vgl. Abschnitt 1.1.3). Wenn die angestrebten Mittel-Zweck-Relationen auf der Realitätsebene erkannt und in vermutete Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene überführt werden, ist zudem eine Beurteilung der Effi-zienz/ Effektivität des Realobjektes nach wissenschaftlichen Kriterien möglich (vgl. Graumann 2004, S. 282ff.). In Hypothese H5 ist dieser Zusammenhang, bezogen auf den hier interessierenden Untersuchungsgegenstand, in eine empi-risch überprüfbare Wenn-dann-Aussage gebracht.

Page 67: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 45

H5: Wenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Mana-gementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrak-ter Ebene als Denkobjekte rekonstruiert werden, dann führt die theoriebasierte Suche nach Modellverbesserungen zu radikalen Neuerungen (Basisinnovatio-nen), die wissenschaftlichen Effizienzkriterien genügen.

Die praxisorientierte Suche und Weiterentwicklung von bestehenden Manage-mentkonzepten und -modellen basiert also auf inkrementellen Veränderungen (Veränderungsinnovationen) nach dem Trial-and-Error-Prinzip, während die theo-riebasierte Suche zu radikalen Neuerungen (Basisinnovationen) nach wissen-schaftlichen Maßstäben führt. Auf den generellen Unterschied zwischen Verände-rungs- und Basisinnovationen wird in Abschnitt 3.2.2 eingegangen.

Die Herleitung des wissenschaftlichen Effizienzkriteriums, wie es in Hypothese H5 benannt ist, erfolgt im Zusammenhang mit der Abstraktion der realen Vorge-hensmodelle/ Problemlösungszyklen. Wie bei der Vorstellung des Untersuchungs-designs ausführlich dargelegt (vgl. Abschnitt 1.2.2), besteht die Abstraktionsleis-tung im vorliegenden Fall darin, dass die Vorgehensmodelle von Management-konzepten auf eine Ebene transformiert werden, auf der sie mit Algorithmen, die bei der mathematischen Optimierungsrechnung angewendet werden, vergleichbar sind. Unter dieser Voraussetzung lässt sich das folgende, wissenschaftlich exakte Effizienzkriterium spezifizieren. Effiziente Vorgehensmodelle/ Problemlösungs-zyklen, welche im Rahmen von F&E zur kundenorientierten Produktentwicklung eingesetzt werden, unterscheiden sich von weniger effizienten dadurch aus, dass sie im Problemlösungsprozess nicht bei einer einmal gefundenen, suboptimalen Lösung (lokales Optimum) verharren, sondern diese von sich aus „überspringen“, um die optimale Lösung aus Kundensicht zu finden (globales Optimum).

Im übertragenen Sinn bedeutet dies, dass die Vorgehensmodelle/ Problemlösungs-zyklen möglichst so zu gestalten sind, dass sie für bestehende Kundenprobleme jeweils ohne äußeres Zutun, d.h. endogen, neue Lösungswege/ -ansätze finden. Gleichzeitig ist damit die Forderung verbunden, dass sie nicht vorzeitig, aufgrund prozessbedingter Vorgaben, die Suche nach dem aus Kundensicht optimalen Pro-dukt-/ Prozessdesign abbrechen. In diesem Fall wird nämlich die Chance, Innova-tionen im Entwicklungsprozess zu generieren, minimiert.

Die Transformation und der Vergleich mit mathematischen Algorithmen nimmt eine zentrale Rolle in dieser Dissertation ein. Über einen Analogieschluss sollen Defizite bei Vorgehensmodellen/ Problemlösungszyklen, die bei einschlägig be-kannten Managementkonzepten eingesetzt werden, erkannt und nach Möglichkeit behoben werden. Nach dem Prinzip der Synektik wird dabei Wissen aus einem fachfremden Bereichen (Mathematik) mit dem Ausgangsproblem (BWL) ver-knüpft und daraus kreative Lösungsmöglichkeiten abgeleitet (vgl. Backerra et al. 2002, S. 90ff.). Dieser konzeptionelle Ansatz ist als synthetische Aussage in Hypothese H6 enthalten. Die empirische Überprüfung der Hypothese erfolgt in Unterkapitel 3.4 am Beispiel des DMAIC- und DMADV-Zyklus.

Page 68: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

46 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

H6: Wenn reale Vorgehensmodelle/ Problemlösungszyklen nach wissenschaftli-chen Effizienzkriterien zu beurteilen und – entsprechend der Aufgabenstel-lung – zu verbessern sind, dann sind die Transformation (Analogieschluss) und der Vergleich mit mathematischen Algorithmen zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung.

Auswirkungsebene

Durch die Transformation und Analogiebildung werden, wie vorstehend beschrie-ben, nicht nur Defizite bei bestehenden Vorgehensmodellen/ Problemlösungszyk-len aufgedeckt und (wissenschaftlich) erklärt. Vielmehr ist es hiermit möglich, gänzlich neue Gestaltungsansätze i.S.v. Basisinnovationen zu finden und an-schließend deren Wirkungen in der Praxis zu prognostizieren.33 In der vorliegen-den Untersuchung werden – durch den Vergleich mit der mathematischen Opti-mierungsrechnung – Evolutionäre Algorithmen (EA) respektive Genetische Algo-rithmen (GA) als neue, innovative Gestaltungsansätze für reale Vorgehensmodel-le/ Problemlösungszyklen in der Unternehmenspraxis identifiziert.

Wie im Forschungsdesign in Abb. 1-8 (Teil 2/2) nachvollziehbar, kommen die Evolutionären Algorithmen bei der theoriebasierten Suche nach alternativen Vor-gehensmodellen/ Problemlösungszyklen als moderierende Variable bzw. Einfluss-größe in den Analysefokus. Sie bilden die Grundlage für die Ableitung eines al-ternativen Problemlösungszyklus (IESRM) im Rahmen von Design for Six Sigma. Aus der mathematischen Optimierungsrechnung ist bekannt (vgl. Abschnitt 4.1.1), dass Evolutionäre Algorithmen, die auf der simultanen Optimierung von mehreren Lösungen (Population) basieren, konventionellen Algorithmen, welche die inkre-mentelle Verbesserung einer einmal gefundenen (Näherungs-)Lösung zum Ge-genstand haben, in punkto Effektivität und Effizienz überlegen sind.

Diese Erkenntnis bildet die Grundlage für die vermuteten Ursachen-Wirkungs-beziehungen auf der Auswirkungsebene.34 In Hypothese H7 wird zunächst der folgende Analogieschluss manifestiert: Wenn sich EA´s bzw. GA´s bei der Lö-sung schwieriger mathematischer Probleme bewährt haben, dann ist es nahelie-gend, sie auch bei der Lösung unternehmensbezogener Problemstellungen einzu-setzen, z.B. in F&E bei der Suche nach innovativen und robusten (Neu-) Produk-ten. Zu diesem Zweck ist der GA-Basisalgorithmus in Form eines konkreten Prob-lemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodenein-

33 Die betriebswirtschaftliche Forschung, die sich mit dem Erfahrungsobjekt „Manage-

ment von Unternehmen“ befasst, enthält ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für empirisch festgestellte Zielsetzungen in der Unternehmenspraxis herausgearbeitet werden (vgl. Töpfer 2007a, S. 40f.).

34 Die wesentlichen Ziele und Ergebnisse der wissenschaftlichen Untersuchung finden sich auf der Auswirkungsebene wieder. Dabei kommt es darauf an, dass die inhaltlichen Bausteine/ Aggregate der Strategie- und Gestaltungsebene in wesentliche Wirkungs-kategorien – direkt oder indirekt – einmünden (vgl. Töpfer 2009, S. 131).

Page 69: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

1.2 Untersuchungs- und Forschungsdesign 47

satz zu spezifizieren. Erst dann lässt er sich als alternativer DFSS-Zyklus einset-zen, der dem Standard-Problemlösungszyklus (DMADV) überlegen ist.

H7: Wenn der bei der mathematischen Optimierungsrechnung verwendete Evolu-tionäre Algorithmus (EA) in Form eines konkreten Problemlösungszyklus mit eindeutigem Phasenablauf und strukturiertem Methodeneinsatz operationali-siert wird, dann führt dessen Anwendung im Rahmen von Design for Six Sigma zu Produkten respektive Prozessen, die

(a) eine maximale Übereinstimmung (Fit) mit den – explizit oder implizit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind.

Das vordergründige Ziel von EA´s bzw. GA´s besteht darin, die Leistungsfähig-keit als mittlere Fitness einer Population zu maximieren. Dabei steigt – bei gerich-teter Selektion (Auslese) der in einer Population zusammengefassten Lösungen – die geometrische mittlere Fitness in Form eine S-Kurve über die Zeit bzw. die kumulierte Anzahl von Generationen (vgl. Abschnitt 4.3.4). Dieser Zusammen-hang lässt sich mittelbar auf den Einsatz alternativer, EA-basierter Vorgehensmo-delle (IESRM-Zyklus) in der Unternehmenspraxis übertragen.

Wie in Hypothese H8 postuliert, entwickelt sich bei der Anwendung vorstehend genannter Vorgehensmodelle die Leistungsfähigkeit (Fitness) entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“ (vgl. Abschnitt 3.2.1). Wenn sich die Hypothese bewährt, dann werden Unternehmen zukünftig in die Lage versetzt, die Leistungsfähigkeit ihrer Neuprodukte/ -prozesse – vor Markt-einführung – zu maximieren. Gleichzeitig ist es ihnen möglich, systemimmanente (Technologie-)Sprünge zu simulieren und damit Innovationen proaktiv zu generie-ren. In Unterkapitel 5.3 werden diese Wirkungen auf der Basis des IESRM-Zyklus explorativ untersucht und schematisch nachvollzogen.

H8: Wenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produkte/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algo-rithmen orientieren, optimieren, dann entwickelt sich die Zielgröße

(a) endogen entsprechend der aus dem Technologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was systemimmanente (Technologie-)Sprünge nach sich zieht.

Die acht Hypothesen, welche die „Leitplanken“ des weiteren Forschungsprozesses bilden, sind abschließend in Abb. 1-9 im Überblick dargestellt. Hier wird zum einen noch einmal der Ableitungszusammenhang und folglich der wesentliche Gedankengang des Forschers auf einem Blick ersichtlich. Zum anderen werden die Hypothesen hinsichtlich ihrer empirischen Überprüfung eingeordnet/ struktu-riert. Die Abbildung gibt damit das Prüfungsdesign wider, welches nach Töpfer

Page 70: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

48 1 Einsatz von Design for Six Sigma im Produktentstehungsprozess

(2009, S. 122) den dritten Designbaustein von empirischen Forschungsarbeiten darstellt. Im Kern geht es um die Beantwortung der Frage, wie die aufgestellten Hypothesen in der Realität überprüft und getestet werden (sollen).

Abb. 1-9: Überprüfung der Hypothesen (Prüfungsdesign)

Kapi

tel 2

:

2.3.

2 Si

xSi

gma

als

Tech

nolo

gie

mit

theo

-re

tisch

fund

iert

em V

orge

hens

mod

ell

Empi

risch

e St

udie

von

Gra

uman

n (2

004)

Impl

ikat

ione

n de

r zw

ei Z

ielg

röße

n „N

ull-F

ehle

r-Qua

lität

“ un

d „I

nno-

vatio

n“ a

uf d

ie e

ffekt

ive

Erm

ittlu

ng

der K

unde

nanf

orde

rung

en (C

TQs)

H1

Ausg

ewog

enes

Ver

hältn

is v

on

syst

emat

isch

-ana

lytis

chen

und

in

tuiti

v-kr

eativ

en P

roze

ssen

/ Ar

beits

schr

itten

als

Erfo

lgsf

akto

r

H3

Öko

nom

isch

e W

irkun

gen

von

eine

m

um w

ider

spru

chso

rient

ierte

Inno

va-

tions

met

hode

ner

wei

tert

em D

FSS-

Prob

lem

lösu

ngsz

yklu

s (D

MAI

DV)

H4

Reko

nstru

ktio

n vo

n re

alen

Vor

ge-

hens

mod

elle

n/ P

robl

emlö

sung

s-zy

klen

auf d

er A

bstra

ktio

nseb

ene

für t

heor

ieba

sier

te V

erbe

sser

unge

n

H5

Tran

sfor

mat

ion

(Ana

logi

esch

luss

) un

d Ve

rgle

ich

mit

mat

hem

atis

chen

Al

gorit

hmen

als

pro

bate

s M

ittel

zur

Er

kenn

tnis

gew

innu

ng b

zgl.

DFSS

H6

Öko

nom

isch

e W

irkun

gen

von

eine

m

alte

rnat

iven

, am

Vor

bild

Evo

lutio

nä-

rerA

lgor

ithm

en o

rient

ierte

n D

FSS-

Prob

lem

lösu

ngsz

yklu

s (IE

SRM

)

H7

Konz

eptio

nelle

Vor

teile

von

ein

em

alte

rnat

iven

, am

Vor

bild

Evo

lutio

nä-

rerA

lgor

ithm

en o

rient

ierte

n D

FSS-

Prob

lem

lösu

ngsz

yklu

s (IE

SRM

)

H8

Eige

ne U

nter

such

unge

n -P

rimär

quel

len

-Fr

emdu

nter

such

unge

n -S

ekun

därq

uelle

n -

Inha

ltsan

alys

en/ V

erdi

ch-

tung

von

Expe

rtenw

isse

n

Kapi

tel 1

:

1.1.

2 Em

p. B

efun

de z

um E

insa

tz u

nd z

ur

Verb

reitu

ng v

on S

ixSi

gma

und

DFS

S

Empi

risch

e St

udie

von

Sch

mie

der(

2005

)

Fehl

ende

und

/ ode

r wid

ersp

rüch

-lic

heKu

nden

anfo

rder

unge

n (C

TQs)

al

s m

aßge

blic

he G

ründ

e fü

r das

Sc

heite

rn v

on D

FSS-

Proj

ekte

n

H2Ka

pite

l 2:

2.1.

2 Di

ffere

nzie

rung

von

Man

agem

ent-

konz

epte

nna

ch S

trate

giep

oten

zial

Empi

risch

e St

udie

von

Fin

k (2

003)

Kapi

tel 3

:

3.2

Vorg

ehen

smod

elle

zur

Gen

erie

rung

vo

n In

nova

tione

n u.

Nul

l-Feh

ler-Q

ualit

ät

Krite

rienb

asie

rte

Mod

ellu

nter

such

ung

Kapi

tel 5

:

5.1

DMAI

DV-Z

yklu

s al

s er

wei

terte

r DFS

S-Pr

oble

mlö

sung

szyk

lus

5.2

IESR

M-Z

yklu

s al

s ko

nkre

te A

nwen

-du

ngEv

olut

ionä

rer A

lgor

ithm

en

5.3

Empi

risch

e Ü

berp

rüfu

ng d

er E

ffekt

i-vi

tätd

er e

ntw

icke

lten

Vorg

ehen

smod

elle

Expl

orat

ion

anha

nd v

on z

wei

Fal

lstu

dien

Kapi

tel 3

:

3.4

Form

al-a

naly

tisch

e B

esch

reib

ung

und

Anal

yse

der S

ixSi

gma-

Zykl

en

Met

a-A

naly

se v

on D

MAI

C u.

DM

ADV

Art d

er B

eleg

eBe

zug

im T

ext

Lege

nde:

Dire

kter

Abl

eitu

ngsz

usam

men

hang

Indi

rekt

er A

blei

tung

szus

amm

enha

ng

Que

lle: E

igen

e D

arst

ellu

ng

Kapi

tel 2

:

2.3.

2 Si

xSi

gma

als

Tech

nolo

gie

mit

theo

-re

tisch

fund

iert

em V

orge

hens

mod

ell

Empi

risch

e St

udie

von

Gra

uman

n (2

004)

Impl

ikat

ione

n de

r zw

ei Z

ielg

röße

n „N

ull-F

ehle

r-Qua

lität

“ un

d „I

nno-

vatio

n“ a

uf d

ie e

ffekt

ive

Erm

ittlu

ng

der K

unde

nanf

orde

rung

en (C

TQs)

H1

Impl

ikat

ione

n de

r zw

ei Z

ielg

röße

n „N

ull-F

ehle

r-Qua

lität

“ un

d „I

nno-

vatio

n“ a

uf d

ie e

ffekt

ive

Erm

ittlu

ng

der K

unde

nanf

orde

rung

en (C

TQs)

H1

Ausg

ewog

enes

Ver

hältn

is v

on

syst

emat

isch

-ana

lytis

chen

und

in

tuiti

v-kr

eativ

en P

roze

ssen

/ Ar

beits

schr

itten

als

Erfo

lgsf

akto

r

H3Au

sgew

ogen

es V

erhä

ltnis

von

sy

stem

atis

ch-a

naly

tisch

en u

nd

intu

itiv-

krea

tiven

Pro

zess

en/

Arbe

itssc

hritt

en a

ls E

rfolg

sfak

tor

H3

Öko

nom

isch

e W

irkun

gen

von

eine

m

um w

ider

spru

chso

rient

ierte

Inno

va-

tions

met

hode

ner

wei

tert

em D

FSS-

Prob

lem

lösu

ngsz

yklu

s (D

MAI

DV)

H4Ö

kono

mis

che

Wirk

unge

n vo

n ei

nem

um

wid

ersp

ruch

sorie

ntie

rte In

nova

-tio

nsm

etho

den

erw

eite

rtem

DFS

S-Pr

oble

mlö

sung

szyk

lus

(DM

AIDV

)

H4

Reko

nstru

ktio

n vo

n re

alen

Vor

ge-

hens

mod

elle

n/ P

robl

emlö

sung

s-zy

klen

auf d

er A

bstra

ktio

nseb

ene

für t

heor

ieba

sier

te V

erbe

sser

unge

n

H5

Reko

nstru

ktio

n vo

n re

alen

Vor

ge-

hens

mod

elle

n/ P

robl

emlö

sung

s-zy

klen

auf d

er A

bstra

ktio

nseb

ene

für t

heor

ieba

sier

te V

erbe

sser

unge

n

H5

Tran

sfor

mat

ion

(Ana

logi

esch

luss

) un

d Ve

rgle

ich

mit

mat

hem

atis

chen

Al

gorit

hmen

als

pro

bate

s M

ittel

zur

Er

kenn

tnis

gew

innu

ng b

zgl.

DFSS

H6Tr

ansf

orm

atio

n (A

nalo

gies

chlu

ss)

und

Verg

leic

h m

it m

athe

mat

isch

en

Algo

rithm

en a

ls p

roba

tes

Mitt

el z

ur

Erke

nntn

isge

win

nung

bzg

l. DF

SS

H6

Öko

nom

isch

e W

irkun

gen

von

eine

m

alte

rnat

iven

, am

Vor

bild

Evo

lutio

nä-

rerA

lgor

ithm

en o

rient

ierte

n D

FSS-

Prob

lem

lösu

ngsz

yklu

s (IE

SRM

)

H7Ö

kono

mis

che

Wirk

unge

n vo

n ei

nem

al

tern

ativ

en, a

m V

orbi

ld E

volu

tionä

-re

rAlg

orith

men

orie

ntie

rten

DFS

S-Pr

oble

mlö

sung

szyk

lus

(IESR

M)

H7

Konz

eptio

nelle

Vor

teile

von

ein

em

alte

rnat

iven

, am

Vor

bild

Evo

lutio

nä-

rerA

lgor

ithm

en o

rient

ierte

n D

FSS-

Prob

lem

lösu

ngsz

yklu

s (IE

SRM

)

H8Ko

nzep

tione

lle V

orte

ile v

on e

inem

al

tern

ativ

en, a

m V

orbi

ld E

volu

tionä

-re

rAlg

orith

men

orie

ntie

rten

DFS

S-Pr

oble

mlö

sung

szyk

lus

(IESR

M)

H8

Eige

ne U

nter

such

unge

n -P

rimär

quel

len

-Fr

emdu

nter

such

unge

n -S

ekun

därq

uelle

n -

Inha

ltsan

alys

en/ V

erdi

ch-

tung

von

Expe

rtenw

isse

n

Kapi

tel 1

:

1.1.

2 Em

p. B

efun

de z

um E

insa

tz u

nd z

ur

Verb

reitu

ng v

on S

ixSi

gma

und

DFS

S

Empi

risch

e St

udie

von

Sch

mie

der(

2005

)

Fehl

ende

und

/ ode

r wid

ersp

rüch

-lic

heKu

nden

anfo

rder

unge

n (C

TQs)

al

s m

aßge

blic

he G

ründ

e fü

r das

Sc

heite

rn v

on D

FSS-

Proj

ekte

n

H2Fe

hlen

de u

nd/ o

der w

ider

sprü

ch-

liche

Kund

enan

ford

erun

gen

(CTQ

s)

als

maß

gebl

iche

Grü

nde

für d

as

Sche

itern

von

DFS

S-Pr

ojek

ten

H2Ka

pite

l 2:

2.1.

2 Di

ffere

nzie

rung

von

Man

agem

ent-

konz

epte

nna

ch S

trate

giep

oten

zial

Empi

risch

e St

udie

von

Fin

k (2

003)

Kapi

tel 3

:

3.2

Vorg

ehen

smod

elle

zur

Gen

erie

rung

vo

n In

nova

tione

n u.

Nul

l-Feh

ler-Q

ualit

ät

Krite

rienb

asie

rte

Mod

ellu

nter

such

ung

Kapi

tel 5

:

5.1

DMAI

DV-Z

yklu

s al

s er

wei

terte

r DFS

S-Pr

oble

mlö

sung

szyk

lus

5.2

IESR

M-Z

yklu

s al

s ko

nkre

te A

nwen

-du

ngEv

olut

ionä

rer A

lgor

ithm

en

5.3

Empi

risch

e Ü

berp

rüfu

ng d

er E

ffekt

i-vi

tätd

er e

ntw

icke

lten

Vorg

ehen

smod

elle

Expl

orat

ion

anha

nd v

on z

wei

Fal

lstu

dien

Kapi

tel 3

:

3.4

Form

al-a

naly

tisch

e B

esch

reib

ung

und

Anal

yse

der S

ixSi

gma-

Zykl

en

Met

a-A

naly

se v

on D

MAI

C u.

DM

ADV

Art d

er B

eleg

eBe

zug

im T

ext

Lege

nde:

Dire

kter

Abl

eitu

ngsz

usam

men

hang

Indi

rekt

er A

blei

tung

szus

amm

enha

ng

Lege

nde:

Dire

kter

Abl

eitu

ngsz

usam

men

hang

Indi

rekt

er A

blei

tung

szus

amm

enha

ng

Que

lle: E

igen

e D

arst

ellu

ng

Page 71: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2 Six Sigma – Zeitgemäßes Managementkonzept zur Erzie-lung von Null-Fehler-Qualität im Wertschöpfungsprozess

Six Sigma kennzeichnet im Grunde genommen eine Strategie, die alle erfolgrei-chen Unternehmen mit einer hohen Qualitätsorientierung seit Jahren auszeichnet (vgl. Masing 2004): Der Kunde steht im Mittelpunkt, Unternehmensprozesse sind der Ausgangspunkt für Verbesserungen, Umsatzsteigerungen und Kosteneinspa-rungen resultieren aus fehlerfreien Prozessleistungen. Vor diesem Hintergrund erscheint das häufig angeführte Argument „Six Sigma ist alter Wein in neuen Schläuchen“ berechtigt. Andererseits basiert Six Sigma – gegenüber vielen ande-ren Konzepten, z.B. TQM – auf konkreten, umsetzungsorientierten Verbesse-rungsprojekten mit einem eindeutigen Ablaufschema und einem strukturierten Methodeneinsatz, der vor allem durch seine wissenschaftliche Stringenz besticht. Unter dieser Voraussetzung stellt Six Sigma eine echte Weiterentwicklung zu bekannten QM-Konzepten dar. Verwendet man die Metapher von oben, dann ist es zutreffend zu sagen: „Six Sigma ist besserer Wein in alten Schläuchen!“

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept

In der Managementliteratur werden die Begriffe Managementkonzept, -modell, -prinzip, -philosophie, -instrument und -theorie größtenteils synonym verwendet. Einheitliche und durchgängige Begriffsdefinitionen sind eher die Ausnahme als die Regel. Dabei kann den einzelnen Begriffen zweifelsohne eine unterschiedliche semantische Bedeutung zugeordnet werden. In den meisten Fällen ist die Verwen-dung der Begriffe – intuitiv – dem jeweiligen Kontext angepasst und entspricht – bewusst oder unbewusst – dem Vorverständnis des Forschers. Im Folgenden soll auf den Begriff „Managementkonzept“ abgestellt werden, da dieser aus Sicht des Autors den umfassendsten empirischen Bezugsbereich beschreibt.1

2.1.1 Theoretische Begriffsdeutung nach Wortstamm

In diesem Abschnitt soll zunächst deutlich gemacht werden, welchen Gegenstand das Wort „Managementkonzept“ genau bezeichnet. Da der Ausdruck aus den

1 Nach Seghezzi (1996, S. 198) ist der Begriff des Managementkonzepts von dem des

Managementsystems und des Managementmodells abzugrenzen. Während ein Manage-mentkonzept den theoretischen, gedanklichen Rahmen eines geplanten Management-systems darstellt und allgemeingültige Vorstellungen und Leitgedanken beinhaltet, wird in einem Managementmodell die Wirklichkeit in abstrakter Form widergespiegelt (z.B. Normen und Regelwerke wie die ISO 9000:2000).

Ein Managementsystem baut direkt auf dem Managementkonzept auf, ergänzt dieses um konkrete inhaltliche Angaben zum organisatorischen Ablauf und bietet Unter-stützung bei der unternehmensbezogenen Umsetzung. Managementmodelle bilden das Bindeglied zwischen Managementsystem und Managementkonzept.

Page 72: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

50 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

beiden Einzelwörtern „Management“ und „Konzept“ besteht, gibt es aus termino-logischer Sicht grundsätzlich zwei Herangehensweisen, um den Begriff Manage-mentkonzept zu spezifizieren. Der Weg über den ersten Term erscheint dabei insofern von Vorteil, da sich die Definitionen und Erklärungsansätze für Mana-gement in der Vergangenheit relativ stark angenähert haben. So lassen sich heute in der angloamerikanischen Literatur – auf übergeordneter Ebene – zwei Bedeu-tungsvarianten ausmachen (vgl. Staehle 1999, S. 71): • Zum einen wird Management im funktionalen Sinn verwendet (Managerial

functions approach): Management ist der Prozess des Planens, Organisierens, Führens und Steuerns von Aktivitäten der Organisationsmitglieder, wobei alle vorhandenen Ressourcen zur Erreichung der vorgegebenen Ziele einbezogen werden (vgl. Stoner/ Freeman 1989, S. 4).2

• Zum anderen wird Management im institutionalen Sinn gebraucht (Manageri-al roles approach): Management ist die Tätigkeit der Manager, welche die Or-ganisations-/ Unternehmensziele durch die Allokation vorhandener Mittel/ Ressourcen zu erreichen versuchen (vgl. Hellriegel/ Slocum 1996, S. 5f.).3

Folgt man zweitgenannter Bedeutungsvariante und betrachtet „Managen“ als dispositive Leistung des Managements, dann kann dessen Ergebnisqualität an-hand folgender drei Kriterien beurteilt werden (vgl. Drucker 1974, S. 40f.): (a) Zielerreichungsgrad (Effektivität) der geplanten Handlung(en) auf ökonomischer Ebene unter Angabe monetärer und nicht-monetärer Zielgrößen, (b) Produktivität bzw. Wirtschaftlichkeit (Effizienz) des Ressourceneinsatzes auf ökonomisch-technischer Ebene bezogen auf o.g. Zielgrößen sowie (c) Soziale Kompetenz/ Verantwortung der Manager bei der Maßnahmenumsetzung zur Verbesserung von Effektivität und Effizienz im Unternehmen. Das letztgenannte Kriterium bezieht sich vor allem auf die Mitarbeiterführung und damit auf die soziale Ebene; seine Erfüllung gilt als wichtige Nebenbedingung „guten Managements“.

Während hinsichtlich der Bedeutung des Wortes „Management“ weitestgehend Konsens herrscht, ist für den Term „Konzept“ lediglich unstrittig, dass es sich bei einem Konzept um Wissen handelt. Genauer gesagt, ist der Gegenstand „Konzept“ eine Art der Gattung „Wissen“ (vgl. Graumann 2004, S. 286). Dabei bezeichnet bzw. repräsentiert Wissen Gegenstände eines empirischen Bezugsbereichs, wel-cher ein diskursbasiertes Prüfverfahren durchlaufen hat (vgl. Schreyögg/ Geiger 2003, S. 12f.). Das Trägermedium für dieses gegenstandsbezogene Wissen ist in diesem Fall das menschliche Gehirn; der empirische Bezugsbereich ist das aufga-

2 Der analytisch-funktionsorientierte Ansatz geht auf HENRI FAYOL (1916) zurück und ist

damit deutlich älter als der empirisch-handlungsorientierte Ansatz, der seinen Ursprung bei SUNE CARLSON (1951) hat.

3 In die gleiche Richtung argumentiert auch PETER F. DRUCKER (1974). Er versteht unter Management die Fähigkeit (von Managern), die vorhandenen Ressourcen planvoll und gezielt einzusetzen, um die gesetzten Unternehmensziele bestmöglich zu erreichen.

Page 73: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept 51

benbezogene Management von/ in einem Unternehmen.4 Wenn das Konzept als eine klar umrissene Grundvorstellung über die inhaltliche Ausgestaltung eines realen Objekts interpretiert wird, dann kann ein „Managementkonzept als eine klar umrissene Grundvorstellung über die Ausgestaltung der [strategischen] Führungs-aufgaben verstanden werden“ (Hahn et al. 1999, S. 5).

Vor diesem Hintergrund sind nach vorstehend genannten Forschern Management-konzepte das Wissen bzw. die klar umrissene Grundvorstellung von Führungskräf-ten/ Managern über die Ziele & Strategie, die Struktur & Kultur sowie die Instru-mente & Methoden, die im Rahmen einer effizienten und effektiven Unterneh-mensführung einzusetzen sind. Anhand der drei Dimensionen in Abb. 2-1 lassen sich die Gegenstände strategischer Unternehmensführung und damit die Inhalte/ Wirkungsbereiche von Managementkonzepten eindeutig klassifizieren: • Ziele und Strategie: Ausgangspunkt für die Umsetzung von Managementkon-

zepten bildet die generelle Zielstruktur des Unternehmens. Managementkon-zepte sind infolgedessen zum einen dahingehend zu untersuchen, inwieweit sie die Festlegung und die Ausgestaltung der generellen Unternehmensziele, z.B. Erfolgs- und Liquiditätsziel, beeinflussen. Zum anderen ist zu analysie-ren, wie sie die Ausrichtung der Geschäftsfeldstrategie, der Funktionsbe-reichs- und Regionalstrategien sowie die Gestaltung der Querschnittsfunktio-nen durch das Management determinieren. Die grundlegenden, strategischen Führungsaufgaben bestimmen dabei zwingend die operativen Führungs- und Umsetzungsaufgaben, die wiederum durch die spezifische Ausrichtung eines Managementkonzepts, z.B. Six Sigma, beeinflusst werden.

• Struktur und Kultur: Ein weiterer wichtiger Bestandteil eines Management-konzepts ist sein Einfluss auf die Aufbau- und Ablauforganisation von Unter-nehmen. Dabei enthält die auf Dauer angelegte Aufbau- bzw. Potenzialstruk-tur zwingend den Faktor Mensch als Potenzialelement. Zusammen mit der Ablauf- bzw. Aktionsstruktur regelt sie die Aufgaben-, Verantwortungs- und Kompetenzbereiche sowie die Arbeitsbeziehungen zwischen den einzelnen Unternehmenseinheiten. Parallel dazu ergibt sich die Frage, in welchem Ausmaß Managementkonzepte die Denk-, Verhaltens- und Entscheidungs-muster von Mitarbeitern und Führungskräften beeinflussen und damit insge-samt die Unternehmenskultur prägen. Um die unternehmensweite Akzeptanz und Umsetzung der Konzepte zu sichern, kommt den Führungskräften jeweils eine kulturprägende/ -vermittelnde Rolle zu.

• Instrumente und Methoden: Managementkonzepte beinhalten i.d.R. spezifi-sche Instrumente und Methoden, die auf operativer und strategischer Ebene

4 Während Graumann (2004, S. 288ff.) zwischen „praktischen“ und „wissenschaftlichen“

Managementkonzepten unterscheidet, nehmen Teichert/ Talaulicar (2002, S. 416) eine Typenbildung anhand von bibliometrischen Daten vor. Auf der Basis bibliometrischer Daten des Social Science Citation Index (SSCI) wird eine Klassifizierung bekannter Managementkonzepte vorgenommen und überprüft.

Page 74: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

52 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

zum Tragen kommen. So werden auf strategischer Ebene unter Instrumenten konzeptspezifische Informations- und Anreizsysteme verstanden, welche zielorientierte Informationen zur Verfügung stellen sowie Stimuli bei den Ak-teuren schaffen, um ein zielgerechtes Entscheiden und Handeln zu ermögli-chen. Methoden beziehen sich auf strategischer Ebene u.a. auf allgemeine Vorgehensmodelle zur Einführung und Umsetzung des Konzeptes im gesam-ten Unternehmen. In gleicher Weise existieren konzeptspezifische Führungs- und Durchführungsmethoden auf operativer Ebene, welche z.B. die Abwick-lung von Verbesserungsprojekten5 determinieren.

Abb. 2-1: Inhalte/ Wirkungsbereiche von Managementkonzepten

Der 3-dimensionale Ansatz von Hahn et al. (1999) ermöglicht die Klassifizierung von Managementkonzepten auf „hoher Ebene“ und wird bei der Einordnung der Konzepte zur Verbesserung der Prozess- und Produktqualität in den Abschnitten 2.2.1-2.2.3 zugrunde gelegt. Die einzelnen Dimensionen des Ansatzes sind durch Angabe von Entscheidungskriterien (weiter) zu operationalisieren. Eine de-tailliertere Untersuchung und Abgrenzung von Managementkonzepten ist z.B. mithilfe des mehrdimensionalen Ansatzes von Davenport (1993) möglich.6 Auf der Basis eines 7-Punkte-Kritierenrasters stellt er die zentralen Unterschiede zwischen den beiden Prozessverbesserungskonzepten CIP – Contineous Im-provement Process und BPR – Business Process Reengineering heraus. In Ab-schnitt 2.2.4 wird auf dieser Grundlage ein Vergleich mit dem Six Sigma-Konzept

5 Als Hilfsmittel zur Planung, Steuerung und Kontrolle dieser Aktivitäten kommen In-

strumente, z.B. Qualitätsmanagement-Instrumente, zum Einsatz. Letztere sind eher auf die Erreichung von Sachzielen gerichtet, während z.B. Controlling-Instrumente primär zur Erfüllung von Ergebniszielen eingesetzt werden.

6 Ein nicht kriterienbasierter Vergleich der drei Managementkonzepte ISO 9001:2000, MBNQA-Excellence Model und Six Sigma findet sich u.a. in Grupta (2004, S. 12).

Basis: Hahn et al. 1999, S. 5

Struktur & Kultur

Ziele & Strategie

Instrumente & Methoden

Page 75: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept 53

vorgenommen. Dabei wird das ursprüngliche Raster von Davenport auf insgesamt 10 Kriterien erweitert, um die in Abb. 2-1 aufgeführten Inhalte/ Wirkungsbereiche in einem ausgewogenen Verhältnis zu berücksichtigen.

2.1.2 Praktische Differenzierung nach Strategiepotenzial

Die Relevanz bestimmter Managementkonzepte in der Unternehmenspraxis richtet sich vor allem danach, in welcher Wettbewerbssituation sich das Unternehmen gerade befindet und welche Ziele/ Strategien konkret verfolgt werden. Beide Fra-gen, die vor allem die inhaltliche Konzeption und Ausgestaltung von Manage-mentkonzepten betreffen, können mit den oben genannten Kriterienraster(n) ob-jektiv beantwortet werden. Darüber hinaus spielt für den potenziellen Anwender das wahrnehmbare strategische Potenzial eines Managementkonzeptes sowie die aktuelle und zukünftig erwartbare Anwendungs- bzw. Adoptionsrate eine wichtige Rolle in seinem Entscheidungskalkül (vgl. Fink 2003, S. 53): • Die Adoptionsrate kennzeichnet den Anteil von Unternehmen in einer rele-

vanten Population (z.B. Branche oder Region), welche die Standards, Nor-men, Methoden, Verhaltensweisen, Organisationsanforderungen etc. eines be-stimmten Konzeptes einsetzen und verfolgen.

• Das Strategiepotenzial stellt einen geeigneten (qualitativen) Vergleichsmaß-stab dar, der in komplexen Entscheidungssituationen als Effizienzkriterium zur Bewertung von Managementkonzepten herangezogen werden kann. Der Maßstab orientiert sich vorzugsweise an den ökonomischen Zielen eines Un-ternehmens und basiert auf Ursachen-Wirkungsüberlegungen.

In einer neueren empirischen STUDIE VON FINK (2003) zur Verknüpfung von Ma-nagementkonzepten und Wettbewerbsstrategien von Unternehmen werden für den deutschsprachigen Raum insgesamt 10 Konzepte identifiziert (siehe Abb. 2-2). Auf der Basis des Lebenszyklusansatzes entwickelt der Forscher ein Modell, um die Managemententscheidungen hinsichtlich der Einführung von Management-konzepten zu erklären. Mit dem Ziel, die Effektivität und das strategische Potenzi-al von Six Sigma, inkl. Design for Six Sigma, zu prognostizieren, werden die Grundzüge dieses dynamischen Analysemodells kurz refferiert.

Ausgangspunkt der Untersuchung bildet die Tatsache, dass es i.d.R. nicht möglich ist, den ökonomischen Wert von Managementkonzepten – weder im vorhinein noch im nachhinein – für ein Unternehmen exakt zu bestimmen. Wie der Forscher feststellt, ist die Quantifizierung des (monetären) Nutzens und die eindeutige Zu-rechnung zu bestimmten Managementkonzepten praktisch unmöglich. Trotzdem gibt es aus Sicht der Entscheider, d.h. Manager, „gute Gründe“, warum gerade dieses und nicht jenes Konzept eingeführt und umgesetzt wird. Unter der Voraus-setzung, dass Manager ein fundamentales Interesse daran haben, die Wettbe-werbssituation ihres Unternehmens zu sichern und, wenn möglich, zu verbessern, werden sie ein Konzept in ihrem Unternehmen genau dann einführen, wenn sie von seinem strategischen Potenzial/ Wert überzeugt sind.

Page 76: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

54 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

In der Unternehmenspraxis sehen sich die Manager mit einer zunehmend komple-xeren und dynamischeren Umwelt konfrontiert. Durch die Übernahme von Mana-gementkonzepten, die sich i.d.R. durch eine einfache und klare Struktur auszeich-nen, reduzieren sie die Komplexität ihrer Entscheidungssituation. Durch mehr oder weniger präzise Handlungsanweisungen wird der (komplexe) Entscheidungs-raum (stark) eingeschränkt, so dass sich gleichzeitig die Unsicherheit in Bezug auf das, was eine starke Wettbewerbsposition in Zukunft auszeichnet, reduziert. In diesem Zusammenhang ist es in der Praxis oftmals nicht notwendig, den genauen Erfolgsbeitrag zu spezifizieren, der aus der Anwendung eines bestimmten Kon-zeptes resultiert. Solange ein Managementkonzept als „Best practice“ gilt und die Unternehmensleitung sowie verantwortlichen Führungskräfte allgemeine Aner-kennung für seine Anwendung finden, wird es nicht weiter hinterfragt.

Obwohl der Legitimitäts- den Wirtschaftlichkeitsaspekt in vielen Fällen überwiegt (vgl. z.B. Walgenbach/ Beck 2003, S. 499), ist die Durchführung einer Kosten-Nutzen-Analyse prinzipiell wünschenswert, um – zumindest langfristig – einen positiven Effekt des Managementkonzepts auf die Profitabilität/ Effizienz des Unternehmens nachweisen zu können. Die Probleme bei der Messung der ökono-mischen Effizienz von Managementkonzepten ergeben sich – aus wissenschaftli-cher Sicht – insbesondere aus den zu quantifizierenden Einzahlungs- und Auszah-lungsströmen im Rahmen der Kapitalwertmethode.

Die Entscheidung der Unternehmensleitung für oder gegen die Einführung eines bestimmten Managementkonzepts ist nämlich vergleichbar mit einer Investitions-entscheidung in die wesentlichen Ideen und Prinzipien, die das Konzept kenn-zeichnen bzw. beinhalten. Aus Wirtschaftlichkeitsüberlegungen ist die Implemen-tierung eines Konzeptes genau dann sinnvoll, wenn die im Rahmen der „Manage-mentkonzept-Investition“ erwarteten zukünftigen Zahlungsüberschüsse die Aus-zahlungen in der Anfangs-/ Implementierungsphase (über)kompensieren.7

Um die Wirkung von Umwelteinflüssen als nicht konzeptbedingten Zahlungsüber-schüssen herauszurechnen, ist immer eine Analyse der Rahmenbedingungen, also der unternehmensspezifischen Wettbewerbssituation sowie der situativen Um-welteinflüsse auf das Unternehmen, notwendig. Das Effizienzkriterium stellt meh-rere Dimensionen eines existierenden ökonomischen Potenzials dar, die im direk-ten Zusammenhang mit der spezifischen Situation des Unternehmens sowie den ihm umgebenden Netzwerk stehen.

Entsprechend der drei generischen Wettbewerbsstrategien nach MICHAEL E. POR-TER (1988, S. 62ff.) umfasst der Entscheidungsspielraum genau zwei Dimensio-

7 Ermittlungs- und Abgrenzungsprobleme ergeben sich sowohl im Hinblick auf die Prog-

nose der zukünftigen Investitionsrückflüsse bzgl. des Gesamtunternehmens als auch im Hinblick auf die Abgrenzung des finanziellen Überschusses (Net Benefit), der allein aus der Implemen-tierung des Managementkonzeptes resultiert.

Page 77: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept 55

nen8, die für das strategische Wettbewerbspotenzial eines Managementkonzepts kennzeichnend sind. Dabei ist die Existenz von mindestens einem Potenzial eine notwendige, aber keine hinreichende Bedingung, um die Wettbewerbsposition des Unternehmens zu verbessern: • Wahrgenommenes Differenzierungspotenzial (DP) und • Wahrgenommenes Kostenführerschaftspotenzial (CP).

Auf der Basis der zwei Dimensionen lässt sich ein Strategie-Potenzial-Portfolio konstruieren, mit dessen Hilfe die untersuchten Managementkonzepte (eindeutig) klassifiziert werden können.9 Wie in Abb. 2-2 ersichtlich, ergibt sich durch das Bilden und Einzeichnen der arithmetischen Mittelwerte für jede Dimension ein Vier-Quadranten-Schema. Dabei steht jeder Quadrant für eine andere Gewichtung und/ oder ein anderes Niveau der Dimensionen DP und CP; er kennzeichnet damit eine bestimmte Klasse von Managementkonzepten: (1) Hybride Konzepte: besitzen sowohl ein hohes Differenzierungs- als auch ein

hohes Kostenführerschaftspotenzial. Damit kann ihnen insgesamt ein hohes Strategiepotenzial für das Unternehmen zugesprochen werden. Die Gruppe umfasst die drei Konzepte E-Commerce/ E-Business (EC), Total Quality Ma-nagement (TQM) und Core Competence Management (CCM).

(2) Kostenführerschaftskonzepte: sind im Gegensatz zu (4) durch ein relativ ho-hes Kostenführerschaftspotenzial, aber ein nur geringes Differenzierungspo-tenzial gekennzeichnet. Neben Business Process Reengineering (BPR) gehört insb. Lean Management (LM) zu dieser Gruppe, dem mit einem Wert von 465 das höchste Kostenführerschaftspotenzial zugesprochen wird.

(3) Neutrale Konzepte: zeichnen sich durch ein insgesamt geringes strategisches Potenzial aus, da sie weder ein Differenzierungs- noch ein Kostenführer-schaftspotenzial deutlich erkennen lassen. Zu dieser Gruppe gehören u.a. die Konzepte Shareholder Value Management (SVM), Growth Strategies (GS) und Virtual Corporations/ Network Organisations (VC).

(4) Differenzierungskonzepte: weisen ein relativ hohes Differenzierungspotenzial auf, aber ein nur geringes Kostenführerschaftspotenzial. Nach Auskunft der Befragten gelten Customer Relationship Management (CRM) und Knowledge

8 Neben diesen Kriterien 1. Grades, deren Veränderung einen direkten Einfluss auf die

aktuelle Wettbewerbssituation haben, gibt es auf untergeordneten Ebenen Effizienz-kriterien 2. bis n. Grades. Zu ihnen gehören bspw. die Stärkung der Innovationskraft und die Erhöhung der Kundenzufriedenheit.

9 Die beiden Dimensionen des Strategie-Potenzial-Portfolios werden auf der Basis einer 5-stufigen Likert-Skala mit den Extrempunkten „niedrig“ (Wert = 100) und „hoch“ (Wert = 500) erfasst. Obwohl es sich bei der Befragung von Fink (2003) im Prinzip um eine ordinale Skalierung der Merkmalsausprägungen handelt, wird zur (besseren) Interpretation und Darstellung der Ergebnisse eine quasi-metrische Skalierung ange-nommen (vgl. Benninghaus 2005, S. 53ff.).

Page 78: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

56 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Management/ Learning Organisation (KM) mit einem Wert von je 433 als die Konzepte mit dem höchsten Differenzierungspotenzial.

Die Werte für die beiden Dimensionen DP und CP werden für jedes Management-konzept getrennt voneinander erfasst. Durch die Berechnung des arithmetischen Mittelwertes aus den zwei Werten lässt sich ein aggregierter Effizienzwert als „Wahrgenommenes Strategiepotenzial“ (SP) bestimmen. Hierbei wird implizit die Annahme unterstellt, dass beide Dimensionen DP und CP gleichbedeutend für die strategische Effizienz eines Managementkonzeptes sind.

Je höher das wahrgenommene Differenzierungs- und Kostenführerschaftspotenzial eines Managementkonzeptes ist, desto höher ist das wahrgenommene Strategiepo-tenzial. Entsprechend Abb. 2-2 befinden sich also die Konzepte mit dem höchsten SP-Wert im 2., die mit dem geringsten SP-Wert im 4. Quadranten. Dabei weist in der o.g. Studie10 E-Commerce/ E-Business (EC) aus der Gruppe der Hybriden Konzepte im Jahr 2003 das (absolut) höchste Strategiepotenzial auf.

Nach der einschlägigen Literatur kann Six Sigma – ohne explizite empirische Überprüfung – ebenfalls als hybrides Konzept in den 2. Quadranten eingeordnet werden. Als Bezugsrahmen dienen die drei Konzepte CRM, BPR und TQM. Wie im folgenden Abschnitt erörtert, geht die Zielsetzung von Six Sigma dahin, über eine enge Beziehung zum Kunden (CRM) die wesentlichen Produktanforderungen zu erkennen und diese mit praktizierter Null-Fehler-Qualität (TQM) zu realisieren; die Erfüllung dieser Zielsetzung wird durch operative Exzellenz mit fehlerfreien Prozessen (BPR) ermöglicht (vgl. Töpfer/ Günther 2007a, S. 9).

Legt man die oben angesprochenen generischen Wettbewerbsstrategien zugrunde, dann unterstützt Six Sigma das Unternehmen bei der Realisierung von verschiede-nen Positionierungsstrategien im Wettbewerb, und zwar (a) Differenzierungsstra-tegie, insb. Qualitätsführerschaft, (b) Preis- und Kostenführerschaftsstrategie und (c) Hybride Strategie in Form von Outpacing. Gleichzeitig lässt sich mithilfe der Studie kein – direkter oder indirekter – empirischer Beleg für die Unterstützung einer Innovationsstrategie finden, was das in Hypothese H2 benannte Defizit von (Design for) Six Sigma bzgl. der proaktiven Generierung von Innovationen unter-streicht. Konkret bedeutet dies, dass Six Sigma, wie es zum gegenwärtigen Zeit-punkt praktiziert wird, nicht für Unternehmen geeignet ist, die eine Differenzie-rungsstrategie mit dem Ziel der Innovationsführerschaft verfolgen. Hier ist auf Konzepte und Methoden des Innovationsmanagements zurückzugreifen, wie sie in Abschnitt 3.2.2 überblicksartig vorgestellt werden.

10 Die Stichprobe für die emp. Studie von Fink umfasste 49,2% mittelständische und

27,4% große Unternehmen. 13,4% der befragten Unternehmen rangieren unter den 100 umsatzstärksten Unternehmen in Deutschland. Die Auswahl war zufällig, d.h. die Un-ternehmen kamen aus ganz unterschiedlichen Bereichen, z.B. Banken und Versiche-rungen, Konsumgüterindustrie, Chemie und Medizin, Telekommunikation und IT.

Page 79: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.1 Bedeutungsinhalte und Dimensionen des Begriffs Managementkonzept 57

Abb. 2-2: Strategie-Potenzial-Portfolio ausgewählter Managementkonzepte

Basis: Fink 2003, S. 52

Differenzierungs-konzepte

Hybride Konzepte

NeutraleKonzepte

Kostenführer-schaftskonzepte

Hoch(500)

Mittel(300)

Niedrig(100)

Niedrig(100)

Mittel(300)

Hoch(500)

Wah

rge n

omm

enes

Diff

e ren

z ier

u ngs

p ote

nzia

l

Wahrgenommenes Kostenführerschaftspotenzial

KMCRM

EC

TQM

CCM

BPR

LMGS

VC

SVM

Legende:

BPR = Business Process Reengineering/Business Process Management

TQM = Total Quality ManagementKM = Knowledge Management/

Learning OrganisationCRM = Customer Relationship ManagementLM = Lean Management/ Lean Production

Six Sigma

1

23

4

CCM = Core Competence ManagementSVM = Shareholder Value ManagementGS = Growth StrategiesEC = E-Commerce/ E-BusinessVC = Virtual Corporations/ Network

Organisations

Page 80: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

58 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität

Ein wesentliches Ziel von Managementkonzepten ist die nachhaltige Verbesse-rung der Prozess- und Produktqualität. Sie gilt als Ausgangspunkt, um bestimmte finanzielle Wirkungen zu erzielen. So kommen verschiedene empirische Studien zu dem Schluss, dass sich Business Excellence nach einigen Jahren deutlich im Unternehmenserfolg widerspiegelt (vgl. insb. Haller 2004, S. 6). Nach den Ent-wicklungsstufen der Qualitätssteuerung nach Töpfer (2006, S. 415) liegt der Fokus heute auf der Sicherstellung von Null-Fehler-Qualität. Diese kann auf verschiede-nen Wegen erreicht werden, z.B. in Form von kontinuierlicher Verbesserung (Kai-zen), wie es vom weltgrößten Automobilhersteller Toyota praktiziert wird, oder mithilfe von prozessorientierten Verbesserungsprojekten (Six Sigma), wie sie vom US-amerikanischen Mischkonzern General Electric durchgeführt werden. In selte-nen Fällen gelingt es, ein hohes Qualitätsniveau über eine radikale Veränderung/ Anpassung der Unternehmensstruktur und -abläufe (BPR) zu erreichen.

2.2.1 Kontinuierlicher Verbesserungsprozess (KVP)

Die Entwicklung und Umsetzung von qualitätsorientierter Unternehmensführung im Sinne von Kaizen/ Kontinuierlicher Verbesserung sind unmittelbar verbunden mit der Person TAIICHI OHNO (1912-1990). Er war der Begründer des legendären Toyota Production System (TPS), welches die Erhöhung der Wirtschaftlichkeit der Produktion durch konsequente Beseitigung von Verschwendung (jap. Muda) zum Ziel hat. Neben der systematischen Einführung von KVP und QC (Quality Circle) in den 1950er Jahren, förderte Ohno als Qualitätsmanager die Implemen-tierung von Kanban, Just-In-Time- und Lean Production-Konzepten im japani-schen Automobilkonzern Toyota: Dieser gilt bis heute als Vorreiter auf dem Ge-biet des Prozess- und Qualitätsmanagements. Sowohl das Konzept nach Ohno (1993) als auch die nachfolgend beschriebenen Verbesserungskonzepte legen ein prozessorientiertes Qualitätsverständnis zu Grunde. Danach ist die Qualität der Geschäftsprozesse entscheidend für eine hohe Kundenzufriedenheit und den fi-nanziellen Erfolg des Unternehmens (vgl. Töpfer 2002, S. 27ff.).

Nicht nur in Deutschland wird die Idee vom Ganzheitlichen Produktionssystem (GPS) als zukunftsweisendes Konzept zur Erreichung von Wettbewerbsfähigkeit gehandelt. In der einschlägigen Managementliteratur (vgl. u.a. Töpfer 2006; Liker 2003; Takeda 1995; Ohno 1993; Imai 1986) gilt das „Japan-Modell der Qualitäts-sicherung“ nach wie vor als Vorbild für westliche Produktionskonzepte.11 Dabei

11 Nach einer neueren Studie von Fraunhofer ISI kommt KVP deutlich mehr bei (deut-

schen) Großunternehmen mit über 250 Mitarbeitern als bei KMUs mit einer geringeren MA-Anzahl zum Einsatz. Branchenunabhängig nutzen fast 90% der Großunternehmen des verarbeitenden Gewerbes KVP, gegenüber einer Verbreitungsrate von lediglich 68% bei kleinen und mittleren Unternehmen (vgl. Kirner et al. 2007, S. 26).

Page 81: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 59

kann die Implementierung von KVP als besondere Herausforderung für das Ma-nagement angesehen werden, denn der Erfolg steht und fällt mit der Einstellung sowie Akzeptanz durch die Mitarbeiter. Diese muss sich nach Expertenmeinung in den meisten Fällen grundlegend ändern, um das zentrale Ziel, kundenorientiert und wirtschaftlich zu produzieren, nachhaltig zu erreichen. Für die Umsetzung von KVP können Workshops und Formblätter deshalb lediglich Denkanstöße und Strukturierungshilfen sein. Die eigentliche Herausforderung besteht in der schritt-weisen Modifikation der Denkhaltung und Arbeitsweise einer Organisation.

Ziele & Strategie

Nach einschlägigen Definitionen12 steht bei KVP weniger die Führungsphiloso-phie einer ganzheitlichen Qualitätsorientierung im Vordergrund, als vielmehr die konkrete Verbesserung des qualitätsbezogenen Handelns und Verhaltens der Ak-teure im gesamten Unternehmen. Wesentliche inhaltlich-methodische Elemente von KVP sind die Implementierung und Förderung des Betrieblichen Vorschlags-wesens (BVW) sowie die Einrichtung von Qualitätszirkeln (QC) als abteilungs-übergreifende Gesprächsgruppen. Unter Anleitung eines geschulten Moderators und mit Hilfe spezieller Problemlösungstechniken sollen in ihnen Lösungsvor-schläge erarbeitet und Verbesserungsideen initiiert werden.

Die Abgrenzung zu „Kaizen“ als japanische Führungsphilosophie geht dahin, dass Kaizen eine kontinuierliche Weiterentwicklung des gesamten Unternehmens an-strebt. Neben einer expliziten Ausrichtung auf den Kunden und (ständige) Pro-duktverbesserungen geht es hier um eine grundsätzliche Änderung im Denken und Handeln aller in die Wertschöpfungsprozesse eingebundenen Mitarbeiter (vgl. Zollondz 2001, S. 402). Aus dem japanischen Wort Kaizen, das im Deutschen so viel bedeutet wie „Ersatz des Guten durch das Bessere“, werden i.d.R. konkrete Handlungsempfehlung auf operativer Ebene abgeleitet.

Struktur & Kultur

Eine wesentliche Anforderung ist in diesem Zusammenhang die inkrementelle, kontinuierliche Verbesserung von Produkten, Prozessen und Arbeitshandgriffen, um langfristig Wettbewerbsvorteile zu erzielen (vgl. Kirner/ Armbruster/ Kinkel 2007, S. 25). Sie erfolgt jedoch in kleinen bzw. kleinsten Schritten und geht von den Mitarbeitern im Unternehmen selbst aus. Zur Begriffsabgrenzung im deutsch-sprachigen Raum lässt sich festhalten: Während Kaizen für die übergeordnete Qualitätsphilosophie nach japanischer Prägung steht, wird KVP als zentraler Be-

12 Nach der Qualitätsnorm ISO 9000:2000 wird KVP im Sinne von „Qualitätsverbesse-

rung“ wie folgt definiert: KVP ist der „Teil des Qualitätsmanagements, der auf die Erhöhung der Wirksamkeit und Effizienz gerichtet ist.“ In diesem Zusammenhang wird der Begriff „Ständige Qualitätsverbesserung“ in der Weise verwendet, dass „Qualitäts-verbesserung fortschreitet und die Organisation aktiv nach Verbesserungsmöglichkeiten sucht und diese umsetzt.“

Page 82: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

60 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

standteil und konstitutives Element von Total Quality Management (TQM) gese-hen (vgl. u.a. Töpfer 2002; Pfeifer 2002; Kamiske 2000; Malorny 1999).

Die Leitidee der TQM-Philosophie ist es, Qualität in allen Phasen der Wertschöp-fungskette zu produzieren und dabei interne wie externe Kunden als Maßstab aller Bemühungen zu betrachten (vgl. Pfeifer 1996, S. 509). Nach der ISO-Definition13 lassen sich insgesamt fünf Grundcharakteristika von TQM herausstreichen: die Ausrichtung auf den Kunden, das Prinzip der Prozess- und Mitarbeiterorientie-rung, die allgemeine Umfeldorientierung und das ständige Streben nach Verbesse-rung. Im Ergebnis führt TQM zu einer eigenständigen Unternehmenskultur, die durch kontinuierliche Verbesserung aller Prozesse die zukünftige Qualitäts- und Wettbewerbsfähigkeit von Organisationen sichert (vgl. Kamiske/ Malorny 1997, S. 42). Die Hauptpfeiler des Führungsmodells, nämlich „Total“, „Quality“ und „Management“, sind in Abb. 2-3 in einem Kreismodell dargestellt.

Abb. 2-3: Das Führungsmodell Total Quality Management (TQM)

13 Die Definition nach DIN EN ISO 8402 lautet: „Total Quality Management ist eine auf

der Mitwirkung aller ihrer Mitglieder basierende Führungsmethode einer Organisation, die Qualität in den Mittelpunkt stellt und durch Zufriedenstellung der Kunden auf lang-fristigen Geschäftserfolg, sowie auf den Nutzen für die Mitglieder der Organisation und für die Gesellschaft zielt.“

ArbeitArbeit

ProduktProduktProzessProzess

UnternehmenUnternehmen

QQ

MM

TTMitarbeiterMitarbeiterKundenKundenGesellschaft Gesellschaft

VorbildfunktionVorbildfunktionFührungsqualitätFührungsqualität TeamfähigkeitTeamfähigkeit

LernfähigkeitLernfähigkeit

KVPKVP

Orientierung aufQualität von

Basis: Pfeifer 1996, S. 509

Page 83: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 61

Instrumente & Methoden

Das Vorgehen im Rahmen von TQM und Kontinuierlicher Verbesserung beruht auf dem PDCA-Zyklus. Dieser geht auf den bekannten Wissenschaftler und Quali-tätsexperten EDWARD W. DEMING (1900-1993) zurück und umfasst die vier Pha-sen: P = Plan (Planen) – D = Do (Ausführen) – C = Check (Überprüfen) – A = Act (Verbessern). Das schrittweise Durchlaufen der vier Phasen ist dabei als nie en-dender Prozess zu verstehen und bildet die Grundlage für die kontinuierliche Ver-besserung von Geschäftsprozessen und Abläufen in/ von Unternehmen. Eine ver-tiefende Analse des PDCA-Zyklus erfolgt im Zusammenhang mit den Vorge-hensmodellen zur kontinuierlichen Verbesserung in Abschnitt 3.2.3.

2.2.2 Business Process Reengineering (BPR)

Business Process Reengineering (BPR) kann als die Antwort der amerikanischen und europäischen Automobilhersteller auf die Übermacht der Japaner Ende der 1980er Jahre aufgefasst werden. Verschiedene Studien dokumentierten eindrucks-voll den Kosten-, Zeit- und Qualitätsvorsprung von japanischen Automobilherstel-lern nicht nur im Produktions-, sondern auch im Entwicklungsbereich. Sowohl in den USA als auch in Europa war und ist dringender Handlungsbedarf angezeigt, um die Übermacht von Toyota14 et al. zu brechen (vgl. u.a. Liker 2003; Womack 2003; Rommel et al. 1995; Womack et al. 1994; Shingo 1993).

Das Zauberwort „Reengineering“ kam Anfang der 1990er Jahre im anglo-ameri-kanischen Raum auf und wurde durch den Bestseller „Reengineering the Corpora-tion“ von MICHAEL HAMMER und JAMES CHAMPY (1994) weltweit bekannt ge-macht. Die Definition des Konzeptes enthält vier konzeptionelle Merkmale bzw. Schlüsselworte15, die in Abb. 2-4 als vier Ecken eines Diamanten dargestellt sind und auf die im Folgenden kurz eingegangen werden soll:

14 Das Automobilunternehmen Toyota löst in 2008 General Motors als Weltmarktführer

nach der Stückzahl verkaufter Autos ab. Dabei scheint es, dass das Qualitätssicherungs-system mit dem enormen Wachstum des Konzerns in den vergangenen Jahren nicht Schritt halten konnte. So sind nach der ADAC-Statistik für das Jahr 2007 Autos von deutschen Herstellern, insb. BMW, (wieder) zuverlässiger als die von japanischen, insb. Toyota (vgl. Wüst 2008, S. 116f.; Freitag 2004, S. 72ff.).

15 Die Standard-Definition von BPR nach Hammer/ Champy (1994, S. 48) lautet wie folgt: „Business Reengineering ist [...] fundamentales Überdenken und radikales Re-design von Unternehmen oder wesentlichen Unternehmensprozessen. Das Resultat sind Verbesserungen um Größenordnungen in entscheidenden, heute wichtigen und meß-baren Leistungsgrößen in den Bereichen Kosten, Qualität, Service und Zeit.“

Töpfer (1996, S. 10f.) unterscheidet im Zusammenhang mit der Geschäftprozessopti-mierung drei Entwicklungsstufen als graduelles Ausmaß des Veränderungsprozesses: (a) Re-Engineering, (b) Restrukturierung und (c) Prozesskettenoptimierung. Während beim Re-Engineering das Ausmaß der Veränderung sehr groß ist und unweigerlich zu einer „Revolution“ im Unternehmen führt, kann die bloße Neurodnung bzw. Restruktu-rierung der Geschäftsprozesse mit einer „Evolution“ gleichgesetzt werden. Die Prozess-

Page 84: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

62 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Ziele & Strategie • Fundamentales Überdenken: Nach Hammer/ Champy (1994, S. 48f.) müssen

sich die Manager die elementarsten Fragen zu ihren Unternehmen und ihren betrieblichen Abläufen stellen: „Warum machen wir gerade diese Dinge? Und weshalb machen wir sie auf diese Art und Weise?“ Damit konzentriert man sich bei BPR auf das, was sein sollte und ignoriert das, was ist. Infolgedessen geht BPR von keinerlei Annahmen oder Vorgaben aus. Auch sollten sich die Beteiligten davor hüten, Dinge, d.h. Abläufe und Strukturen, für selbstver-ständlich zu erachten. Dadurch werden die Betroffenen angehalten, ihr Au-genmerk auf Regeln und Annahmen zu lenken, die ihrer Geschäftstätigkeit zugrunde liegen. Diese stellen sich in vielen Fällen bei genauerem Hinsehen als veraltet, falsch oder ungeeignet heraus.

• Verbesserungen um Größenordnungen: BPR hat nicht geringfügige bzw. inkrementelle Leistungsverbesserungen zum Gegenstand, sondern Quanten-sprünge, d.h. es werden herausfordernde Ziele angestrebt, z.B. die Halbierung der Durchlaufzeit. Die Verminderung der Kosten um 10% oder die Erhöhung der Qualität um 10% können durchaus mit konventionellen Methoden erreicht werden, z.B. über Einführung stufenweiser Qualitätsprogramme oder über die Verbesserung der Feinsteuerung im Unternehmen. Verbesserungen um Grö-ßenordnungen hingegen verlangen die Zerstörung des Alten und den Aufbau von etwas Neuem. In diesem Zusammenhang identifizieren die Forscher drei Arten von Unternehmen, für die BPR besonders in Frage kommt.

Instrumente & Methoden • Radikales Redesign: Unter radikalem Redesign wird im Rahmen des BPR

verstanden, dass man den Dingen auf den Grund geht und dass man einen kla-ren Trennstrich zur Vergangenheit zieht. Es sind keine oberflächlichen Ände-rungen vorzunehmen, sondern völlig neue Wege bei der Ausführung der Ar-beit zu beschreiten. Die Prozesse und Abläufe sind gegebenenfalls unter Missachtung aller bestehenden Strukturen neu zu definieren. Es geht nach Hammer/ Champy (1994, S. 49) um die völlige Neugestaltung des Unterneh-mens und nicht um die Verbesserung, Erweiterung und/ oder Modifizierung von Geschäftsabläufen in kleinen Schritten. In den meisten Fällen bezieht sich das Redesign auf das gesamte Unternehmen; Ganzheitlichkeit steht also bei BPR im Vordergrund (vgl. Schmelzer/ Sesselmann 2004, S. 338ff.).

• Optimierung von Prozessen: Die Optimierung von Unternehmensprozessen kann auch bei BPR als die Grundidee schlechthin aufgefasst werden. Dabei wird vor allem die Bedeutung der Prozessorientierung von allen Managern und Mitarbeitern im Unternehmen herausgestellt. Denn die meisten von ihnen verhalten sich alles andere als prozessorientiert; sie konzentrieren sich auf

kettenoptimierung betrifft jeweils nur einen Teil des Unternehmens und lässt sich vor diesem Hintergrund als räumlich beschränkte Revolution kennzeichnen.

Page 85: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 63

Aufgaben, Positionen, Menschen und Strukturen statt auf Prozesse. Die größ-te Herausforderung von Unternehmen besteht vor diesem Hintergrund nicht selten darin, sich nicht mehr vertikal nach Funktionen, sondern horizontal nach Prozessen zu gliedern. Der Fokus von BPR liegt folgerichtig auf der Strukturierung und Optimierung von Kernprozessen, in denen die eigentliche Wertschöpfung des Unternehmens stattfindet.

Abb. 2-4: Das Reorganisationsmodell Business Process Reengineering (BPR)

Struktur & Kultur

Der gemeinsame Fokus von BPR-Ansätzen16 liegt zum einen auf der Veränderung der Unternehmenskultur und zum anderen auf der Verbesserung des Qualitäts- und Prozessmanagements unter explizitem Einsatz von Informationstechnologie (IT). Auf der Grundlage eines IT-getragenen Organisationswandels (Business Transformation) begannen Mitte der 1980er Jahre einzelne Unternehmen mit radikalen, diskontinuierlichen Veränderungen zu „experimentieren“. Das Ziel bestand darin, das Gestaltungs- und Automatisierungspotenzial der IT, z.B. die Betriebssoftware SAP/R3, für die grundsätzliche Neugestaltung von Geschäfts-prozessen zu erkennen und zu nutzen (vgl. auch Metzen 1994, S. 279ff.).

16 In der praxisbezogenen und wissenschaftlichen Literatur wird BPR unter zahlreichen

synonymen Bezeichnungen verwendet, z.B. Business Reengineering, Process Innova-tion und Business Process Redesign (vgl. Schmelzer/ Sesselmann 2004; Harmon 2003; Hunt 1996; Töpfer 1996; Davenport 1993).

Fundamentales Überdenken

Radikales Redesign

Verbesserungen um Größenordnungen

Optimierung von Prozessen

Basis: Hammer/ Champy 1994, S. 110

Page 86: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

64 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Wie verschiedene empirische Studien belegen, konnte BPR als eigenständiges und zukunftweisendes Managementkonzept die hohen Erwartungen, die Manager mit einem ganzheitlichen Konzept der Organisationsgestaltung verknüpfen, weitest-gehend nicht erfüllen. Heute konstatieren selbst die o.g. Protagonisten von BPR, dass die meisten BPR-Projekte in der Praxis nicht erfolgreich verlaufen; nach einer Studie von Straub/ Forchhamer (1995, S. 9) ist davon auszugehen, dass ca. 70 bis 80% aller Projekte in Unternehmen, die unter dem Zeichen einer radikalen Restrukturierung/ Reengineering stehen, regelmäßig scheitern. Dies ist nach Töp-fer (1996, S. 10) dem „uneingeschränkten Darwinismus“ geschuldet, der zu einem Bruch mit allem Vorhandenen und damit auch Bewährtem führt.

Bei erfolgreichen BPR-Projekten konnten die erwarteten Leistungsverbesserungen langfristig nur erreicht werden, wenn die Umsetzung sowohl radikal als auch ganzheitlich verfolgt wurde (vgl. z.B. Studie von Hall/ Rosenthal/ Wade 1994, S. 85). Bereits zu Beginn des BPR-Aufschwungs stellten deshalb Osterloh/ Frost (1994) die Frage, ob es sich bei BPR um eine „Modeerscheinung“ oder ein „nach-haltiges Konzept der Prozessgestaltung“ handelt (vgl. auch Abschnitt 2.3.1). Mit dem Niedergang von BPR begann der weltweite Aufstieg von Six Sigma.

2.2.3 Six Sigma und Design for Six Sigma (DFSS)

Auf einzelne Aspekte des Six Sigma-Konzeptes wurde bereits im einleitenden Kapitel eingegangen. Für eine umfassende Darstellung sei auf die einschlägige Literatur verwiesen (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004; Breyfogle 2003; Pande et al. 2000). Um die Grundkonzeption des Mana-gementkonzeptes zu verstehen, bietet es sich an, Six Sigma respektive Design for Six Sigma unter den folgenden zwei Gesichtspunkten zu analysieren.

Ziele & Strategie • Six Sigma-Messkonzept: Die (statistische) Forderung des Six Sigma-Konzepts

besteht darin, dass bezogen auf ein Produktionsvolumen von 1 Mio. Einheiten nur 3,4 fehlerhafte Prozessoutputs auftreten dürfen. Dies entspricht einem ge-forderten Qualitätsniveau bzw. einer angestrebten Ausbeute von 99,99966%. Als Referenzmodell für die Darstellung dieses Wahrscheinlichkeitswertes wird das Verteilungsmodell der Standardnormalverteilung genutzt. Danach dürfen bei einer Streuung der Merkmalswerte von 6σ um den Mittelwert die Spezifikationsgrenzen (langfristig) nur in maximal 0,00034% der Fälle ver-letzt werden. Um unter den Bedingungen eines verschärften Wettbewerbs zu überleben, wird in diesem Zusammenhang häufig auch von dem Ziel „prakti-zierter Null-Fehler-Qualität“ gesprochen (vgl. Töpfer/ Günther 2007a, S. 7). Im Vergleich zum 6σ-Standard liegt das durchschnittliche Qualitätsniveau in der deutschen Industrie bei einem Sigma-Wert von 3,8, was einer Ausbeute von ca. 99% bzw. einer Fehlerrate von ca. 10.000 PPM (Parts Per Million)

Page 87: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 65

entspricht.17 Alternativ wird zur Berechnung des Sigma-Wertes die Fehler-quote18 (DPMO – Defects Per Million Opportunities) herangezogen.

• Six Sigma-Projektmanagement: Neben der Interpretation von Six Sigma als statistisches Messkonzept mit dem auf der Standardnormalverteilung basie-renden Qualitätsanspruch von 6σ = 3,4 DPMO steht Six Sigma für stringentes Projektmanagement auf fundierter statistischer Basis unter Einsatz bekannter und wirksamer QM-Instrumente, z.B. FMEA und Ishikawa-Diagramm. Die projektorientierte Ausrichtung von Six Sigma konkretisiert sich in zwei stan-dardisierten Vorgehensweisen, nämlich dem DMAIC-Zyklus mit den fünf Phasen Define, Measure, Analyse, Improve und Control sowie dem DMADV-Zyklus mit den fünf Phasen Define, Measure, Analyse, Design und Verify. Die Anwendung der Zyklen richtet sich nach dem Zeitpunkt der Ver-besserungsaktivität im Leistungserstellungsprozess: • Der DMAIC-Zyklus bezieht sich auf die Optimierung von bestehenden

Prozessen in Unternehmen (vgl. Abschnitt 3.3.1). Im Rahmen eines 3- bis 6-monatigen Six Sigma-Verbesserungsprojektes soll die Frage beantwor-tet werden, wie die aktuelle Prozessleistung im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung verbessert werden kann.

• Der DMADV-Zyklus kommt – im Sinne eines Design for Six Sigma (DFSS) – bei der Neuproduktplanung und -entwicklung zum Einsatz, wobei zukünftig wichtige Kundenanforderungen ermittelt und erfüllt werden sollen (vgl. Abschnitt 3.3.2). Ziel ist es hier, die Fehlerrate bzw. Fehlerquote bei Neuprodukten/ -prozessen von vornherein, d.h. ab Se-rienstart, niedrig zu halten (vgl. Töpfer/ Günter 2007b, S. 100ff.).

Instrumente & Methoden

Neben einer präzisierten Projektlaufzeit konkretisiert sich die stringente Umset-zung in einer klaren Zielstruktur, bei der die finanziellen Ergebnisse jeweils im Vordergrund stehen. So wird in großen Unternehmen, wie bereits erwähnt, die durchschnittliche Nettoersparnis (Net Benefit) pro Projekt auf mind. 125.000 € beziffert, während sie in kleinen und mittleren Unternehmen bei nicht unter 50.000 € liegen sollte (vgl. Töpfer 2007b, S. 236). Um dieser Anforderung gerecht zu werden, ist in jedem Projekt eine detaillierte Analyse der drei Umsetzungstrei-ber von Six Sigma – Kunde, Prozess und Qualität – vorzunehmen.

17 Auf die Tatsache, dass dieses Ergebnis unter Kosten- und Umsatzgesichtspunkten

sowie sinkenden Gewinnmargen in vielen Branchen nicht (mehr) wettbewerbsfähig ist, weisen insbesondere die beiden Autoren und Gründer der Six Sigma Academy® von Motorola MIKEL HARRY und RICHARD SCHROEDER (2005, S. 17) hin. Nach ihren Erfah-rungen betragen bei einem „Weltklasse-Unternehmen“ auf 6σ-Niveau die qualitäts-bezogenen Kosten im Durchschnitt weniger als 1% des Gesamtumsatzes p.a.

18 Zur Berechnung der Fehlerquote wird im Nenner der PPM-Formel die Anzahl der Fehlermöglichkeiten als Maß für die Komplexität der Produkte/ Prozesse berück-sichtigt (vgl. Günther 2003, S. 1).

Page 88: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

66 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Abb. 2-5: Die Six Sigma Umsetzungstreiber

Wie in Abb. 2-5 nachvollziehbar, sollen über eine enge Beziehung zum Kunden die aus seiner Sicht kritischen Qualitätsmerkmale (CTQs) nicht nur erkannt, son-dern durch optimierte Prozesse mit praktizierter Null-Fehler-Qualität auch reali-siert werden. Durch zufriedene Kunden und wirtschaftliche Prozesse werden i.A. Kosteneinsparungen und Umsatzsteigerungen generiert, die dann zu nachhaltigen Ertragsverbesserungen führen. Bei General Electric lag z.B. das Kosten-Nutzen-Verhältnis im Jahr 2000 bei 1 zu 6, was einer durchschnittlichen Kapitalverzin-sung von 600% für die Investition in Six Sigma-Aktivitäten entspricht. Insgesamt belief sich der monetäre Nutzen (Net Benefit) durch Six Sigma-Projekte bei GE im Zeitraum von 1995 bis 2000 auf über 6 Mrd. US-$.19

Struktur & Kultur

Die Erfahrungen in der Unternehmenspraxis zeigen, dass die Zeitdauer für die vollständige Einführung eines effektiven Six Sigma-Projektmanagements ca. 24 Monate beträgt. Darin enthalten sind die Durchführung eines Pilotprojektes von 4-6 Monaten, um die Eignung der Six Sigma-Methodik zu testen, eine ca. 5-monatige Trainingsphase für Green und Black Belts als Projektmitarbeiter/ -leiter sowie die damit verbundene strategische Analyse und Durchführung von Trai-ningsprojekten (1. Welle). Die anschließende Ausfächerung von Six Sigma im

19 Heute arbeitet das Unternehmen intensiv daran, das Six Sigma-Konzept in der gesam-

ten mehrstufigen Wertschöpfungskette, also auch bei den Kunden- und Lieferanten-Unternehmen, zu etablieren (vgl. Brady 2003, S. 60ff.).

Veränderung

Ergebnisverbesserung durcho Kosteneinsparungo Umsatz-/Ertragssteigerung

Veränderung

Ergebnisverbesserung durcho Kosteneinsparungo Umsatz-/Ertragssteigerung

Kunde

Prozess Qualität

Kunde

Prozess Qualität

Quelle: Töpfer 2007, S. 372

Page 89: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 67

gesamten Unternehmen nimmt dann erfahrungsgemäß weitere 12 bis 14 Monate in Anspruch (2. und 3. Welle). Je nach organisatorischen Voraussetzungen werden entsprechend der Unternehmenshierarchie mind. vier Gruppen von Six Sigma-Akteuren unterschieden (vgl. Töpfer/ Günther/ Garzinsky 2007, S. 254): • Champions als Führungskräfte und Machtpromotoren mit operativer Ergeb-

nisverantwortung für einen bestimmten Wertschöpfungsbereich • Master Black Belts als Systempromotoren und durch eine größere Anzahl von

durchgeführten Projekten sehr erfahrene Six Sigma Experten • Black Belts als Projektleiter und Fachpromotoren für die Durchführung um-

fassender Six Sigma und Design for Six Sigma-Projekte • Green Belts als Projektmitglieder oder als Leiter kleinerer Six Sigma-

Projekte, die sich z.B. auf die Verbesserung von Teilprozessen beziehen.

Die Trainingsdauer reicht je nach Position und Qualifikationsgrad von 2 bis 20 Tagen. Es erfolgt bei Green und Black Belts jeweils an einem konkreten Projekt. In vielen Unternehmen20 wird die Six Sigma-Qualifizierung als ein konkretes Führungskräftenachwuchstraining gesehen, d.h. durch die Ausbildung zum Green und/ oder Black Belt sowie durch die „Bewährung“ in konkreten Projekteinsätzen werden die Voraussetzungen für eine Karriere auf eine attraktive Führungspositi-on im Unternehmen geschaffen. Erfahrungswerte belegen, dass die Anzahl von in Six Sigma-Methoden geschulten Mitarbeitern21 insgesamt ca. 10% der Beleg-schaft eines Unternehmens betragen sollte (vgl. Q-DAS 2002, S. 1).

2.2.4 Kritische Bewertung der Konzepte auf der Basis eines multidi-mensionalen Vergleichs

In diesem Abschnitt werden die vorstehend beschriebenen Managementkonzepte insbesondere dahingehend untersucht, welche umweltbezogene Anpassungsstrate-gie zugrunde liegt und auf welche Art und Weise die organisationale Veränderung vonstatten geht. Dazu wird ein 10-Punkte-Kriterienraster verwendet, anhand dessen sich die drei Konzepte eindeutig positionieren und hinsichtlich Zielsetzung und Konzeption systematisch abgrenzen lassen. Die Festlegung der einzelnen Merkmale bzw. Merkmalsausprägungen erfolgt zum einen auf der Grundlage von management-/ organisationstheoretischen Konzepten. Zum anderen wird auf ein-schlägige Klassifizierungsansätze in der Managementliteratur zurückgegriffen, die z.B. im Zusammenhang mit der Abgrenzung von BPR und KVP entwickelt wor-den sind (vgl. Davenport 1993, S. 11).

20 So wurden z.B. beim US-amerikanischen Mischkonzern General Electric in einem kur-

zen Zeitraum 70.000 der weltweit agierenden 300.000 Beschäftigten in Six Sigma-Lehrgängen und Qualitätsseminaren geschult (vgl. Garthe 2002, S. 345).

21 Die „kritische Masse“ für die Gruppe der Black Belts wird bei großen Unternehmen mit ca. 2% der Belegschaft beziffert (vgl. Töpfer 2007b, S. 212).

Page 90: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

68 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

In Abb. 2-6 sind die Ergebnisse der Gegenüberstellung von KVP, Six Sigma und BPR im Überblick dargestellt. Wie ersichtlich ist, beziehen sich die aufgeführten Kriterien sowohl auf die strategische Ausrichtung der Managementkonzepte als auch auf ihre operative Umsetzung. Auf die einzelnen Punkte sowie konzeptbezo-gene Einordnung wird nachfolgend kurz eingegangen.

Zu (1): Art des Organisationswandels

Mit Organisationsentwicklung (OE) und Organisationstransformation (OT) wer-den in der betriebswirtschaftlichen Literatur üblicherweise zwei Arten des Organi-sationswandels unterschieden (vgl. z.B. Staehle 1998, S. 922ff.): • Organisationsentwicklung (Organizational Development) ist eine Form des

geplanten Wandels. Unter Verwendung verhaltenswissenschaftlicher Er-kenntnisse wird ein evolutionärer, organisationsweiter Veränderungsprozess eingeleitet und unterstützt. OE hat ihren Ursprung in der Aktionsforschung und der Untersuchung von Gruppendynamiken. Auf der Grundlage der Mit-wirkung aller Organisationsmitglieder sollen individuelle Verhaltensmuster, Organisationskultur sowie Kommunikations- und Organisationsstrukturen zweckmäßig verändert und weiterentwickelt werden.22 Die Zuordnung des Konzeptes KVP zu OE lässt sich vor allem an der Art von verwendeten Interventionstechniken festmachen. So werden im Rahmen von OE bevorzugt personenbezogene (z.B. Sensibilisierung von Mitarbeitern für Qualität), gruppenbezogene (z.B. Förderung von Qualitätszirkeln) und orga-nisationsbezogene (z.B. Implementierung eines BVW) Interventionstechniken eingesetzt. Bei der nachstehenden OT kommen zusätzlich situationsbedingt, z.T. drastische, strukturbezogene (z.B. Neustrukturierung der Organisation), personenbezogene (z.B. Austausch des Top-Managements) und/ oder kapital-bezogene (z.B. Verkauf von Betriebsteilen) Maßnahmen zum Einsatz.

• Organisationstransformation (Organizational Transformation) impliziert einen revolutionären strategischen Veränderungsprozess von Organisationen, der auf einen Wandel 2. Ordnung ausgerichtet ist. Ausgangspunkt für die Veränderungsbemühungen ist zum einen die Unzufriedenheit mit alten Ma-nagementphilosophien/ -techniken und der Glaube an die Existenz neuer Lö-sungen im Management. Zum anderen macht ein erkennbarer misfit zwischen der gegenwärtigen Organisationssituation und den gegenwärtigen und/ oder zukünftigen Umweltkonstellationen einen radikalen strategischen Wandel notwendig (vgl. Staehle 1998, S. 930). Gegenüber OE ist OT immer mit einem Philosophiewechsel verbunden, bei dem Personen und Systeme an einer neuen Mission ausgerichtet werden (sol-len). Während OE gegenwartsorientiert die Kontinuität mit der Vergangenheit

22 Organisationsentwicklung (OE) wird von WOLFGANG H. STAEHLE (1998, S. 930) auch

als Wandel 1. Ordnung bezeichnet, bei dem als Ziele die „Humanisierung der Arbeit“ und die „Erhöhung der Leistungsfähigkeit“ im Vordergrund stehen.

Page 91: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 69

anstrebt, geht OT explizit vom Beginn einer neuen Zukunft, d.h. einer neuen Entwicklungsstufe, aus.23 Dies trifft uneingeschränkt für das Management-konzept BPR zu. Die Zuordnung von Six Sigma24 zu OT liegt vor allem darin begründet, dass mit dem Aufbau einer eigenständigen Six Sigma-Organisa-tion i.d.R. drastische strukturbezogene Veränderungen im gesamten Unter-nehmen einhergehen (vgl. z.B. Wessel 2002a, S. 8).

Im Hinblick auf die gewählte Anpassungsstrategie zur effizienten Gestaltung von Organisationen/ Unternehmen kommen mit der Kontingenz- und Konsistenztheo-rie zwei konkurrierende theoretische Ansätze in Frage. Bei den situativen bzw. kontingenztheoretischen Ansätzen wird in erster Linie von der Kongruenz-Effizienz-Hypothese ausgegangen. Sie besagt, dass eine Strukturierung effektiv ist, „wenn sich Kontingenzfaktoren und Gestaltungsparameter genau entsprechen (close fit)“ (Mintzberg 1979, S. 219ff.), wenn also ein maximaler Grad an Über-einstimmung (fit) zwischen Organisation und Umwelt vorliegt. Zu diesem Zweck werden in der einschlägigen Literatur häufig Checklisten mit Anwendungsvoraus-setzungen für den effektiven Einsatz eines bestimmten Konzeptes präsentiert. Ein Selbsttest für die Notwendigkeit und Zweckmäßigkeit der Einführung von Six Sigma in Unternehmen findet sich z.B. bei Töpfer/ Günther (2007a, S. 27).

Bei den konsistenztheoretischen Ansätzen wird hingegen von der Konsistenz-Effizienz-Hypothese ausgegangen, welche im Kern postuliert, dass eine Strukturie-rung dann effektiv ist, „wenn eine interne logische Konsistenz zwischen den Ges-taltungsparametern besteht“. In diesem Fall lassen sich die Charakteristika von Organisationen/ Unternehmen in verschiedene Cluster bzw. Konfigurationen ein-ordnen, die eine natürliche Harmonie aufweisen und bei denen sich gleich mehrere Strukturvariablen in Übereinstimmung befinden. Die Integration beider Hypothe-sen führt nach HENRY MINTZBERG (1984) zu folgender übergeordneten Aussage: „Effektive Strukturierung erfordert Konsistenz zwischen den Gestaltungsparame-tern und den Kontingenzfaktoren“ (Staehle 1998, S. 60).

So setzen z.B. Unternehmen, die Six Sigma praktizieren, häufig die Balanced Scorecard25 (BSC) als Unternehmenssteuerungsinstrument ein. Sie hilft unmittel-bar bei der Projektauswahl und -steuerung. Darüber hinaus bewerten sie regelmä-

23 Im Sinne eines qualitativen Wandels 2. Ordnung umfasst OT alle Organisationsebenen

und fokussiert dabei gleichzeitig auf mehrere Dimensionen; statt Wandel des Inhalts steht hier der Wandel im Kontext im Mittelpunkt (vgl. u.a. Levy/ Merry 1986, S. 33).

24 Nach Wessel (2002a, S. 8) war der Weg von Motorola zu Six Sigma in den 1980er Jahren durch eine Reihe von geplanten inkrementellen Veränderungen geprägt, die in Summe zu einer Organisationstransformation führten. Diese manifestierte sich mit der bewussten Ausrichtigung auf 6σ-/ Null-Fehler-Qualität im Jahr 1987.

25 Die BSC ist der zweite Baustein im strategischen Wirkungsverbund der drei QM-Konzepte: Six Sigma, BSC und EFQM. Das Steuerungsinstrument verstärkt die Fokus-sierung auf Werttreiber und Erfolgsfaktoren, und zwar in einer völlig unternehmens-spezifischen Ausrichtung (vgl. Messer/ Töpfer 2002, S. 1268).

Page 92: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

70 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

ßig ihr Excellence-Niveau anhand einschlägiger Modelle, z.B. European Founda-tion for Quality Management26 (EFQM). Dadurch sollen konkrete Ansatzpunkte für Verbesserungen aufgedeckt werden, um langfristig eine hohe Unternehmens-qualität sicherzustellen (vgl. Messer/ Töpfer 2002, S. 1268ff.).

Abb. 2-6: 10-Punkte-Kriterienraster zum Vergleich von KVP, Six Sigma und BPR

Zu (2): Art der Anpassungsstrategie

Wie in Abb. 2-6 nachvollziehbar ist, kommt es bei der (erfolgreichen) Umsetzung von BPR zu einem Konfigurationswechsel. Aus Sicht der Gesamtorganisation besteht das Ziel darin, aufgrund sich ändernder Umweltbedingungen relativ kurz-fristig von einer konsistenten, harmonischen Organisationsstruktur/ -kultur in eine andere zu wechseln. Im Gegensatz dazu wird bei KVP die ursprüngliche Konfigu-ration der Organisation beibehalten; im Laufe der Zeit erfolgt lediglich eine An-passung bestimmter Struktur-/ Gestaltungsvariablen, ohne dass dabei die beste-hende Konfiguration nennenswert verändert wird. In Abgrenzung zu KVP und BPR hat das Six Sigma-Konzept „nur“ langfristig das Ziel eines Konfigurations-wechsels; kurzfristig soll die Organisationsstruktur bestehen bleiben und durch

26 Das EFQM-Modell konzentriert sich mit seiner Unterscheidung in Befähiger- und Er-

gebniskriterien auf die Leistungsbewertung im Vergleich zu einem Idealunternehmen. Der differenzierte und standardisierte Kriterienkatalog liefert dabei ein einheitliches Raster, welches ein umfassendes Verständnis der Stärken und Schwächen des Unter-nehmens auf der Prozessebene vermittelt (vgl. Wigand/ Schnopp 2000, S. 266ff.).

2-5 Jahre1-2 JahreMehrere Wochen(10) Zeitbedarf für Um-setzung

NeinJa, stark ausgeprägtJa, schwach ausge-prägt

(9) Routinen bei Um-setzung

Ja, schwach differen-ziert

Ja, stark differenziertNein(8) Definition von Rol-len/ Strukturen

GegenstromprinzipTop-downBottom-up(7) Partizipation der Mitarbeiter

Immer neue ProzesseBestehende und neue Prozesse

Bestehende Prozesse(6) Ausgangspunkt für Verbesserungen

Sehr weit, funktions-übergreifend

Weit, funktionsüber-greifend

Eng, funktionsbezogen(5) Veränderungs-sicht

DiskontinuierlichKontinuierlich in Sprüngen

Kontinuierlich(4) Veränderungs-häufigkeit

Radikal, ganzheitlichInkrementell-synop-tisch

Klein, inkrementell(3) Veränderungs-stärke

KonfigurationswechselKonfigurationswechsel als Ziel

Konfigurationsbei-behaltung

(2) Art der Anpas-sungsstrategie

Organisationstrans-formation (OT)

Eher Organisations-transformation

Organisationsent-wicklung (OE)

(1) Art des Organi-sationswandels

BPRSix SigmaKVPKriterium

2-5 Jahre1-2 JahreMehrere Wochen(10) Zeitbedarf für Um-setzung

NeinJa, stark ausgeprägtJa, schwach ausge-prägt

(9) Routinen bei Um-setzung

Ja, schwach differen-ziert

Ja, stark differenziertNein(8) Definition von Rol-len/ Strukturen

GegenstromprinzipTop-downBottom-up(7) Partizipation der Mitarbeiter

Immer neue ProzesseBestehende und neue Prozesse

Bestehende Prozesse(6) Ausgangspunkt für Verbesserungen

Sehr weit, funktions-übergreifend

Weit, funktionsüber-greifend

Eng, funktionsbezogen(5) Veränderungs-sicht

DiskontinuierlichKontinuierlich in Sprüngen

Kontinuierlich(4) Veränderungs-häufigkeit

Radikal, ganzheitlichInkrementell-synop-tisch

Klein, inkrementell(3) Veränderungs-stärke

KonfigurationswechselKonfigurationswechsel als Ziel

Konfigurationsbei-behaltung

(2) Art der Anpas-sungsstrategie

Organisationstrans-formation (OT)

Eher Organisations-transformation

Organisationsent-wicklung (OE)

(1) Art des Organi-sationswandels

BPRSix SigmaKVPKriterium

Ope

rativ

e Um

setz

ung

St

rate

gisc

he A

usric

htun

g

Quelle: Eigene Darstellung

Page 93: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 71

eine Six Sig-ma-Projektorganisation (lediglich) ergänzt werden. Die Reichweite der angestrebten Veränderungen ist damit von mittlerer Größe.

Gegenüber biologischen Systemen, die der Wirkung Darwinistischer Selektions-prozesse unterliegen und sich im Laufe mehrerer Generationen wandeln, zeichnen sich soziale Systeme, z.B. Unternehmen, durch eine relativ kurzfristige Verände-rungs-/ Anpassungsfähigkeit aus. In diesem Zusammenhang unterscheiden Miller/ Friesen (1984) zwischen einem Quantum change (Ganzheitliche Anpassung) und einem Piecemeal change (Teilweise Anpassung).27 Der Änderungsprozess kann bei beiden Ansätzen dramatisch-revolutionär oder inkrementell-evolutionär erfol-gen (vgl. Müller-Stewens/ Lechner 2003, S. 560f.); im Regelfall ist jedoch das Vorgehen bei der ganzheitlichen Anpassung revolutionär (Revolutionary change) und bei einer teilweisen Anpassung evolutionär (Evolutionary change).

Konkret empfehlen die beiden Autoren einen Quantum change, wobei die Verän-derung solange hinauszuzögern bzw. die harmonische, konsistente Konfiguration solange beizubehalten ist, bis der misfit zwischen gegenwärtiger Konfiguration und gegebener Umweltsituation eine radikale Veränderung vieler Strukturvariab-len verlangt. Beispielhaft zu nennen sind hier die unternehmensweiten Six Sigma-Einführungen bei Motorola, General Electric et al. Demgegenüber stellt der Pie-cemeal change die bevorzugte Strategie der Kontingenztheoretiker dar; bei ihr erfolgt die Anpassung evolutionär und inkrementell, d.h. einzelne Strukturelemen-te werden unverzüglich verändert, sobald sich ein misfit zwischen Struktur und Umwelt ergibt. Dies kennzeichnet z.B. die Strategie von Toyota zum Erreichen von Null-Fehler-Qualität (vgl. Freitag 2004, S. 82); entdeckte Fehler in Produkten und Prozessen werden hier unmittelbar ausgemerzt.

Wann letztendlich eine evolutionäre statt einer revolutionären Anpassungsstrate-gie zum Einsatz kommen sollte, ist von den jeweiligen situativen Anforderungen abhängig. So sind nach Miller (1982, S. 131f.) insbesondere der Umweltzustand und die Umweltunsicherheit in das Entscheidungskalkül einzubeziehen.

Zu (3)-(5): Veränderungsstärke, -häufigkeit und -sicht

Hinsichtlich Veränderungsstärke, -häufigkeit und -sicht können die Anpassungs-strategien/ -philosophien, die den drei Managementkonzepten zugrunde liegen, wie folgt präzisiert werden (vgl. u.a. Gupta 2004, S. 12ff.): • Da bei BPR viele Gestaltungsvariablen konsistent und kontrolliert in einem

oder mehreren Unternehmensbereichen gleichzeitig verändert werden, ist hier von einem Quantum change zu sprechen (vgl. Engelmann 1995, S. 17). In diesem Zusammenhang kommt es zu einer radikalen und ganzheitlichen Neu-

27 Während bei einem Quantum change viele der Strukturvariablen simultan und koordi-

niert verändert werden, beschränkt sich ein Piecemeal change auf die gleichzeitige Ver-änderung von wenigen Strukturvariablen.

Page 94: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

72 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

gestaltung von Geschäftsprozessen, wobei eine sehr weite, funktionsübergrei-fende Veränderungssicht eingenommen wird.

• Während bei BPR die Veränderungen diskontinuierlich erfolgen, steht bei KVP – wie der Name bereits sagt – die kontinuierliche Verbesserung von Prozessen in kleinen, inkrementellen Schritten im Vordergrund. Der Analyse-bereich und damit die Veränderungssicht sind relativ eng und zudem stark auf den Funktionsbereich der involvierten Mitarbeiter bezogen.

• Unter den Gesichtspunkten der Veränderungsstärke, -häufigkeit und -sicht nimmt Six Sigma eine Zwischenstellung ein: Zum einen handelt es sich auf-grund der kontinuierlichen Durchführung von vielen, relativ kleinen Verbes-serungsprojekten um einen inkrementellen Ansatz, bei dem Prozesse in einer funktionsübergreifenden Sicht analysiert und optimiert werden; die Verände-rungen erfolgen projektbezogen. Zum anderen ist von einem synoptischen Ansatz zu sprechen, wenn die Projekte nicht isoliert in einzelnen Bereichen durchgeführt werden, sondern im gesamten Unternehmen auf der Basis einer übergeordneten Projektsteuerung, z.B. Six Sigma Balanced Scorecard.

Zu (6): Ausgangspunkt für Verbesserungen

Im Hinblick auf die operative Umsetzung von KVP, Six Sigma und BPR lassen sich vor allem die folgenden Unterschiede festhalten. Ausgangspunkt für die Su-che nach Verbesserungsmöglichkeiten bilden bei allen drei Managementkonzep-ten Prozesse im Unternehmen. Während KVP und Six Sigma in erster Linie die Verbesserung von bestehenden Prozessen zum Ziel haben, steht bei BPR die Ent-wicklung ganz neuer Prozesse im Vordergrund. Der Umgang mit dem Bestehen-den entspricht dem Tabula-rasa-Prinzip, d.h. es wird immer von neuem „auf ei-nem weißen Blatt“ (White paper) begonnen, ohne das Vorhandene von vornherein in die Überlegungen einzubeziehen (vgl. Gonzalez et al. 1999, S. 345ff.).

Bei Six Sigma werden sowohl bestehende Prozesse analysiert und verbessert als auch neue Prozesse/ Produkte entwickelt und gestaltet. Wie bereits erwähnt, ges-talten sich Verbesserungsprojekte, die auf bestehende Prozesse im Unternehmen aufsetzen, nach dem DMAIC-Zyklus. F&E-Projekte, mit dem Ziel des Design for Six Sigma (DFSS), werden nach dem DMADV-Zyklus abgearbeitet. Wesentliche Problemlösungstechniken, die im Rahmen von KVP/ Kaizen zum Einsatz kom-men, sind u.a. QC und BVW. Ziel ist es, eine möglichst simultane Optimierung von Effizienz und Qualität der (bestehenden) Prozesse zu erreichen.

Zu (7): Partizipation der Mitarbeiter

Aufgrund der organisationsweiten Bildung von Qualitätszirkeln bei KVP erfolgt ein Großteil der Veränderungen auf operativer Ebene; die Partizipation der Mitar-beiter erfolgt entsprechend von unten nach oben (bottom-up). In entgegengesetzter Richtung, also von oben nach unten (top-down), gestaltet sich der Einführungs-prozess und Roll-out einer Six Sigma-Initiative. Sie geht von der Unternehmens-

Page 95: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.2 Managementkonzepte zur Verbesserung der Prozess- und Produktqualität 73

leitung aus und mündet relativ schnell in Pilotprojekte, die i.d.R. in direktem Zu-sammenhang mit den ersten Green und Black Belt Trainings stehen.

Die Einbindung des Managements und der Mitarbeiter geschieht im Rahmen einer Reorganisation (BPR) vorzugsweise im Gegenstromprinzip. Dies bedeutet, dass ausgehend von einer neuen Vision/ Mission im Top-Management die Denk- und Verhaltensweisen in der Organisation grundsätzlich reformiert werden. Gleichzei-tig setzen konkrete Gestaltungsmaßnahmen bei den Kernprozessen auf mittlerer Ebene, d.h. auf Hauptprozessebene, an.

Simon/ Piroh (2002, S. 15) kommen zu der Erkenntnis, dass sich alle modernen Managementansätze und -konzepte, die seit den 1970er Jahren angewendet wer-den, hinsichtlich ihres Implementierungsablaufs stark ähneln. Üblicherweise wer-den die folgenden fünf Schritte durchlaufen: 1) Vision entwickeln, (2) Ziele set-zen, (3) Mitarbeiter begeistern, (4) Projektgruppe einrichten und (5) Konzept umsetzen. Die Unterschiede der einzelnen Konzepte liegen vor allem in der Schwerpunktsetzung der Verbesserungen, den Anwendungsbereichen im Unter-nehmen und in der konzeptionellen Vorgehensweise bei ihrer Umsetzung. Dies zeigt sich unmittelbar auch bei den hier behandelten Konzepten.

Zu (8): Definition von Rollen/ Strukturen

Um das Konzept einer prozessorientierten OT zu erreichen, werden sowohl bei Six Sigma als auch bei BPR Rollen/ Verantwortlichkeiten definiert.28 Im Fall von BPR sind im Basiskonzept häufig die folgenden fünf Rollen vertreten (vgl. Ham-mer/ Champy 1994, S. 134f.): • Leiter (Leader) als Manager und Machtpromotor aus dem oberen Führungs-

kreis zur Motivation des Reengineering-Teams • Lenkungsausschuss (Quality Council) als Gremium bestehend aus oberen

Führungskräften, das Richtlinienentscheidungen trifft und die Reengineering-Strategie bezogen auf das Unternehmen festlegt

• Prozesseigner (Process Owner) als Prozesspromotor, der die Verantwortung für den Prozess und die daran ansetzenden Reengineering-Aktivitäten trägt

• Projektteam (Reengineering-Team) als Personen, die das Reengineering eines bestimmten Unternehmensprozesses aktiv vorantreiben und gestalten und

• System-/ Fachpromotor (Reengineering-Czar) als übergeordneter Mitarbeiter, welcher die Synergiepotenziale von Projekten erkennt und die zur Durchfüh-rung notwendigen Techniken/ Werkzeuge bereitstellt und weiterentwickelt.

28 Ein anschauliches Beispiel für den Einführungsprozess und den systematischen Aufbau

einer Six Sigma-Organisation gibt die Deutsche Bahn AG, Unternehmensbereich Perso-nenfernverkehr, die Anfang 2001 mit der Implementierung eines umfassenden Quali-tätsprogramms startete (vgl. Lang/ Reemtsema 2003, S. 12ff.).

Page 96: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

74 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Die definierten Rollen/ Verantwortlichkeiten bei Six Sigma stimmen mit denen bei BPR im großen und ganzen überein. Jedoch werden – wie bereits oben ausge-führt – weitere Rollen im Rahmen des Six Sigma-Projektteams definiert. Entspre-chend des absolvierten Trainingsumfangs und dem gegenwärtigen Erfahrungs-stand wird zwischen Mitarbeitern auf White, Yellow, Green und Black Belt Ni-veau differenziert (vgl. Töpfer/ Günther 2007a, S. 208). BPR kann folglich in organisatorischer Hinsicht als Vorstufe von Six Sigma betrachtet werden.

Zu (9): Routinen bei Umsetzung

Vorgehensschemata bzw. Routinen bei der operativen Umsetzung von Verbesse-rungsmaßnahmen/ -Projekten sind vor allem bei KVP (PDCA-Zyklus) und Six Sigma (DMAIC-/ DMADV-Zyklus) zu verzeichnen. Dabei stellen der DMAIC-/ DMADV-Zyklus in gewisser Weise eine Weiterentwicklung des klassischen PDCA-Zyklus dar (vgl. Wessel 2002b, S. 9f.). Das stringente Vorgehen im Rah-men von vier bzw. fünf Projektphasen zur Prozessoptimierung wird in der Praxis als zentraler Erfolgsfaktor gewertet. Bei Six Sigma ist darüber hinaus die in sich geschlossene Systematik und Logik bei der Anwendung von QM-Methoden und mathematisch-statistischen Verfahren positiv hervorzuheben.

Die operative Umsetzung von BPR sieht kein solches explizites Verfahren vor. Jedoch werden hier, wie auch bei den anderen beiden Konzepten, eine Reihe von „praktischen Handlungsempfehlungen“ gegeben. Im Hinblick auf die Gestaltung des Einführungsprozesses sind in der Literatur gleich mehrere Phasenmodelle zur adaptiven Anwendung zu finden. Als Standards für das strategische Vorgehen bei BPR werden u.a. ein 6- und ein 10-Phasen-Modell (vgl. hierzu u.a. Thom/ Etienne 2001, S. 79) propagiert; für Six Sigma ist in entsprechender Weise ein 7-Phasen-Modell definiert (vgl. Töpfer/ Günther 2007a, S. 24).

Zu (10): Zeitbedarf für Umsetzung

Der Zeitbedarf für die nachhaltige Umsetzung von BPR wird mit 2-5 Jahren an-gegeben (vgl. Davenport 1993, S. 11). Demgegenüber ist bei der Implementierung von KVP-Maßnahmen von einer relativ kurzen Zeitdauer auszugehen. Dies liegt u.a. darin begründet, dass für die Einrichtung von QC und BVW keine aufwendi-gen Schulungsmaßnahmen erforderlich sind, so dass bereits nach einigen Wochen von einem effektiven Verbesserungsprozess ausgegangen werden kann.

Anders bei Six Sigma: Hier gilt der Grundsatz, dass mindestens 1, besser 2% der Mitarbeiter als aktive Black Belts bzw. Master Black Belts tätig sind, ergänzt durch etwa 10% geschulter Six Sigma-Akteure auf Green Belt Niveau oder darun-ter. Für das praxisbezogene Training eines Black Belts inkl. Projekt sind i.d.R. vier Monate einzuplanen, für das Training eines Green Belts sind 10 Tage zzgl. Projekt vorzusehen. Der Aufbau einer Six Sigma-Organisation mit einer „kriti-schen Masse“ von geschulten Akteuren dauert mind. 1-2 Jahre.

Page 97: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 75

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten am Beispiel von Six Sigma

Die Vorstellungen über das, was Managementkonzepte sind und nicht sind, gehen nicht nur in der Praxis z.T. sehr weit auseinander (vgl. Unterkapitel 2.1). Kritiker bemängeln auf der einen Seite, dass es sich bei Managementkonzepten um Mode-erscheinungen handelt, die – genau wie in der Bekleidungsindustrie – von Zeit zu Zeit kommen und wieder gehen. Die Methoden und Vorgehensmodelle, die hinter der Fassade von Schlagwörtern stehen (weiche Hülle), können in Beratungssitua-tionen kaum helfen, neue Problemlösungen zu finden. Auf der anderen Seite wird von den Befürwortern von Managementkonzepten angeführt, dass die Wissen-schaft aufgrund ihrer selbstentwickelten Perspektive nicht zwangsläufig in der Lage ist, den Alltagstheorien der Praxis alternative Deutungen gegenüber zu stel-len. Managementkonzepte beinhalten nämlich Technologien (harter Kern), die den Entscheidungsträgern dabei helfen, komplexe Umweltsituationen zu analysieren und zu strukturieren sowie auf dieser Basis Maßnahmenpakete abzuleiten.

2.3.1 These: Six Sigma als Mode

Ähnlich wie in der Modebranche kommen auch im Rahmen der Unternehmens-steuerung und -führung regelmäßig neue Trends/ Konzepte auf, die in den meisten Fällen aber nur eine zeitlang populär sind und dann wieder vom „Markt“ ver-schwinden. Dabei ist die Wirkung auf das einzelne Unternehmen nicht von vorn-herein klar. So können Managementkonzepte als Modeerscheinungen den Unter-nehmen einerseits „nur“ wichtige Ideen/ neue Einblicke liefern und es andererseits auch grundlegend verändern – sowohl zum Besseren als auch zum Schlechteren.

Der Philosoph und Ästhet BORIS GROYS (1999, S. 46) argumentiert, dass – selbst wenn sich die zur Debatte stehenden Objekte nur geringfügig unterscheiden – ein (kleines) Unterscheidungsmerkmal genügt, um daran das Besondere und Wertvol-le des „Gesamtkunstwerks“ festzumachen. In dieser Weise werden auch bestimm-te Aspekte von Managementkonzepten als das „grundlegend Neue“ herausgestellt, obwohl sie sich im Großen und Ganzen doch stark ähneln (vgl. Kieser 1996a, S. 23). Z.B. sind die Fokussierung auf Kernkompetenzen (= Core Competence Ma-nagement) und die Verschlankung des Unternehmens (= Lean Management) zwei Seiten einer Medaille (vgl. Abschnitt 2.1.2). Geht es nach den Befürwortern von Managementkonzepten, dann gehören sie – trotz dieser Tatsache – zur Gruppe der modernen Managementkonzepte mit hoher Akzeptanz in der Praxis.

Einige der frühen Managementkonzepte besitzen noch heute eine herausragende Stellung in den Managementwissenschaften und der betrieblichen Praxis; sie kön-nen deshalb durchaus als „klassisch“ bezeichnet werden. In Abhängigkeit von der Denkschule und des Wissenschaftsverständnis des Forschers ergeben sich unter-schiedliche Ansätze zur Klassifizierung. So ordnen z.B. die Forscher Stoner/ Freeman (1989), Bateman/ Zeithaml (1990) und Huczynski (1993b) die folgenden fünf Konzepte der Gruppe der klassischen Managementkonzepte zu:

Page 98: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

76 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

• Administratives Management (Henry Fayol, 1841-1925) • Bureaucracy/ Bürokratiemodell (Max Weber, 1864-1920) • Scientific Management/ Taylorismus (Frederick W. Taylor, 1856-1915) • Human-Relations-Ansatz (Elton Mayo, 1880-1949) • Operations Research/ Management Science (W. W. Leontief, 1905-1999).

In den vergangenen Jahrzehnten wurden die klassischen Konzepte z.T. weiterent-wickelt bzw. gingen ganz oder teilweise in neuen Managementkonzepten auf.29 Letztere entstanden vor allem seit den 1950er Jahren im Zuge der Verbreitung populärwissenschaftlicher Managementliteratur. Nicht selten trug dabei ihre (schnelle) Entwicklung und Verbreitung den Charakter von Modewellen bzw. -er-scheinungen, wie sie typischerweise in der Bekleidungsindustrie vorkommen. Gerade im Hinblick auf kurzlebige Managementempfehlungen spricht deshalb eine Reihe von Autoren auch von „Managementmoden“, „Gurutheorien“ und/ oder „Managementfolklore“ (vgl. u.a. Armstrong 1996; Kieser 1996a/ b; Watson 1994; Huczynski 1993a). Wie bei den klassischen Managementkonzepten, gibt es in der Wissenschaft recht unterschiedliche Auffassungen darüber, was unter mo-dernen Managementkonzepten bzw. -moden zu verstehen ist.

Das Diffusionsmuster von Managementkonzepten in/ über Unternehmen und Branchen ist vergleichbar mit dem Verbreitungszyklus von Moden in der Beklei-dungsindustrie. Wird ein Konzept von einem Unternehmen bzw. einer (kleinen) Gruppe von Unternehmen erfolgreich praktiziert, zieht dies die Aufmerksamkeit der Wettbewerber an.30 Sie suchen nach den Ursachen des Erfolgs ihrer Konkur-renten. Nach der Identifikation der neuen strukturellen Lösung, z.B. Six Sigma-Organisation, oder der neuen Managementpraxis, z.B. DMAIC-Zyklus, beginnen sie diese zu kopieren (vgl. Walgenbach 2002, S. 319ff.).

Legen wir das Diffusionsmodell zugrunde, dann sind bei einer Längsschnittbe-trachtung folgende drei Phänomene relevant: • Managementkonzepte kommen und gehen wie Moden, • Berater präsentieren alle paar Jahre ihre „neue Kollektion“ und • Kleine Änderungen des (alten) Konzeptes werden als Innovation gefeiert.

29 Eine weltweite Befragung von Bain & Company (2003) ergab, dass sich im Jahr 2002

in jedem Unternehmen im Durchschnitt 16 Managementtools und -konzepte im Einsatz befanden (vgl. Rigby 2003, S. 2ff.).

30 Eine vom Gallup-Institut durchgeführte Umfrage mit dem Titel „Competition 2000“ bei 500 Unternehmensführern zeigte auf, dass sich die Strategien von Unternehmen stark ähneln. Diese Strategiekonformität wird u.a. dadurch erklärt, dass Unternehmen be-strebt sind, die Erfolgsrezepte von anderen (schnellstmöglich) zu imitieren. Infolge-dessen verbreiten sich die zugrunde liegenden Managementkonzepte – über alle Bran-chen hinweg – mit hoher Geschwindigkeit (vgl. Hamel 2000, S. 363).

Page 99: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 77

Die Dichtefunktion der Verbreitung von Managementkonzepten über die Zeit entspricht einer Gauß´schen Glockenkurve; die sich daraus ergebende Verteilungs-funktion entspricht dem „klassischen“ S-Kurven-Verlauf einer Normalverteilung (vgl. Bamberg et al. 2007, S. 108f.). Die Gründe hierfür sind zum einen die nor-malverteilte Verbreitung von Informationen und Lerneffekten in einer Gesell-schaft sowie zum anderen die damit einhergehende normalverteilte Reduktion der Unsicherheit im Verlauf des Diffusionsprozesses (vgl. Durth 2001, S. 1625).

In Abb. 2-7 ist der Verlauf eines solchen Diffusionsprozesses über die Zeit exem-plarisch dargestellt. Die Häufigkeitsdichte wird als Indikator für die Präsenz/ Aufmerksamkeit des Konzeptes in der Fachöffentlichkeit herangezogen. In der Managementliteratur existieren unterschiedliche Ansätze, um die einzelnen Pha-sen des Diffusions-/ Verbreitungsprozesses zu untergliedern. Entsprechend der Produkt- und Technologielebenszyklusansätze, wie sie z.B. bei der strategischen Analyse von Geschäftsfeldern angewendet werden, lassen sich die folgenden vier Phasen unterscheiden (vgl. Fink 2003, S. 54f.).

Abb. 2-7: Diffusionskurve eines neuen Managementkonzeptes

• Thematisierungsphase: Das neue Konzept wird erstmals von einer kleinen Gruppe von Autoren, Beratern und weiteren Promotoren, z.B. obere Füh-rungskräfte, aufgegriffen und thematisiert. Die Übernahme- bzw. Adoptions-rate von Unternehmen ist zu diesem Zeitpunkt sehr gering und steigt nur langsam an. Erste Umsetzungserfahrungen werden dokumentiert.

Adop

tions

rate

Zeit

„Spitze der Euphorie“

„Auf dem Boden der Tatsachen“

„Licht am Endedes Tunnels“

„Vor dem Hype“

(1) Themati-sierungs-phase

(2) Expan-sions-phase

(3) Domi-nanz-phase

(4) De-Thema-tisierungs-phase

?

„Desillusio-nierung“

?

Basis: China 2003, S. 44

Six Sigma in 2005

Page 100: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

78 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

• Expansionsphase: Die propagierten Ideen und Prinzipien des neuen Konzep-tes erfahren eine größere Akzeptanz. Mehr und mehr Unternehmen beginnen damit, das Managementkonzept zu implementieren. Gleichzeitig wird das Konzept von einem größeren Kreis von Promotoren in den Markt „gedrückt“.

• Dominanzphase: Das Konzept erfährt in dieser Phase die höchste Akzeptanz, d.h. in einem relativ kurzen Zeitraum führen relativ viele Unternehmen das Managementkonzept ein. Methoden und Inhalte gelten in der Branche als all-gemein anerkannter Standard. Die Adoptionsrate erreicht ihr Maximum. Nach einschlägigen empirischen Studien in Deutschland und den USA befin-det sich das Six Sigma-Konzept seit spätestens Mitte dieses Jahrzehnts in der zweiten Hälfte der Dominanzphase (siehe Abb. 2-7). So ist im US-amerikani-schen Raum die Adoptionsrate bzw. der Durchdringungsgrad (stark) abneh-mend. Die SIX SIGMA-UMFRAGE VON QUALITY DIGEST ergab bereits im Jahr 2003, dass der Anteil der Unternehmen, die Six Sigma weniger als 2 Jahre nutzen, deutlich rückläufig ist. Dies wird als wichtiger Indikator für das Ab-schwächen des Modetrends gewertet. Insbesondere Unternehmen, die Six Sigma als reines Kostensenkungsprogramm sehen und für die positiven lang-fristigen Wirkungen „keine Geduld“ haben, treten den Rückzug an. In den USA wird die Anzahl der Six Sigma-Anwender im Jahr 2005 auf ca. 1.200, in Deutschland auf ca. 200 geschätzt (vgl. Schmieder 2005, S. 2).

• De-Thematisierungsphase: Nachdem die ersten Misserfolge gemeldet wer-den, beginnt ein Umdenken der Beteiligten. Das Managementkonzept gilt nach und nach als nicht mehr innovativ und neu sowie fehlerbehaftet. Immer mehr Berater verlassen „das sinkende Schiff“ und wenden sich einem neuen, vielversprechenderen Konzept zu. Die neue Modewelle nimmt ihren Lauf.

Es sei darauf hingewiesen, dass der in Abb. 2-7 vorgestellte Lebenszyklus einem idealisierten Verlauf entspricht. In praxi wird nicht jedes Managementkonzept jede Phase exakt nach Modellbeschreibung durchlaufen. So kann es zum einen der Fall sein, dass ein Konzept bereits in der Thematisierungsphase wieder verworfen wird, da sein wahrgenommenes Strategiepotenzial allgemein, also absolut, oder relativ, also gegenüber rivalisierenden Konzepten, zu gering ist. Das Konzept ist keine echte Alternative. Zum anderen besteht die Möglichkeit, dass ein Konzept nie ganz vom Markt verschwindet, weil es für eine Reihe von Unternehmen eine interessante und effektive Lösung darstellt. In diesem Fall kann es u.U. dazu kommen, dass ab einem bestimmten Zeitpunkt die Präsenz/ Aufmerksamkeit wie-der zunimmt. Wir sehen also „Licht am Ende des Tunnels“. Dies trifft z.B. aktuell für das Lean-Konzept zu, welches als „ideale Ergänzung“ zum Six Sigma-Kon-zept gesehen wird (vgl. insb. George 2003, S. 19ff.).31

31 Während Six Sigma vor allem auf das Ausmerzen von Produktfehlern und die Steige-

rung der Prozessqualität im Zuge von Verbesserungsprojekten abzielt, fokussiert Lean bzw. Lean Management auf die Beschleunigung der Prozesse und die ganzheitliche Optimierung der Wertschöpfungskette (vgl. auch Abschnitt 2.3.3).

Page 101: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 79

Der Lebenslauf von Managementkonzepten kann auf verschiedene Weise gemes-sen werden. Neben einer direkten Befragung von Unternehmen, die in vielen Fäl-len sehr zeit- und kostenintensiv ist, besteht die Möglichkeit einer indirekten Er-hebung durch Datenbankabfragen. Diese beziehen sich i.d.R. auf Veröffentlichun-gen und Zeitschriften zum Themengebiet (z.B. TQM). Als Indikatoren für die Ermittlung von Zeitreihen werden dabei u.a. folgende Größen recherchiert und ausgewertet (vgl. z.B. von Lanzenauer/ Huesmann 2004, S. 254ff.): • Alle Veröffentlichungen zu einem Konzept in einem bestimmten Zeitraum • Quotient aus Trefferzahl und Datensätzen als normierte Größe • Anzahl von aktuellen, themenbezogenen Zeitschriften und • Anzahl der Bibliotheken, die Zeitschriften zum betreffenden Thema/ Konzept

abonniert haben.

In empirischen Studien konnte gezeigt werden, dass die Zyklen von Manage-mentmoden tendenziell kürzer werden. Gleichzeitig erreicht die Spitze der Prä-senz/ Aufmerksamkeit, insb. gemessen in Veröffentlichungszahlen zum jeweiligen Themengebiet, von mal zu mal einen neuen Höchstpunkt, d.h. die Glockenkurven werden schmaler und steiler (vgl. Kieser 1996a, S. 22).

Die Tatsache, dass einige Konzepte eine überdurchschnittlich hohe Popularität, z.T. über einen längeren Zeitraum, erlangen, während anderen überhaupt keine Aufmerksamkeit zuteil wird, begründen die Kritiker Kieser et al. damit, dass Ma-nagementkonzepte bestimmte Voraussetzungen erfüllen müssen, damit sie be-kannt, berühmt und in gewisser Weise „unsterblich“ werden.32

Miller/ Hartwick (2003, S. 18f.) gehen noch einen Schritt weiter und entwickeln eine Checkliste mit 8 Kriterien, auf deren Basis kurz- von langlebigen Manage-mentmoden/ -trends unterschieden werden können. In einer empirischen Studie über einen Zeitraum von 17 Jahren analysierten sie dazu insgesamt 1.700 wissen-schaftliche Veröffentlichungen in Fachblättern und Wirtschaftspublikationen, welche sich auf die verschiedenen Managementmoden/ -konzepte der vergange-nen 40 Jahre beziehen. Dabei legten sie die folgenden zwei Fragen zugrunde: (1) Was macht Managementmoden für Unternehmen so attraktiv? (2) Wie lassen sich kurzfristige, wenig substanzielle Moden von langfristigen,

nachhaltigen Konzepten unterscheiden?

Die Ergebnisse einer Untersuchung hinsichtlich des Einsatzes von Six Sigma sind in Abb. 2-8 zusammengefasst dargestellt. Jedem der 8 Kriterien ist in der zweiten Spalte ein typisches Anwendungsproblem aus der Unternehmenspraxis zugeord-

32 „It has to be timely, it has to be brought to the attention of its potential audience, it has

to address organizational requirements in a way that meets the individual and concerns of the managers, it has to possess the essential ingredients which allow potential users to perceive it as relevant to meeting their needs, it has to be verbally presentable in an engaging way.” Huczynski (1993b, S. 1).

Page 102: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

80 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

net. In der dritten und vierten Spalte wird analysiert, was vor diesem Hintergrund für bzw. gegen Six Sigma als (kurzfristige) Managementmode spricht.

Abb. 2-8: Kennzeichen von Managementmoden am Beispiel von Six Sigma

Nach Abwägung der einzelnen Argumente lässt sich folgendes Fazit ziehen: In Bezug auf Frage (1) besitzt Six Sigma gute Chancen von Unternehmen aufgegrif-fen zu werden und als Managementmode eine entsprechende Verbreitung zu fin-den. Dies ist wenig verwunderlich, da sich anhand der Kriterien nahezu alle mo-dernen Managementkonzepte auch als Managementmoden klassifizieren lassen. Wie oben genannte Forscher zeigen, führen paradoxerweise genau die Kriterien, die zur Entstehung und Verbreitung von Managementmoden beitragen, auch zu

Six Sigma stößt bei Experten deshalb auf breite Zustim-mung, weil der DMAIC-Zyk-lus eine statistische und wissenschaftl.-abgesicherte Vorgehensweise beinhaltet

Das Unternehmen GE und sein ehem. CEO, die Mana-gerlegende Jack Welch, sind untrennbar mit der Philoso-phie und dem Erfolg von Six Sigma verbunden

Durch die Geschichten/ An-ekdoten von „Heldentaten großer Manager“ wird der Eindruck vermittelt, dass alle, die das Konzept ein-setzen, Erfolg haben

(8) Managementmoden be-nötigen Gurus, d.h. ange-sehene Fürsprecher, welche die Glaubwürdigkeit des Konzepts belegen

Qualität-Zeit-Kosten als magisches Dreieck der BWL werden durch Six Sigmaoperationalisiert und stehen im Fokus aller Verbesse-rungsaktivitäten

Im Rahmen des Six Sigma-Konzeptes wird die „alte Idee“ des PDCA-Zyklus zur Prozessverbesserung in Form des DMAIC-Zyklus aufgegriffen und erweitert

Managementmoden gewin-nen nur dadurch ihre Auf-merksamkeit, dass sie einen – scheinbaren, aber nicht wirklichen – Neuartigkeits-wert besitzen

(7) Managementmoden und ihre Ideen wirken neu, ob-wohl sie grundlegende unternehmerische Werte nicht in Frage stellen

Six Sigma hilft bei der Opti-mierung bestehender Pro-zesse und beim (Re-)Design neuer Produkte/ Prozesse;Six Sigma unterstützt aber nicht die Innovationsfähig-keit des Unternehmens

Six Sigma gewinnt an Popu-larität, da die Unternehmen unter einem zunehmenden Kosten- und damit Wettbe-werbsdruck stehen und nach effektiven Prozessver-besserungen streben

Managementmoden gehen meistens auf aktuelle (loka-le) Probleme ein, so dass fundamentale Schwächen oder Stärken des Gesamt-unternehmens eher in den Hintergrund geraten

(6) Managementmoden ge-fallen dem Zeitgeist und greifen die dringlichsten Probleme unternehme-rischer Tätigkeit auf

Die Implementierungszeit (mehr als 2 Jahre) und -kos-ten (mehr als 10.000 € pro Black Belt Ausbildung) vonSix Sigma werden in der Managementliteratur explizit benannt und als wesentliche Herausforderung deklariert

Das Six Sigma-Konzept kann in der Weise missinterpre-tiert werden, dass allein die Vorgehensweise auf Basis des DMAIC- bzw. DMADV-Zyklus zu nachhaltigen Pro-zess- und Ergebnisverbes-serungen führt

Die verschiedenen Konzepte werden in Unternehmen –obwohl sie bei „richtiger“Anwendung tatsächlich effizienzsteigernd wirken –nur oberflächlich, d.h. symp-tomatisch, implementiert und angewendet

(5) Managementmoden er-scheinen (auf den ersten Blick) leicht einführbar und in jedem Unternehmen problemlos anwendbar

Der Six Sigma-Projekt-managementansatz kommt überall dort zum Einsatz, wo Prozesse vorhanden sind und diese grundlegend optimiert werden sollen

Die Befürworter von Six Sig-ma argumentieren, dass das Managementkonzept für nahezu alle Industriezweige, Unternehmenstypen und -kulturen geeignet ist

Die Erfahrung zeigt, dass die wenigsten Konzepte univer-sell anwendbar sind und in bestimmten Situationen so-gar mehr Schaden als Nut-zen verursachen

(4) Managementmoden pas-sen (angeblich) auf jedes Problem in Unternehmen und beanspruchen für sich Allgemeingültigkeit

Der Nachweis des Erfolgs von Six Sigma-Projekten basiert auf der Sigma-Wert-Berechnung (nicht-monetär) und/ oder der Net BenefitErmittlung (monetär)

Six Sigma verspricht eine bessere Zielerreichung, mo-tiviertere produktivere Mitar-beiter, effizientere Abläufe und Prozesse sowie zufrie-denere/ loyalere Kunden

Es fehlen i.A. klare Kriterien, anhand derer die „unterstell-ten“ Verbesserungen/ Imple-mentierungserfolge objektiv gemessen und bewertet werden können

(3) Managementmoden und ihre Vertreter wecken eher Hoffnungen, als dass sie (nachvollziehbare) Resul-tate/ Ergebnisse liefern

DMAIC- bzw. DMADV als Projektmanagementzyklen besitzen einen hohen Stan-dardisierungs- und gleich-zeitig Verbindlichkeitsgrad bei der Problemlösung

Praktizierte Null-Fehler-Qua-lität stellt einen (vernünf-tigen) Grundgedanken als zentrale Anforderung für eine effiziente und effektive Unternehmensführung dar

Die gemachten Vorschriften sind als Optimierungsregel entweder zu allgemein for-muliert, oder sie beziehen sich auf ganz bestimmte Un-ternehmenstypen/ -kulturen

(2) Managementmoden bein-halten (einschlägige) Vor-schriften und Rezepte zur Problemlösung für Füh-rungskräfte/ Manager

Das Verstehen und das Um-setzen von Six Sigma ver-langt einen relativ hohen Trainingsaufwand, insb. in mathematisch-statistischen Methoden und Verfahren

Die Kernaussagen des Kon-zeptes basieren auf wenigen Schlagwörtern/ Schlüsselbe-griffen, z.B. Six Sigma für praktizierte Null-Fehler-Qualität im Unternehmen

Die Suggerierung einer „ver-einfachten Welt“ führen in der Praxis häufig zu einer begrenzten Umsetzbarkeit und dadurch zu einem be-grenzten Nutzen

(1) Managementmoden um-fassen Konzepte/ Methoden, die (relativ) leicht zu verste-hen und zu vermitteln sind

Was spricht für Six Sigmaals Managementmode?

ProblemKriterium

Six Sigma stößt bei Experten deshalb auf breite Zustim-mung, weil der DMAIC-Zyk-lus eine statistische und wissenschaftl.-abgesicherte Vorgehensweise beinhaltet

Das Unternehmen GE und sein ehem. CEO, die Mana-gerlegende Jack Welch, sind untrennbar mit der Philoso-phie und dem Erfolg von Six Sigma verbunden

Durch die Geschichten/ An-ekdoten von „Heldentaten großer Manager“ wird der Eindruck vermittelt, dass alle, die das Konzept ein-setzen, Erfolg haben

(8) Managementmoden be-nötigen Gurus, d.h. ange-sehene Fürsprecher, welche die Glaubwürdigkeit des Konzepts belegen

Qualität-Zeit-Kosten als magisches Dreieck der BWL werden durch Six Sigmaoperationalisiert und stehen im Fokus aller Verbesse-rungsaktivitäten

Im Rahmen des Six Sigma-Konzeptes wird die „alte Idee“ des PDCA-Zyklus zur Prozessverbesserung in Form des DMAIC-Zyklus aufgegriffen und erweitert

Managementmoden gewin-nen nur dadurch ihre Auf-merksamkeit, dass sie einen – scheinbaren, aber nicht wirklichen – Neuartigkeits-wert besitzen

(7) Managementmoden und ihre Ideen wirken neu, ob-wohl sie grundlegende unternehmerische Werte nicht in Frage stellen

Six Sigma hilft bei der Opti-mierung bestehender Pro-zesse und beim (Re-)Design neuer Produkte/ Prozesse;Six Sigma unterstützt aber nicht die Innovationsfähig-keit des Unternehmens

Six Sigma gewinnt an Popu-larität, da die Unternehmen unter einem zunehmenden Kosten- und damit Wettbe-werbsdruck stehen und nach effektiven Prozessver-besserungen streben

Managementmoden gehen meistens auf aktuelle (loka-le) Probleme ein, so dass fundamentale Schwächen oder Stärken des Gesamt-unternehmens eher in den Hintergrund geraten

(6) Managementmoden ge-fallen dem Zeitgeist und greifen die dringlichsten Probleme unternehme-rischer Tätigkeit auf

Die Implementierungszeit (mehr als 2 Jahre) und -kos-ten (mehr als 10.000 € pro Black Belt Ausbildung) vonSix Sigma werden in der Managementliteratur explizit benannt und als wesentliche Herausforderung deklariert

Das Six Sigma-Konzept kann in der Weise missinterpre-tiert werden, dass allein die Vorgehensweise auf Basis des DMAIC- bzw. DMADV-Zyklus zu nachhaltigen Pro-zess- und Ergebnisverbes-serungen führt

Die verschiedenen Konzepte werden in Unternehmen –obwohl sie bei „richtiger“Anwendung tatsächlich effizienzsteigernd wirken –nur oberflächlich, d.h. symp-tomatisch, implementiert und angewendet

(5) Managementmoden er-scheinen (auf den ersten Blick) leicht einführbar und in jedem Unternehmen problemlos anwendbar

Der Six Sigma-Projekt-managementansatz kommt überall dort zum Einsatz, wo Prozesse vorhanden sind und diese grundlegend optimiert werden sollen

Die Befürworter von Six Sig-ma argumentieren, dass das Managementkonzept für nahezu alle Industriezweige, Unternehmenstypen und -kulturen geeignet ist

Die Erfahrung zeigt, dass die wenigsten Konzepte univer-sell anwendbar sind und in bestimmten Situationen so-gar mehr Schaden als Nut-zen verursachen

(4) Managementmoden pas-sen (angeblich) auf jedes Problem in Unternehmen und beanspruchen für sich Allgemeingültigkeit

Der Nachweis des Erfolgs von Six Sigma-Projekten basiert auf der Sigma-Wert-Berechnung (nicht-monetär) und/ oder der Net BenefitErmittlung (monetär)

Six Sigma verspricht eine bessere Zielerreichung, mo-tiviertere produktivere Mitar-beiter, effizientere Abläufe und Prozesse sowie zufrie-denere/ loyalere Kunden

Es fehlen i.A. klare Kriterien, anhand derer die „unterstell-ten“ Verbesserungen/ Imple-mentierungserfolge objektiv gemessen und bewertet werden können

(3) Managementmoden und ihre Vertreter wecken eher Hoffnungen, als dass sie (nachvollziehbare) Resul-tate/ Ergebnisse liefern

DMAIC- bzw. DMADV als Projektmanagementzyklen besitzen einen hohen Stan-dardisierungs- und gleich-zeitig Verbindlichkeitsgrad bei der Problemlösung

Praktizierte Null-Fehler-Qua-lität stellt einen (vernünf-tigen) Grundgedanken als zentrale Anforderung für eine effiziente und effektive Unternehmensführung dar

Die gemachten Vorschriften sind als Optimierungsregel entweder zu allgemein for-muliert, oder sie beziehen sich auf ganz bestimmte Un-ternehmenstypen/ -kulturen

(2) Managementmoden bein-halten (einschlägige) Vor-schriften und Rezepte zur Problemlösung für Füh-rungskräfte/ Manager

Das Verstehen und das Um-setzen von Six Sigma ver-langt einen relativ hohen Trainingsaufwand, insb. in mathematisch-statistischen Methoden und Verfahren

Die Kernaussagen des Kon-zeptes basieren auf wenigen Schlagwörtern/ Schlüsselbe-griffen, z.B. Six Sigma für praktizierte Null-Fehler-Qualität im Unternehmen

Die Suggerierung einer „ver-einfachten Welt“ führen in der Praxis häufig zu einer begrenzten Umsetzbarkeit und dadurch zu einem be-grenzten Nutzen

(1) Managementmoden um-fassen Konzepte/ Methoden, die (relativ) leicht zu verste-hen und zu vermitteln sind

Was spricht für Six Sigmaals Managementmode?

ProblemKriterium Was spricht gegen Six Sig-ma als Managementmode?

Quelle: Eigene Darstellung

Page 103: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 81

ihrem Untergang. Denn ihr Anspruch – einfach, allgemeingültig und erfolgreich zu sein – kann auf Dauer nicht erfüllt werden und enttäuscht somit die (zu hohen) Erwartungen der Manager. Es gilt der Spruch: Success breeds failure. D.h., ob-wohl Six Sigma für viele Unternehmen zurzeit hoch attraktiv ist, wird es über kurz oder lang von einem „besseren“ Konzept abgelöst.

Die Frage (2) ist deutlich schwieriger zu beantworten. Im Einklang mit den Prax-iserfahrungen beziehen sich die Kennzeichen von nachhaltigen Managementkon-zepten („Klassikern“) vor allem auf die Kriterien (3) bis (5), d.h. (a) wirkliche organisatorische Veränderungen mit relativ hohen Implementierungs- und Durchführungskosten, (b) langfristige Auswirkungen auf den Unternehmenser-folg, aber ohne Erfolgsgarantie und (c) hoher Facettenreichtum für die An-wendung in unterschiedlichen Unternehmen. Das wichtigste Merkmal ist jedoch, dass langfristige Konzepte mit hoher Nachhaltigkeit nicht am Schreibtisch von Akademikern oder Beratern entstehen, sondern in erster Linie von Praktikern entwickelt und gestaltet werden, und zwar als Reaktion auf neue ökonomische, technische und/ oder soziale Herausforderungen des Unternehmens.33

2.3.2 Antithese: Six Sigma als Technologie

Es gibt grundsätzlich zwei Ansätze, das Phänomen „Managementkonzept“ zu interpretieren und damit zu analysieren. Zum einen kann ein Managementkonzept als konkreter Gegenstand (Managementkonzept = Realobjekt) aufgefasst werden; zum anderen besteht die Möglichkeit, es – entsprechend Wissenschaftstheorie – als abstrakten Gegenstand zu betrachten (Managementkonzept = Denkobjekt).

Um zu einem solchen abstrakten, auf theoretischen Überlegungen basierenden Konzeptbegriff zu gelangen, gibt zwei Vorgehensweisen: Deduktivisums und Induktivismus. Auf dem induktivistischen Vorgehen basieren u.a. die Klassifizie-rungsansätze von Hahn et al. (1999) und Davenport (1993) (vgl. Unterkapitel 2.1). Sie leiten allgemeine Beurteilungskriterien aus der Analyse einzelner, in der Pra-xis eingesetzter Konzepte her. Daneben existiert eine wissensbasierte Interpretati-on von Managementkonzepten, welche dem deduktivistischen Vorgehen bei der Analyse empirischer Sachverhalte entspricht.

Das Vorgehen knüpft, wie bereits zu Beginn dieses Kapitels erwähnt, an dem Faktum an, dass ein Konzept eine Art der Gattung Wissen ist und sich aus diesem Grund signifikant von anderen Arten, z.B. Ereignis- und Prozesswissen, unter-scheidet (vgl. Neumann 2000, S. 62ff.). Entscheidend für den Vergleich unter-schiedlicher Wissensarten ist ihre Negationsgrundlage, d.h. die Dimensionen,

33 Vor diesem Hintergrund hat Six Sigma gute Chancen, zu einem wirklichen „Manage-

mentklassiker“ zu werden. Geht es nach dem Urteil deutscher Führungskräfte, dann sind die Zukunftsaussichten von Six Sigma „blendend“. Im Jahr 2004 waren 75% der befragten Akteure der Meinung, dass Six Sigma in Zukunft eher an Bedeutung gewinnt als verliert (vgl. Schmieder 2005, S. 31).

Page 104: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

82 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

anhand derer die Klassifikation vorgenommen wird. Wie Graumann (2004, S. 286) hierzu ausführt, darf nur unter der Voraussetzung gleicher Dimensionen Konzeptwissen mit anderen Wissensarten kontrastiert werden.

Wenn man diesem Gedankengang folgt und den Gegenstand „Wissen“ als Gattung klassifiziert, dann lassen sich verschiedene Arten von Wissen dadurch ableiten, dass die spezifische Ausprägung von einer oder mehrerer Eigenschaftsvariablen ermittelt wird. Infolgedessen lässt sich jede einzelne Art von Wissen als Kombina-tion der Ausprägung von definierten Eigenschaftsvariablen darstellen. Im ein-fachsten Fall werden die Variablen dichotom konstruiert. In Abb. 2-9 sind auf dieser Basis zwei Arten von Wissen, Daten- und Konzeptwissen, gegenüberge-stellt. Sie befinden sich auf gleicher gattungslogischer Stufe, da sie anhand dersel-ben Eigenschaftsvariablen selektiert worden sind (vgl. Hartmann 1964, S. 214).

Abb. 2-9: Gegenüberstellung von Daten- und Konzeptwissen

Entsprechend der Klassifikation von Konzeptwissen nach obiger Abbildung kann aus wissenschaftlicher Sicht die Bedeutung des Wortes Managementkonzept ein-deutig spezifiziert werden. Ein „Managementkonzept“ bezeichnet (a) einen Ge-genstand der Art der Gattung „Wissen“, ist (b) eine Repräsentation des empiri-schen Bezugsbereichs „Management“ und besitzt (c) alle drei Eigenschaften von „Konzeptwissen“, d.h. ein Managementkonzept ist eine Repräsentation abstrakter Gegenstände des Managements von Unternehmen, wobei Klassen gleichartiger konkreter Gegenstände des Managements im Tagesgeschäft von Unternehmen hierunter subsumiert werden können. Vor diesem Hintergrund lassen sich die folgenden drei Thesen zum Einsatz von Managementkonzepten formulieren: • Konzeptwissen bildet Voraussetzung für die Problemlösung in Unternehmen • Konzeptwissen ermöglicht das zukunftsgerichtete Entscheiden von Managern • Konzeptwissen abstrahiert von konkreten Gegenständen des Bezugsbereichs.

Mit zwingender Angabe von Relationen

Ohne Angabe von Relationen

Notwendigkeit der Reprä-sentation von Relationen(nicht notwendig vs. not-wendig)

Mit Bezug auf die Ver-gangenheit als auch auf die Gegenwart und/ oder die Zukunft

Mit Bezug auf die Ver-gangenheit

Bezugszeitraum der Re-präsentation (vergangenheits- vs. vergan-genheits-/ gegenwarts- und/ oder zukunftsbezogen)

Abstrakte Gegenstände eines empirischen Be-zugsbereichs

Konkrete Gegenstände eines empirischen Be-zugsbereichs

Art des repräsentierten Gegenstandes (konkret vs. abstrakt)

KonzeptwissenDatenwissenEigenschaftsvariable

Mit zwingender Angabe von Relationen

Ohne Angabe von Relationen

Notwendigkeit der Reprä-sentation von Relationen(nicht notwendig vs. not-wendig)

Mit Bezug auf die Ver-gangenheit als auch auf die Gegenwart und/ oder die Zukunft

Mit Bezug auf die Ver-gangenheit

Bezugszeitraum der Re-präsentation (vergangenheits- vs. vergan-genheits-/ gegenwarts- und/ oder zukunftsbezogen)

Abstrakte Gegenstände eines empirischen Be-zugsbereichs

Konkrete Gegenstände eines empirischen Be-zugsbereichs

Art des repräsentierten Gegenstandes (konkret vs. abstrakt)

KonzeptwissenDatenwissenEigenschaftsvariable

Quelle: Graumann 2004, S. 286

Page 105: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 83

Der zentrale Unterschied zwischen praxisorientierter und wissenschaftlicher In-terpretation von Managementkonzepten besteht darin, dass im ersten Fall von konkreten Gegenständen ausgegangen wird. D.h., Konzepte, wie z.B. Six Sigma, sind eindeutig abgrenzbare Objekte, die in einem empirischen Bezugsbereich zu bestimmten Zeiten und an bestimmten Orten existieren. Im zweiten Fall handelt es sich um abstrakte Managementkonzepte, unter welche die konkreten, praxisrele-vanten Konzepte subsumiert werden. Dabei wird ein Managementkonzept nicht schon deshalb zu einem wissenschaftlichen Konzept, weil es abstrakt formuliert ist, sondern weil es auf fundierten wissenschaftlichen Überlegungen basiert. Wei-terhin ist darauf hinzuweisen, dass Managementkonzepte – unabhängig von der Sichtweise – immer Repräsentationen abstrakter Gegenstände enthalten. Dies steht in Einklang mit den oben aufgeführten Eigenschaften von Konzeptwissen.

Aus wissenschaftlicher Sicht lässt sich dann ein Managementkonzept als Techno-logie interpretieren, welche dem Entscheider und Gestalter dabei hilft, Mittel/ Maßnahmen in der Organisation zweckrational einzusetzen, um angestrebte Ziele zu erreichen. Unter dieser Voraussetzung ist die Hauptaufgabe von Management-konzepten darin zu sehen, Entscheidungsträger von Unternehmen bei ihrer Aufga-be zu unterstützen, knappe Ressourcen effizient und effektiv zu verwenden/ zu verwalten, um die übergeordneten Unternehmensziele bestmöglich zu erreichen. Nach dem oben benannten Managerial functions approach lassen sich den Mana-gementkonzepten dabei die folgenden drei Teilaufgaben bzw. -ziele zuordnen: • Verwirklichung effizienter Wettbewerbsstrategien, • Implementierung effizienter Organisationsstrukturen und • Umsetzung effizienter Planungs-/ Kontrollsysteme.

Auf dieser Grundlage hat Graumann (2004, S. 289ff.) exemplarisch die Manage-mentkonzepte von FERDINAND PIËCH (Volkswagen) und JACK WELCH (General Electric) rekonstruiert. Die Mittel-Zweck-Relationen, die als Bestandteile der praktischen Managementkonzepte der beiden ehemaligen Unternehmenslenker rekonstruiert werden, beziehen sich dabei auf die o.g. Teilaufgaben/ -ziele. Im Ergebnis fördert die Studie „bemerkenswerte Unterschiede“ zwischen den zwei Managementkonzepten zu Tage. Diese basieren auf wissenschaftlichen Effizienz-kriterien und ermöglichen damit eine intersubjektive Nachvollziehbarkeit. Im Zuge der Generalisierung erscheint außerdem eine Übertragbarkeit auf andere Sachverhalte/ Untersuchungsobjekte generell möglich, wie es in Hypothese H5 bezogen auf die Abstraktion von realen Vorgehensmodellen/ Problemlösungszyk-len sinngemäß übertragen worden ist (vgl. Abschnitt 1.2.3).

Als wesentliche Gemeinsamkeit der Managementkonzepte von Piëch/ Welch gilt der Theoriebezug. Wie Kramer et al. (1975, S. 47) hierzu feststellen, sind zur Wahrnehmung der Gestaltungsaufgabe in Unternehmen Theorien notwendig, auf deren Basis die Manager die zugrundeliegenden Ursachen-Wirkungsketten in einer Geschäftssituation erkennen, verstehen und analysieren (können). Denn nur auf der Grundlage betriebswirtschaftlicher Theorien ist eine Führungskraft in der

Page 106: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

84 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Lage, unterschiedliche Ergebnisse alternativer Steuerungs- und Handlungsmög-lichkeiten möglichst genau vorherzusagen.34

In die gleiche Richtung argumentieren auch Stoner/ Freeman, (1989, S. 33), nach deren Auffassung Managementtheorien den Entscheidungsträgern dabei helfen, ablaufende Prozesse in- und außerhalb des Unternehmens zu verstehen und zu strukturieren. Kombiniert mit einem guten Vorverständnis bzw. einer guten Wis-sensbasis sind die Manager in der Lage, Dinge/ Aktivitäten mit einem hohen Ziel-erreichungsgrad und einer hohen Wirtschaftlichkeit zu planen und zu steuern. Ist dies nicht der Fall, dann bleibt den Führungskräften – insb. in Organisationen mit ständig steigender Komplexität der Entscheidungsprozesse – nur ihre Intuition bzw. ihr Bauchgefühl bei der Maßnahmenplanung und -umsetzung.

Die vordergründige Aufgabe der Managementwissenschaft besteht also darin, Theorien über das „Management von Unternehmen“ zu formulieren, die anschlie-ßend mit Technologien in praxisrelevante Handlungsempfehlungen überführt werden können.35 Hierbei findet eine Übertragung bzw. Transformation der im Rahmen von betriebswirtschaftlichen Theorien herausgearbeiteten Kausalzusam-menhänge auf praktische Probleme statt. Auf dem gleichen Ansatz basiert – im übertragenen Sinn – auch die Anwendung von Six Sigma. Unter wissenschaftli-chen Gesichtspunkten kann das Konzept als „Familie von Technologien“ verstan-den werden, das auf deduktiv-analytisch abgeleiteten Aussagensystemen (Theo-rien) basiert bzw. auf solche zurückführbar ist (siehe Abb. 2-10): • Technologie als „Therapie“: Das Konzeptwissen konkretisiert sich bei Six

Sigma im Wissen über den phasenspezifischen Ablauf und den vernetzten Methodeneinsatz bei den konzeptspezifischen Problemlösungszyklen DMAIC und DMADV. Sie stellen sozusagen die Technologien von Six Sigma dar, auf deren Basis die Verbesserung bestehender Prozesse (DMAIC-Zylus) und/ o-der die Entwicklung neuer Produkte/ Prozesse (DMADV-Zyklus) erfolgt. Den praktischen Handlungsempfehlungen, die im Rahmen der Projekte gegeben werden, liegt jeweils eine tautologische Transformation von theoretisch ge-wonnenen und empirisch bestätigten Aussagen zugrunde.

34 Im Rahmen des wissenschaftlichen Analyseprozesses sind drei Ziele relevant (vgl.

Töpfer 2007a, S. 3): (a) Deskriptives Ziel (Begriffsbildung, Klassifikation und Beschreibung), (b) Theoretisches Ziel (Erkenntnisgewinnung, Erklärung und Vor-hersage) und (c) Pragmatisches Ziel (Praktische Gestaltung auf Basis von (b)).

35 Wie bei der Anwendung von Erkenntnissen der Naturwissenschaften in den Ingenieur-wissenschaften wird auch im wissenschaftstheoretischen Zusammenhang der Betriebs-wirtschaftslehre/ Unternehmensführung von Technologie gesprochen. Die Theorie gilt allgemeinhin als Voraussetzung bzw. „Unterbau“ der Technologie. Dabei ist es nach Chmielewicz (1979, S. 182f.) offen, ob die Theorie zeitlich vor, simultan mit oder nach der Technologie entsteht. Als Gründe für eine theoriefreie Technologie, auch Praxeo-logie genannt, werden vom Autor angeführt: (a) temporär fehlendes theoretisches Wis-sen, (b) praktischer Problemlösungszwang in der Unternehmenspraxis und (c) Theorie-freiheit als programmatisches Postulat, z.B. im Rahmen von Operations Research.

Page 107: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 85

• Theorie als „Diagnose“: Bei der Anwendung des DMAIC- und/ oder DMA-DV-Zyklus im Rahmen von Six Sigma liegt die Theorie zugrunde, dass schwierige Probleme nicht auf direktem Weg zu lösen sind, sondern einer Transformation auf eine „höhere Ebene“ bedürfen. Die realen Probleme wer-den in statistische Probleme transformiert und durch die Anwendung von ma-thematisch-statistischen Verfahren auf der Meta-Ebene gelöst (vgl. hierzu auch Abschnitt 1.1.1). Das Erkenntnisziel ist dabei zweigeteilt und beinhaltet sowohl Erklärungs- als auch Prognosemuster für empirisch festgestellte Ziel-setzungen in der Unternehmenspraxis (praktische Normen).36

2.3.3 Synthese: Six Sigma als Mode & Technologie

In den vorangegangenen Abschnitten wurde deutlich, dass bei der Analyse und Rekonstruktion von Managementkonzepten grundsätzlich zwei Ebenen zu berück-sichtigen sind. Auf übergeordneter Ebene, der Theorieebene, werden zum einen die managementrelevanten Fragestellungen in abstrakter Art und Weise erörtert. Durch das Auffinden von universellen und/ oder statistischen Gesetzmäßigkeiten, die unter den bestimmten, unternehmensspezifischen Gegebenheiten gelten, kön-nen beobachtete Phänomene im Zusammenhang mit dem „Management von Un-ternehmen“ (vergangenheitsbezogen) erklärt und (zukunftsbezogen) prognostiziert werden. Zum anderen besteht bei praktisch-normativen Wissenschaften das Ziel immer darin, auf der Basis der gewonnenen, theoretischen Erkenntnisse Gestal-tungsempfehlungen auf der Praxisebene zu geben (vgl. Töpfer 2007a, S. 3f.).

In Analogie zu den Naturwissenschaften spricht man hier von der Entwicklung einer neuen Technologie (vgl. Abschnitt 2.3.2). Im Fall von Six Sigma handelt es sich um in der Praxis bewährte Problemlösungstechniken, mit denen das Produk-tangebot sowie die Prozessleistung signifikant verbessert werden können. Vor diesem Hintergrund geben also Managementkonzepte der Unternehmensführung grundlegende Anhaltspunkte dafür, was zu tun ist und wie etwas zu tun ist, um die vorgegebenen Organisations-/ Unternehmensziele zu erreichen. Dabei ist die ge-nannte Selektivität Chance und Risiko zugleich:

• Die Chance liegt auf der einen Seite darin, dass der Manager Zeit und Kosten spart, indem er sich auf das (vermeintlich) Wesentliche konzentriert, also das, was der Filter „Managementkonzept“ durchlässt. So gibt z.B. das Six Sigma-Konzept die Empfehlung, sich vor allem auf die drei Umsetzungstreiber „Kunde“, „Prozess“ und „Qualität“ bei der Unternehmenssteuerung zu kon-zentrieren. Denn nur wenn das Management alle drei Treiber gut im Griff hat, wird es langfristig erfolgreich sein (vgl. Abschnitt 2.2.3).

36 Zwischen Erklärung und Prognose besteht strukturelle Identität, d.h. die aufgestellten

Hypothesen (Wenn-dann-Aussagen) können an der Erfahrung scheitern und sind sodann zu verwerfen bzw. zu falsifizieren (vgl. Töpfer 2007a, S. 40f.).

Page 108: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

86 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

• Neben der Chance, unter Zeit- und Kostendruck, tragfähige und nachvoll-ziehbare Entscheidungen zu treffen, besteht das potenzielle Risiko von Mana-gementkonzepten darin, dass zu viel Daten- und Konzeptwissen herausgefil-tert wird.37 Für die Entscheidung steht dann nur noch bruchstückhaftes, für die Problemlösung unzureichendes Wissen zur Verfügung. Außerdem bleibt ein großer Teil von Mittel-Zweck-Beziehungen unbeachtet, d.h. unrelatio-niert. Genau aus diesem Grund werden Managementkonzepte auch als Mode-erscheinungen bezeichnet (vgl. Abschnitt 2.3.1).

Abb. 2-10: DMAIC-Zyklus als Technologie zur Problemlösung bei Six Sigma

Aus wissenschaftlicher Sicht werden durch den Vergleich von Managementkon-zepten mit „Moden“ auf der einen Seite sowie mit „Technologien“ auf der anderen die unterschiedlichen Facetten des Forschungsobjektes reflektiert. Nach dem Wis-senschaftstheoretiker THOMAS S. KUHN (1962) handelt es sich dabei um zwei Paradigmen, auf denen die Forscher mit ihrer Arbeit aufsetzen (vgl. Chalmers 1999, S. 104ff.). Im einen Fall wird davon ausgegangen, dass Six Sigma vor allem aus Legitimitätsgründen praktiziert wird; im anderen Fall wird der Einsatz von Six

37 Wie u.a. McCaskey (1982, S. 195ff.) in einer Studie eindeutig belegt, war vor allem die

Selektivität der gängigen Managementkonzepte der US-amerikanischen Automobil-industrie Ursache dafür, warum die Automobilmanager zu Beginn der 1980er Jahre die schwachen Signale (weak signals) bzgl. der grundlegenden Änderungen im Käuferver-halten auf ihrem Heimatmarkt übersahen. Die z.T. gravierenden Folgen dieser Nicht-beachtung sind allgemein bekannt.

Reales Problem StatistischesProblem Reale LösungStatistische

Lösung

Charakterisierung des Prozessesin Bezug auf- Lage- &- Streuverhalten

Ableitung der we-sentlichen Faktoren mit Einfluss auf- Lage- &- Streuverhalten

Erarbeitung und Umsetzung von Verbesserungs-maßnahmen

Measure ControlDefine

Beschreibung von Größe und Auswirkung

Theorie als „Diagnose“

Erklärung:Warum ist etwas so?

Prognose:Wie wird etwas sein?

Gestaltung:Wie kann etwas erreicht werden?

Analyse Improve

Technologie als „Therapie“

Quelle: Eigene Darstellung

Page 109: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 87

Sigma als rational begründet erachtet. Beide Erklärungsansätze sind auf den ersten Blick plausibel und nachvollziehbar, so dass sich die Frage nach einer zweckmä-ßigen Vereinigung (Synthese) stellt. Diese ist aber nach dem derzeitigen Erkennt-nisstand nicht in Sicht (vgl. Burell/ Morgan 1979, S. 397f.).

Alternativ besteht die Möglichkeit der Einnahme einer Multiparadigmenperspek-tive, bei der beide Ansätze/ Sichtweisen gleichberechtigt nebeneinander stehen (vgl. Gioia/ Pitre 1990, 584ff.; Evered/ Louis 1981, 385ff.). Dieser Weg ist insb. dann reizvoll, wenn die theoretischen Aussagensysteme und die darauf basieren-den Handlungsempfehlungen für die Praxis komplementär sind, d.h. sich ergänzen und schrittweise zu einem besseren Gesamtbild über die Realität führen. Dies ist im vorliegenden Fall nicht gegeben. Vielmehr stehen die Aussagen, die aus den zwei Sichtweisen resultieren, teilweise im Widerspruch zueinander. Infolgedessen ergibt sich ein eher diffuses Bild über die Realität von Managementkonzepten.

Hinzu kommt, dass es nach der Inkommensurabilitätsthese (vgl. Steinmann/ Sche-rer 1994, S. 265) nicht möglich ist, auf übergeordneter Ebene zwischen den kon-kurrierenden Theorien/ Aussagen objektiv zu entscheiden bzw. zu beurteilen. Die „wahre Natur“ von Managementkonzepten i.A. sowie Six Sigma i.S. bleibt folg-lich auch weiterhin im Verborgenen. Die Arbeit in den beiden Paradigmen wird solange erfolgreich fortschreiten und zu Wissenszuwachs führen, solange keine wesentlichen Diskrepanzen zwischen Theorie und Praxis auftreten. Erst eine „er-wachsene Wissenschaft“ wird von einem einzigen Paradigma geleitet, dass sich nach mehreren sog. Paradigmenwechseln herauskristallisiert hat.

Neben KUHN´S PARADIGMENWECHSEL (1962) zur Erklärung wissenschaftlichen Fortschritts stellen die FORSCHUNGSPROGRAMME nach IMRE LAKATOS (1970) einen bekannten wissenschaftstheoretischen Ansatz dar. In Analogie hierzu kön-nen folgende Kernthesen für die Entstehung und Entwicklung von Management-konzepten formuliert werden (vgl. Chalmers 1999, S. 104ff.):

• Nicht alle Bereiche/ Annahmen eines Managementkonzeptes stehen auf der gleichen (Entwicklungs-)Stufe und sind – für das Überleben des Konzeptes – als gleich „kritisch“ zu betrachten, d.h. einige Bereiche/ Annahmen eines Konzeptes haben stärkeren fundamentalen Charakter als andere. Aus diesem Grund beinhaltet ein Managementkonzept immer fundamentale sowie peri-phere Handlungsempfehlungen, wobei erstgenannte zu keinem Zeitpunkt der Konzeptentwicklung infrage gestellt werden.

• Ein Managementkonzept ist die programmatische Entwicklung der Implikati-onen einiger (weniger) fundamentaler Aussagen. Sie bilden nach Lakatos den „harten Kern“ eines Forschungsprogramms38 bzw., in unserem Fall, eines

38 Bei der Erfolgsfaktorenforschung, die seit Jahren im betriebswirtschaftlichen Diskurs

steht, wird ebenfalls das Kern-Hülle-Problem offensichtlich. Bauer/ Sauer (2004, S. 623) legen die Ursachen für die vermeintliche Erfolglosigkeit des Forschungskonzeptes wie folgt offen: „Die empirische Sozialforschung neigt dazu, ihre Theorien gleichsam

Page 110: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

88 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

Managementkonzeptes. Die Akteure in einem bestimmten Unternehmensbe-reich, z.B. Qualitätsmanagement, begegnen eventuellen (Konzept-)Problemen damit, dass sie die peripheren Annahmen verändern. Diese kennzeichnen nach Lakatos die „weiche Hülle“ eines Forschungsprogramms.

Bei Managementkonzepten stehen die persönlichen Auffassungen/ subjektiven Theorien von einzelnen Führungskräften über das „Management von Unterneh-men“ am Anfang der Entwicklung. So verfolgen die frühen Anwender organisati-onaler Innovationen, z.B. Six Sigma bei Motorola Ende der 1980er Jahre, das Ziel, ihre Leistungs- und Wettbewerbsfähigkeit zu verbessern. In der Anfangsphase erfolgt der Wandel bzw. die Entwicklung zunächst auf technisch-rationaler Basis und steht mit den spezifischen Charakteristika/ Anforderungen einer Organisation direkt in Verbindung (vgl. DiMaggio/ Powell 1991, S. 147ff.). Werden in dieser Phase die (subjektiven) Erwartungen der Beteiligten erfüllt, dann führt dies dazu, dass dem neuen Konzept bzw. der neuen Technik ein Wert beigemessen wird, der meist über die ursprünglich beabsichtigten Erfordernisse der zu erfüllenden Auf-gabe hinausgeht. So wurde bspw. Six Sigma bei GE in der Mitte der 1990er Jahre zu einem unternehmensweiten Führungs- und Steuerungskonzept ausgebaut.

Während GE maßgeblich am Aufbau der „weichen Hülle“ von Six Sigma beteiligt war, geht der „harte Kern“ des Konzeptes auf das Technologieunternehmen Mo-torola zurück. Um zu einer effizienteren Gestaltung des Verbesserungsprozesses zu gelangen, wurde hier der DMAIC-Zyklus als organisationale Innovation erst-mals eingeführt. Nach Abb. 2-11 stellt er den technisch-rational begründeten Kern von Six Sigma dar (vgl. Abschnitt 3.3.1). Daneben wurde unter der Bezeichnung „Design for Six Sigma“ der DMADV-Zyklus als Projektmanagement-Zyklus für den Entwicklungsbereich konzipiert und eingeführt (vgl. Abschnitt 3.3.2). Obwohl er ebenfalls auf rationalen Überlegungen basiert, hat er sich gegenüber dem DMAIC-Zyklus bis dato weniger bewährt (vgl. Abschnitt 1.1.2).

Wie Walgenbach/ Beck (2003, S. 498f.) feststellen, werden am Anfang des Insti-tutionalisierungsprozesses neue Strukturen respektive Technologien gezielt entwi-ckelt, um die internen Probleme schnell und kostengünstig zu lösen. Der Wert und die Effizienz eines institutionalisierten Strukturelements wird dabei in erster Linie nach internen Bewertungskriterien bestimmt (vgl. Zucker 1987, S. 443ff.). Die neuen Praktiken, Techniken und/ oder Verfahren werden unternehmensübergrei-fend eingeführt und weiterentwickelt, wenn die beteiligten Akteure davon über-zeugt sind, dass damit Effizienzsteigerungen möglich sind. Bei wachsender Verbreitung und Anerkennung (Legitimation) tritt der Punkt der Rationalität je-doch sukzessive in den Hintergrund. Im Zuge der Verbreitung einer organisationa-len Innovation kommt es immer mehr zu einer „schablonenhaften“ Übernahme, so dass ab einem bestimmten Zeitpunkt – statt der Verbesserung der Leistungs- und

wie Supernovas solange aufzublähen bis der gesamte Wissenschaftsbetrieb den Über-blick verliert und die Theorie quasi implodiert und stirbt. Im Kosmos bleiben dann bekanntlich schwarze Löcher zurück. Ein Etwas, in dem nichts Erhellendes mehr ist.“

Page 111: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 89

Wettbewerbsfähigkeit – die Legitimation und Anerkennung durch die Umwelt, insb. der Stakeholder, im Vordergrund stehen.

Abb. 2-11: DMAIC-Zyklus als „harter Kern“ im Six Sigma-Rahmenkonzept

Diese Entwicklung trifft auch für das Six Sigma-Konzept zu. Mit der zuneh-menden Verbreitung und dem Einsatz in anderen Branchen geht der anfänglich „rationale Kern“ der Innovation nach und nach verloren – bildlich gesprochen bleibt dann nur noch die Verpackung als „legitimierte Hülle“ übrig. Trotz dieser Einschränkung ist die Adoptionsrate weiterhin hoch, da mit Six Sigma aus gesell-schaftlicher Sicht die Anforderungen an eine „rationale“ und „moderne“ Organisa-tionsstruktur erfüllt sind (vgl. Walgenbach 2002, S. 329).

Die „weiche Hülle“ von Six Sigma lässt sich in Anlehnung an Lakato´s For-schungsprogramme wie folgt kennzeichnen: Um den Kern des Managementkon-zeptes vor der Falsifikation zu schützen, wird ein Set von unterstützenden An-nahmen (Rahmenbedingungen) formuliert. Führt der Einsatz von Six Sigma nicht zum gewünschten Erfolg, dann wird nicht der „harte Kern“, also z.B. der Phasen-ablauf und Instrumenteneinsatz des DMAIC-Zyklus, sondern die Annahmen des schützenden Gürtels infrage gestellt und ggf. für den Misserfolg verantwortlich gemacht (siehe Abb. 2-11).39 Auf der Grundlage einer umfassenden Literaturre-cherche konnten vom Autor die folgenden vier Bereiche als legitimierte und

39 Dieser Erklärungsansatz gibt u.a. einen Hinweis darauf, warum der DMADV-Zyklus

als harter Kern von Design for Six Sigma – trotz seiner nachgewiesenen Ineffizienz – seit Jahren als „State of the art“-Verbesserungsmethode im Produktentwicklungspro-zess gehandelt wird. Analog zum DMAIC-Zyklus wird das institutionalisierte Element durch das Six Sigma-Rahmenkonzept vor der Widerlegung geschützt.

Define Measure Analyse Improve Control

Einbindung der Unternehmensleitung und Commitment der Führungskräfte

Auswahl und Qualifizierung von Akteuren/ Aufbau einer Six Sigma-Organisation

Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projekten

Planung und Steuerung von Six Sigma-Projekten/Analyse der Ergebniswirkungen (direkt/ indirekt)

Basis: Magnusson et al. 2004, S. 19

Page 112: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

90 2 Six Sigma als zeitgemäßes Managementkonzept für Null-Fehler-Qualität

zugleich schützende Hülle des Six Sigma-Konzeptes identifiziert werden (vgl. u.a. Töpfer 2007; Harry/ Schroeder 2005; Magnusson et al. 2004): • Einbindung der Unternehmensleitung und Commitment der Führungskräfte:

Nach Töpfer (2007, S. 208) ist die zu klärende Frage bei der Implementierung von Six Sigma nicht, ob, sondern welche aktive Rolle die Unternehmenslei-tung bei der Einführung zu spielen hat. Bei einer unternehmensweiten Initia-tive muss sie sich an die „Spitze der Bewegung“ für Six Sigma stellen. Dabei ist die Frage zu klären, wann sie sich wo und wie in den Roll-out-Prozess ein-bringt. Denn auch bei einem fortschrittlichen Qualitätsmanagement-System mit Erfahrungen in bestimmten QM-Initiativen bedeutet Six Sigma immer ei-nen Veränderungsprozess im gesamten Unternehmen. Neben der Rolle als I-nitiator und Verfechter von Six Sigma tritt die Unternehmensleitung als Sponsor von Six Sigma-Projekten auf. Wenn die Entscheidung für die gene-relle Einführung von Six Sigma gefallen ist, dann sollte die Unternehmenslei-tung bereits den ersten Workshop mit Entscheidungsträgern und Prozesseig-nern zur Klärung konzeptrelevanter Fragen nutzen.

• Konzeption eines Anreizsystems für die Durchführung von Six Sigma-Projek-ten: Damit bei den Führungskräften ein derartiges Commitment entsteht, sind u.a. entsprechende Anreize zu schaffen. Ziel ist der Aufbau eines umfassen-den Incentive-Konzepts, bei dem die Durchführung respektive Steuerung von Six Sigma-Projekten in den persönlichen Zielvereinbarungen der Führungs-kräfte und Mitarbeiter verankert ist. Dadurch werden einerseits die Bedeutung und Dauerhaftigkeit des Six Sigma-Programms unterlegt. Andererseits wer-den die Befürchtungen und Vorbehalte der Mitarbeiter bzw. Manager abge-baut, die Six Sigma als eine „vorrübergehende Initiative“ des Unternehmens sehen. Wie die Erfahrungen bei General Electric zeigen, sichert ein effektives Anreizsystem vor allem im ersten und zweiten Jahr des Six Sigma-Einfüh-rungsprozesses die klare Fokussierung und zielgerichtete Weiterentwicklung der Initiative (vgl. Bulk/ Faulhaber 2007, S. 402).

• Auswahl und Qualifizierung von Akteuren/ Aufbau der Six Sigma-Organi-sation: Die typische Six Sigma-Organisation beinhaltet eine differenzierte Rollenverteilung mit unterschiedlichen Aufgaben- und Rollenprofilen. Nach diesen richtet sich u.a. der Qualifizierungsbedarf, der in vielen großen Unter-nehmen, z.B. Motorola, fest vorgegeben ist. Zu den wesentlichen vier Grup-pen von Six Sigma-Akteuren gehören Champions, Master Black Belts, Black Belts und Green Belts; sie wurden in Abschnitt 2.2.3 benannt. Weitere Akteu-re einer typischen Six Sigma-Organisation sind Yellow Belts und White Belts. Als Mitglieder einer Projektgruppe übernehmen sie ebenfalls Fach- und Un-terstützungsaufgaben. An der Spitze der Six Sigma-Organisation steht übli-cherweise der Quality Leader, der als Mitglied der oberen Führungsebene ü-ber eine klare strategische Ausrichtung verfügt.

• Planung und Steuerung von Six Sigma-Projekten/ Analyse der Ergebniswir-kungen: Bei der Planung von Six Sigma-Projekten kommt vor allem dem Pro-

Page 113: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

2.3 „Weiche Hülle“ und „Harter Kern“ von Managementkonzepten 91

jektauswahlprozess eine entscheidende Bedeutung zu. In diesem wird festge-legt, wie bei der Auswahl von Six Sigma-Projekten standardmäßig vorzuge-hen ist.40 Generell ist zu beachten, dass keine Projekte zu Six Sigma-Projek-ten nominiert werden, die auf der einen Seite vergleichsweise einfach und mit „gesundem Menschenverstand“ bereits zum Erfolg zu führen sind (sog. Tief-hängende Früchte-Projekte). Auf der anderen Seite sind Projekte zu vermei-den, die in ihrem Ausmaß und ihrer Zeitdauer mehr als deutlich über ein „normales“ Six Sigma-Projekt hinausgehen und nur ansatzweise zu bearbei-ten sind (sog. Welthungerhilfe-Projekte) (vgl. Töpfer 2007b, S. 216). Im zeit-lichen Ablauf werden zunächst Prozesse mit einem relativ schlechten Quali-tätsniveau verbessert. Dadurch wird ein positives Kosten-Nutzen-Verhältnis erreicht, was zugleich die Akzeptanz des Gesamtvorhabens fördert. Im Unterschied zu anderen Verbesserungskonzepten, z.B. TQM, werden bei der Projektanalyse sowohl monetäre als auch nicht-monetäre Größen bzgl. der Ergebniswirkung(en) ausgewiesen. Während der Sigma-Wert als dimensions-lose nicht-monetäre Größe die technische Sichtweise widerspiegelt (= Spra-che des Prozesses), wird über die monetäre Kenngröße Net Benefit41 der wirt-schaftliche Erfolg von Six Sigma-Projekten gemessen, der wiederum Einfluss auf die Höhe des Shareholder Value hat (= Sprache des Managements).

Neben der Erklärung des Aufbaus von Managementkonzepten gibt der Vergleich mit Lakatos´ Forschungsprogramme Hinweise darauf, wie die Entstehung und Verbreitung zu deuten ist. Zur Beschreibung des wissenschaftlichen Fortschritts unterscheidet Lakatos zwischen progressiven und degenerativen Forschungspro-grammen. Im Zuge einer „wissenschaftlichen Revolution“ kommt es zur Ablösung eines degenerativen Forschungsprogramms durch ein progressives. Dieses Muster trifft m.E. auch für Managementkonzepte zu. So lässt sich z.B. Six Sigma zum gegenwärtigen Zeitpunkt als progressives Managementkonzept einordnen. Es löst das Vorgängermodell TQM ab, das sich bereits im Jahr 2005 im Degenerations-stadium befand (vgl. von Lanzenauer/ Huesmann 2004, S. 253).

40 Der eingeführte Projektauswahlprozess bei Johnson & Johnson im Werk Wuppertal

beinhaltet z.B. fünf Schritte (vgl. Leyendecker 2004, S. 476). 41 Nach allgemeiner Konvention fließen in die Berechnung des Net Benefit nur liqui-

ditätswirksame Kosteneinsparungen und/ oder Umsatzsteigerungen ein, die nachweis-lich innerhalb von 12 Monaten nach Beendigung des Six Sigma-Projektes realisiert werden. Dadurch wird vermieden, dass durch indirekte Nutzenkomponenten, z.B. er-höhte Kundenbindung, die Wirkungen von Projekten „schöngerechnet“ werden.

Page 114: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3 Praxis-Theorie-Transformation als induktive Vorgehens-weise: Vom konkreten zum abstrakten Vorgehensmodell der Problemlösung in F&E-Projekten

3.1 Qualität und Innovation als wichtige Effektivitätskriterien – Begriffsdefinitionen

3.1.1 Fünf Dimensionen der Qualität als Ausgangspunkt für Six Sigma

Page 115: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• prozessbezogene Ansatz

Six Sigma

• produktbezogene Ansatz

Page 116: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• wertbezogene Ansatz

• kundenbezogenen Ansatz

DFSS-Projekten

• transzendente Ansatz

Page 117: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Null-Fehler-Qualität

CTQs als Zielwerte der Optimierung

Prozess-bezogene Qualität

Wert-bezogene Qualität

Produkt-bezogeneQualität

Kunden-bezogeneQualität

TranszendenteQualität

Ist das Preis-Leistungs-Ver-hältnis wettbe-werbsfähig?

Werden alle we-sentlichen Kun-denanforderun-gen erfüllt?

Liegen die Merk-malsausprägun-gen im Toleranz-bereich?

Sind die kritischen Prozessmerkmale innerhalb der Spe-zifikation?

Nimmt der Kundedie produzierteQualität wie ge-wünscht wahr?

Analyserichtung

Gestaltungsrichtung

Quelle: Eigene Darstellung

Page 118: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Hyperwettbewerbs

Qualitätsmanagement

Innovationen

Balance zwischen Qualität und Innovation

Page 119: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3.1.2 Drei Dimensionen der Innovation als Anforderung an DFSS

Invention

Innovationen

Als Gründe werden genannt:

Page 120: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Dimensionen Gegenstand von Innovationen

• Prozessinnovation:

• Produktinnovation:

• Organisatorische Innovationen:

Page 121: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

zwei Verlaufstypen

• Basisinnovationen

• Verbesserungsinnovationen

• Anpassungsinnovationen

• Imitationen

• Scheininnovationen

Page 122: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

S-Kurvenkonzept Technologiesprüngen

Performance/Fitness

0Zeitt1 t2 t3t0

f0

f1

f2

f3

Technologie-kurve 1

Technologie-kurve 2

Basis-innovation

Verbesserungs-innovation

Basis: Foster 1986, S. 271

Page 123: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Six Sigma als Managementinnovation

Page 124: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3.2 Vorgehensmodelle zur Generierung von Innovationen und Erreichung von Null-Fehler-Qualität

3.2.1 Vorgehensmodelle zur kreativen Problemlösung

kreativen Problemlösungszyklen

(a) CPS-Modell nach Osborn/ Parnes

Creative Problem Solving-Modells

Page 125: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Objective Finding-Phase:

• Fact Finding-Phase:

• Problem Finding-

• Idea Finding-Phase:

• Solution Finding-Phase:

• Acceptance Finding-Phase:

Page 126: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Trennung zwischen Ideenfindungs- und Ideenauswahlphase

kritische Bewertung

Page 127: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

0%

25%

50%

75%

100%

Phasen

ablauf

Methoden

einsatz

Wirtsch

aftlic

hkeit

Zielerre

ichungsg

rad

CPS-Modell OPM-Modell ISO-Regelkreis

PDCA-Zyklus DMAIC-Zyklus DMADV-Zyklus

Zielerr

ei-

chungsg

rad

Quelle: Eigene Darstellung

-Erfü

llung

sgra

d -

Phasen

-

ablau

fMeth

oden-

einsa

tz

Wirtsch

aft-

lichke

it

Legende:

- Befähigerkriterien - - Ergebniskriterien -

21 3 4

Page 128: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

QuantitätQualität

Innovationsmanagement (IM)

Qualitätsmanagements (QM)

Hypothese H3

(b) OPM-Modell nach Geschka

Offenen Problemlösungs-modells

Page 129: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Problemklärungs-Phase:

• Ideenfindungs-Phase:

• Ideenauswahl-Phase:

• Lösungsumsetzungs-Phase:

Page 130: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kritische Bewertung:

3.2.2 Innovationsprozess als selbstregulierender Prozess

zielgerichtetes Management

ProblemklärungIdeenfindungDivergentes

Denken

IdeenauswahlKonvergentes

Denken

Lösungs-umsetzung ...

Basis: Geschka/ Lantelme 2005, S. 294

Page 131: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

strukturierte Innovationsprozesse

Technokratischen Innovationsma-nagement-Paradigma

Page 132: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Finden von Lösungsideen

Umsetzung der Lösung

Rückkopplung zur Ideenfindungs-Phase

Page 133: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Effizienz der Lösung

ProblemklärungIst vs. Soll

Problemvorhanden?

Informations-sammlung

Ideenfindung

Ideenauswahl

Lösungs-umsetzung

Problemgelöst?

Lösungs-nutzung

nein

ja

ja

nein

DoubleLoop

SingleLoop

Methoden der Informationsgewinnung• Gewinnung von Primärinformationen

z.B. Kundenbefragung, Fokusgruppenanalyse• Gewinnung von Sekundärinformationen

z.B. Auswertung von Kundenbeschwerden

Methoden der Informationsverarbeitung• Methoden zur Analyse und Prognose

z.B. SWOT-Analyse, Simulation, Szenariotechnik• Methoden zur Ideenfindung/ -systematisierung

• Methoden zur Ideenbewertung/ -auswahlz.B. Paarweiser Vergleich, Nutzwertanalyse

Methoden der systema-tischen Konfrontationz.B.TRIZ

Methoden der systema-tischen Assoziationz.B. Morpholog. Kasten

Systematischana-lytische Methoden

Methoden der intuitiven Konfrontationz.B. Synektik

Methoden der intuitiven Assoziationz.B. Brainstorming

Intuition-verstär-kende Methoden

KonfrontationAssoziation

Ideenauslösendes PrinzipArt der Kreativi-tätsförderung

Methoden der systema-tischen Konfrontationz.B.TRIZ

Methoden der systema-tischen Assoziationz.B. Morpholog. Kasten

Systematischana-lytische Methoden

Methoden der intuitiven Konfrontationz.B. Synektik

Methoden der intuitiven Assoziationz.B. Brainstorming

Intuition-verstär-kende Methoden

KonfrontationAssoziation

Ideenauslösendes PrinzipArt der Kreativi-tätsförderung

Basis: Pleschak/ Sabisch 1996, S. 29

Page 134: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kreativität

kreativitätsfördernde Methoden

Art der Kreativi-tätsförderung

Page 135: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3.2.3 Vorgehensmodelle zur kontinuierlichen Verbesserung

(a) Regelkreis nach ISO 9001:2000

prozess-orientierten Organisationsstruktur

Zertifizierungsaudit

Page 136: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

ISO-Prozessmodells

äußere Regelkreis

Erhöhung der Wirksamkeit des QM-Systems

Ständige Verbesserung desQualitätsmanagementsystems (KVP)

KUNDEN

ANFORDERUNGEN

KUNDEN

ZUFRIEDENHEIT

ProduktErgebnis= Output

Eingabe= Input

Messung, Analyse,Verbesserung

Verantwortungder Leitung

Ressourcen-management

Produktrealisierung/Prozessmanagement Prozess

Quelle: Ebel 2002, S. 72

Page 137: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

innerer Regelkreis

Wirkungsverbund zwischen der ISO-Normenreihe und dem Six Sigma-Projektmanagement

Kritische Bewertung:

Page 138: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

(b) PDCA-Zyklus nach Deming

Notwendigkeit eines Vorgehensmodells

nicht

PDCA

Phasen des PDCA-Zyklus

• Plan-Phase:

Page 139: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Do-Phase:

• Check-Phase:

• Act-Phase:

PDCA-Rades

Plan

DoCheck

Act Plan

DoCheck

Act

Plan

DoCheck

Act Plan

DoCheck

Act

Maßnahmen

Zeit

Verb

esse

rung

en

Basis: Deming 1986

Page 140: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kritische Bewertung:

Charakteristika von Qualitätsverbesserungssystemen

3.2.4 Qualitätsmanagement als selbstregulierender Prozess

Page 141: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

QM als kybernetischer (selbstregulierender) Prozess

(1) Planung

wesentlichen Anforderungen der Kunden

Page 142: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

wesentlichen Anforderungen des Unternehmens

Konstrukt der Kundenzufriedenheit

Page 143: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Ergebnis= Output

Einsatz= Input

Produktrealisierung/Prozessmanagement Prozess

ErwartetesErgebnis

= Soll-Leistung

Wahrgenom-menes Ergebnis

= Ist-Leistung

Positive Disconfirmation

Ist > Soll

ConfirmationIst = Soll

NegativeDisconfirmation

Ist < Soll

Zufriedenheit Unzufriedenheit

Interne/ externe Störgrößen

Steuergrößen im Prozess

EffektivitätSoll-Ist-

Vergleich

Planung (Plan)

QualitätsplanungDefinition der CTQs

Mess-fehler

Mess-fehler

3

2

1 Verbesserung (Act)

4

Feedback an

EffizienzOutput-Input-

Vergleich

Wertneutrale Leistung

Output = Input

WertminderndeLeistung

Output < Input

WertsteigerndeLeistung

Output > Input

WertvernichtungWertschöpfung

Prozess-Verbes-serung

- DMAIC -

Produkt-Verbes-serung

- DMADV -

Feedforward

Feedforward

Feedback an

SingleLoop

DoubleLoop

2

1

- Intern -

- Extern -

Wesentliche Kundenan-

forderungen

Umsetzung (Do)

Kontrolle (Check)

Quelle: Eigene Darstellung

Page 144: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Erfüllungsgrad von Kundenanforderungen

• Basisanforderungen:

• Leistungsanforderungen:

• Begeisterungsanforderungen:

Konsequenzen für die Spezifikation von (neuen) Produkten/ Dienstleistungen

(2) Umsetzung

σAnalyse und Verbesserung ihrer Prozesse

Page 145: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Output von Prozessen

• Steuergrößen

• Störgrößen

Analysieren von funkti-onellen Zusammenhängen

Parameterdesign

S/N-Wert

Page 146: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Allgemeine Ursachen

• Spezielle Ursachen

Statistischen Prozessrege-lung

Prozessfähigkeitsindizes

Page 147: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

σ

μ

Prozessmanagements während der Produktrealisierung

Feedbacks

Feedforward

(3) Kontrolle36

Effizienz

Page 148: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Effektivität

einfachen Regel-kreis

erweiterten Regelkreis

• Nutzleistung

• Stützleistung

• Blindleistung

• Fehlleistung

Page 149: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Wertsteigernde, wertneutrale und wertmindernde Leistungen

dichotomen Bewertung von EffizienzWert-

schöpfungWertvernichtung

Confirmation/ Disconfirmation-Paradigma

• Ist = Soll:

Page 150: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Ist > Soll:

• Ist < Soll:

Confirmation

negative Disconfimationpositive

Disconfirmation

(4) Verbesserung

Single Loop

DMAIC-Zyklus

Page 151: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Double Loop

DMADV-Zyklus

3.3 Konzeption und Inhalte der Six Sigma-Verbesserungszyklen

3.3.1 DMAIC-Zyklus zur Prozessoptimierung

Phasen Vorgehensschritte Methoden

Page 152: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Define-Phase

Projektcharter

• Business Case/ Problemhintergrund

• Probleme und Ziele/ Nutzen

• Projektumfang und Fokus/ Rahmen

• Rollen/ Verantwortlichkeiten und Meilensteine

SIPOC-Analyse

VOC-CTQ-Analyse

Page 153: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Net Benefit-Berechnung

Measure-Phase

CTQ-Outputmessgrößen-Analyse

Bestimmung der Prozesseffektivität/ -effizienz

Wirkungsorientierten Kostenmodell

Page 154: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Sigma-Wert

σ σ

Gage R&R

Systemkomplexität

σ

Page 155: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Analyse-Phase

Prozess-darstellung und -analyse

Ursachen-Wirkungs-Analysen

• Prozessanalyse

• Datenanalyse

Page 156: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Improve-Phase

Statistische Versuchsplanung

Page 157: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Defin

e

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l def

inie

ren

•Pro

zess

auf

hoh

er

Eben

e da

rste

llen

•Kun

dena

nfor

deru

ngen

an

alys

iere

n

•Pro

jekt

char

ter

•SIP

OC-

Anal

yse

•VO

C-CT

Q-A

naly

se

Vorg

ehen

Met

hode

n

•Mes

sgrö

ßen

fest

lege

n•D

aten

sam

mel

n•V

aria

tion

best

imm

en•S

igm

a-W

ert b

erec

hnen

•Gag

e R&

R•D

aten

sam

mel

plan

•His

togr

amm

etc

.•D

PMO

/ PPM

Vorg

ehen

Met

hode

n

•Urs

ache

n an

alys

iere

n•P

roze

ss a

naly

sier

en•D

aten

ana

lysi

eren

•Mög

lichk

eite

nqu

anti-

fizie

ren

•Ish

ikaw

a-Di

agra

mm

•Flu

ssdi

agra

mm

e/ W

ert-

stro

man

alys

e•S

treud

iagr

amm

e/ D

OE/

St

atis

tisch

e Te

sts

•Kos

ten-

Nutz

en-A

naly

se

Anal

yse

Mea

sure

Vorg

ehen

Met

hode

n

•Lös

unge

n ge

nerie

ren

•Lös

unge

n au

swäh

len

•Lös

unge

n im

plem

en-

tiere

n

•Bra

inst

orm

ing/

6-3

-5•P

latz

ziffe

r-Ver

fahr

en•G

antt-

Diag

ram

m

Impr

ove

Vorg

ehen

Met

hode

n

•Sol

l-Pro

zess

dok

u-m

entie

ren

•Pro

zess

übe

rwac

hen

•Rea

ktio

nspl

an

erst

elle

n

•Pro

zess

doku

men

tatio

n•R

egel

karte

n/ S

PC•V

erfa

hren

sanw

eisu

ng

Cont

rol

Defin

e

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l def

inie

ren

•Pro

zess

auf

hoh

er

Eben

e da

rste

llen

•Kun

dena

nfor

deru

ngen

an

alys

iere

n

•Pro

jekt

char

ter

•SIP

OC-

Anal

yse

•VO

C-CT

Q-A

naly

se

Vorg

ehen

Met

hode

n

•Mes

sgrö

ßen

fest

lege

n•D

aten

sam

mel

n•V

aria

tion

best

imm

en•S

igm

a-W

ert b

erec

hnen

•Gag

e R&

R•D

aten

sam

mel

plan

•His

togr

amm

etc

.•D

PMO

/ PPM

Vorg

ehen

Met

hode

n

•Urs

ache

n an

alys

iere

n•P

roze

ss a

naly

sier

en•D

aten

ana

lysi

eren

•Mög

lichk

eite

nqu

anti-

fizie

ren

•Ish

ikaw

a-Di

agra

mm

•Flu

ssdi

agra

mm

e/ W

ert-

stro

man

alys

e•S

treud

iagr

amm

e/ D

OE/

St

atis

tisch

e Te

sts

•Kos

ten-

Nutz

en-A

naly

se

Anal

yse

Mea

sure

Vorg

ehen

Met

hode

n

•Lös

unge

n ge

nerie

ren

•Lös

unge

n au

swäh

len

•Lös

unge

n im

plem

en-

tiere

n

•Bra

inst

orm

ing/

6-3

-5•P

latz

ziffe

r-Ver

fahr

en•G

antt-

Diag

ram

m

Impr

ove

Vorg

ehen

Met

hode

n

•Sol

l-Pro

zess

dok

u-m

entie

ren

•Pro

zess

übe

rwac

hen

•Rea

ktio

nspl

an

erst

elle

n

•Pro

zess

doku

men

tatio

n•R

egel

karte

n/ S

PC•V

erfa

hren

sanw

eisu

ng

Cont

rol

Que

lle: E

igen

e D

arst

ellu

ng

Page 158: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kosten-Nutzen-Analyse

Control-Phase

Pilotversuche

Rückkopplungsschleife in die Analyse-Phase

Statistische Qualitäts- bzw. Prozessregelkarten

Page 159: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kritische Bewertung:

3.3.2 DMADV-Zyklus zur Neuproduktentwicklung

Define-Phase

DMADV-Zyklus

talking

Page 160: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

zwei Anwendungsfälle

• völlig neues Produkt/ neuer Prozess

• bestehender Prozess ist „ausgereizt“

σ σ

Projektcharter

Marktanalyse/ -forschung

Projektplan

Netzplantechnik

Page 161: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Kommunikationsplan

Measure-Phase

ersten Schritt

Anforderungsprofils für das neue Produkt bzw. die neue Dienstleis-tung

Zielgruppen zu identifizieren

Marktsegmente

Analysemethoden

• Clusteranalyse

• Diskriminanzanalyse

Page 162: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

zweiten Schritt

Quality Function Deployment (QFD)

Gewich-tung (Priorisierung) der Kundenanforderungen

House of Qual-ity

Page 163: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Defin

e

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l def

inie

ren

•Mar

ktda

ten

ausw

erte

n•P

roje

ktpl

an e

rste

llen

•Pro

jekt

char

ter

•Ben

chm

arki

ng•G

antt-

Diag

ram

m

Vorg

ehen

Met

hode

n

•Kun

den

iden

tifiz

iere

n,

prio

risie

ren

und

seg-

men

tiere

n•K

unde

nbed

ürfn

isse

sa

mm

eln

und

ana-

lysi

eren

•Clu

ster

anal

yse

etc.

•VO

C-CT

Q-A

naly

se•Q

FD (1

. HoQ

)•L

aste

n-/ P

flich

tenh

eft

Vorg

ehen

Met

hode

n

•Des

ignk

onze

pte

be-

stim

men

•Hig

h Le

vel D

esig

n en

twic

keln

•Hig

h Le

vel D

esig

n ev

alui

eren

•Bra

inst

orm

ing/

-w

ritin

g•Q

FD/ F

MEA

•Out

puts

imul

atio

n•T

arge

t Cos

ting

Anal

yse

Mea

sure

Vorg

ehen

Met

hode

n

•Det

ailli

erte

s De

sign

en

twic

keln

•Det

ailli

erte

s De

sign

ev

alui

eren

•Im

plem

entie

rung

vo

rber

eite

n

•QFD

/ FM

EA•D

OE

nach

Sha

inin

/ Ta

guch

i•Z

uver

läss

igke

it•P

roze

ss-/

Mas

chin

en-

fähi

gkei

tDesi

gn

Vorg

ehen

Met

hode

n

•Pilo

tieru

ng d

urch

-fü

hren

•Im

plem

entie

rung

vo

rber

eite

n•P

roze

ss ü

berg

eben

•Des

ign

Scor

ecar

d•R

egel

karte

n/ S

PC•V

erfa

hren

sanw

eisu

ng

Verif

yDe

fine

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l def

inie

ren

•Mar

ktda

ten

ausw

erte

n•P

roje

ktpl

an e

rste

llen

•Pro

jekt

char

ter

•Ben

chm

arki

ng•G

antt-

Diag

ram

m

Vorg

ehen

Met

hode

n

•Kun

den

iden

tifiz

iere

n,

prio

risie

ren

und

seg-

men

tiere

n•K

unde

nbed

ürfn

isse

sa

mm

eln

und

ana-

lysi

eren

•Clu

ster

anal

yse

etc.

•VO

C-CT

Q-A

naly

se•Q

FD (1

. HoQ

)•L

aste

n-/ P

flich

tenh

eft

Vorg

ehen

Met

hode

n

•Des

ignk

onze

pte

be-

stim

men

•Hig

h Le

vel D

esig

n en

twic

keln

•Hig

h Le

vel D

esig

n ev

alui

eren

•Bra

inst

orm

ing/

-w

ritin

g•Q

FD/ F

MEA

•Out

puts

imul

atio

n•T

arge

t Cos

ting

Anal

yse

Mea

sure

Vorg

ehen

Met

hode

n

•Det

ailli

erte

s De

sign

en

twic

keln

•Det

ailli

erte

s De

sign

ev

alui

eren

•Im

plem

entie

rung

vo

rber

eite

n

•QFD

/ FM

EA•D

OE

nach

Sha

inin

/ Ta

guch

i•Z

uver

läss

igke

it•P

roze

ss-/

Mas

chin

en-

fähi

gkei

tDesi

gn

Vorg

ehen

Met

hode

n

•Pilo

tieru

ng d

urch

-fü

hren

•Im

plem

entie

rung

vo

rber

eite

n•P

roze

ss ü

berg

eben

•Des

ign

Scor

ecar

d•R

egel

karte

n/ S

PC•V

erfa

hren

sanw

eisu

ng

Verif

y

Que

lle: E

igen

e D

arst

ellu

ng

Page 164: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Benchmarking

Analyse-Phase

Abhängigkeitsanalyse

alternativen Produktkonzepten

TRIZ –Theorie des erfinderischen Problemlösens

Page 165: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Design-Reviews

wirtschaftliche Bewertung

Conjoint-Analyse

Target Costing

technische Bewertung

Failure-Mode- and -Effect-Analysis (FMEA)

Page 166: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Design-Phase

Transformation der im 2. HoQ ermittelten Komponentenmerkmale in Prozessmerkmale

Entwicklung eines robusten Designs

Evaluierung des detaillierten Designs

Page 167: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Toleranzfestlegung

Design Scorecards

σ

Verify-Phase

Pilotierung des neugestal-teten Prozesses

Ma-schinenfähigkeitsanalyse

Messsystemanalyse

Page 168: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Statistischer Prozessregelung

Reaktionspläne

Kritische Bewertung:

Page 169: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3.4 Formal-analytische Beschreibung und Analyse der Six Sigma-Verbesserungszyklen

Suche des globalen Optimums

3.4.1 DMAIC-Zyklus als abstraktes Vorgehensmodell

Rekonstruktion der Phasen des DMAIC-Zyklus auf der Abstraktionsebene

Untersuchung von Input-Output-Beziehungen

Page 170: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

einfaktoriellen Ur-sachen-Wirkungszusammenhangs

Define-Phase

Output y

0Input

x

y0

y1

x0 x1

y*

x*xM

Suchraum

x2

y2

y = f(x)

= f(x) = m·x + nyy

Mea

sure

ΔΔΔΔy2

Improve

ΔΔΔΔx1

ΔΔΔΔy1

ΔΔΔΔx2

Kaizen

Analyse

Quelle: Eigene Darstellung

Page 171: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

erklärende Variable y

Measure-Phase

Ausgangs- und ZielniveauΔ

Δ

Analyse-Phase

unabhängigen Variable x

Schät-

Page 172: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

zung des Funktionsverlaufs

Δ Δ

Δ Δ

verschiedene mathematische Verfahren

Improve-Phase

ΔΔ

Δ Δ

Überwinden des lokalen Minimums

Page 173: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

radikale Innovation

inkrementelle Innovationen

Control-Phase

Vorsteuerungsfunktion

Prozess-/ Produktmerkmale im zulässigen Toleranzbereich

Einsatz von Kreativitätstechniken

Page 174: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

3.4.2 DMADV-Zyklus als abstraktes Vorgehensmodell

mathematisches Optimierungsmodell

direkter Vergleich der Vorgehenswei-sen

einfaktoriellen Produktdesign

zweigipfligen Zielfunktion

Define-Phase

„Stimme des Kunden“ (VOC)

„Stimme des Unternehmens“ (VOB)

Page 175: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

• Re-Design

• Neu-Design

Output y

0Input

x

Mea

s ure

ΔΔΔΔy2

Design

ΔΔΔΔx1

y0

y1

x0 x1

y = f(x)

Analyse= f(x) = m·x + n

y*

x*

Innovation

x2

y2

ΔΔΔΔy1

ΔΔΔΔx2

DOE

xM

yy

Quelle: Eigene Darstellung

Page 176: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Measure-Phase

Δ

Analyse-Phase

Page 177: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Tangentenanstieg

Page 178: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Design-Phase

nächstliegende Maximum

Page 179: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Verify-Phase

Lage des optimalen Prozesspunktes

Zwischenfazit:

Hypothese H6

Page 180: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4 Mathematische Vorgehensmodelle zur funktionellen Opti-mierung und Lösung schwieriger Probleme

In der angewandten Mathematik werden einschlägige Verfahren bereitgestellt, mit denen sog. „schlecht strukturierte Probleme“ einer optimalen bzw. annähernd optimalen Lösung zugeführt werden können. Diese stehen in der weiteren Be-trachtung im Vordergrund. Ziel ist es, ausgehend von den mathematischen Opti-mierungsalgorithmen Verbesserungsvorschläge für den DMADV-Zyklus abzulei-ten bzw. alternative Vorgehensmodelle aufzuzeigen. Vor diesem Hintergrund werden sowohl klassische (siehe Unterkapitel 4.2) als auch evolutionäre Algo-rithmen (siehe Unterkapitel 4.3) genauer „unter die Lupe“ genommen. Zuvor folgen – entsprechend dem Vorgehen in Kapitel 3 – einige Begriffsdefinition. Sie beziehen sich vor allem auf die Anwendung von mathematischen Algorithmen und Heuristiken zum Auffinden des Optimums einer Zielfunktion.

4.1 Anwendung von Algorithmen/ Heuristiken zum Auffinden des Optimums einer Zielfunktion – Begriffsdefinitionen

Analog zur Anwendung von Problemlösungszyklen in der Unternehmenspraxis, z.B. DMAIC-Zyklus, werden in der Mathematik Algorithmen/ Heuristiken einge-setzt, um z.B. den Extremwert bei einer Optimierungsaufgabe zu bestimmen. Da die Arbeit aus geschrieben ist, wird im Fol-genden kurz erläutert, was „Optimierung“ im mathematischen Sinn bedeutet. Im Anschluss wird darauf eingegangen, was einen „guten Algorithmus“ zur mathe-matischen Optimierung auszeichnet und wie man zu einem solchen kommt. Die Begriffe sind von zentraler Bedeutung im Rahmen des Operations Research (OR), bei dem es nicht darauf ankommt, wie ein Problem empirisch-theoretisch struktu-riert ist, sondern wie die Optimalität einer Problemlösung mathematisch errechen-bar und nachweisbar ist (vgl. Chmielewicz 1979, S. 184).

4.1.1 Mathematische Optimierung und Optimierungsrechnung

Als Optimierung1 wird die Verbesserung eines gegebenen Systems anhand festge-legter Gütekriterien bezeichnet (vgl. Sprave 1999, S. 8). Entsprechend besteht das Ziel der entscheidungsorientierten BWL darin, Entscheidungsunterstützung inner-halb sozio-technischer Systeme, z.B. Unternehmen und öffentliche Verwaltung, zu geben. In diesem Zusammenhang werden üblicherweise dieser Systeme erstellt und untersucht. Dies liegt zum einen daran, dass es in vie-len Fällen nicht möglich, zu teuer oder zu gefährlich ist, die Ursachen-Wirkungs-zusammenhänge am realen System zu studieren. Zum anderen soll durch vereinfa-

1 Als Synonym für den Begriff „Optimierung“ hat sich der Terminus „Programmierung“

(z.B. LP für Lineare Prorgammierung) eingebürgert (vgl. Jongen/ Meer 2003, S. 212).

Page 181: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.1 Definition von Algorithmen/ Heuristiken 159

chende Modelle die Komplexität der Aufgabe reduziert werden, um dadurch die Lösungssuche möglichst einfach und effizient zu gestalten.

Nicht selten entziehen sich die realen Systeme und/ oder die abgeleiteten Simula-tionsmodelle einer (exakten) mathematischen Analyse. In diesem Fall ist man darauf angewiesen, die der beeinflussba-ren Parameter zu messen. Dem System wird eine Qualitäts- bzw. Evaluierungs-funktion zugeordnet, die implizit oder explizit, d.h. in Form eines mathematischen Modells, gegeben sein kann (vgl. Jongen/ Meer 2003, S. 211ff.).

Optimierung steht im überwiegenden Teil der Fälle für die „Suche nach der besten Lösung“. Dazu ist das Aufstellen einer (skalaren) Zielfunktion2 der Form

= (4.1) notwendig, wobei so formuliert wird, dass ein Punkt ∈ um so besser ist,

je größer ist (Maximierung). Ein Punkt im Parameterraum heißt dann

globaler Optimumpunkt und sein Zielfunktionswert globales Optimum, wenn die folgende Bedingung erfüllt ist:

≤∈∀ (4.2) Wird die Erfüllung der Ungleichung (4.2) nur für alle in einer beliebig kleinen ε-Umgebung von verlangt, so spricht man von einem lokalen Optimumpunkt bzw. lokalen Optimum. Wie leicht nachvollziehbar ist, stellt das globale Optimum immer auch ein lokales Optimum dar. Existieren zu einer Zielfunktion mehrere, voneinander verschiedene lokale Optima, so handelt es sich um eine multimodale Zielfunktion. Üblicherweise ist der Lösungsraum M durch Gleichheits- oder Un-gleichheitsrestriktionen wie folgt beschränkt:

{ }{ }0)(:...1

0)(:...1:

==∀∈∩

≥=∀∈=

(4.3)

Dabei werden Ungleichheitsrestriktionen in Form untereinander unabhängiger Ober- und Untergrenzen der Parameter (Bounds) häufig nicht als Restriktionen im eigentlichen Sinn betrachtet. Obwohl in der allgemeinen Definition von Optimie-rungsaufgaben abzählbare (ganzzahlige) Suchräume als endliche Teilmengen von Rn enthalten sind, wird gelegentlich zwischen kontinuierlicher, diskreter und ge-mischt-ganzzahliger Optimierung unterschieden.

2 In Abgrenzung zu skalaren Optimierungsproblemen, die hier im Vordergrund stehen,

sind bei Mehrziel- bzw. Vektoroptimierungsproblemen Werte von mehreren Zielfunk-tionen gleichzeitig zu optimieren (vgl. Korhonen et al. 1992; Rosenthal 1985).

Page 182: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

160 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Ist der Lösungsraum endlich groß und dürfen alle Entscheidungsvariablen nur ganzzahlige Werte annehmen, dann handelt es sich um ein

. Die Planung einer Rundreise mit n Orten (TSP – Traveling Salesman-Problem) zählt zu den bekanntesten Problemen3, die zu einem solchen Modell führen (vgl. Greb et al. 1998. S. 444). Neben der Tourenplanung lassen sich viele weitere betriebswirtschaftliche Optimierungsprobleme auf die Suche nach dem globalen Maximum einer Funktion zurückführen.

Können die Entscheidungsvariablen in beliebig kleinen Schritten verändert wer-den, dann sprechen wir von kontinuierlichen bzw. . Hier ist es möglich, den optimalen Zielwert durch langsames Herantasten, d.h. infinitesimale Änderungen der relevanten Einstellwerte, zu finden. In der Unter-nehmenspraxis sind eine Reihe von Problemen stetiger Natur, z.B. im Rahmen der Produktionsplanung/ -steuerung (PPS), wenn es um die Bestimmung der minima-len Rüstkosten und des optimalen Lagerprogramms geht.

Die Ausführungen in den Unterkapiteln 4.2 und 4.3 konzentrieren sich auf Algo-rithmen zur Lösung stetiger Probleme, da im Ausgangsproblem in 3.4 eine stetig differenzierbare (glatten) Zielfunktion zugrunde gelegt ist.

4.1.2 Algorithmen und Heuristiken zum Auffinden des Optimums

Viele interessante betriebswirtschaftliche Entscheidungsprobleme führen zu Op-timierungsaufgaben. Bereits in einführenden Lehrbüchern zur Betriebswirtschafts-lehre werden eine Reihe von Optimierungsmodellen und -verfahren dargestellt (vgl. z.B. Töpfer 2007a; Wöhe 2005; Schierenbeck 2003). Mit ihnen lassen sich z.B. Lösungsvorschläge für Probleme der über- und innerbetrieblichen Standort-planung sowie der Rundreise-/ Tourenplanung erarbeiten. Dabei ist das Vorgehen so eindeutig zu formulieren, dass auch jemand, der keine intellektuelle Einsicht in das zu lösende Problem hat, es trotzdem, den Anweisungen folgend, Schritt für Schritt „mechanisch“ bearbeiten kann (vgl. Schöning 2006, S. 1). Dieser „jemand“ ist heute in den meisten Fällen der Computer.

Bevor man damit beginnt, eine Routine bzw. ein Programm als eine Vorschrift zur Lösung einer Aufgabe zu entwickeln, ist das zu lösende Problem genau zu be-schreiben, d.h. zu spezifizieren (vgl. Michalewicz/ Fogel 2000, S. 9). Die

für ein Programm beinhaltet dabei eine vollständige, detaillierte und eindeutige Problembeschreibung. Konkret bedeutet dies, dass

(a) alle relevanten Informationen berücksichtigt werden (vollständig),

3 Beim TSP handelt es sich um ein Standardproblem des Operations Research, wobei es

darum geht, in einem vollständigen, bewerteten Graphen/ Netzplan eine kürzeste Rund-reise zu finden. Das Problem ist optimal gelöst, wenn ein geschlossener Weg kürzester Länge, der jeden Knoten des Graphen genau einmal enthält, vorliegt. Das TSP hat vor allem aus komplexitätstheoretischen Gründen das Interesse vieler Wissenschaftler auf sich gezogen (vgl. Wäscher 1998, S. 1300).

Page 183: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.1 Definition von Algorithmen/ Heuristiken 161

(b) alle Hilfsmittel und Grundaktionen aufgelistet sind, die zur Lösung zugelas-sen werden (detailliert), und

(c) klare Kriterien festgelegt worden sind, wann eine Lösung akzeptabel, d.h. eindeutig ist.

Nach der Spezifikation eines Problems geht es im Weiteren darum, ein Modell und damit einen Lösungsweg zu entwerfen. Egal, ob die Lösung von einer Ma-schine oder einem Menschen ausgeführt wird, muss jeder Schritt exakt vorge-schrieben sein. Dies erfolgt in Form eines Algorithmus. Für den Begriff „Algo-rithmus“ gibt es mehrere Definitionen (vgl. Koch/ Schlichter 2002, S. 45):

• Nach Bußmann (1990, S. 67) ist ein Algorithmus ein durch explizite Regeln festgelegtes effektives Rechenverfahren zur automatischen Lösung einer Klasse von gleichartigen Problemen, die durch eine hypothetische Maschine zu überprüfen sind. Die Vorschrift zur schrittweisen Lösung des Problems ist dabei präzise formuliert (mit vorgegebenen Konstrukten), in endlicher Form dargestellt und effektiv ausführbar.

• Eine etwas anders gelagerte Definition gibt Külpe (1883/ 1909). Nach ihm ist ein Algorithmus eine in der Beschreibung und Ausführung endliche, determi-nistische und effektive Vorschrift zur Lösung eines Problems, die effizient sein sollte. Während „effektiv“ für die eindeutige Ausführbarkeit der Einzel-schritte steht, bezeichnet „effizient“ den ressourcenschonenden Einsatz von Sach-/ Finanzmitteln bei Anwendung des Algorithmus.

Die Aufgabe bzw. das Problem, auf das der Algorithmus angesetzt wird, kann aus vielen stammen, z.B. Berechnung numerischer Werte, Text- und Bildverarbeitung, Handhabung von Objekten (Robotik), Zuteilung von Res-sourcen, Steuerung von Geräten und Maximierung von Gewinnen. Die Anwen-dung kann sich sowohl auf reale als auch abstrakte Problemstellungen beziehen. So lässt sich z.B. der DMAIC-Zyklus im Rahmen von Six Sigma als Algorithmus zur Prozessoptimierung charakterisieren, denn er ist:

• , d.h. das Six Sigma-Projekt wird innerhalb eines Zeitraums von 3 bis 6 Monaten bearbeitet

• , d.h. die einzelnen Schritte/ Phasen der Projektdurchführung sind eindeutig bestimmt

• , d.h. die einzelnen Schritte/ Phasen sind eindeutig ausführbar sowie inhaltlich aufeinander abgestimmt

• , d.h. die Aussicht auf ein positives Kosten-Nutzen-Verhältnis (Net Benefit) ist Grundlage für die Durchführung des Projektes.

Die kann auf unterschiedliche Art und Weise erfolgen, z.B. informelle oder textliche Beschreibung, programmiersprach-liche Beschreibung und graphische Beschreibung mithilfe von Funktions-/ Fluss-diagrammen. Die Ausführung des Algorithmus kann durch Menschen oder Ma-

Page 184: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

162 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

schinen (z.B. Computer) erfolgen. In seiner allgemeinsten Form besteht ein Algo-rithmus aus (a) Objekten (Daten(-objekte), Variablen) und (b) Anweisungen, die Operationen an Objekten realisieren. Die Operationen bewirken, dass die Objekte von einem ursprünglichen Zustand (Anfangs-/ Eingangszustand) in einen definier-ten Endzustand gebracht werden. Dabei findet das EVA-Prinzip4 (Eingabe – Ver-arbeitung – Ausgabe) Anwendung (vgl. Herold et al. 2006, S. 91ff.).

Jeder Algorithmus kann de facto soweit in Einzelschritte zerlegt (verfeinert) wer-den, bis er nur noch aus den folgenden für die Operationen besteht. Mit diesen können alle Algorithmen, die zur Problemlösung eingesetzt werden, formal beschrieben werden (vgl. Koch/ Schlichter 2002, S. 46):

(1) als Folge von (atomaren) Anweisungen, die zu Blöcken zusammen-gefasst werden

(2) als eine Verzweigung im Operationsablauf, die über eine Bedin-gung gesteuert wird

(3) (Selektion) als Verallgemeinerung der Alternative sowie

(4) als eine Menge von Anweisungen mit endlicher Wiederholung.

Algorithmen, welche die Optimalität der mit ihr bestimmten Lösung nicht garan-tieren, werden als bezeichnet. Der Begriff stammt vom griechischen Wort „heuriskein“ ab, das so viel bedeutet wie „finden“ oder „entdecken“ (vgl. Voß et al. 2000, S. 553). Gegenüber exakten Algorithmen beanspruchen heuristi-sche Verfahren i.d.R. deutlich weniger Rechenzeit.5 Dieser Vorteil macht sich insb. bei immer wiederkehrenden Kalkulationen und/ oder dem Lösen komplexer Optimierungsprobleme bemerkbar. Landläufig werden Heuristiken auch als „Dau-menregel“ bezeichnet. Aus wissenschaftlicher Sicht beschreiben sie einen plausiblen Problemlösungsprozess ohne Optimalitätsgarantie.6 Vor diesem Hin-tergrund lassen sich die Problemlösungszyklen, die im Rahmen von Six Sigma zur Anwendung kommen, eher als Heuristiken klassifizieren.

4 Das EVA-Prinzip entspricht dem IPO-Prinzip bei Six Sigma-Projekten mit der Dreitei-

lung Input-Prozess-Output (vgl. Abschnitt 3.3.1). 5 Heuristische Lösungsverfahren lassen sich nach folgenden Kritieren unterscheiden (vgl.

Schmitting (1999, S. 42ff.): (a) Formale und materielle Orientierung, (b) Eröffnungs- und Verbesserungsverfahren und (c) Klassische und metaheuristische Verfahren.

6 In Theorie und Praxis werden zunehmend übergeordnete Lösungskonzepte, sog. Meta-Heuristiken (General Purpose Heuristics), entwickelt und eingesetzt. Gegenüber klas-sischen Verfahren der Nachbarschaftssuche besitzen sie den Vorteil der problem-spezifischen Anpassung (Selbstadaption) sowie die Fähigkeit der intelligenten Nutzung von verschiedenen Gedächtnisstrukturen (vgl. z.B. Marimon 1993, S. 603ff.).

Page 185: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 163

4.2 Klassische Algorithmen Nach der Klärung der wesentlichen Begrifflichkeiten werden in diesem Unterkapi-tel zunächst die klassischen bzw. konventionellen Algorithmen zur Lösung schwieriger mathematischer Probleme im Überblick dargestellt. Eine Klassifizie-rung ist dabei anhand verschiedener Kriterien möglich: Erstens nach der Art der zugrunde liegenden Problemstellung (bekannter vs. unbekannter Funktionsver-lauf), Zweitens nach dem Umgang mit umweltbezogenen Einflussgrößen (analyti-sche vs. statistische Verfahren) und Drittens nach der Genauigkeit der Lösungs-findung (exakte vs. heuristische Verfahren). Bei der Darstellung der einzelnen Methoden geht es primär um das Verständnis des Lösungsansatzes, und zwar be-zogen auf das in Unterkapitel 3.4 ausgeführte Extremwertproblem.

4.2.1 Extremwertberechnung bei bekanntem/ unbekanntem Funktions-verlauf

Es werden hier zwei Fälle unterschieden: Unter dem Punkt (a) wird auf die Ex-tremwertberechnung bei bekanntem Funktionsverlauf, d.h. analytisch bestimmter Funktion y = f(x), eingegangen. Ist die Funktion nur punktuell gegeben, dann sprechen wir von einem (analytisch) unbekannten Funktionsverlauf. Unter dieser Voraussetzung gestaltet sich die Extremwertberechnung i.A. schwieriger. Die notwendigen (Rechen-)Schritte werden im Punkt (b) kurz beschrieben.

Mit dem Sekanten- und Tangentenverfahren werden zwei Vorgehensweisen auf-gezeigt, um die optimalen Einstellwerte bei gegebener Funktion zu finden. Es wird schnell deutlich, dass das erstgenannte Verfahren eher der projektbezogenen Verbesserungsstrategie i.S.v. Six Sigma entspricht, während das Tangentenverfah-ren – auf abstrakter Ebene – sehr stark dem Ansatz der inkrementellen Verbesse-rung i.S.v. Kaizen gleich kommt (vgl. Abschnitt 2.2.1).

(a.1) Lineare Interpolation (Sekantenverfahren)

Bei der Interpolation handelt es sich um einen Algorithmus, mit dem man eine benötigte Information mit Hilfe von vorhandenen Informationen gewinnen kann. Der Begriff „Interpolation“ stammt von den lateinischen Wörtern „inter“ (dt.: zwischen) und „polare“(dt.: glätten). Im Laufe der Zeit haben sich eine Reihe von

entwickelt, die in ganz unterschiedlichen Wissenschafts-disziplinen zum Einsatz kommen (vgl. Meinardus 2003, S. 168ff.).

Ein klassisches Vorgehen zur Bestimmung des Maximums/ Minimums einer be-kannten Funktion besteht darin, den Punkt mit verschwindend geringer 1. Ablei-tung aufzufinden (Nullstellensuche). Vor diesem Hintergrund wird bei Optimie-rungsrechnungen i.d.R. die Nullstelle der 1. Ableitung der Zielfunktion als

Page 186: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

164 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

gesucht.7 Bei der linearen Interpolation als einfachstes Verfahren zum Auffinden von Nullstellen nimmt man an, dass der Zuwachs der Funktion f(x) dem Zuwachs der unabhängigen Variablen x proportional ist.

Sei x* die gesuchte Lösung für die Optimalitätsbedingung . Beim , welches in Abb. 4-1 schematisch dargestellt ist, geht man von

Werten x0 und x1 aus, die so zu wählen sind, dass y0 und y1 verschiedene Vorzei-chen haben (vgl. Göhler 1996, S. 94). Die Sekante durch die Punkte (x0; y0) und (x1; y1) schneidet dann die x-Achse in einem Punkt mit dem Näherungswert:

001

0112 ⋅

−−−= (4.4)

Das Verfahren wird mit dem Ausgangswert x1 und dem berechneten Wert x2 fort-gesetzt. Die Iterationsschleife endet, wenn eine hinreichend genaue Approximati-on von x* erreicht worden ist. In diesem Fall liegt der Funktionswert yi nahe Null bzw. hat einen vorgegebenen Grenzwert unterschritten.

Abb. 4-1: Schematische Darstellung des Sekantenverfahrens

Die Genauigkeit der Methode der Linearen Interpolation zum Auffinden von Ex-tremstellen und zugehörigen Funktionswerten ist begrenzt; deshalb wird in vielen Fällen zu komplizierteren Interpolationsformeln gegriffen, z.B. die quadratische

(vgl. Bronstein/ Semendjajew 1977, S. 1). Geht es um

7 Die Bedingung 2. Ordung bezieht sich auf die 2. Ableitung einer Funktion. Diese ist

kleiner Null, wenn es sich bei dem Extremumpunkt um ein Maximum handelt, c.p.

Basis: Göhler 1996, S. 94

Page 187: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 165

die Bestimmung von Nullstellen auf der Grundlage der Infinitesimalrechnung, dann kommt häufig das nachstehende Newton-Verfahren und darauf aufbauende Verfahren, welche die 1. und ggf. 2. Ableitung benötigen, zur Anwendung.

Zu weiteren, ableitungsfreien Algorithmen der nicht-linearen Optimierung (NLP) gehören insb. (vgl. Bhatti 2000, S. 303ff.): (a) (Ver-fahren des Goldenen Schnitts), bei dem eine konvergierende Folge von Intervall-schachtelungen zur Lösungsfindung erzeugt wird, und (b)

, welches einen speziellen Simplex-Algorithmus zur Optimierung nicht-linearer Funktionen mit mehreren Parametern darstellt.

(a.2) Newton´sches Näherungsverfahren (Tangentenverfahren)

Das Newton-Verfahren dient zur näherungsweisen einer Funktion y = f(x). Gegenüber dem unbeholfenen „Ausprobieren“ (Trial-and-Error) und der umständlichen linearen Interpolation ist der Algorithmus von New-ton elegant und wird deshalb häufig zur

verwendet. Mithilfe des Algorithmus werden die Nullstel-len der 1. Ableitung einer Zielfunktion gesucht, die bei Optimierungsrechnungen – wie oben ausgeführt – die Bedingungen 1. Ordnung darstellen.8

Zu Beginn dieses iterativen Verfahrens ist in Abhängigkeit von einem willkürlich gewählten Startwert x0, von dem ausgegangen wird, dass er in der Nähe der ge-suchten Nullstelle liegt, das Niveau f(x0) und die Ableitung f´(x0) der betrachteten Funktion zu berechnen. f´(x0) kann graphisch durch eine Tangente veranschaulicht werden, welche die Funktion f(x) an der Stelle x0 gerade berührt und – nach ent-sprechender Verlängerung die x-Achse im Punkt x1 schneidet. Infolgedessen lässt sich die Steigung f´(x0) auch durch das Verhältnis des Funktionswertes an der Stelle x0 zum Abstand zwischen x0 und x1 ausdrücken. Wenn man diesen Zusam-menhang formal abbildet und nach x1 auflöst, dann ergibt sich eine Gleichung für x1, die von bekannten Werten abhängt (vgl. Holtmann 1963, S. 228f.):

0

001 ′

−= (4.5)

x1 stellt den ersten Näherungswert zur Bestimmung der Nullstelle dar und kann als „neues x0“ die Berechnung eines weiteren Näherungswertes x1´ auslösen. Mit jedem Iterationsschritt kommt man der gesuchten Lösung etwas näher (siehe Abb. 4-2). Die Berechnung von x1-Werten nach Gleichung (4.3) ist solange fortzuset-zen, bis sich entweder ein Funktionswert f(x0´´´) ergibt, der aus der subjektiven Sicht des Verfahrensanwenders nahe genug bei Null liegt, oder bis sich die in zwei aufeinanderfolgenden Iterationsschleifen berechneten x1 aus eben dieser nur uner-heblich voneinander unterscheiden. Für die Anwendung des Näherungsverfahrens

8 Das Näherungsverfahren nach Newton wird dabei sehr oft in Verbindung mit der regula

falsi (lat.: Regel des Falschen) in Anwendung gebracht (vgl. Holtmann 1963, S. 63).

Page 188: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

166 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

muss die Zielfunktion f(x) bekannt sein bzw. wenn nicht, dann ist sie im Vorfeld durch geeignete Interpolationsverfahren zu bestimmen.

Es liegt auf der Hand, dass durch einen wohlüberlegten, bereits in der Nähe des gesuchten Lösungswertes liegenden Startwert das beschriebene Verfahren ent-scheidend verkürzt werden kann. An dieser Stelle besteht eine starke Parallelität zur Problematik des DMADV-Zyklus, ein geeignetes Design als Ausgangspunkt für die Optimierung zu finden (vgl. Unterkapitel 3.3).

Abb. 4-2: Schematische Darstellung des Tangentenverfahrens

(a.3) Lagrange´sche Multiplikatoren

Die Algorithmen, die in vorangegangenen beiden Unterabschnitten erläutert wor-den sind, beziehen sich auf die Ermittlung eines lokalen Optimums bei einer ge-gebenen Zielfunktion ohne Restriktionen (sog. unrestringierte Optimierung). Im anderen Fall, bei , geht es um die Maximierung oder Minimierung einer Zielfunktion unter Berücksichtigung von mindestens einer Nebenbedingungen. Letztere wird, wie in Abschnitt 4.1.1 ausgeführt, in Form von Gleichheits- bzw. Ungleichheitsbedingungen formuliert.9

9 Optimierungsprobleme unter Beachtung von Restriktionen sind sowohl auf dem Gebiet

der Ingenieur- als auch der Managementwissenschaften, speziell Operations Research, vielfach anzutreffen. Ausprägungen sind z.B. die nicht-lineare und stochastische Pro-

Basis: Göhler 1996, S. 94

Page 189: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 167

Eines der wichtigsten Werkzeuge zur Lösung dieser Art von Optimierungsprob-lemen ist die (vgl. Jarre/ Stoer 2004, S. 230). Sie dient dazu, ein „gewisses Gleichgewicht“ zwischen der Zielfunktion und den Nebenbedin-gungen zu beschreiben. Zu diesem Zweck bildet man eine Hilfsfunktion )( , welche die gewogene Summe der Differenzen zwischen den linken und den rech-ten Seiten der Nebenbedingungen enthält. Als Gewichte treten in dieser Summe die unbestimmten Multiplikatoren λ1, λ2, ..., λm auf; diese werden auch als

bezeichnet. Der erste Bestandteil der Lagrange-Funktion ist die Funktion )( , deren Extremum zu bestimmen ist:

[ ]=

−⋅−=1

)()(),( λλ (4.6)

),( λ besitzt die Eigenschaft, dass im Fall, dass sich die Werte der (unabhängi-gen) Variablen x1, x2, ..., xn im Bereich der zulässigen Lösungen befinden, die in Gleichung (4.6) unter dem Summenzeichen auftretenden Ausdrücke verschwin-den. Den Gleichungen, welche die Nebenbedingungen ausdrücken, wird genügt. Im Bereich der zulässigen Lösungen besitzt also die Lagrange-Funktion ),( λ dieselben Werte wie die Zielfunktion )( . Vor diesem Hintergrund kann die Aufgabe zur Bestimmung des Extremums der Funktion unter Nebenbedingung (4.1) durch die Bestimmung des Extremums der gewöhnlichen Funktion (4.6) ersetzt werden, da man im Bereich der zulässigen Lösungen die Funktion )(

durch ),( λ ersetzen kann (vgl. Lange 1964, S. 60).

Die in der Hilfsfunktion )( enthaltenen Langrange´schen Multiplikatoren sind die Gewichte für die Überschreitungen der einzelnen Bilanzlimite cj. Dabei han-delt es sich z.B. um vorgegebene Kosten- und Zeitbudgets, welche als Restriktio-nen in die Optimierung einfließen. Die Werte für die Multiplikatoren λ sind bei Erreichen des Extremumpunktes durch die Lagrange-Funktion bestimmt. Sie kön-nen als für das Überschreiten der einzelnen Bilanzlimite interpretiert werden, also z.B. um wie viele Einheiten das Zielniveau steigt, wenn das Unternehmen eine Geldeinheit mehr zur Verfügung hat.

Die Lagrange-Multiplikatoren10 spielen bei der eine bedeutende Rolle. Nach Schittkowski (1999, S. 5) ist davon

auszugehen, dass ein vergleichbarer Aufwand zur Approximation der optimalen Multiplikatoren betrieben wird wie zur Approximation der Optimallösung. Ein

grammierung. Diese sind mit konventionellen Optimierungstechniken i.A. schwierig zu lösen (vgl. Gen/ Cheng 1997, S. 42).

10 Eine Verallgemeinerung der Lagrange-Multiplikatoren stellen die Karush-Kuhn-Tuc-ker-Bedingungen (KKT-Bedingungen) als notwendige Optimalitätsbedingungen für konvexe Optimierungsprobleme dar (vgl. Jarre/ Stoer 2004, S. 228ff.).

Page 190: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

168 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

weiterführendes Optimierungsverfahren, um NLP-Probleme zu lösen, ist z.B. das (SQP). Dieses basiert auf der sukzessiven Lösung

quadratischer Teilprobleme, die durch eine quadratische Approximation der La-grange-Funktion und eine Linearisierung der Restriktionen entstehen.

In diesem Fall ist die analytische Funktion zunächst approximativ zu bestimmen, um die vorstehend genannten Optimierungsverfahren anwenden zu können. Typische Näherungsverfahren sind die Newton´schen Interpolationsformeln, die Taylor´schen Polynome und das Gauß´sche-Kleinst-Quadrate-Prinzip.

(b.1) Newton´sche Interpolationsformeln

In der Unternehmenspraxis ergibt sich häufig die Aufgabe, aus einer Anzahl vor-gegebener Wertepaare (x0; y0), (x1; y1), ..., (xn; yn) einer Funktion y = f(x) eine ganzrationale Funktion y = g(x) zu bestimmen, welche die vorgegebenen Werte-paare enthält.11 Die vorgegebenen Argumentwerte x0, x1, ..., xn heißen Stützstel-len; die ihnen zugeordneten Funktionswerte y0, y1, ..., yn heißen Stützwerte der Funktion. Legen wir das Interpolationsverfahren zugrunde, dann wird für y = g(x) gefordert: yi = f(xi) = g(xi). für i = 0, 1, ..., n (vgl. Leupold et al. 1971, S. 62f.).

Die klassische Interpolationsformel geht auf ISAAC NEWTON (1642-1727) und ist auch als „Newton’sche Generalformel“ bekannt. Zur Abschätzung von f(x) wird ein Polynom n-ten Grades gebildet, wobei die Werte der Funktion f(x) an den Stellen x0, x1, ..., xn gegeben sind und die Werte von f(x) an den Stellen x ε R mit folgendem ganzrationalen Näherungsansatz gesucht werden:

)110

102

01

0

−−⋅⋅−⋅−⋅++−⋅−⋅+

−⋅+=

(4.7)

Der Vorteil dieser Form des Ansatzes besteht darin, dass für die Berechnung der Koeffizienten a0, a1, ..., an, ein entsteht, das i.A. sehr einfach zu lösen ist, denn es gilt: y0 = a0, y1 = a0 + a1 ⋅ (x1 – x0), y2 = a0+ a1 ⋅ (x1 – x0) + a2 ⋅ (x2 – x0) ⋅ (x2 – x1), usw. Wenn die x0, x1, ..., xn und die y0, y1, ..., yn von der Aufgabenstellung her bekannt sind, dann las-sen sich aus diesem gestaffelten Gleichungssystem rekursiv die unbekannten Ko-effizienten a0, a1, ..., an der Reihe nach berechnen.12 Da die Berechnung der Koef-

11 Z.B. sind für eine Maschine im Fertigungsprozess die Werte der Outputmessgröße für

unterschiedliche Parametereinstellungen bekannt. 12 Dabei ist jedoch nicht gesagt, dass je mehr Wertepaare vorgegeben sind, desto genauer

die a priori unbekannte Funktion f(x) geschätzt werden kann. Einen Überblick über die Approximationstheorie, insb. die beste Annäherung nicht-elementarer Funktionen mit-tels Polynome oder durch rationale Funktionen, gibt Meinardus (2003, S. 168ff.).

Page 191: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 169

fizienten a0, a1, ..., an mit wachsender Anzahl von Stützstellen immer umständli-cher wird, wurden entwickelt, mit deren Hilfe die Koeffizienten sehr einfach und in schematischer Weise ermittelt werden können.

Für jede in einem abgeschlossenen Intervall stetige Funktion lässt sich eine ganz-rationale Näherungsfunktion in der beschriebenen Weise angeben. Der Grad der zu behandelnden Näherungsfunktion ist für die Berechnung von untergeordneter Bedeutung, da bei Benutzung des nur Addition und Multiplikati-on als Rechenoperationen zur Bestimmung der Funktionswerte der ganzrationalen Funktion erforderlich sind.13 Bezogen auf das betriebliche Umfeld bedeutet dies, dass z.B. bei einer Maschine ausgehend von der Grundeinstellung unterschiedli-che Inputwerte realisiert werden und die jeweiligen Outputwerte gemessen wer-den.14 Die Newton´sche Interpolation nach Gleichung (4.7) lässt sich noch weiter vereinfachen, wenn Stützstellen mit gleichen Abständen, sog.

, vorliegen (vgl. Leupold et al. 1971, S. 62f.).

Genau dieses Vorgehen macht sich das bei der Lösung nicht-linearer Minimierungsprobleme zu nutze. Unter der Voraussetzung, dass die zu minimierende Zielfunktion die spezielle Gestalt des Normquadrates einer vek-torwertigen Funktion hat, kann die Gleichung (4.10) in jedem Schritt durch eine lineare Näherung ersetzt werden (vgl. Jarre/ Stoer 2004, S. 186f.). Auf die Darstel-lung mathematischer Details soll hier verzichtet werden.

In entsprechender Weise definiert man die Differenzen 1., 2., ..., k-ter Ordnung für die den Stützstellen xi zugeordneten Stützwerte yi. Aus der Differenz k-ter Ord-nung wird rücklaufend (rekursiv) die Differenz (k+1)-ter Ordnung definiert, wobei gilt: Δk+1yi = Δkyi+1 – Δkyi. Sind die Werte der Funktion f(x) an den Stellen x0, x0 ± Δx, ..., x0 ± i ⋅ Δx, ..., x0 ± n ⋅ Δx gegeben, dann lassen sich die Werte von f(x) an beliebigen Stellen x0 + t ⋅ Δx mit t ε R wie folgt ermitteln:

13 Ein weiterer Vorzug des ganzrationalen Näherungsverfahrens nach WILLIAM GEORGE

HORNER (1786-1837) besteht darin, dass man durch geeignete Wahl des Grades n und der Koeffizienten ai erreichen kann, dass die Abweichungen von der anzunähernden Funktion unter einer beliebig kleinen vorgegebenen Schranke bleiben.

14 Die Modellierung von glatten Kurven erfolgt in der Praxis häufig durch sog. Spline-In-terpolationen [Engl.: Spline für „biegsames Kurvenlineal“]. Dabei werden zwischen den Stützstellen meist einfache Funktionen (z.B. lineare, quadratische und kubische Polynome) benutzt und an den Nahtstellen durch Glättungsbedingungen (z.B. Stetigkeit der Ableitungen höherer Ordnung) so aneinandergesetzt, dass die Gesamtkrümmung des Kurvenverlaufs minimal ist (vgl. Nürnberger et al. 2003).

15 Zu diesem Zweck werden Differenzen gebildet, wie sie auch bei anderen numerischen Verfahren eine Rolle spielen. Sind die Stützstellen x0, x1, ..., xn äquidistant, dann ist der Abstand zweier benachbarter Stellen Δx = const. und es gilt: xi = x0 + i ⋅ Δx

Page 192: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

170 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

0

02

0

00

112

111

⋅+−−⋅+

+⋅−⋅+

⋅+

=⋅+

(4.8)

Die Gleichung (4.8) beschreibt die bekannte für Daten mit homogenem Intervall. Zur Interpolation einer Verteilung n-ter

Ordnung wird die Berechnung der Differenzen bis zur n-ten Ordnung benötigt. Die Faktoren vor den Differenzen sind die jeweiligen . Die Genauigkeit beim Abschätzen von funktionellen Zusammenhängen und dem Auf-finden von Extremwerten ist bei den vorstehend genannten Verfahren abhängig von der Schrittweite, d.h. der Differenz zwischen jeweils zwei Werten der unab-hängigen Variable. Im Folgenden wird auf die Infinitesimalrechnung übergegan-gen, welche die Ermittlung von erfordert.

(b.2) Taylor´sche Polynome

In der Analysis verwendet man häufig Taylor-Reihen, um Funktionen in der Um-gebung bestimmter Punkte durch Polynome abzuschätzen bzw. anzunähern. Die Taylor-Reihe einer Funktion f(x) in einem Punkt x0 ist die

an diesem Punkt. Ist eine Funktion in einer Umgebung von x0 (n+1)-mal stetig differenzierbar, dann heißt die Entwicklung der Funktion f(x) nach Potenzen von x die Taylor-Reihe mit dem Entwicklungspunkt x0:

⋅+

+⋅+

⋅+

=+

0

20

0

00

2

1

(4.9)

Die nach Gleichung (4.9) impliziert, dass der Funkti-onswert an einer beliebigen Stelle x durch den Funktionswert und die n-Ableitungen an der festen Stelle x0 ausgedrückt werden kann (vgl. Göhler 1996, S. 95). Eine gegebene Funktion nach Potenzen der unabhängigen Variablen x zu

Page 193: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 171

entwickeln ist eine elegante Möglichkeit, komplizierte Rechnungen zu umgehen und Kurvenabschnitte beliebig genau abzuschätzen.16

Für die Summe der ersten beiden Terme der Gleichung stellt die Taylor-Reihe eine „Linearisierung von f(x) an der Stelle x0“ dar. Aussagen zur Abweichung des Taylor´schen Polynoms von den Funktionswerten der zu approximierenden Funk-tion sind über die Berechnung des sog. Restglieds möglich. Es gibt den Fehler an, wenn f(x) durch ein Polynom n-ten Grades ersetzt wird.

Modellfunktionen zur Zielwertbestimmung, die im Rahmen der modellbasierten Optimierung mit mathematischen Methoden zugrunde gelegt werden, basieren häufig auf einem Taylor-Reihenansatz n-ter Ordnung (vgl. Peters et al. 1999, S. 128). So wird bspw. beim 17 im aktuellen Punkt xk ein quadratisches Modell der Zielfunktion f(x) gebildet. Das Minimum dieser Funkti-on, welches man durch Nullsetzen des entsprechenden Gradienten f´(x) erhält, dient der Bestimmung einer Suchrichtung sk = x – xk für die Zielfunktion.

Zur Bestimmung von sk werden neben den ersten partiellen Ableitungen der Ziel-funktion auch Approximationen der inversen Hesse-Matrix A-1 als Bedingung 2. Ordnung herangezogen. Da i.d.R. kein analytischer Ausdruck der Zielfunktion gegeben ist, erfolgt die Berechnung der Ableitungen numerisch durch Differen-zenquotienten. Die Ermittlung von A-1 geschieht näherungsweise über Summati-onsformeln, z.B. nach der von Broyden-Fletcher-Goldfarb-Shanno (1987) oder der von Davidon-Fletcher-Powell (1963).

Ein neuer Punkt xk+1 wird durch Liniensuche entlang der Suchrichtung sk nach der Iterationsformel xk+1 = xk + tk ⋅ sk bestimmt. Die Schrittweite tk wird für die Suche nach einem Minimum so eingestellt, dass für die Zielfunktion gilt: f(xk+1) < f(xk). Dabei kann eine Schrittweitensteuerung durch eindimensionale Suchalgorithmen, z.B. dem nach Armijo/ Goldstein (1965/66), realisiert wer-den. Die Anzahl der Iterationen für die Bestimmung des Optimums ist um so geringer, je weniger Glattheitseigenschaften die Funktion erfüllen muss. Für eine effiziente Lösungssuche ist bei der Wahl des Schrittweitenalgorithmus sowohl auf die Struktur des zu lösenden Problems als auch auf die des übergeordneten Opti-mierungsverfahrens Rücksicht zu nehmen (vgl. Schittkowski 1999, S. 18).

16 Im Sonderfall x0 = 0 wird die Taylor-Reihe auch als Maclaurin´sche Form der Reihe

von Taylor bezeichnet. Notwendige Bedingung hierbei ist, dass f(x) an der Stelle x0 = 0 einen endlichen Funktionswert besitzt und beliebig oft differenzierbar ist.

17 Bei Quasi-Newton-Verfahren soll auf die z.T. aufwendige Berechnung zweiter Ablei-tungen als hinreichende Optimalitätsbedingungen verzichtet werden. Die Suchrichtung wird durch Multiplikation des Gradienten mit einer sog. Quasi-Newton-Matrix berech-net (vgl. Jarre/ Stoer 2004, S. 173).

Page 194: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

172 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

(b.3) Gauß´sche Kleinst-Quadrate-Schätzung (LSM)

Wenn zur Bestimmung unbekannter Größen und Abhängigkeiten mehrere Mes-sungen als notwendig erachtet werden, dann handelt es sich i.A. um statistische Problemstellungen, bei denen zur Anwendung kommen. Für die im Rahmen von Messungen erhobenen Beobachtungsdaten werden

gesucht, welche wirksam und erwartungstreu sind (vgl. hierzu insb. Bamberg/ Baur/ Krapp 2007, S. 147). Eine Schätzfunktion heißt erwartungs-treu oder unverzerrt für einen bestimmten Parameter, wenn der Erwartungswert der Funktion in der Nähe des tatsächlichen Wertes liegt; es gilt:

• Das ⎯x einer Stichprobe ist ein erwartungstreuer Schätzer und zugleich der wirksamste für den Erwartungswert μ einer N(μ; σ)-verteilten Grundgesamtheit.

• Die einer Stichprobe ist ein erwartungs-treuer Schätzer und zugleich der wirksamste für die Varianz σ2 einer N(μ; σ)-verteilten Grundgesamtheit.

Zur Ermittlung von Schätzwerten/ -funktionen, die sich den Messungen am besten anpassen, existieren allgemeine analytische Vorgehensprinzipien. Sie basieren i.d.R. auf der . Für eine gesuch-te Größe erhält man die jeweils günstigsten oder ausgeglichensten Werte, wenn die Beobachtungen mit Verbesserungen versehen werden, welche die auftretenden Widersprüche beseitigen und die Summe der Quadrate der Verbesserungen mini-mieren. Durch die Anwendung der (LSM – Least Squares Method), die auf den deutschen Mathematiker CARL F. GAUß (1777-1855) zurückgeht, lassen sich in vielen Situationen sinnvolle Schätzfunktionen explizit erzeugen.18 Dies gilt insb. für die Schätzung von Erwartungswerten und die Schätzung von Regressionskoeffizienten (vgl. Abschnitt 4.2.2):

(a) Sind x1, x2, ..., xn die Beobachtungswerte einer einfachen Stichprobe aus einer Grundgesamtheit G, dann lässt sich als geeigneter

μ derjenige Wert ansehen, durch den die Summe der Ab-standsquadrate zwischen den (empirischen) Beobachtungswerten xi und dem möglichen (geschätzten) Parameterwert μ minimiert wird:19

18 Neben der Kleinst-Quadrate-Schätzfunktion, die verteilungsunabhängig ist, gibt es eine

Reihe von weiteren Schätzfunktionen zur Schätzung eines unbekannten (ein- oder mehrdimensionalen) Parameters υ der gemeinsamen Verteilung von Stichprobenvari-ablen , z.B. Max-Likelihood- und Bayes-Schätzfunktion. Letztere bezieht sowohl die Stichproben- als auch die Vorab-Informationen in die Schätzung ein. Das Max-Likelihood-Prinzip geht ebenfalls auf C.G. Gauß (1821) zurück und wurde insb. von R.A. Fisher (1922) energisch propagiert (vgl. Bamberg et al. 2007, S. 153).

19 Durch Nullsetzen der 1. Ableitung der nach μ umgestellten Gleichung (4.10) erhält man das Stichprobenmittel⎯x als Kleinst-Quadrate-Schätzfunktion für μ. Diese und weitere mathematische Zusammenhänge sind in den Abhandlungen zur Methode der kleinsten Quadrate von Carl F. Gauss nachzulesen (vgl. Börsch/ Simon 1986).

Page 195: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 173

2

1

min −=

(4.10)

(b) Sind (x1, y1), (x2, y2), ..., (xn, yn) Paare von Beobachtungswerten zu zwei Merkmalen X und Y, dann sind unter der Maßgabe, dass die y-Werte bis auf zufällige Schwankungen linear von den x-Werten abhängen, yi als Realisie-rungen von Zufallsvariablen Yi mit den Erwartungswerten E(Yi) = a + b ⋅ xi anzusehen. Die und können anhand der Stich-probenergebnisse y1, y2, ..., yn über LSM geschätzt werden.

Obwohl die Vorgehensweise nach Gauß eine gewisse Willkürlichkeit beinhaltet, hat sie sich in der Statistik und Wahrscheinlichkeitsrechnung seit über 150 Jahren bewährt und konnte bisher durch kein besseres Verfahren ersetzt werden. LSM dient vor allem zur Lösung der folgenden drei Problemstellungen:

• , bei denen die gesuchten Größen, z.B. Weg und Zeit, direkt gemessen werden

• , bei denen die gesuchten Größen, z.B. Geschwindigkeit, nicht unmittelbar gemessen, sondern aus anderen ge-messenen Größen abgeleitet werden

• , bei denen zwischen den gemessenen Größen Bedingungen bestehen, die streng erfüllt werden müssen, z.B. die Summe der Winkel in einem Dreieck beträgt 180°.

4.2.2 Analytische vs. statistische Verfahren zur Extremwertberechnung

(a.1) Lineare Optimierung (LP)

Die stellt das wohl bekannteste und in der Praxis am häufigsten genutzte Verfahren für Optimierungsrechnungen mit linearen Zielfunktionen und linearen Randbedingungen dar (vgl. u.a. Dantzig/ Thapa 1997; Chvátal 1983). Allerdings beschränkt sich ihre Anwendung auf die Lösung von Problemen, die sich über lineare Gleichungen mit metrischen Entscheidungsvariablen20

darstellen lassen. Hierzu wird eine lineare Zielfunktion (Z)

⋅++⋅+⋅+== ...)( 22110 (4.11) mit n Variablen unter bestimmten linearen Nebenbedingungen (NB) der Form

20 Entscheidungsvariablen, z.B. , werden im Folgenden kursiv geschrieben in Abgren-

zung zu einzelnen Beobachtungswerten einer Variable, z.B. x1.

Page 196: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

174 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

≤⋅++⋅+⋅

≤⋅++⋅+⋅

......

...

21211

11212111

sowie Nichtnegativitätsbedingungen (NNB)

0,...,01 ≥≥ gelöst, d.h. maximiert oder minimiert (vgl. Göhler 1996, S. 17ff.).

Bei der Simplex-Methode handelt es sich um ein , bei der die gesuchte Optimallösung nicht in einem Rechenschritt, sondern in mehreren Schrit-ten erhalten wird (vgl. Bhatti 2000, S. 339ff.). Das Verfahren beruht im Grunde genommen auf der „Methode der Eckenprüfung“, denn ein Simplex ist eine geo-metrische Figur, die in n Dimensionen 1 + n Eckpunkte besitzt (z.B. Dreieck in 2D, Tetraeder in 3D). Im Rahmen des werden die Ecken des Lösungspolyeders schrittweise überprüft, wobei jeder Eckpunkt einem Parameter-vektor entspricht. Dies ist i.d.R. einfach, weil die Anzahl der Ecken durch die Zahl der Neben-/ Randbedingungen bestimmt wird, und es oft nur wenige Bedingungen sind, die das Aussehen des Lösungsvielecks tatsächlich determinieren. Ausgehend von einer zulässigen Basislösung wird durch geeignetes Umformen des Glei-chungssystems gewissermaßen von Eckpunkt zu Eckpunkt des Lösungspolyeders vorangeschritten. Über das Umformen wird der Wert der Zielfunktion solange verbessert, bis das Optimum erreicht ist.

Für den 2- und 3-dimensionalen Fall kann die Lösung graphisch erfolgen, wie es im x2-x1-Diagramm in Abb. 4-3 für ein Maximierungsproblem veranschaulicht ist. Die Zielfunktion y = f(x1, x2) stellt in diesem speziellen Fall eine Ebene dar; der zulässige Bereich wird durch zwei NB begrenzt. Besitzt die Zielfunktion mehr als drei unabhängige Variablen, dann erfolgt die Lösungsfindung analytisch über das Aufstellen eines sog. (optimalen) . Dazu ist zunächst die Nor-malform des linearen Optimierungsproblems (LP) zu bilden, auf dessen Basis das erste Simplex-Tableau erstellt wird. Beim gewöhnlichen Simplex-Verfahren be-steht die Zielsetzung darin, dieses erste Tableau durch die Anwendung bestimmter Regeln in ein entscheidbares Tableau zu überführen. Nach dem Hauptsatz der linearen Optimierung existiert stets ein entscheidbares Simplex-Tableau, das mit endlich vielen Schritten des Simplex-Verfahrens erreichbar ist, wenn das LP min-destens eine zulässige Lösung besitzt (vgl. Nollau 1993, S. 85).

Die lineare Optimierung ist ein Teilgebiet der Optimierungsrechnung, die als Hilfsmittel zur optimalen Entscheidungsfindung bei mehr oder weniger kompli-zierten Problemstellungen dient. Neben der LP gehören die nicht-lineare und dy-namische Optimierung sowie bestimmte Methoden der Wahrscheinlichkeitsrech-nung und der mathematischen Statistik zu den

. Viele Lösungsverfahren der nicht-linearen Optimierung basieren auf der Differentialrechnung. Letztere ist für die Ermittlung des Maximums bzw. Mini-

Page 197: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 175

mums einer linearen Funktion unter einschränkenden Bedingungen für die Vari-ablenbelegung – wie es beim Simplex-Tableau der Fall ist – nicht geeignet. Denn lineare Funktionen sind zwar differenzierbar, da aber ihre erste Ableitung stets konstant ist, kann die für einen Extremwert bestehende notwendige Bedingung nicht erfüllt werden (vgl. Ose 1973, S. 119).

Abb. 4-3: Graphische Lösung eines linearen Optimierungsproblems (Beispiel)

Seit Karmarkar (1984) hat sich mit der eine weitere Klas-se von Verfahren zur Lösung von LO etabliert (vgl. Jarre/ Stoer 2004, S. 67f.). Sie arbeitet jedoch mit Techniken der nicht-linearen Optimierung, auf die im folgen-den Unterabschnitt kurz eingegangen wird. Der Vorteil der Innere-Punkte-Metho-de liegt vor allem darin, dass sie gegenüber dem Simplex-Algorithmus weder praktisch noch theoretisch eine exponentielle Anzahl von Rechenschritten zum Auffinden einer hinreichend exakten Näherungslösung benötigt (vgl. Khachiyan 1979). Wie der Name schon sagt, geht die Methode nicht von den Ecken der zu-lässigen Menge (Lösungspolyeder) aus, sondern nähert sich der Optimallösung vom „Innern“ her. Diese Annäherung basiert auf der Lösung eines Gleichungssys-tems nach dem oben beschriebenen Newton-Verfahren.

(a.2) Nicht-lineare Optimierungsverfahren (NLP-Verfahren)

Wenn die Zielfunktion explizit als mathematischer Ausdruck formuliert ist, lässt sich auch bei komplexen Problemstellungen versuchen, das Optimum analytisch zu bestimmen. Jedoch ist aus der Algebra bekannt, dass dies schon bei relativ einfachen Funktionen, wie z.B. Polynomen höheren Grades, nicht gelingt. Eine

dieses Problems ist die randomisierte Wahl von Elementen des Suchraums. Letzterer wird durch die Menge der potenziellen Kombinationen der Eingangsgrößen charakterisiert, z.B. die Verteilung von n Aufgaben auf m Ma-

(4)

(3)

(2) ⋅⋅⋅⋅

(1) ⋅⋅⋅⋅

Quelle: Nollau 1993, S. 85

Page 198: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

176 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

schinen. Ein Element des Suchraumes ist eine mögliche Zuordnung aller gegebe-nen Aufgaben auf alle gegebenen Maschinen. Das Verteilen von n Aufgaben auf m Maschinen entspricht hierbei n Ziehungen mit Wiederholung aus einer Urne mit m Elementen (vgl. Feltl 2003, S. 15).

Wenn man bedenkt, dass die Größe des Suchraums S = mn beträgt, dann ist es eher unwahrscheinlich, dass komplexe Probleme mit in einer annehmbaren Zeit zu lösen sind. Nicht selten wird deshalb die Kenntnis gewisser Eigenschaften, z.B. Stetigkeit und Differenzierbarkeit der Zielfunktion, genutzt, um ein numerisches Verfahren zur Lösung eines solchen Problems zu entwickeln. Man sagt, ein Optimierungsalgorithmus besitzt ein „inneres Modell der Zielfunktion“, wenn die zu bearbeitende Zielfunktion die vom Algorithmus unterstellten Annahmen erfüllt (vgl. Sprave 1999, S. 9).

Im Umkehrschluss bedeutet dies: Wendet man den Algorithmus auf ein Problem an, das nicht die Charakteristika des inneren Modells aufweist, so wird er aller Wahrscheinlichkeit nach versagen. So startet z.B. das bekannte

an einem Punkt im Suchraum und ermittelt anhand der partiellen Ablei-tungen in diesem Punkt gewissermaßen einen Vorschlag für die Lage des Opti-mums. Ist die Zielfunktion quadratisch, entspricht sie dem inneren Modell des Verfahrens; das Optimum wird dann in einem Schritt gefunden. Besitzt die Ziel-funktion hingegen mehrere lokale Optima, so hängt es vom gewählten Startpunkt ab, welches der Optima vom Verfahren detektiert wird.

Um von einem Lösungsvorschlag aus das nächste Maximum zu finden, wird beim Newton-Raphson-Verfahren und ähnlichen Verfahren der der zu opti-mierenden, multimodalen Zielfunktion )( verwendet:

∇∂∂

∂∂= )(),...,(:)(

1 (4.12)

Dieses Vorgehen wird auch als „Bergsteigen“ bzw. „Hill climbing“ bezeichnet. Um die Art des (lokalen) Extremums zu bestimmen, ist die 2. Ableitung der Funk-tion zu berechnen. Allgemein ist dazu die zu lösen:

∇2

,...,2,1,

2

)(:)(=

∂∂∂= (4.13)

Die Gleichungen (4.12) und (4.13) geben keine Auskunft darüber, ob das gefun-dene Maximum global ist. Außerdem beschränkt sich die Anwendung auf stetig differenzierbare Funktionen. Im Rahmen von ist der Funk-tionswert )( ein Bewertungsmaßstab für die Erwünschtheit unterschiedlicher Lösungen in der Population (vgl. Voß et al. 2000, S. 556). Bei restringierten NLP ist zusätzlich die KKT-Bedingung als notwendige Bedingung 2. Ordnung zu erfül-

Page 199: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 177

len. Sie besagt, dass bei einem Minimum der Gradient der Zielfunktion eine posi-tive Linearkombination der Gradienten der aktiven Restriktionen ist.21

Wie in Abb. 3-12 bereits skizziert worden ist, wird bei einer unimodalen Funktion ausgehend von der suboptimalen Lösung x0 das x* gesucht. Zwischen Start- und Zielwert liegt das x1, dass bei klassischen Suchverfahren u.U. als beste Lösung detektiert wird. Nur wenn zwischenzeitlich Verschlechterungen zugelassen werden, z.B. im Punkt (xM; yM), kann das globale Optimum im Punkt (x*; y*) letztendlich aufgefunden werden.22

Die Algorithmen, die im Rahmen der NLP i.A. zum Einsatz kommen, können in globale, lokale, direkte und indirekte Ansätze unterteilt werden. Das Quasi-New-ton-Verfahren gilt hierbei als ; die Anwendung des Algorithmus erlaubt das Auffinden lokaler Extrema, und zwar indirekt über die Ermittlung des funktionellen Zusammenhangs zwischen abhängiger und unabhän-giger Variable(n). Zu den gehören u.a. der Simplex-Algorithmus nach Nelder/ Mead (1965), das Verfahren der rotierenden Koordina-ten nach Rosenbrock (1960) und das Complex-Verfahren von Box (1965). Letzt-genannte arbeiten ableitungsfrei und sind somit robuster als die ableitungsbasier-ten indirekten, lokalen Verfahren (vgl. Peters et al. 1999, S. 127).

Die bis hierin dargestellten mathematischen Verfahren kommen vorzugsweise bei gut strukturierten Problemen mit bekanntem Funktionsverlauf zum Einsatz. Bei schlecht strukturierten Problemen mit unbekanntem Funktionsverlauf haben sich vor allem bewährt. Zu dieser Gruppe gehören u.a. die Evolutionären Algorithmen, die in Unterkapitel 4.3 vorgestellt und gegen-über den klassischen Verfahren abgegrenzt werden. Direkte und indirekte Lö-sungsverfahren, die auch als exakte und heuristische Verfahren bezeichnet wer-den, sind Gegenstand des nachfolgenden Abschnittes.

Unterschiedliche Forschungseinrichtungen konzentrieren sich i.d.R. auf eines der vorstehend genannten Verfahren. Unabhängig von der Verfahrenswahl unterliegt jeder Optimierungsprozess Beschränkungen der Designparameter. Das heißt, es sind prozesstechnische Randbedingungen zu beachten, die den Gültigkeitsbereich des Modells einschränken. Als kritisches Element gelten üblicherweise die zeit-aufwendigen Simulationen, die zur Auswertung der Zielfunktion jeweils erforder-lich sind. Deshalb stellt die Anzahl der Iterationen, die zur Eruierung der Zielfunk-tion benötigt werden, das zentrale Bewertungskriterium neben der erzielten Güte der Ergebnisse dar (vgl. Peters et al. 1999, S. 128).

21 Für Verfahrensdetails sei an dieser Stelle auf die einschlägige Literatur verwiesen (vgl.

u.a. Jongen et al. 1986; Wimmer/ Chattergy 1978). 22 Werden unter allen Zügen/ Transformationen im Lösungsraum jeweils die mit der

größten positiven Veränderung gewählt, dann bezeichnet man dies als „Verfahren des steilsten Anstiegs“ (vgl. Voß et al. 2000, S. 554).

Page 200: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

178 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Testergebnisse23 deuten darauf hin, dass der hinsicht-lich Konvergenzsicherheit und -geschwindigkeit bei der Zielfunktionsberechnung unabhängig von der geforderten Genauigkeit ist. Wie bereits oben angesprochen, steht diesem Vorteil der Nachteil gegenüber, dass von diesem Algorithmus globa-le Optima nur relativ unzuverlässig detektiert werden. Außerdem stoßen die alge-braischen Verfahren nach Newton et al. bei schwierigen, d.h. komplexen Optimie-rungsaufgaben mit großem Suchraum, schnell an ihre Grenzen.

Die Korrelations-/ Regressionsanalyse sowie die nachfolgend beschriebene Statis-tische Versuchsplanung (DOE) stellen die Kernmethoden im Rahmen von Six Sigma-Projekten dar. Sie werden vor allem in der Analyse- und Improve-Phase des DMAIC-Zyklus eingesetzt, um die Ursachen-Wirkungsbeziehungen zwischen ein oder mehreren Einflussgrößen sowie ein oder mehreren Zielgrößen

offen zu legen und funktionell zu beschreiben.

(b.1) Lineare und nicht-lineare Regression

Die Regressionsanalyse24 ist den multivariaten statistischen Methoden zu zuord-nen. Sie untersucht die einseitig gerichtete Abhängigkeit zwischen mind. zwei metrisch-skalierten Merkmalen bzw. Variablen (vgl. Eckstein 1999, S. 217ff.). Je nachdem, ob ein linearer oder nicht-linearer Funktionszusammenhang unterstellt werden kann, gelangt man zur linearen Regression oder zur nicht-linearen Regres-sion. In Abhängigkeit von der Anzahl einbezogener unabhängiger bzw. erklären-der Variablen wird weiterhin zwischen einfacher und multipler Regression unter-schieden. Insgesamt ergeben sich dadurch vier Anwendungsfälle.

Der Hintergrund für die Anwendung der ist folgen-der: Ermittelt man durch Messungen zwei Wertepaare P1(x1; y1) und P2(x2; y2), dann lassen sich aus den Gleichungen y1 = a + b ⋅ x1 und y2 = a + b ⋅ x2 die Para-meter a und b eindeutig berechnen; geometrisch veranschaulicht wird also durch zwei Punkte eine Gerade gelegt. Bei Vergrößerung der Anzahl der Messungen erhält man sich widersprechende Gleichungen yi = a + b ⋅ xi; geometrisch bedeutet dies, dass die zu den Wertepaaren (xi; yi) gehörigen Punkte Pi nicht exakt auf einer Geraden liegen, sondern mehr oder weniger stark um diese streuen.

23 Als Testbeispiele für die Überprüfung der Leistungsfähigkeit von Optimierungsverfah-

ren werden verwendet (vgl. Schittkowski et al. 1994): (a) Künstliche Probleme (z.B. Rosenbrock-Problem), (b) Anwendungsorientierte Probleme (z.B. Reaktorentwurf) und (c) Zufällig erzeugte Probleme (z.B. Polynome n. Grades).

24 Im Gegensatz zur Korrelationsanalyse, bei der die beiden Merkmale bzw. Variablen x und y als unabhängig voneinander betrachtet werden, handelt es sich bei der Regres-sionsrechnung um eine Abhängigkeits- bzw. Dependenzanalyse mit mind. einer ab-hängigen und einer unabhängigen Variable. Aus diesem Grund ist bei der Anwendung der Regressionsanalyse zu beachten, dass zwischen den einbezogenen Variablen x und y logisch begründbare Kausalitäten/ Ursachen-Wirkungsbeziehungen bestehen.

Page 201: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 179

Die Aufgabe besteht nun darin, möglichst „günstige“ Werte für a und b zu finden, so dass sich geometrisch eine Gerade ergibt, die den vorliegenden Messpunkten am besten angepasst ist. Nach der oben beschriebenen Methode der kleinsten Quadrate (LSM) ist die Gerade y = a + b ⋅ x dann der Punktwolke im Streuungs-diagramm am besten angepasst, wenn die zwischen yi und a + b ⋅ xi minimal ausfällt. Wie gut die Anpassung (der „Fit“) ist, wird über statistische Gütemaße, z.B. Bestimmtheitsmaß R2, beurteilt.25

Die allgemeine Aussage, „günstige Werte zu finden“ bzw. „Werte, die sich den Messungen am besten anpassen“, lässt sich in entsprechender Weise auch für die multiple lineare sowie (multiple) nicht-lineare Regression26 präzise analytisch formulieren. Zu diesem Zweck sind die Parameterwerte einer Funkti-on ),(= , die stetig partiell differenzierbar ist, so zu bestimmen, dass sich die Funktion möglichst genau den gegebenen Punkten Pk(xi; yi) annähert.27 Mithil-fe von LSM wird eine Funktion ermittelt, welche den zufälligen Fehler bei n Wer-tepaaren minimiert und die folgende Forderung erfüllt:28

[ ]=

−=1

22121 ),...,,,(),...,,(min (4.14)

Die Nullsetzung der partiellen Ableitung von Q(c1, c2, ..., cn) nach ci liefert das als Normalengleichungen bezeichnete lineare Gleichungssystem zur Berechnung der Parameterwerte c1, c2, ..., cn (vgl. Göhler 1996, S. 92).

In der praktischen Anwendung der Regression kommt es häufig vor, dass die lineare Funktion der Form ⋅ ⋅ ⋅ ungeeignet ist, um die statistische Abhängigkeit einer abhängigen Variable y von einer unab-hängigen Variable x zu beschreiben. Ein nicht-linearer Funktionsverlauf lässt sich i.d.R. aus der Lage der Datenpunkte im Streudiagramm ablesen. Wie in Gleichung (4.14) angegeben, wird auch hier die Quadratsumme nach den Parametern, die den Funktionstypus beschreiben, differenziert. Jedoch liefert die Nullsetzung der par-

25 R2 gibt den erklärten Anteil der Varianz der unabhängigen Variable x an der abhängi-

gen Variable y an. Die Werte von R2 bewegen sich zwischen 0 (kein Erklärungsbei-trag) und 1 (vollständiger Erklärungsbeitrag).

26 Ein wesentliches Merkmal von nicht-linearen Funktionen ist es, dass die Abhängigkeit zwischen den Variablen einen nicht-linearen Charakter besitzen, allerdings die Parame-ter linear sind. Deshalb kann auch bei dieser Form der Regression auf LSM zurückge-griffen werden, um die unbekannten Parameter zu bestimmen.

27 In der Physik wird auch von „fitten“ gesprochen, wenn versucht wird, die Parameter-werte einer Theoriefunktion so zu variieren, dass sie bestmöglich mit der Messkurve übereinstimmt.

28 Die Lösung der Minimierungsaufgabe führt i.d.R. zu einem erheblichen Rechenauf-wand, der nur mit geeigneter Software, z.B. Minitab und SPSS, geleistet werden kann (vgl. Voß et al. 2004, S. 183).

Page 202: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

180 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

tiellen Ableitungen i.A. ein schwieriger aufzulösendes System von nicht-linearen Normalengleichungen als im linearen Regressionsfall.

Abhilfe kann häufig in der Weise geschaffen werden, dass durch mathematische Transformation nicht-lineare Funktionen in lineare überführt werden, deren Para-meter sich mithilfe der linearen Regressionsrechnung einfach(er) ermitteln lassen. Die in der Statistik am häufigsten angewandten nicht-linearen Funktionen und deren dazugehörige lineare Funktionen mit der Standardvariable z sind: (a)

mit z = 1 / x, (b) mit z = ln x und (c) mit z = ey. So können bspw. Potenzfunktion der Form y = a ⋅ xb

durch Logarithmieren in die Linearfunktion v = a’ + b ⋅ z mit v = ln y, z = ln x und a’ = ln a überführt werden. Die sachlogische Interpretation der hier ermittelten Regressionskoeffizienten gestaltet sich i.d.R. schwierig, da die dazugehörigen Grenz- und Elastizitätsfunktionen betrachtet werden müssen.

In der statistischen Arbeit wird häufig schrittweise vorgegangen, um die Abhän-gigkeit einer Zielgröße von mehreren Einflussgrößen zu modellieren. Indem man zunächst nur diejenigen Einflussgrößen in das Modell aufnimmt, von denen die Zielgröße signifikant abhängt, ist es möglich, ein relativ einfaches Modell zu er-halten. Dieses wird dann durch die schrittweise Aufnahme von weiteren Variablen ( ) immer mehr verfeinert. Alternativ dazu kann mit einem Mo-dell begonnen werden, das alle vermuteten Einflussgrößen enthält. Durch

sind dann schrittweise diejenigen Variablen zu entfernen, die am wenigsten zur Verbesserung von R2 beitragen (vgl. Kleppmann 2006, S. 195).

(b.2) Statistische Versuchsplanung (DOE)

(b.2.1) Versuchspläne für lineare Zusammenhänge

Über die Methode der linearen und nicht-linearen Regression lässt sich der funkti-onelle Zusammenhang )(= zwischen mehreren metrisch-skalierten Einfluss-faktoren und einer metrisch-skalierten Ergebnisgröße – auf einem mehr oder weniger hohen Signifikanzniveau – beschreiben. In der betrieblichen Praxis werden dabei die im Rahmen des Leistungserstellungsprozesses angefalle-nen und archivierten Beobachtungsdaten regressiert.

Im einfachsten Fall, wenn die Ergebnisvariable lediglich von einem Einflussfaktor abhängt, wird also analysiert, um wie viel sich die abhängige Variable y im Durchschnitt ändert, wenn sich die unabhängige Variable x um eine Einheit er-höht. Der Vorteil der Regressionsanalyse, insb. gegenüber der im Folgenden be-schriebenen Statistischen Versuchsplanung, besteht darin, dass ein „laufender“ Prozess nicht verändert wird und die anfallenden Daten quasi „nebenbei“ zur Auswertung genutzt werden. Generell können dadurch statistische Ergebnisse/ Aussagen zu relativ geringen Kosten erzielt werden.

Mit der Anwendung der Regressionsanalyse sind aber auch Nachteile verbunden: Zum einen werden Beobachtungsdaten nur mit einem sehr geringen Bestimmt-

Page 203: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 181

heitsmaß R2 << 0,5 regressiert, d.h. die ermittelte Regressionsfunktion erklärt die Input-Output-Beziehung nicht bzw. nur sehr begrenzt. Zum anderen bleiben u.U. wichtige Einflussfaktoren im Regressionsmodell unberücksichtigt, da die „norma-le Variabilität“ der Faktoren im betrachteten Prozess nicht ausreicht, um unter mathematisch-statistischen Gesichtspunkten als signifikant erkannt zu werden. Dies erklärt die Notwendigkeit des Übergangs „Von der Beobachtung zum Expe-riment“ (vgl. Töpfer/ Günther 2007b, S. 138).29

In Six Sigma-Projekten ist diese Sichtweise fest verankert: Produkte und Prozesse, die verbessert werden sollen, müssen immer auch verändert werden, um die zugrunde liegenden Ursachen-Wirkungsbeziehungen offen zu legen. Für das He-rausfinden optimaler Prozesseinstellungen respektive Produktmerkmale werden im Rahmen von DOE30 die einzelnen Einflussfaktoren „aktiv“ und systematisch verändert. Die Bestimmung der funktionellen Abhängigkeiten basiert i.d.R. auf Designs mit k Faktoren und 2-3 Faktorausprägungen bzw. -stufen.

Für den Umfang eines Versuchs sind neben der Art und Anzahl der Faktorausprä-gungen (A) die absolute Anzahl der Einflussfaktoren (k) entscheidend. Bei einem

ergibt sich die Menge aller möglichen Faktorkombinati-onsmöglichkeiten und damit Versuchanordnungen mit Ak. Durch Nichtbeachtung von Wechselwirkungen höherer Ordnung lässt sich die Anzahl von Versuchsan-ordnungen reduzieren. Dazu ist ein Reduktionsfaktor (d) anzugeben, der die An-zahl an definierten Gleichungen beschreibt; Ak-d gibt dann den Umfang des

an. Bei der Anwendung dieser Art von Versuchsplänen wird davon ausgegangen, dass die Wechselwirkungen zwischen drei und mehr Faktoren (z.B. c123 ⋅ ⋅ ⋅ ) kaum noch einen nennenswerten Einfluss auf die Ergebnis-variable besitzen. Aus diesem Grund werden diese Spalten aus der Designmatrix eliminiert und durch andere wesentliche Faktoren ersetzt. Dadurch können bei gleichem Experimentumfang mehr Einflussfaktoren betrachtet werden, was natur-gemäß zu einer Reduzierung der Kosten der Experimentdurchführung führt.

Aus analytischer Sicht hat DOE gegenüber der Regressionsanalyse et al. den Vor-teil, dass sich mithilfe von faktoriellen Designs neben den , die aus der Zu-/ Abschaltung von Faktoren resultieren, untersuchen lassen, die das Ergebnis von Wechselwirkung mehrerer Faktoren sind. Folglich wird bei der Suche der Koeffizienten für Potenzfunktionen n. Ordnung nicht nur eine addi-tive Verknüpfung der einzelnen Faktoren/ Variablen unterstellt (= Haupteffekte), sondern auch eine multiplikative Verknüpfung (= Nebeneffekte).

29 In diesem Zusammenhang wird häufig ein Ausspruch von GEORGE BOX zitiert: „Will

man herausfinden, wie sich ein System verhält, wenn man es verändert, dann muss man es verändern“ und es nicht nur passiv beobachten.

30 Die mathematisch-statistischen Grundlagen von DOE gehen auf Sir RONALD A. FISHER (1935) zurück. Er gilt als Mitbegründer der modernen mathematischen Statistik. Seine Arbeiten konzentrierten sich vor allem auf die Lösung biologischer, medizinischer und landwirtschaftlicher Probleme (vgl. Grabowski 2003, S. 224).

Page 204: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

182 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Die Prognosefunktion für ein 2-faktorielles Versuchsdesign unter Berücksichti-gung der Haupt- und Nebeneffekte hat z.B. die folgende Form:

211222110 ⋅⋅+⋅+⋅+== (4.15) wobei y die abhängige Variable (Response), c0 das Basisniveau bzw. den Schnitt-punkt mit der y-Achse, c1 und c2 die Regressionskoeffizienten der unabhängigen Variablen (Factors) und c12 den Regressionskoeffizient der Wechselwirkung von

und darstellt. Liegen keine Wechselwirkungen vor, dann ist c12 = 0 und der Term c12 ⋅ ⋅ in Gleichung (4.15) entfällt. In diesem Fall handelt es sich um ein 2-faktorielles lineares Regressionsmodell (s.o.).

Die Anzahl der Terme in der Prognosefunktion beschreibt die minimale Anzahl von notwendigen experimentellen Versuchen, um die Koeffizienten des Regressi-onsmodells zu schätzen. Handelt es sich z.B. um eine Funktion mit vier Termen, wie in Gleichung (4.15) gegeben, dann sind mind. vier experimentelle Versuche mit unterschiedlichen Einstellungen für und notwendig. Um die Koeffizien-ten zu ermitteln, werden in einem die Einstellungen für die Fakto-ren und abwechselnd „hoch“ (+1) und „niedrig“ (-1) gewählt.

Analog zur „klassischen“ Regressionsanalyse wird zum einen die Höhe des Ein-flusses der einzelnen Faktoren sowie ihres Zusammenwirkens auf die Ergebnisva-riable geschätzt. Zum anderen wird ermittelt, wie signifikant sich eine Änderung der Einstellung von und/ oder auf auswirkt. Dabei liegt die Annahme zugrunde, dass zwischen der Änderung der Einstellung der Faktoren von -1 auf +1 und der Änderung der Ergebnisvariable jeweils ein be-steht. Für die Bestimmung von lokalen Extrema ist diese Eigenschaft ungeeignet, so dass sich die Frage nach zweckmäßigeren Ansätzen stellt.

(b.2.2) Versuchspläne für nicht-lineare Zusammenhänge

Um die Plausibilität/ Validität der Linearitätsannahme zu überprüfen, werden in DOE-Versuchspläne mit k Faktoren und jeweils zwei Faktorstufen sog. Zentral-punkte (Center points) eingefügt, welche sich aus der mittleren Einstellung der verschiedenen Einflussgrößen ergeben. Die Nichtlinearität ist bedeutsam, wenn die Lage eines Maximums, z.B. Ausbeute, oder eines Minimums, z.B. Fehlerrate, gesucht wird. In vielen Fällen verwendet man ein quadratisches Modell zur empi-rischen Beschreibung der Abhängigkeit der Zielgröße y von den k Faktoren.

Die Linearitätsprüfung resultiert aus folgender Überlegung: Sind die Faktoraus-prägungen symmetrisch und mit den diskreten Stufen -1 und +1 codiert, dann liegen die Werte der Faktorausprägungen des Zentralpunktes bei Null. Im Fall, dass die Linearitätsannahme nicht zutreffend ist, differiert der Ergebniswert für die Zentraleinstellung signifikant von dem durchschnittlichen Ergebniswert über alle Faktoreinstellungen, der sich im Rahmen des 2k-Versuchsdesigns ergibt. Konkret bedeutet dies, dass der Regressionsansatz nach Gleichung (4.15) zur exakten Beschreibung der funktionellen Zusammenhänge zwischen Einflussgrö-

Page 205: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 183

ßen (Factors) und Ergebnisvariable (Response) nicht ausreicht. Anstelle eines Polynoms 1. Grades ist ein zu wählen (vgl. Breyfogle 2003, S. 644), so wie folgt:

22222

211111222110 ⋅+⋅+⋅⋅+⋅+⋅+== (4.16)

Während durch die Funktion nach Gleichung (4.15) eine ebene Fläche im Raum aufgespannt wird, beschreibt die Funktion nach Gleichung (4.16) eine elliptisch gekrümmte (Reaktions-)Fläche im Raum. In Abb. 4-4 ist beispielhaft eine solche Fläche für einen 2-faktoriellen Versuch mit einem Polynom 2. Grades als adäqua-ter Regressionsfunktion abgebildet. Die Aufgabe besteht darin, in einem chemi-schen Prozess die Faktoren Zeit ( ) und Temperatur ( ) so einzustellen, dass ein maximale Ausbeute ( ) erzielt wird. Als dichotome Einstellwerte für die zwei Faktoren werden gewählt: Zeit: ∈ [50; 70] und Temperatur: ∈ [150; 180]. Aus der mittleren Einstellung beider Faktoren wird zusätzlich ein Zentralpunkt generiert mit Z[60; 165]. Darüber hinaus gehen vier Sternpunkte mit Extremaus-prägungen der zwei Faktoren Zeit und Temperatur in das Analysemodell ein. Dazu wird jede Faktorstufe auf einem um über 40% nach oben und unten erweiterten Ausprägungsniveau „abgefahren“. Im Ergebnis liegen die Ausbeuten im Bereich von 72% bis 82%, wobei sich die maximale Ausbeute bei einer mittleren Einstellung von Zeit und Temperatur einstellt.

Abb. 4-4: 3D-Oberflächen-Plots für empirische und geschätzte y-Werte auf der Basis eines Polynoms 2. Grades mit einem lokalen Maximum (Beispiel)

Die (RSM – Response surface methodology) wird in der Improve-Phase von Six Sigma-Projekten genutzt (vgl. Abschnitt 3.3.1). Der Vorteil von RSM liegt insbesondere darin, dass mit seiner Hilfe die Identifikation von nicht-linearen Zusammenhängen möglich ist. Bei einer gegebenen Anzahl von Einflussfaktoren steht jedoch der Nachteil gegenüber, dass (deutlich) mehr Versu-che als bei einem 2-stufigen vollfaktoriellen Versuchsdesign notwendig sind, um

18017072

75

78

81

(in °C)16050

1506070

3D-Oberflächen-Plot für empirische Dateny = Ausbeute

18017072

75

78

81

(in °C)16050

1506070

3D-Oberflächen-Plot für empirische Dateny = Ausbeute

3D-Oberflächen-Plot für approximierte Dateny = Ausbeute

5060 70

65

70

75

80

180170

160150

3D-Oberflächen-Plot für approximierte Dateny = Ausbeute

5060 70

65

70

75

80

180170

160150

Quelle: Eigene Darstellung

Page 206: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

184 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

die Prognosefunktion zu spezifizieren. Aus diesem Grund sind im Vorfeld die wesentlichen Einflussfaktoren durch die Anwendung von „klassischem“ DOE mit zwei Faktorstufen zu eruieren (vgl. Breyfogle 2003, S. 645ff.). Um die Koeffizien-ten von Polynomen 2. Grades mittels RSM zu schätzen, wird in der Praxis häufig auf die folgenden zwei Designs zurückgegriffen (siehe Abb. 4-5):

• sind zentral zusammengesetzte Versuchs-pläne, bei denen neben einem Zentralpunkt und den vier Eckpunkten eines Würfels zusätzlich vier Sternpunkte definiert werden. Die Sternpunkte sind so zu wählen, dass man ein orthogonales und rotierbares Versuchsdesign erhält. „Orthogonal“ bedeutet, dass sich die einzelnen Effekte im Rahmen eines 2k-Versuchsplans eindeutig trennen und zuordnen lassen. „Rotierbar“ heißt, dass sich die Varianz der zu prognostizierenden y-Werte in jedem Punkt als Funk-tion des Abstandes des gewählten Punktes zum Zentralpunkt ergibt. Zur Er-mittlung der Stern- bzw. Axialpunkte31 ist ein Abstandsfaktor α zu berechnen, der in jeder Dimension den Abstand des Sternpunkts zum Zentralpunkt an-gibt. Der Vorteil von Central-Composite-Designs ist vor allem darin zu sehen, dass auf der Basis der Ergebnisse eines voll-/ teilfaktoriellen Versuchplans zusätzlich Sternpunkte für jeden Faktor definiert werden können, deren Reali-sierung zur Ermittlung der Koeffizienten c11 und c22 führt.

• ist eine alternative Methode zu CCD, um die quadratischen Terme im Rahmen eines Regressionsmodells zu bestimmen. Die Versuchsanordnungen nach Box/ Behnken (1960) sind nicht zwingend rotierbar und orthogonal. Auf Optimierungsversuche nach BBD wird i.d.R. zurückgegriffen, wenn physikalische Beschränkungen vorliegen, die eine Re-alisierung der Sternpunkte nicht erlauben. Aus diesem Grund erfolgt eine Verlagerung der Axialpunkte nach innen, d.h. pro Faktor werden drei Merk-malsausprägungen definiert (-1, 0, 1). Jede zusätzliche Faktorausprägung be-sitzt eine äquidistante Entfernung zur unteren und oberen Faktorstufe sowie zu dem definierten Zentralpunkt (in der Mitte des Würfels). Aufgrund der Tatsache, dass pro Faktor jeweils nur drei Stufen anstelle von fünf realisiert werden, erfordert das BBD deutlich weniger Versuche als CCD. Diesem Vor-teil steht der Nachteil gegenüber, dass mit BBD die Koeffizienten des Regres-sionsmodells mit einer höheren Ungenauigkeit geschätzt werden.

Bei beiden Designs wird ausgehend von einem Zentralpunkt der Lösungsraum nach lokalen Maxima und Minima schrittweise abgesucht. Die Vorgehensweise basiert auf der für Funktionen zweier Variablen. Es wird davon ausgegangen, dass die Funktion glatt ist und in der Umgebung der Entwicklungsstelle (x1-0, x2-0) stetige partielle Ableitungen bis zur (n+1)-ten Ord-nung hat. Die Konstante c0 gibt das Ergebnisniveau, z.B. Ausbeute, im Entwick-

31 Der Abstandsfaktor zur Bestimmung der Stern-/ Axialpunkte beträgt i.d.R. α = 1,682.

Detaillierte Darstellungen der o.g. Versuchsanordnungen sowie weiteren finden sich u.a. in Breyfogle 2003, Montgomery 2000 und Box et al. 1978.

Page 207: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 185

lungspunkt an und entspricht bei alleiniger Verwendung dem Polynom 0. Ord-nung. Die Koeffizienten c1 und c2 stehen für die Steigungen der Funktion

bei linearen Abhängigkeiten (= Polynom 1. Ordnung).

Die Koeffizienten c11 und c22 kommen hinzu, wenn zwischen den Haupteffekten und der Ergebnisvariable y ein quadratischer Zusammenhang besteht. In diesem Fall handelt es sich um eine Potenzreihenentwicklung 2. Ordnung. Ist weiterhin davon auszugehen, dass zwischen den Faktoren und Wechselwirkungen vorkommen, dann ist zusätzlich der Koeffizient c12 zu schätzen.

Abb. 4-5: Herleitung der Versuchsanordnung für Central-Composite-Design (CCD) bei zwei unabhängigen Faktoren

Für die exakte Beschreibung einer nicht-linearen Abhängig-keit zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen reichen Polynome 2. Grades in vielen Fällen nicht aus. Insbesondere wenn der Wertebereich der Faktoren relativ groß ist, wird durch ein quadratisches Modell keine ausreichend gute Näherung der Gesamtstruktur gefunden. Lediglich Ausschnitte aus dem zu untersuchenden Wertebereich können hinreichend genau beschrieben werden. Der wesentliche Grund dafür ist, dass sich mit einem quadra-tischen Modell nur ein Maxima bzw. Minima beschreiben lässt. So kann in Fällen, wo ein mit zunehmender Annäherung an das Optimum auf-tritt, die Abflachung im Sättigungsbereich nur ungenau mit dem o.g. Modell be-schrieben werden. Sind zu berücksichtigen, dann wird das Optimum der an drei Punkten angepassten Näherung verschoben, und zwar entge-gengesetzt zum wahren Optimum (vgl. Kleppmann 2006, S. 218).32

32 Dies liegt darin begründet, dass die ermittelte quadratische Funktion immer symme-

trisch am Maximal-/ Minimalwert ausgerichtet ist. Je höher der Wert des zur Schätzung genutzten rechtsliegenden Punktes ist, desto größer wird der Abstand zwischen wahrem und rechnerischem Optimum (vgl. Breyfogle 2003, S. 645ff.).

Ausgangspunkt: Erweiterung 1: Erweiterung 2:

Faktor 1

Faktor 2

αααα

αααα

αααα αααα

Basis: Breyfogle 2003, S. 645

Page 208: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

186 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

(b.2.3) Sequentielle Optimierungsverfahren

Neben der Funktionsbestimmung haben u.a. Box et al. (1978), Cornell (1990) und Montgomery (2000) verschiedene analytische Methoden entwickelt, um die loka-len (Reaktionsflächen) zu ermitteln. Über die Koeffizienten der kanonischen Form des Regressionsmodells können Aussagen zur Steigung und Krümmung des Funktionsverlaufs abgeleitet werden. Daneben existieren eine Reihe von graphischen Darstellungs- und Aus-wertungsmöglichkeiten, z.B. Contour-Plot, um die Lage des Optimums (grob) abzuschätzen. Die Beschränkungen, die sich beim Einsatz von teil-/ vollfaktoriel-len Versuchsplänen zum Auffinden von Optima ergeben, werden teilweise durch sequentielle Optimierungsverfahren aufgehoben.

Die sequentielle Vorgehensweise zeichnet sich dadurch aus, dass die bisher be-schriebenen Versuchsmethodiken als Bausteine – einzeln oder kombiniert – nach und nach eingesetzt werden (vgl. hierzu und im Folgenden Kleppmann 2006, S. 254ff.). Ziel der Verfahren ist es, in möglichst wenigen Schritten vom Ausgangs-punkt zum Optimum zu gelangen. Gleichzeitig soll das Risiko minimiert werden, durch allzu große Änderungen der Faktoreinstellungen in eine völlig falsche Rich-tung zu laufen und das globale Optimum zu verfehlen. Folgende werden im Rahmen der sequentiellen Optimierung genutzt:

• : Die Methode zeichnet sich durch die Wahl von relativ großen Abständen zwischen den Faktorstufen aus und erlaubt da-her ein relativ schnelles Fortschreiten in Richtung des Optimalpunktes. Da der steilste Anstieg der Outputverbesserung i.d.R. nicht in der laufenden Ferti-gung gesucht wird, sondern in der Entwicklung und Arbeitsvorbereitung, werden größere Schrittweiten gewählt. Das Risiko, bei der Suche u.U. über das Optimum „hinauszuschießen“ nimmt man in gewisser Weise in Kauf. In Abb. 4-6 ist das Höhenlinien-Diagramm einer Zielgröße in Abhängigkeit von zwei Faktoren dargestellt, anhand derer das Vorgehen der Methode des steils-ten Anstiegs (Hill climbing) leicht nachvollziehbar ist.

Es wird mit der Variation von zwei Faktorstufen begonnen, wobei der Ab-stand der Stufen relativ groß ist. Dadurch werden die beobachtbaren Effekte größer; gleichzeitig sind weniger Realisierungen auf den einzelnen Faktorstu-fen erforderlich. Es werden zunächst mehrere Faktoren gleichzeitig variiert. Ist die erste Richtung des steilsten Anstiegs ermittelt worden, wird mit Ein-zelversuchen immer weiter in diese Richtung gesucht. Der Suchvorgang wird gestoppt, wenn die Ergebnisse wieder schlechter werden. Zur Ermittlung der zweiten Richtung des steilsten Anstiegs wird ein neuer Versuchsplan aufge-stellt und durchgeführt. Besteht die berechtigte Annahme, dass man sich in der Nähe des Maximums/ Minimums befindet, wird ein Plan zur Bestimmung nicht-linearer Zusammenhänge verwendet. Dabei handelt es sich in den meis-ten Fällen um einen Versuchsplan mit drei Faktorstufen.

Page 209: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 187

Abb. 4-6: Sequentielles Vorgehen nach der Methode des steilsten Anstiegs

• : Das Vorgehen nach EVOP (Evolutionary Operati-ons) ist vom Ansatz her sehr ähnlich zu vorstehend beschriebener Methode des steilsten Anstiegs. Es kann deshalb den klassischen Optimierungsalgo-rithmen zugeordnet werden.33 In einem vollständigen faktoriellen Versuch werden zwei, maximal drei Prozessparameter innerhalb ihrer Spezifikation um den Ausgangspunkt verändert. Ziel ist es, aus kleinen Veränderungen der Prozessergebnisse Wissen für eine kontinuierliche Verbesserung (KVP) des gesamten Produktionsprozesses abzuleiten. Die Versuche werden in der lau-fenden Produktion durchgeführt. Die Abstände der einzelnen Faktorstufen sind klein zu wählen, damit der Produktionsprozess nicht nennenswert gestört wird. Aufgrund des kleinen Stufenabstandes ist einerseits mit relativ kleinen Effekten zu rechnen. Andererseits können durch den großen Versuchsumfang (gesamte Produktion) auch kleine Effekte erkannt und dadurch die Richtung der Verbesserung eindeutig bestimmt werden.

Es existiert keine feste Regel, wie weit die Faktorstufenkombination verscho-ben werden soll. Die Entscheidung liegt letztendlich beim Prozesseigner, der die Chancen und Risiken einer Prozessveränderung genau abwägen muss. Wie in Abb. 4-6 skizziert ist, werden die Faktorstufenkombinationen 1 bis 5 solange durchlaufen, bis erkennbar ist, in welche Richtung sich das Prozess-ergebnis verbessert. In diese Richtung wird dann eine Änderung der Prozess-

33 Eine Parallelität zu den in Abschnitt 4.3.2 behandelten Evolutionären Algorithmen ist

nicht gegeben; hier steht die Nachahmung von natürlichen Entwicklungsprozessen zur Optimierung von ökonomisch-technischen Systemen im Vordergrund. Eine praxisor-ientierte Beschreibung des EVOP-Verfahrens geben Box/ Draper 1975.

Basis: Kleppmann 2003, S. 252ff.

Page 210: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

188 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

spezifikation vorgenommen. Ist der Prozesseigner risikoavers, wird er den Punkt 2 zum neuen Mittelpunkt (Arbeitspunkt) und den Punkt 1 zum neuen Eckpunkt machen. Bei risikofreudigem Verhalten ist eine Verschiebung über den Punkt 2 hinaus denkbar. Insgesamt handelt es sich bei EVOP um ein vor-sichtiges Verfahren zur Optimierung der laufenden Produktion.

• : Dieses Verfahren führt schnell in die Nähe des Opti-mums, wenn die Zufallsstreuung sehr klein im Vergleich zu den wahren Un-terschieden zwischen den untersuchten Faktorstufenkombinationen ist. In die-sem Fall kann man auf die mehrmalige Realisierung und die Mehrfachnut-zung von Ergebnissen verzichten. Das Simplex-Verfahren ist streng sequen-tiell, d.h. nach einem Startsimplex schreitet die Optimierung mit jedem weite-ren Einzelergebnis fort. Ziel ist es, die Richtung der Verbesserung mit mög-lichst wenigen Faktorstufenkombinationen zu erkennen. Deshalb besteht der Simplex bei k Faktoren aus „nur“ k+1 Faktorstufenkombinationen. Bei zwei Faktoren sind dies die Ecken eines gleichseitigen Dreiecks (siehe Abb. 4-7), bei drei Faktoren die eines Tetraeders, usw.

Abb. 4-7: Sequentielles Vorgehen nach dem Simplex-Verfahren

Ausgehend vom Arbeitspunkt werden zunächst die Versuchsergebnisse an den Eckpunkten des Dreiecks mit der Nr. 1 bestimmt (= Simplex 1). Die Fak-torstufenkombination, die zum schlechtesten Ergebnis geführt hat, wird an der Linie durch die anderen beiden Faktorstufenkombinationen gespiegelt. Da-durch ergibt sich eine neue Faktorstufenkombination, die zusammen mit den beiden besseren Kombinationen aus Simplex 1 den neuen Simplex 2 bildet. In entsprechender Weise werden die nachfolgenden Simplexe ermittelt. Da je-weils die schlechteste Faktorstufenkombination eines Simplex ersetzt wird, führt das Verfahren Schritt für Schritt zu einem besseren Ergebnis. Allerdings

Basis: Kleppmann 2003, S. 252ff.

Page 211: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 189

versagt das Simplex-Verfahren in der Nähe des Optimums, da es hier – auf-grund seines linearen Charakters – zum „Pendeln bzw. Kreisen“ zwischen ei-nigen wenigen Punkten neigt.

4.2.3 Exakte vs. heuristische Lösungsverfahren für Optimierungs-probleme

Nachdem im Punkt (a) eine Abgrenzung von exakt und heuristisch optimierenden Lösungsverfahren vorgenommen worden ist, wird im Punkt (b) speziell auf die Konzeption und Inhalte von sog. Meta-Heuristiken eingegangen. Nach der Art des gewählten Lösungsansatzes lassen sich – auf hoher Ebene – Lokale Suchverfahren und Naturadaptive Verfahren unterscheiden.

In vielen praktischen Anwendungen ist der Einsatz von Methoden des Operations Research unverzichtbar, z.B. bei der Transport- und Standortplanung sowie der Produktprogramm- und Losgrößenplanung. Dabei zieht der Einsatz exakter Lö-sungsverfahren, d.h. Verfahren, die nach einer endlichen Anzahl von Rechen- bzw. Iterationsschritten optimale Lösungen liefern, nicht selten einen

nach sich.34 Dieser Umstand ist gerade in der Unternehmenspra-xis unerwünscht und hat in der jüngsten Vergangenheit zur Entwicklung einer großen Anzahl heuristischer Lösungsverfahren geführt. Sie zeichnen sich dadurch aus, dass in „angemessener“ Rechenzeit „gute“, aber nicht zwangsläufig optimale Lösungen gefunden werden (vgl. Wäscher 1998, S. 1299).

Vor diesem Hintergrund klassifiziert man heute – in vereinfachter Weise – Opti-mierungsprobleme nach dem benötigten Rechenaufwand:

• Um ein handelt es sich, wenn ein exaktes Lö-sungsverfahren existiert, das lediglich einen polynomialen Rechenaufwand erfordert. In diesem Fall lässt sich der funktionale Zusammenhang zwischen dem Rechenaufwand, gemessen anhand der erforderlichen elementaren Re-chenoperationen, und einem Maß für die Problemgröße im „worst case“, d.h. im Fall der jeweils ungünstigsten Datenkonstellation, durch ein Polynom n.-Grades begrenzen. Effizient lösbare Probleme liegen u.a. bei den Standard-problemen der Linearen Optimierung vor (vgl. Abschnitt 4.2.1).

34 Für eine präzisere Definition von exakten und heuristischen Lösungsverfahren siehe

Streim (1975, S. 143ff.). Nach ihm zeichnen sich heuristische Lösungsverfahren durch folgende drei grundlegende, begriffskonstituierende Eigenschaften aus: (a) Verwen-dung nicht willkürlicher Entscheidungsoperatoren, (b) Ausschluss potenzieller Lösun-gen vom Suchprozess sowie (c) Kein Konvergenzbeweis und damit keine Lösungs-garantie. Darüber hinaus sind sehr häufig die folgenden drei Eigenschaften bei Heuris-tiken gegeben (vgl. auch Schmitting 1999, S. 41f.): (d) Verwendung künstlicher, sub-jektiver Abbruchregeln, (e) Möglichkeit der Parametrisierung und (f) Wahrung der Zulässigkeit eines Ergebnisses bei restringierten Optimierungsproblemen.

Page 212: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

190 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

• Im Unterschied hierzu nimmt bei , zu de-nen z.B. die Tourenplanung gehört, der Rechenaufwand exakter Verfahren mit zunehmender Problemlösung exponentiell zu. Der Rechenaufwand er-reicht schnell prohibitive Größenordnungen. Dabei ist nach dem gegenwärti-gen Erkenntnisstand der Komplexitätstheorie für diese Problemart nicht nur heute kein exaktes, lediglich einen polynomialen Rechenaufwand verursa-chendes Verfahren bekannt, sondern auch in Zukunft. Nicht effizient lösbare Probleme bilden somit den zentralen Anwendungsbereich von heuristischen Lösungsverfahren35 (vgl. Wäscher 1998, S. 1299).

Die zur Lösung kombinatorischer Probleme basie-ren auf einem Entscheidungsbaum, der die Lösung als eine Kette aufeinander folgender bzw. aufbauender Entscheidungsoptionen darstellt. An verschiedenen Knoten sind Entscheidungen über zu realisierende Schritte des Lösungsaufbaus zu fällen. Bei der Bearbeitung von Optimierungsproblemen wird die optimale Lösung schrittweise generiert (vgl. Schmitting 1999, S. 30). Potenzielle Lösungen, die zu einem suboptimalen Zielwert führen, werden im Weiteren vernachlässigt, d.h. die entsprechenden Zweige des Baumes werden nicht weiter verfolgt.

Aus diesem Grund werden bei Entscheidungsbaumverfahren zwar grundsätzlich alle potenziellen Lösungen in den Algorithmus einbezogen, jedoch wird ein Groß-teil von ihnen von der expliziten Analyse ausgeschlossen. In den vergangenen Dekaden haben sich die folgenden drei Grundtypen von Entscheidungsbaumver-fahren etabliert:36 (1) , (2) und (3) . Sie gelten als klassisch optimierende Algorith-men zur Lösung von Tourenplanungsproblemen (TSP).

Das erstgenannte Verfahren galt lange Zeit als das erfolgreichste Entscheidungs-baumverfahren zur Lösung von TSP. Insbesondere in den 1970er Jahren wurden eine Reihe von Varianten für verschiedene Anwendungssituationen entwickelt und publiziert (vgl. Panny 1978, S. 35). Der Begriff des „Branch & Bound“ geht auf Little et al. (1963) zurück und basiert zum einen auf der Idee, die Menge aller potenziellen, zulässigen Lösungen in problemspezifisch zu definierende, disjunkte Teilmengen aufzuspalten, ohne dabei die einzelnen Lösungszweige (Branches) vollständig zu generieren. Die Dekomposition wird stufenweise fortgesetzt, bis in einer der Teilmengen die optimale Lösung identifiziert werden kann. Zum anderen wird für jede der gebildeten Teilmengen eine untere Schranke (Bound) des Ziel-

35 Heuristische Lösungsverfahren lassen sich i.d.R. leichter im Hinblick auf reale, nicht-

standardmäßige Probleme der Praxis anpassen. Von Praktikern wird deshalb schon seit längerem eine eingehendere und systematischer Beschäftigung mit diesen Verfahren angeregt. Obwohl einige Wissenschaftler bereits frühzeitig die Bedeutung dieser Me-thoden herausgestellt haben, kam es erst durch neue Erkenntnisse in der Informatik zu einer systematischen Erforschung und Erweiterung.

36 Für einen Überblick der drei genannten klassischen exakten Verfahren zur Lösung des TSP siehe z.B. Domschke 1990, S. 62ff. und Panny 1978, S. 10ff.

Page 213: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 191

funktionswertes berechnet, der angibt, welcher Wert von den in der Teilmenge enthaltenen Lösungen nicht unterschritten werden darf.

Der Verzweigungs- bzw. Optimierungsprozess wird i.A. so gestaltet, dass die Teilmengen, welche die niedrigste untere Schranke besitzen, (bei einer Minimie-rung) vorrangig betrachtet werden. Die optimale Lösung ist gefunden, wenn durch die fortdauernde Zerlegung erstmalig eine zulässige Lösung des Problems be-stimmt worden ist. Aufgrund der gesetzten Schranken kann auf die Betrachtung der verbleibenden Zweige verzichtet werden (vgl. Schmitting 1999, S. 33).

Im Rahmen der haben vor allem die sog. Meta-Heuristiken in der Vergangenheit erheblich an Bedeutung gewonnen. Bei diesen übergeordneten Heuristiken handelt es sich weniger um konkrete Algorithmen für genau spezifizierte Problemstellungen, als vielmehr um allgemeine Handlungsan-weisungen, die für die jeweilige Problemstellung zunächst in geeigneter Weise zu modifizieren sind. Hierzu gehören einerseits naturadaptive Verfahren (Heuristics from Nature), die betriebliche Probleme in Analogie zu erfolgreichen Phänomenen der Natur lösen, z.B. Genetische Algorithmen (vgl. Greb et al. 1998). Andererseits werden – wie im Folgenden gezeigt – Lokale Suchverfahren (LSA – Local Search Approaches) zur Lösung betrieblicher Optimierungsprobleme eingesetzt.37

(b.1) Lokale Suchverfahren (LSA)

Alle beruhen auf dem Grundprinzip der Nachbarschaftssuche. Dieses besagt, dass zu einer bereits existierenden, aktuellen Lösung jeweils eine neue aus der „Nachbarschaft“ zu generieren ist. Die Entscheidung, ob die neue Lösung die aktuelle ersetzen soll, wird anhand des zugehörigen Zielwerts bzw. der Zielwertänderung und/ oder unter Berücksichtigung weiterer Kriterien getroffen. Bei Übernahme der neuen Lösung wird die Suche in dessen Nachbarschaft fortge-setzt. Andernfalls wird zu der aktuellen Lösung eine weitere Lösung generiert und bewertet usw. (vgl. Wäscher 1998, S. 1302).

Das Verfahren endet, wenn nach einer definierten Anzahl von Versuchen keine neue bessere Lösung in der Nachbarschaft der bestehenden gefunden wird. Wäh-rend die Vorgehensweise zur Konstruktion der Ausgangslösung sowie die Defini-tion der Nachbarschaft problemspezifische Anforderungen darstellen, sind die Kriterien zur Akzeptanz einer neuen Lösung sowie zum Abbruch des Verfahrens weitestgehend unabhängig vom Problemtyp festzulegen. Sie werden deshalb auch als generische Bausteine der Lokalen Suchverfahren bezeichnet:

• Die Generierung der kann sowohl zufällig erfolgen als auch auf der Basis von Konstruktionsverfahren, die auf den jeweiligen Problemtyp

37 Sie sind eher traditionellen Ursprungs und gelten als Weiterentwicklung von klas-

sischen Heuristiken, nämlich der sog. k-Opt-Verbesserungsverfahren.

Page 214: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

192 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

zugeschnitten sind, z.B. Nearest-Neighbour-Heuristik für das TSP (zu mögli-chen Konstruktionsverfahren siehe Reinelt 1994, S. 73ff.).

• Die einer Lösung ist definiert als die Menge aller Lösungen, die sich durch einen bestimmten Typ einer elementaren Operation aus der betreffenden Lösung erzeugen lässt, z.B. 2-Opt-Move für das TSP, bei dem zwei beliebige, nicht benachbarte Kanten gegen zwei andere, dann eindeutig festgelegte Kanten ausgetauscht werden.

• Auf der Basis des wird entschieden, ob die neue Lösung als aktuelle Lösung akzeptiert oder wieder verworfen wird. Klassische LSA sind dabei darauf ausgerichtet, immer nur zielwertverbessernde Lösungen zu akzeptieren. Bei einem Maximierungsproblem kommt es infolgedessen zu ei-nem stetigen Anstieg des Zielwertes.

• Das legt fest, ab welchem Punkt des Optimierungszyklus die Suche eingestellt wird. Bei klassischen LSA endet der Iterationsprozess dann, wenn in der Nachbarschaft der aktuellen Lösung keine zielwertverbes-sernde Lösung mehr gefunden wird.38

Anhand der vorstehend genannten Kriterien wird zugleich der Suchverfahren deutlich: In einem iterativen Prozess wird der Lösungsraum

unter Beachtung der Zielsetzung und der Restriktionen abgesucht. Ausgehend von der suboptimalen Lösung eines Problems wird versucht, durch sukzessive und geringfügige Veränderungen Verbesserungen herbeizuführen. Zumindest bei grö-ßeren Problemausprägungen ist durch dieses schrittweise Vorantasten keinesfalls sichergestellt, dass das globale Optimum tatsächlich detektiert wird. Häufig blei-ben die klassischen Ansätze in einem lokalen Optimum „hängen“, aus dem es bei Verwendung von einfachen Akzeptanz-/ Abbruchkriterien kein Entrinnen gibt, da eine Zielwertverschlechterung nicht akzeptiert wird.

(b.2) Naturadaptive Verfahren

Naturadaptive Lösungsverfahren, die auch als bezeichnet werden, lassen Zielwertverschlechterungen zu, so dass ein lokales Optimum ohne Weiteres überwunden werden kann. Ziel ist es, allgemeine menschliche oder natürliche Problemlösungsstrategien bei der Lösung schwieriger Optimierungsaufgaben in Technik und Wirtschaft zu nutzen. Zu den bekanntesten Verfahrenstypen, die in der angewandten Mathematik Verwendung finden, gehören die (1)

(SA – Simulated Annealing), (2) der (ACO – Ant Colony Optimization) und (3) die

(GA – Genetic Algorithm) (vgl. Greb et al. 1998, S. 444). Letztgenannte werden in Unterkapitel 4.3 ausführlich behandelt.

38 Soll die Zielfunktion maximiert werden, dann detektiert die zuletzt akzeptierte Lösung

ein lokales Maximum.

Page 215: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.2 Klassische Algorithmen 193

Die Grundgedanken von SA und ACO werden im Folgenden am Beispiel des TSP kurz ausgeführt. 39 Bei der Darstellung geht es vor allem darum, weitere Ansatz-punkte und Möglichkeiten für die Ableitung konkreter Vorgehensmodelle im Rahmen der Neuproduktplanung/ Prozessentwicklung aufzuzeigen:

• wurde erstmals in den 1980er Jahren für die diskrete Optimierung verwendet. Die Lösungssuche basiert hier auf einer Analogie zu einem physikalischen Abkühlungsprozess, wobei der Zielfunktionswert dem Energiezustand E des physikalischen Systems entspricht (vgl. u.a. Pham/ Karaboga 2000; Aarts et al. 1997; Downsland 1993).

Hintergrund ist das Härten von Metall, bei dem das Metall zunächst über den Schmelzpunkt hinaus erhitzt und dann langsam abgekühlt wird. Ziel ist es, den Abkühlungsprozess so zu steuern, dass das Metall in einen möglichst niedrigen energetischen Zustand überführt wird. Durch zu schnelles Absen-ken der Temperatur kann es zu Verunreinigungen in der Legierung kommen, die zu suboptimalen Ergebnissen im Kristallisationsprozess führen. Einige Atome gehen in diesem Fall zu früh in eine irreversible feste Struktur über. Andererseits konnte bereits in den1950er Jahren gezeigt werden, dass mit ab-nehmender Temperatur stabile lokale Energieoptima erreicht werden und zwar um so eher, je langsamer die Abkühlung erfolgt (vgl. Voß et al. 2000, S. 558). Bei der Beschreibung des Abkühlungsprozesses wird die für alle physi-kalischen Systeme geltende Boltzmann-Verteilung zugrunde gelegt.

• hält seit ihrer Vorstellung im Jahre 1991 durch Do-rigo et al. zunehmend Einzug ins Operations Research. Die Lösungssuche ist von der Futtersuche von Ameisen inspiriert, die erfahrungsgemäß ihre Stra-ßen auf direktem Weg zwischen Nest und Futterquelle errichten (vgl. u.a. Boysen et al. 2002; Dorigo/ Gambardella 1997).

Die Adaption des natürlichen Vorbilds in der mathematischen Optimierung führte zu einer Meta-Heuristik, die sich vor allem zur Lösung kombinatori-scher Probleme eignet, z.B. Auffinden des kürzesten Weges zwischen zwei Orten. Ameisen orientieren sich bei der Futtersuche mithilfe eines chemi-schen Sekrets namens Pheromon. Dieses sondern sie während ihrer Fortbe-wegung laufend aus einer Drüse am hinteren Teil ihres Körpers auf den Bo-den ab (vgl. Bonabeau/ Meyer 2001, S. 38ff.). Kürzere Wege, ohne Hinder-nisse können von den Ameisen schneller durchlaufen werden. Folglich sind sie nach einem bestimmten Zeitintervall stärker mit Pheromon markiert als al-ternative, längere Wege. Die Detektion des kürzesten Weges verbessert sich im Zeitablauf immer mehr, da nachfolgende Ameisen mit höherer Wahr-scheinlichkeit den stärker belaufenen und markierten Weg wählen. Das Phe-

39 Weitere bekannte meta-heuristische Verfahren, die bei der Lösungssuche vorüberge-

hend auch schlechtere Bezugslösungen akzeptieren, sind das Tabu Search und das Scatter Search. Sie gelten als allgemeine Konzepte, die sich nicht unmittelbar am Vor-bild der Natur orientieren (vgl. Voß et al. 2000, S. 560).

Page 216: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

194 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

romon speichert also die vergangenen Wegentscheidungen und nimmt damit die Rolle einer Art kollektiven Gedächtnisses der Ameisenkolonie ein.

In der Mathematik existieren eine Vielzahl von Algorithmen zur funktionellen Optimierung. Im Zusammenhang mit (Design for) Six Sigma sind sie Werkzeug, z.B. DOE, und Vorbild für die Lösung schwieriger Probleme, z.B. LSA, zugleich. Für die konkrete Verbesserung des DMADV-Zyklus als Vorge-hensmodell in F&E sind vor allem Algorithmen interessant, mit dessen Hilfe sich schlecht strukturierte Probleme mit unbekannter Zielfunktion lösen lassen. Als vielversprechend gelten hier die heuristischen Lösungsverfahren; zu diesen gehö-ren u.a. evolutionäre Algorithmen (vgl. Unterkapitel 4.3). Sie garantieren zwar nicht das Auffinden des globalen Optimums einer Funktion, jedoch beinhalten sie i.d.R. ein effizientes Vorgehen, um die optimale Lösung zumindest annähernd zu bestimmen. Bei DFSS geht es um das Erkennen und Erfüllen von CTQs, welches – in Analogiebetrachtung – dem Auffinden des (unbekannten) globalen Optimums entspricht. Unter dieser Voraussetzung ergeben sich z.T. ganz neue Erkenntnisse in Bezug auf die Konzeption realer Vorgehensmodelle (vgl. Kapitel 5).

4.3 Evolutionäre Algorithmen Die Mehrheit der klassischen Algorithmen zur Lösung schwieriger Probleme zeichnet sich dadurch aus, dass sie eine einmal gefundene (Näherungs-)Lösung nach bestimmten Vorgehensregeln verbessern. Evolutionäre Algorithmen (EA) gehen demgegenüber einen ganz anderen Weg. Sie entwickeln eine in einer Popu-lation zusammengefasste Menge von Lösungen systematisch weiter in Richtung Optimum. Dabei ist die Anwendung von EAs nicht auf die Lösung von natur- und ingenieurwissenschaftlichen Problemstellungen beschränkt. In den Wirtschafts-wissenschaften wird seit langem die systematische Übernahme von Erkenntnissen aus der Biologie auf ökonomische Sachverhalte verfolgt.40

Nach einem kurzen Abriss der natürlichen Evolution als Vorbild zur Lösung kom-plexer Probleme werden im Weiteren die wesentlichen evolutionstheoretischen Lösungsstrategien/ -ansätze in der Produktentwicklung kurz vorgestellt. Eine be-sondere Rolle spielen hierbei Genetische Algorithmen (GA), auf die im Abschnitt 4.3.3. detaillierter eingegangen wird. Das Unterkapitel endet mit einem einfachen GA-Anwendungsbeispiel zur funktionellen Optimierung.

40 Bereits von den „Klassikern“ der Volkswirtschaftslehre, DAVID RICARDO (1772-1823)

und THOMAS R. MALTHUS (1766-1834), wurden biologisch geprägte Begriffe auf ökonomische Sachverhalte übertragen (vgl. Gordon 1989, S. 443). Auch ALFRED MAR-SHALL (1842-1924), der „Vater der neoklassischen Theorie“, vertrat die Ansicht, dass zur Erlangung tiefgründiger(er) Erkenntnisse in den Wirtschaftswissenschaften kein Weg an der biologischen (Evolutions-)Theorie vorbeiführe.

Page 217: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 195

4.3.1 Die natürliche Evolution als Vorbild zur Lösung komplexer Pro-bleme

In praktischen Anwendungen ist die Zielfunktion häufig nur implizit, d.h. in Form von Punkten, die z.B. durch Simulationsmodelle oder durch Messungen an einem realen System gewonnen wurden, gegeben. Ohne analytische Darstellung der Zielfunktion können Eigenschaften wie Stetigkeit oder Kontinuität a priori nicht zugesagt werden (vgl. Abschnitt 4.2.1). Für den Entscheidungsträger sind die Input-Output-Relationen eine Black-Box mit einer Vielzahl von „Einstellknöpfen“ zur Einstellung der Parameter sowie einer Skala zur Anzeige der Güte der aktuel-len Einstellung. Dies sind die wirklich schwierigen Optimierungsaufgaben. Fort-schrittliche Algorithmen, die solche Aufgaben lösen, dürfen kein festes inneres Modell besitzen, sondern müssen in der Lage sein, zu einer gegebenen Zielfunkti-on das innere Modell zu erlernen (vgl. Sprave 1999, S. 10).

Bei der Optimierung anhand von Messwerten tritt häufig die zusätzliche Schwie-rigkeit auf, dass fehlerhafte Messanordnungen zu scheinbar sehr guten Lösungen führen. Diese können die Suche im weiteren Projektablauf in eine völlig falsche Richtung lenken. In diesem Fall ist ein Verfahren erforderlich, das die Fähigkeit besitzt, zu vergessen. Weiterhin ist die Lage des Optimums eines realen Systems in vielen Fällen nicht zeitinvariant, d.h. für alle Zeiten gültig. Gerade bei be-triebswirtschaftlichen Sachverhalten ist zu beobachten, dass aufgrund sich än-dernder Marktkonstellationen ein einmal gefundenes Optimum langsam wegdriftet und es dann kontinuierlich „verfolgt“ werden muss. Verändern sich die Gegeben-heiten derart, dass laufend neue Optima entstehen und alte verschwinden, dann sollte der Optimierungsalgorithmus in der Lage sein, neue „Gebiete im Suchraum“ zu erforschen, sofern lokal keine Fortschritte mehr zu erzielen sind

Seit Mitte des vorigen Jahrhunderts existiert die Idee, die zugrunde liegenden Mechanismen der biologischen Evolution41 zu imitieren, um so leistungsfähige Algorithmen für (schwierige) Optimierungsprobleme zu entwickeln. So entstan-den bis zum heutigen Zeitpunkt eine Reihe von stochastischen, populationsbasie-renden Suchverfahren, die durch die biologische Evolution und deren Erfolg in der

41 Der Begriff „Evolution“ geht auf das lateinische Wort „evolvere“ zurück, was so viel

bedeutet wie „vorwärts rollen“. Im übertragenen Sinn geht es hier um das Aufrollen einer Papierrolle, wobei alles offengelegt wird, was bereits auf dem eingerollten Papier vorhanden (gedruckt) ist (vgl. Hodgson 1993, S. 37).

Sowohl diese als auch die nachfolgende Begriffserklärung prägen den Wissenschafts-zweig der Evolutorischen Ökonomik. Neben dem „Bild der Papierrolle“ existiert eine „biologische Deutung“ des Begriffs Evolution, der auf die zwei Evolutionsbiologen CHARLES DARWIN (1809-1882) und JEAN BAPTIST DE LAMARCK (1744-1829) zurück-geht. Dabei steht die Analyse der drei Mechanismen Retention, Variation (Mutation) und Selektion sowie deren Zusammenspiel im Vordergrund, um die Veränderungen von biologischen, ökonomischen und/ oder gesellschaftlichen Prozesse zu erklären.

Page 218: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

196 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Natur inspiriert sind. Die stetige Optimierung von Individuen an sich ständig än-dernde Umweltbedingungen steht im Mittelpunkt des Forschungsprogramms der Evolutionären Algorithmen. Die im Kern heuristischen Algorithmen haben in jüngster Zeit beträchtlich an Bedeutung gewonnen. Insbesondere bei den schwie-rigen Problemstellungen, z.B. mit einem großen Suchraum und einer geringen Strukturierung, liefern die Prinzipien der natürlichen Evolution einen geeigneten Modellrahmen für generelle Adaptions- oder Optimierungsstrategien.

Die vorherrschende Vielfalt und Komplexität der Lebensformen wird heute mit Hilfe der neodarwinistischen Evolutionssicht erklärt. Sie kann im Wesentlichen durch folgende drei Mechanismen beschrieben werden (vgl. u.a. Weicker 2002; Beyer et al. 2001; Nissen 1997; Bäck et al. 1990):

• : Eine wesentliche Voraussetzung für das Stattfinden von Evolution ist die Replikation, d.h. die Weitergabe von Erbinformationen42 der Eltern an ihre Nachkommen, die sowohl sexuell als auch asexuell erfolgen kann. Durch das Genom wird das grundlegende Erscheinungsbild eines Organismus, der sog. Phänotyp, bestimmt und durch Vererbung über Generationen hinweg bewahrt. Allerdings liegt nur selten eine 1:1-Relation zwischen den geneti-schen Informationen des Lebewesens, dem sog. Genotyp, und seinem äußeren Erscheinungsbild vor. In der Regel sind mehrere Gene an einem phänotypi-schen Merkmal des Individuums beteiligt; oder umgekehrt, ein Gen hat Ein-fluss auf gleich mehrere phänotypische Merkmale. Folglich sind auf Indivi-dualebene sowohl Phäno- als auch Genotyp relevant.

• : Das Gen bildet die Grundlage für die Vererbung sowie für die Veränderung des Erbguts. Eine Population wird als eine Art definiert, wenn die Individuen dem gleichen Genpool entstammen und sich miteinander paa-ren können. Im Rahmen der geschlechtlichen Fortpflanzung von Individuen kommt es zur Rekombination, bei der das Erbmaterial neu zusammengesetzt wird. Hierbei lassen sich zwei Formen unterscheiden (vgl. Weicker 2002, S. 26): Bei der ersten Form tritt eine zufällige Neuverteilung der väterlichen und mütterlichen Chromosomen in den Keimzellen des Kindes auf. Die zweite Form ist das Ergebnis der Überkreuzung von Bestandteilen der korrespondie-renden väterlichen und mütterlichen Chromosome. Man bezeichnet diesen Vorgang auch als Crossing-Over oder Crossover.

42 In der Natur sind die Erbinformationen in Form einer Sequenz von vier verschiedenen

Nukleotidbasen, der Desoxyribonucleinsäure (DNS), innerhalb der Chromosomen des Zellkerns codiert. Diese Sequenz dient als Bauplan zur Erzeugung von Enzymen, Orga-nellen, Organen und ganzen Individuen. Ein einzelner Abschnitt auf dem Chromosom wird Gen genannt und bildet die kleinste Einheit der Erbinformation. Die Gesamtheit aller Gene eines Organismus wird als Genom bezeichnet, die anzunehmenden Werte eines Gens wiederum als Allel, z.B. steht ein Gen für die Bestimmung der Haarfarbe mit den Allelen (Ausprägungen) blond und schwarz. Die Gesamtheit aller Allele wer-den unter dem Begriff Genpool zusammengefasst (vgl. Kilian et al. 2006, S. 92f.).

Page 219: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 197

Neben der Rekombination kommt es durch das Auftreten von Mutationen zu Veränderungen des Erbguts von Individuen. Mutationen beschreiben die spontane Veränderung der genetischen Information im Zuge der Fortpflan-zung, wodurch Fehler bei der Reproduktion der DNA entstehen. Die Ände-rungen einzelner Gene, Chromosome und/ oder Genome treten dabei mit ei-ner gewissen Mutationsrate bzw. -wahrscheinlichkeit auf.

• Die ökologische Konkurrenz und genetische Variabilität der Arten führen dazu, dass nur die anpassungsfähigsten Individuen überleben (Survival of the Fittest). Da sie die größte relative Lebensdauer im Verhältnis zu ande-ren Individuen derselben Population haben, besitzen sie auch die größte Chance, ihre Erbanlagen (Gene) an die Nachkommenschaft weiterzugeben. Die Selektion bewertet die Angepasstheit der Individuen im Moment und stellt deshalb den einzigen gerichteten Vorgang in der Evolution dar. Dabei arbeitet sie nicht auf der Ebene einzelner Eigenschaften oder Gene, sondern den dadurch bestimmten phänotypischen Ausprägungen des Organismus. Gleichzeitig stellt sich die natürliche Auslese als ein stochastischer Prozess dar, bei dem auch weniger gut an die Umwelt angepasste Individuen eine Chance zur Reproduktion haben, selbst wenn diese nur sehr gering ist.

Aus dem Wechselspiel von Variation und Selektion lässt sich die schrittweise Entstehung der heutigen Arten aus früheren Urformen erklären. Aufgrund der Veränderung und/ oder Vermischung der Erbinformation der Individuen im Zuge der Fortpflanzung entstehen unterschiedlich konkurrenzfähige Nachkommen. Als Selektionskriterium wird die Fitness, also die unterschiedliche Tauglichkeit der Individuen im Überlebenskampf, angeführt. Als Erfolgsgröße kennzeichnet sie die Anzahl der überlebenden Nachkommen in einer Population.43

Bei der Bewertung der Fitness in der Natur wird implizit davon ausgegangen, dass ein Genotyp, der besser an seine Umwelt angepasst und folglich tauglicher ist, mehr Nachkommen erzeugt (vgl. Weicker 2002, S. 30). Dadurch ergibt sich ein natürlicher Ausleseprozess, der dazu führt, dass die nachfolgenden Generationen einer Art bevorzugt die Eigenschaften und Besonderheiten der jeweils aktuellen, gut angepassten Individuen einer Population erhalten. Gleichzeitig bilden die Gene eines Genpools ein harmonisches System, bei dem die Allele der verschie-denen Gene sorgfältig aufeinander abgestimmt sind. Stark disharmonische Kom-binationen, die z.B. im Zuge von Mutationen auftreten, werden solange durch die Selektion „bestraft“ bis wieder ein harmonischer Zustand erreicht ist.44

43 Die relative Fitness F ergibt sich aus dem Verhältnis der Anzahl der Nachkommen von

Individuen mit einem Genotyp G zur Anzahl der Nachkommen von Individuen, die der-zeit mit dem „bestmöglichen“ Genotyp G* ausgestattet sind: F(G) = G / G*. Zum Formaldarwinismus und zur Berechnung der Fitness in unsicheren Umweltsituationen siehe auch die Beiträge von Grafen 1999, Real 1980 und Cohen 1966.

44 Dies wird als Beleg dafür gewertet, dass viele Grundbaupläne der Organismen nach ihrer Festlegung nicht mehr grundsätzlich geändert werden können (Weicker 2002, S. 30). Die Änderung, die zu einem neuen harmonischen Zustand führt, ist um so schwie-

Page 220: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

198 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Das Vokabular für Evolutionäre Algorithmen wurde aus der oben beschriebenen neo-darwinistischen Evolutionslehre entlehnt. Dabei werden vorzugsweise fol-gende Analogien verwendet (siehe Abb. 4-8). Eine potenzielle Lösung eines Op-timierungsproblems, also ein Punkt im Suchraum, wird als Individuum in einer künstlichen Umwelt betrachtet, welches die Parameter für eine potenzielle Lösung in codierter Form erhält. Der Grad der Anpassung an diese gegebene Umwelt wird durch die Zielfunktion bestimmt. Die Koordinaten im Suchraum werden i.d.R. über das Genom des Individuums repräsentiert.

Durch die Zusammenfassung von mehreren Individuen zu einer Population lassen sich die Mechanismen der natürlichen Evolution modellieren. Um die Überlebens-fähigkeit eines Individuums zu bestimmen, wird eine Fitnessfunktion ver-wendet, die jedem Individuum einen Wert zuordnet, der dessen Fähigkeit wieder-spiegelt, das Problem zu lösen. Die Population stellt die augenblickliche Anzahl der möglichen Lösungen der Problemstellung dar. Die darin enthaltenen Individu-en werden auch, in Anlehnung an die Natur, als Chromosomen bezeichnet. Für die Codierung eines Individuums wird ein aus Genen bestehender Bit-String mit i.d.R. fixer Länge verwendet. Jedes Gen kann einen Wert einer diskreten Wertemenge annehmen.45 Die jeweilige Ausprägung wird als Allel bezeichnet.

Bei EAs werden die wesentlichen Mechanismen der natürlichen Evolution, näm-lich Retention, Variation und Selektion, abstrahiert und modelliert. Ziel ist es, komplexe Problemstellungen mit großem Suchraum nach dem Vorbild des natür-lichen Evolutionsprozesses zu lösen. Je nachdem, welcher der drei Mechanismen besonders hervorgehoben wird, lassen sich drei Hauptströmungen unterscheiden; sie imitieren/ modellieren das Evolutionsgeschehen auf unterschiedlichen Abs-traktionsebenen (vgl. Sprave 1999, S. 10ff.).

riger, je komplexer der Grundbauplan des Organismus ist. Einmal im genetischen System etablierte Zusammenhänge sind nicht mehr umkehrbar, so dass die natürliche Evolution immer „Ballast“ aus früheren Anpassungen mit sich „herumschleppt“. Evo-lution verläuft in einer Einbahnstraße, wodurch das Erreichen einer jeweils optimalen Anpassung und damit maximalen Fitness (deutlich) erschwert wird.

45 In der klassischen GA-Variante werden alle zu optimierenden Variablen in binärer Form codiert und zu einem binären String als Chromosom zusammengefasst. Nicht immer ist diese Art der Darstellung zweckmäßig und für das Optimierungsproblem ausreichend. Daher kommen auch Repräsentationen mit Alphabeten höherer Kardi-nalität vor (vgl. Gen/ Cheng 1997, S. 4).

Page 221: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 199

Abb. 4-8: Terminologie von Evolutionären Algorithmen

(1) , oder auch Genetische Programmierung (GP), sind computer-basierte Problemlösungsverfahren, die berechenbare Modelle von natürlichen, evolutionären Prozessen als Schlüsselelemente verwenden. Der Name „Genetischer Algorithmus“ geht auf JOHN H. HOLLAND (1975) zu-rück, der Ende der 1960er Jahre ein naturanaloges Adaptionsverfahren entwi-ckelte, bei dem die Problemparameter analog zu den DNA-Sequenzen als Zeichenketten über ein endliches Alphabet – i.d.R. als Binärcode – codiert werden. Dieser Ansatz wurde u.a. von DAVID E. GOLDBERG (1989), Fogel (1992) und Michalewicz (1996) aufgegriffen und maßgeblich weiterentwi-ckelt. GA und GP, die im Kern eine Form von GA mit spezifischen Lösungs-repräsentationen bilden (vgl. Nissen 1997, S. 237), betonen die genetischen Mechanismen auf der Abstraktionsebene des Chromosoms.

Die wirtschaftswissenschaftlichen Aufsätze zu diesem Themenkreis beschäf-tigen sich mehrheitlich mit der Formulierung individueller und gesellschaftli-cher Lernprozesse (vgl. Clemens/ Riechmann 1996, S. 10ff.). Als repräsenta-tiv gelten die Modelle von (a) Arifovic (1994), die GAs zur Simulation des

Codierte Lösung (String)Genotyp

Zusätzlich bei Genetischen Algorithmen

Darstellungsform einer vollständigen Lösung des Pro-blems, üblicherweise als String

Chromosom (bestehend aus Genen)

Bit Gen

Ausprägung eines Bits (bei binärer Codierung: 0/ 1)Allel

Decodierte Lösung (Merkmalsausprägung)Phänotyp

VerfahrensiterationGeneration

Qualität der gefundenen Lösungen bezogen auf die re-levanten Zielkriterien

Fitness

Suchoperator, der jeweils ein Individuum, also ein Chromosom, modifiziert

Mutation

Suchoperator, der Elemente verschiedener Individuen vermischt

Crossover

Aus den Eltern erzeugte Nachkommen als neue mög-liche Lösungen des Problems

Kinder

Menge von ausgewählten Lösungen, die zur Reproduk-tion herangezogen werden

Eltern

Gesamtmenge von Punkten im Suchraum als mögliche Lösungen des Problems

Population (von Individuen)

Punkt im Suchraum als mögliche Lösung des ProblemsIndividuum

Bedeutung bei EAAusdruck in Biologie

Codierte Lösung (String)Genotyp

Zusätzlich bei Genetischen Algorithmen

Darstellungsform einer vollständigen Lösung des Pro-blems, üblicherweise als String

Chromosom (bestehend aus Genen)

Bit Gen

Ausprägung eines Bits (bei binärer Codierung: 0/ 1)Allel

Decodierte Lösung (Merkmalsausprägung)Phänotyp

VerfahrensiterationGeneration

Qualität der gefundenen Lösungen bezogen auf die re-levanten Zielkriterien

Fitness

Suchoperator, der jeweils ein Individuum, also ein Chromosom, modifiziert

Mutation

Suchoperator, der Elemente verschiedener Individuen vermischt

Crossover

Aus den Eltern erzeugte Nachkommen als neue mög-liche Lösungen des Problems

Kinder

Menge von ausgewählten Lösungen, die zur Reproduk-tion herangezogen werden

Eltern

Gesamtmenge von Punkten im Suchraum als mögliche Lösungen des Problems

Population (von Individuen)

Punkt im Suchraum als mögliche Lösung des ProblemsIndividuum

Bedeutung bei EAAusdruck in Biologie

Basis: Nissen 1997, S. 13

Page 222: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

200 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

adaptiven Verhaltens im Rahmen des Cobweb-Modells benutzt, (b) Birchen-hall (1995), der GAs für eine differenzierte Analyse ökonomischen Verhal-tens in einem Zwei-Sektoren-Modell einsetzt, und (c) Vriend (1995), der mit-hilfe von GAs die Selbstorganisation von Märkten analysiert.

(2) bilden das Evolutionsgeschehen nicht auf der geno-typischen, sondern rein auf der phänotypischen Ebene ab. Ihre Entwicklung geht auf Rechenberg/ Schwefel (1965) zurück, die das Verfahren zur prakti-schen Optimierung im Rahmen von ingenieurwissenschaftlichen Anwendun-gen entwarfen. ES sind also im Gegensatz zu GA bzw. GP von Anfang an als Optimierungsmethoden konzipiert und eingesetzt worden. Die Hauptunter-schiede bestehen in den Bereichen der Lösungsrepräsentation, der Selektion und Gestaltung sowie der Bedeutung der einzelnen Suchoperatoren (Rekom-bination und Mutation). Das Verfahren wird sowohl zur diskreten, experimen-tellen Optimierung (vgl. z.B. Klockgether/ Schwefel 1970) als auch zur reell-wertigen, empirischen Parameteroptimierung eingesetzt.

(3) gilt als dritter, ebenfalls zunächst unab-hängig entwickelter Zweig der Evolutionären Algorithmen. Das Verfahren geht auf Fogel/ Owens/ Walsh (1966) zurück und weist starke Ähnlichkeiten zu ES auf. Jedoch simuliert es die Evolution nicht auf der Ebene von Indivi-duen, sondern auf der Ebene von Arten/ Populationen, so dass in den Model-len von EP keine Rekombination vorgesehen ist. Der Abstraktionsgrad nimmt folglich von GA über ES zu EP hin zu. Ursprünglich wurde EP als ein Ver-fahren zur Entwicklung endlicher Automaten mit vorgegebenem Ein-/ Aus-gabeverhalten definiert. Zur reellwertigen Parameteroptimierung wurde es erst Anfang der 1990er Jahre weiterentwickelt (vgl. Fogel 1992).

Während die Frühphase der Evolutionären Algorithmen vor allem durch disjunkte EA-Arten gekennzeichnet war, zeichnet sich heute eine zunehmende Vermischung der einzelnen Ansätze ab. Vor allem aufgrund der algorithmischen Ähnlichkeiten gibt es in zunehmendem Maße Bestrebungen, GA, GP, ES und EP unter dem gemeinsamen Namen Evolutionäre Algorithmen (EA – Evolutionary Algorithms) zusammenzufassen und das Forschungsgebiet als Evolutionäres Rechnen (EC – Evolutionary Computation) zu bezeichnen. Die Grundkonzeption von EAs soll im Weiteren anhand des Genetischen Algorithmus dargestellt werden, da er nach wie vor die mit Abstand bekannteste und am weitesten verbreitete EA-Form ist. Zuvor wird ein kurzer Überblick über die Bedeutung evolutionstheoretischer Ansätze in der BWL sowie ihre Anwendung im Rahmen von F&E gegeben.

4.3.2 Evolutionäre Ökonomik – Übertragung evolutionärer Prinzipien auf die Organisations- und Managementwissenschaften

Die sind nur einer von vielen Bereichen, in denen in der Vergangenheit intensiv an einer systemimmanenten Übernahme evolutionärer Prinzipien geforscht worden ist (vgl. hierzu Kieser/ Woywode 2002, S. 253ff.). Den „wirklichen“ Durchbruch als Forschungsrichtung

Page 223: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 201

erlangte die sog. Evolutorische Ökonomik46 mit den Veröffentlichungen „An Evolutionary Theory of Economic Change“ von RICHARD NELSON und SIDNEY WINTER im Jahr 1982 sowie der „Organizational Ecology Theory“ von MICHAEL T. HANNAN und JOHN FREEMAN im Jahr 1989. Seit dieser Zeit haben sich eine Reihe von Forschungsaktivitäten entfaltet, von denen vor allem die Innovations- und Institutionenökonomik nachhaltig beeinflusst worden sind.

Der im Bereich der populationsökologischen sowie evolutionsökonomischen Ansätze zeichnet sich vor allem durch eine starke Hete-rogenität aus. Im großen und ganzen lassen sich aber die folgenden fünf Ansätze/ Forschungsfelder differenzieren (vgl. u.a. Arpagaus 2002, S. 4ff.):

• Wachstum durch technischen/ technologischen Fortschritt (Innovationen)

• Evolution von Marktstrukturen unter Beachtung von Pfadabhängigkeiten

• Organisationsökologie – Organisationaler Wandel/ Change Management

• Populationsökologie – Entwicklung/ Verbreitung von Organisationsformen

• Evolution von ökonomischen Institutionen/ (Management-)Konzepten.

Sowohl die Übertragung von evolutionären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produkt-/ Prozessverbesserung standen bis dato kaum im Interesse der For-schungsbemühungen. Vielmehr wurden theoretische Modelle zur

von betriebs- und volkswirtschaftlichen Sachverhalten aufgestellt; die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unter-nehmenspraxis wurde allenfalls am Rande behandelt. Als Grund lässt sich u.a. der spezielle Blickwinkel der auf die Unternehmenstätig-keit anführen. Wie Abb. 4-9 anhand von sechs Kriterien zeigt, unterscheiden sich die Grundannahmen gegenüber der signifikant.

Neben der Annahme begrenzt rational handelnder Akteure aufgrund unvollkom-mener Informationen über Zweck-Mittel-Beziehungen (6) wird davon ausgegan-gen, dass der Wandel/ die Veränderung von Organisationen nicht primär exogen, sondern endogen begründet ist (1). Weiterhin ist die Analyse durch eine dynami-sche Sichtweise geprägt, d.h. im Blickwinkel stehen die Veränderungsprozesse selbst; Ungleichgewicht ist der Regel-, nicht der Ausnahmefall (2).

Im Zusammenhang mit der Problemlösungsfindung wird davon ausgegangen, dass die Fähigkeiten und Erwartungen der Akteure einer Population heterogen und

46 Nach Cantner/ Hanusch (1997, S. 778) befasst sich die Evolutorische Ökonomik „mit

der Analyse von wirtschaftlichen Entwicklungen, die bedingt und gesteuert werden von den oft neuerungsorientierten Aktivitäten heterogener Akteure. Dies spielt sich zumeist in Situationen echter Unsicherheit ab. [...] Als notwendige Folge hiervon stellt sich die ökonomische Entwicklung als ein offener Prozeß dar, der oft pfadabhängig verläuft und in historischer Zeit zu sehen ist“.

Page 224: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

202 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

normalverteilt sind (3). Dies führt dazu, dass individuelles und zielorientiertes Handeln zu unterschiedlichen Lösungen eines Problems führt respektive führen kann. In Abgrenzung zur klassischen Ökonomik werden Unternehmungen als dauerhafte ökonomische Institution mit eigener Kultur und verschiedenen Akteure betrachtet (4) (vgl. Cantner/ Hanusch 1997, S. 778ff.).

Im Vordergrund der evolutionstheoretischen Erklärungsansätze steht das organi-sche Wachstum von Organisationen mit dem Ziel, die Überlebenswahrscheinlich-keit zu erhöhen (5). Da Unternehmungen/ Organisationen von den Individuen inszeniert und konstruiert werden, z.B. Unternehmer gründen kleine/ große Fir-men; Manager (re-)strukturieren Organisationen, spielt das kreative/ schöpferische Element – in Abgrenzung zu Lebewesen – eine größere Rolle.

Abb. 4-9: Vergleich von Evolutorischer und Klassischer Ökonomik

Eine besondere Bedeutung besitzen die (organisationalen) , welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Handlungsfä-higkeit der Organisation sicherstellen (vgl. Douma/ Schreuder 2002, S. 233). In Analogie zur Biologie steht die Unternehmung als ökonomische Institution für den Phänotyp, während Routinen den ihnen zugrundeliegenden Genotyp kennzeich-nen. Je nach Erkenntnisinteresse des Forschers werden unter Routinen sowohl Kompetenzen (Comps) als auch Fähigkeiten (Skills) verstanden. Die Fähigkeit eines Unternehmens besteht bspw. darin, Six Sigma-Projekte mit der Routine des DMAIC-Zyklus erfolgreich durchzuführen. Neben Populationen bilden Routinen damit eine weitere wichtige Analyseeinheit evolutionstheoretischer Konzepte. Die Anzahl der Untersuchungen zu diesem Thema hat in der jüngsten Vergangenheit deutlich zugenommen (vgl. z.B. Burgelman 1990/ 91).

Kriterien Evolutorische Ökonomik Klassische Ökonomik

Nelson/ Winter 1982 Coase 1937

Williamson 1975

Kriterien Evolutorische Ökonomik Klassische Ökonomik

Nelson/ Winter 1982 Coase 1937

Williamson 1975

Quelle: Arpagaus 2002, S. 4ff.

Page 225: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 203

Nach Nelson/ Winter (1982, S. 14ff.) ändern sich Routinen im Laufe der Zeit, wenn (a) neue Problemlösungsprozesse entstehen und/ oder (b) zufällige Ereignis-se, z.B. Entdeckungen, auftreten.47 Damit unterliegen Routinen einem generellen Veränderungs- und Anpassungsprozess. Dieser umfasst auf der einen Seite die kontinuierliche Erweiterung/ Akkumulation von Elementen über die Zeit. Auf der anderen Seite kann es aber auch zu einem schlagartigen Wandel von Routinen kommen, z.B. durch das Auftreten von Mutationen. Neben Variationsprozessen stehen bei den evolutionstheoretischen Ansätzen der Organisations- und Manage-mentwissenschaften vor allem Selektions-, Adaptions- und Retentionsprozesse im Fokus der Analyse (siehe Abb. 4-10). Die Aussagen der synthetischen Evolutions-theorie der Biologie zu den einzelnen Prozessen werden dabei – in Form von Ana-logieschlüssen – auf sozio-ökonomische Fragestellungen übertragen.

Abb. 4-10: Das Forschungsprogramm der Evolutorischen Ökonomik

Das Auftreten von gewollten und/ oder ungewollten Variationen (Mutationen) führt zu einer .48 Den Ausgangspunkt für einen Evolutionszyklus in Organisationen bildet das Auftreten von Innovationen. Diese beziehen sich sowohl auf die Veränderung von bestehenden als auch die

47 In einem späteren Beitrag betont Winter (2003, S. 991), dass Routinen nicht nur wie-

derholungsfähige, sondern auch gelernte und spezifisch ausgerichtete Verhaltens-muster in Organisationen sind. Gleichzeitig weist er nachdrücklich darauf hin, dass sich Routinen nicht auf alles und jedes in Organisationen beziehen; so gehören z.B. bril-liante Improvisationen gerade nicht zu Routinen.

48 Genau wie in der Natur ist davon auszugehen, dass Mutationen eher zu einer Ver-schlechterung als zu einer Verbesserung der Unternehmensperformance i.S.v. „Fitness“ führen. Konkret bedeutet dies, dass die Wahrscheinlichkeit sehr gering ist, dass durch zufällige Veränderungen der Einstellungen im Prozess, z.B. an einer Maschine, ein qualitativ gleich- oder gar höherwertiges Endprodukt liefert.

Quelle: Nelson/ Winter (1982) über Arpagaus (2002)

Page 226: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

204 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Entwicklung von ganz neuen Routinen. Die Entstehung neuer Routinen lässt sich in vielen Fällen auf einen verstärkten Wettbewerbsdruck zurückführen, der in einer bestimmten Branche Platz greift. So ist z.B. die Qualitätsphilosophie TQM das Ergebnis der „2. Revolution in der Automobilindustrie“ in den USA und Eu-ropa Ende der 1980er Jahre (vgl. Womack et al. 1994).

Zum Vorgehen beim „Change Management“ in der Praxis ist festzuhalten, dass sich organisationale Routinen jeweils nur in kleinen Schritten wandeln (lassen). Dies geschieht dadurch, dass die Akteure jeweils lokal nach Lösungen/ Verbesse-rungen suchen, d.h. sie starten bei ihrer Lösungssuche so nah wie möglich bei der bestehenden Routine. Die Suche selbst unterliegt einer Wahrscheinlichkeitsvertei-lung, die besagt, dass mit steigendem Einsatz/ höheren Investitionsaufwendungen eine überlegene Technologie – durch Innovation oder Imitation – tatsächlich ge-funden wird (vgl. Douma/ Schreuder 2002, S. 233). Im Fall von begann die Suche nach einem neuen Verbesserungsalgorithmus beim PDCA-Zyklus. Um die Qualitätsbemühungen bei Motorola stärker auf Prozesse und Kunden auszu-richten, wurde der Zyklus sukzessive verändert bis mit dem DMAIC-Zyklus eine verbesserte Routine vorlag. Zur Penetration des 5-phasigen Zyklus im Unterneh-men wurde ein umfassendes Managementkonzept konzipiert.

Wie kaum eine andere Organisationstheorie schreibt der evolutionstheoretische Ansatz der umweltbezogenen Selektion eine herausragende Bedeutung bei der

, auch genannt Trajektorien, zu (vgl. Dosi 1982, S. 332f.). So werden nach Auffassung der Evolutionstheoretiker nicht nur ganze Organisationen, sondern auch bestimmte Konzepte durch die Umwelt, d.h. durch die situativen Gegebenheiten auf dem Markt und/ oder in der Branche, selektiert (vgl. u.a. Aldrich/ Müller 1982, S. 33ff.). Dadurch kommt es zu einer gerichteten Änderung der Zusammensetzung des Genpools in einer Population. Insbesondere werden Routinen, die sich bei der Bewältigung der unternehmensbe-zogenen Herausforderungen bewährt haben, ausgelesen und als Kopiervorlage für andere Unternehmen/ Bereiche „zugelassen“. Genau wie in der Natur wird so gewährleistet, dass die Unternehmen, die mit den besten Routinen ausgestattet sind bzw. diese übernehmen, im Wettbewerb überleben.

Aufgrund des Selektionsmechanismus sind die Unternehmen angehalten, sich relativ schnell und gut an neue Markt-/ Umweltsituationen – z.B. durch den Auf-bau und/ oder die Übernahme geeigneter Routinen – anzupassen. Dieser Forde-rung können viele Unternehmen nur bedingt nachkommen, da sie über eine ausge-sprochen hohe verfügen; im Hinblick auf Änderungen ihrer Umwelt können sie nur relativ langsam bzw. schwerfällig (re-)agieren. Han-nan/ Freeman (1984) weisen in diesem Zusammenhang darauf hin, dass die Reak-tionen/ Veränderungen von Organisationen in vielen Fällen unregelmäßig, verspä-tet und teilweise erfolglos stattfinden. Im Gegensatz zu vielen populärwissen-

Page 227: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 205

schaftlichen Aufsätzen sind sie jedoch der Auffassung, dass jede Art von Selekti-onsdruck genau die Organisationen favorisiert, die relativ träge sind.49

Die positive Veränderung des Genotyps eines Individuums führt zu einer höheren Fitness und damit verbesserten Anpassung an die herrschenden Umweltbedingun-gen. Bei Unternehmen wird durch günstige Veränderungen der organisationalen Routinen eine erreicht. In Abhängigkeit von den Marktbedingungen kann eine hohe Wettbewerbsfähigkeit geringe Herstellkos-ten, hohe Produktqualität oder beides implizieren. So sind Unternehmen, die auf hoch kompetitiven Märkten agieren, i.A. bestrebt, qualitativ hochwertige Produkte zu relativ niedrigen Kosten herzustellen (Outpacing). Um dieses Ziel zu erreichen, werden von den Unternehmen Verbesserungsprogramme, z.B. Six Sigma, initiiert. Dabei wird die bisherige Vorgehensweise der Lösungssuche infrage gestellt und durch eine neue organisationale Routine ersetzt. Infolge der Veränderung des Genotyps kommt es nach und nach auch zu einer Adaption des Phänotyps, also einer Veränderung des Unternehmens auf der Merkmalsebene.50

Aus Erfahrungen ist bekannt, dass die Anpassung von Organisationen an neue Herausforderungen nicht sofort und unmittelbar erfolgt. In vielen Fällen können sie sich sogar nur begrenzt auf die sich verändernden Markt-/ Umweltbedingungen einstellen. Nach dem von Hannan/ Freeman (1984/ 89) ist die Trägheit von Organisationen (Organisational inertia) der aus-schlaggebende Faktor hierfür.51 Sie ist das Resultat verschiedener Faktoren, z.B. Widerstände von einflussreichen Akteuren/ Stakeholder gegen radikale strukturale Organisationsveränderungen sowie Legitimation des Bestehenden und Diskrimi-nation des Anderen aufgrund bestehender Normen und Werte. Nach dem

von Nelson/ Winter (1982) wirken Routinen als organi-satorisches Gedächtnis und erklären, warum Organisationen relativ resistent ge-genüber Veränderungen und infolgedessen relativ träge sind. So halten viele Un-ternehmen, die Six Sigma einmal unternehmensweit implementiert haben, an den Problemlösungszyklen DMAIC und DMADV lange Zeit fest.

49 Unter der Voraussetzung, dass eher förderlich als hinderlich

ist, stellt sich auch die Bedeutung und Zielsetzung von Managementkonzepten in einem anderen Licht dar. Als Effizienzkriterien zur Beurteilung sind die Reproduzierbarkeit (Reproducibility), die Zuverlässigkeit (Reliability) und die Berechenbarkeit (Accounta-bility) der jeweiligen Routinen heranzuziehen (vgl. Hannan/ Freeman 1984).

50 Bei Six Sigma-Unternehmen wird diese Veränderung z.B. an der Projektorganisation mit genau spezifizierten Rollen wie Green Belts und Black Belts sichtbar. Im Wett-bewerb äußert sich Six Sigma in einer besseren „Passung“ i.S.v. „Fit“ der Produkte hinsichtlich der Erfüllung der wesentlichen Kundenanforderungen.

51 Eine hohe organisationale Trägheit ist besonders dann wünschenswert, wenn die Pro-zesse im Unternehmen effizient sind und sich die Marktbedingungen kaum ändern. Reproduzierbare, zuverlässige und berechenbare Routinen gelten in diesem Fall als zielführend (vgl. Aldrich 1999, S.59).

Page 228: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

206 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Die Routinen respektive Organisationsformen/ -strukturen, die nach der Selektion als (besonders) effizient hervorgegangen sind, sollen nach Möglichkeit bewahrt bleiben. Lebewesen besitzen die Fähigkeit der Selbstreplikaktion und/ oder sind in der Lage, ihre Gene durch Paarung von einer Generation zur nächsten zu vererben. Organisationen besitzen diese Möglichkeit(en) nicht. Sie können lediglich Struk-turen, Konzepte und Abläufe von anderen kopieren bzw. imitieren. McKelvey/ Aldrich (1983, S. 113) haben in Analogiebetrachtung zum relativen Reprodukti-onserfolg erfolgreicher genetischer Merkmale zur Verbreitung, Erfolgswahrscheinlichkeit und Nachahmung von organisationalen Routinen auf-gestellt. Der wirtschaftliche Erfolg einer Unternehmung wird dabei jeweils als notwendige Bedingung (Antecedens-Bedingung) erachtet.

Das Six Sigma-Konzept beinhaltet – aus evolutionstheoretischer Perspektive – mit DMAIC- und DMADV-Zyklus gleich zwei organisationale Routinen, für welche die oben angesprochenen Hypothesen von McKelvey/ Aldrich zutreffen:

• erfolgreicher Unternehmen verbreiten sich schnel-ler als die weniger erfolgreicher.

• finden sich eher in erfolgreichen Unternehmen.

• erfolgreicher Unternehmen werden mit höherer Wahrscheinlichkeit kopiert als die weniger erfolgreicher.

Auf der Populationsebene führt dies zu folgenden (vgl. Kieser/ Woywode 2002, S. 259): (a) Unternehmen ohne effektive Skills & Comps unter-liegen im Konkurrenzkampf und werden mittel- oder langfristig vom Markt elimi-niert (Struggle for existence). Hingegen können Unternehmen, die im Besitz ef-fektiver Routinen sind, überleben und wachsen, d.h. ihren Marktanteil vergrößern. (b) Die Unternehmen einer Population werden langfristig immer ähnlicher (Iso-morphie), da sie jeweils die (gleichen) Routinen von den erfolgreichen Akteuren übernehmen. Gleichzeitig führen interaktive Prozesse zwischen Population und Umwelt zur Herausbildung von Nischen. Im Fall von Six Sigma wurden die Six Sigma-Verbesserungszyklen (DMAIC, DMADV) von erfolgreichen Unternehmen (Motorola, General Electric) entwickelt und eingeführt; sie fanden dadurch in den 1990er Jahren sehr schnell Verbreitung – global und branchenübergreifend. Im Zuge des Übernahmeprozesses kam es zur Herausbildung ähnlicher Aufbau- und Ablaufstrukturen des Six Sigma-Projektmanagements.

Page 229: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 207

4.3.3 Evolutionary Design – Anwendung evolutionärer Algorithmen in der Forschung & Entwicklung

In der IT-gestützten Produktentwicklung werden die Ansätze bzw. Algorithmen, die auf evolutionstheoretischen Überlegungen basieren, i.d.R. unter dem Begriff „Evolutionary Design“ (ED) subsumiert (vgl. hierzu und im Folgenden Bentley 1999, S. 1ff.). ED wird gemeinhin als Untermenge von Evolutionary Computation verstanden, welches an der Schnittstelle von Biologie und Informatik steht.52 An-wender- und Berufsgruppen, die in diesem „Grenzbereich“ tätig sind und – direkt oder indirekt – von einer Anwendung von ED profitieren, sind vielfältig:

• , die nach evolutionärem Vorbild Bauteile und Komponenten op-timieren,

• , die alternative Konzepte für ein neu zu errichtendes Gebäude entwickeln,

• , welche die Evolution nutzen, um ästhetisch ansprechende Formen zu entwerfen, und

• , die sinnhafte Morphologien für künstliche Lebensformen erstellen.

Verstehen wir Produktentwicklung i.w.S., dann ergeben sich ganz unterschiedli-che Anwendungs- und Forschungsfelder im Rahmen von (siehe Abb. 4-11). Eine interdisziplinäre Zusammenarbeit und ein grenzüber-schreitender Erfahrungsaustausch sind heute aber eher die Ausnahmen als die Regel. Je nach Problem- und Zielsetzung findet man sich in einem der vier Felder wieder. Die wesentlichen Charakteristika werden im Folgenden kurz beschrieben. Besonderes Augenmerk wird dabei auf die zwei Felder (a) Evolutionary Design Optimisation (EDO) und (b) Creative Evolutionary Design (CED) gelegt. Sie stehen im Fokus der weiteren Arbeit und bilden die Basis für die Ableitung eines effektiven Vorgehensmodells für Design for Six Sigma in Unterkapitel 5.2.

Die Optimierung von bestehenden Designs53 gehört zu den originären Einsatzfel-dern von EAs im F&E-Bereich. In den vergangenen 20 Jahren sind eine Vielzahl

52 Eine genaue Definition und Abgrenzung von Evolutionary Design findet sich auch bei

Kryssanov et al. (2005, S. 4). Sie klassifizieren ED als relativ neues Paradigma im Rahmen von Computer Aided Design (CAD), welches die jüngsten Entwicklungen im Bereich Design aufgreift, z.B. Sustainable Design, Design for X und Green Design. Im Vordergrund stehen jeweils die sozialen, evolutionären und fehler-basierten Aspekte der Produktentwicklung in einem dynamischen Marktumfeld.

53 Einen Überblick über Problemstellungen, die sich vor allem im ingenieurwissenschaft-lichen Bereich mithilfe von GAs gut lösen lassen, bieten Gen/ Cheng 1997. Aktuelle Beispiele für die Anwendung von EAs im ingenieurtechnischen Bereich unter Einsatz von aufwändiger Rechentechnik zeigt Marks 2007.

Page 230: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

208 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

von Anwendungsfällen bekannt geworden, insb. im Flugzeugbau (vgl. z.B. Eby et al. 1997; Husbands et al. 1996). Die ist dabei wie folgt: Zunächst werden die Parameter des Produktdesigns bestimmt, die verbesserungs-würdig erscheinen. Ihre Ausprägungen werden anschließend in Form von Allelen einzelner Gene codiert. Nach der Spezifikation des Suchraums wird eine Zu-fallsauswahl von Lösungskandidaten erstellt und damit der evolutionäre Lösungs-algorithmus gestartet. Die Bewertung der Designs erfolgt meistens mit spezieller Analysesoftware, welche die Zielfunktion als bekannt voraussetzen.54

Abb. 4-11: Die vier Felder des Evolutionary Design (ED)

Die der gefundenen Lösungen auf der Phänotypebene sind bei diesem Ansatz anwendungsspezifisch, d.h. sie basieren auf den Designs existie-render Modelle. Zwischen Phäno- und Genotypebene besteht ein unmittelbarer Zusammenhang. Auf eine künstliche embryonale Entwicklung, bei welcher der Übergang vom Geno- zum Phänotyp schrittweise erfolgt, wird mehrheitlich ver-zichtet. Dies führt dazu, dass aus den Genen mehr oder weniger direkt die Aus-prägung der einzelnen Parameter abgelesen werden kann.

54 Z.B. beschreiben Eby et al. 1997 die Optimierung der Tragflächen von Flugzeugen auf

der Basis eines GAs. Die Fitness-Werte der einzelnen Lösungskandidaten, die sich vor allem nach dem maximal erzielten Auftrieb als Zielgröße richten, werden mithilfe eines Finite Elemente Modells (FEM) bestimmt.

Basis: Bentley 1999, S. 2Problemstellung

ZielsetzungFokus: Fokus:

(d)Evolutionary Artificial

Life-Forms (EAL)

(a)Evolutionary Design Optimisation (EDO)

(b)Creative Evolutionary

Design (CED)

(c)Evolutionary Art

(EArt)

Page 231: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 209

Die i.S.v. Verkürzung oder Verlängerung des Bit-Strings als Reaktion auf sich verändernde Rahmenbedingungen ist bei den EAs, die dem Anwendungsgebiet EDO zugehören, nicht vorgesehen. Vielmehr wird auf das Ziel fokussiert, bei konstant angenommenen Bedingungen möglichst nahe an das globale Optimum zu kommen. Auf die Details des zugrunde liegenden Algo-rithmus wird im folgenden Abschnitt näher eingegangen.

Von den Anwendern wird es als Herausforderung angesehen, Produkte, die nach allgemeiner Auffassung bereits von „guter Qualität“ sind, (noch) weiter zu verbes-sern. Dabei wird bei der Programmierung der GAs bzw. EAs insbesondere darauf geachtet, dass die Lösungskandidaten in der Population nicht zu schnell konver-gieren. Dadurch soll vermieden werden, dass anstelle des globalen Optimums ein lokales Optimum detektiert wird. Dieses Vorgehen hat den Nachteil, dass i.d.R.

vorgenommen werden müssen bis eine akzeptable End-lösung gefunden ist. Aktuelle Forschungsbemühungen gehen deshalb dahin, die Anzahl notwendiger Bewertungszyklen mit geeigneten Analysetools und intelli-genter Softwareunterstützung zu reduzieren. Dabei werden u.a. multiple Repräsen-tationen von Lösungskandidaten auf Genotypebene sowie der Einsatz komplexer GA-Typen (sog. hybride GAs) als Lösungsansätze diskutiert.

Nach Gero/ Kazakov 1996 geht es in diesem Forschungsfeld vor allem um das Auffinden von überraschenden bzw. innovativen Lösungen, die qualitativ besser sind als alle bisher gefundenen. Dabei wird der Tatsache Rechnung getragen, dass ein Designproblem umso stärker nach einer verlangt, je weniger über die bestehenden Zusammenhänge zwischen Kundenanforderungen und Erfül-lung derselbigen bekannt ist (vgl. Rosenman 1997, S. 69). Wann ein Produktde-sign als „kreativ“ gilt, unterliegt in erster Linie der subjektiven Beurteilung des Betrachters respektive des (potenziellen) Benutzers.

Gero (1996, S. 11ff.) unterscheidet in diesem Zusammenhang zwischen einer und einer . Im erstgenannten

Fall handelt es sich um Individuen, die nach eigener Einschätzung kreativ sind, wenn sie Probleme lösen und dabei etwas neues entwickeln. Im zweitgenannten Fall werden von Individuen Designvorschläge erarbeitet, die bestimmte Charakte-ristiken tragen und von der Mehrheit der Befragten in einer Gruppe als kreativ empfunden werden. Kreativität oder nicht ist folglich sowohl eine Frage des Pro-zesses als auch des Ergebnisses; beides findet sich in CED wieder.

Bei der Lösung schwieriger Probleme ist der Einsatz von fortschrittlicher Rechen-technik i.A. unverzichtbar. Computer arbeiten nach Gero et al. kreativ, wenn sie interessante Lösungen außerhalb des ursprünglich festgelegten Suchraums finden. Dazu müssen sie in der Lage sein, die Anzahl von Entscheidungsvariablen, ein-schließlich der möglichen Ausprägungen, eigenständig, d.h. ohne Eingriff von außen, zu erhöhen. In „The creative mind“ kommt Boden (1992) zu dem Schluss, dass Computer genau zu dieser Leistung nicht fähig sind und ihnen deshalb keine

Page 232: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

210 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

bzw. eine deutlich geringere Kreativität als Menschen zugesprochen werden kann. Lösungskandidaten, die in der Anlage/ Repräsentation des GAs nicht vorgesehen sind, können nicht ohne Weiteres im Computer erzeugt werden.

Neuere Entwicklungen auf dem Gebiet des CED gehen deshalb dahin, GAs so zu programmieren, dass ihr auf die jeweilige Situation anpassbar ist. Im Anfangsstadium wird der Suchraum relativ klein gehalten. Nur wenige Parameter werden in den ersten Runden variiert und bei der Lösungssuche berück-sichtigt. Sobald das System an Grenzen stößt, werden neue Entscheidungsvariab-len eingeführt und/ oder der Definitionsbereich der bereits vorhandenen Parameter erhöht. Wie verschiedene Anwendungsbeispiele zeigen, können durch dieses Vorgehen neue, innovative Lösungen, die den bisherigen z.T. deutlich überlegen sind, gefunden werden (vgl. z.B. Bentley/ Wakefield 1997).

In Abhängigkeit von der gewählten Abstraktionsstufe und damit Darstellung der ermittelten Lösungen können die folgenden zwei Forschungsansätze im Rahmen von CED unterschieden werden: (a) , bei dem versucht wird, auf der Grundlage von EAs Produktdesigns bzw. Designkonzepte auf „hoher Ebene” zu generieren, und (b) , bei dem fertige, d.h. unmittelbar umsetzbare Designkonzepte erzeugt werden.55

Evolutionäre Kunst ist wahrscheinlich das am stärksten kommerzialisierte Feld im Rahmen von ED. In keinem anderen Feld gibt es heute so viele Anwendungsbei-spiele/ -programme (vgl. Bentley 1999, S. 5). Die Anforderungen an die Pro-grammierung sind – insbesondere im Vergleich zu den Algorithmen der anderen drei Felder – (sehr) gering. Neue Formen oder Bilder werden ausgehend von einer Zufallsauswahl schrittweise erzeugt, d.h. „gezüchtet“.

Die Evaluation erfolgt per Hand, d.h. die Fitness-Werte werden entsprechend der ästhetischen Anmutung der Objekte jeweils von Menschen vergeben. Die Popula-tionsgröße ist üblicherweise relativ klein; eine Population enthält häufig nicht mehr als 10 Individuen. Dadurch soll zum einen eine Überforderung der Befragten vermieden werden. Zum anderen wird ein schnelles Voranschreiten gewährleistet; gute Lösungen werden in relativ kurzer Zeit selektiert.

Analog zu CED gibt es im Feld EArt eine große Vielzahl von Ansätzen, Lösungen zu entwickeln und in geeigneter Weise darzustellen. Auf der Phänotypebene rei-chen sie von einfachen Farbausdrucken mit Textbausteinen bis zu komplizierten geometrischen 3D-Figuren (vgl. z.B. Todd/ Latham 1992; Dawkin 1986/ 89). Bei der Entwicklung der Lösungsmuster sind häufig feste Strukturen vorgegeben. Flexible Änderungen des Gen-Codes, wie sie bei den Algorithmen von CED ein-

55 Bentley (1999, S. 420f.) zeigt die konkrete Anwendung des Software-Tools GADES

zur Layoutplanung von Krankenhäusern. Im Beispiel wird ein komplettes Design für eine Klinik mit 17 Abteilungen entworfen, die sich über vier Stockwerke verteilen.

Page 233: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 211

gebaut sind, um möglichst viel Kreativität zu erzeugen, kommen eher selten vor. Das Computerprogramm arbeitet vielmehr mit einem vorgegebenen Set von For-men und Farben sowie einer überschaubaren Anzahl von Konstruktionsregeln.56

Aufgrund der Tatsache, dass der Mensch als Künstler die erzeugten Designs , sind die verwendeten EAs im Feld EArt nicht komplex. Auf eine

systematische Rekombination der Lösungsmerkmale wird i.A. verzichtet. Die Evolution verläuft in erster Linie mutationsgetrieben. Jede Kindergeneration geht aus zufällig veränderten Kopien der Eltern hervor. Dieses Vorgehen hat sich be-sonders in Situationen bewährt, in denen Lösungen für Probleme zu finden sind, die einer sich unterliegen. Dies ist im vorlie-genden Fall gegeben, da Künstler dazu tendieren, ihre Meinung über wünschens-werte Eigenschaften des Zielobjektes von Zeit zu Zeit zu ändern. Die intersubjek-tive Nachvollziehbarkeit der Bewertungen gestaltet sich aber nicht nur aus diesem Grund schwierig. Oftmals resultieren Inkonsistenzen in der Fitnessfunktion ein-fach aus dem Faktum, dass sich über Geschmack bekanntlich streiten lässt.

Die Nachfrage nach künstlichen Intelligenzen, z.B. in Form von Künstlich Neuro-nalen Netzen (KNN), zur Lösung komplexer Probleme ist nach wie vor groß. Genetische Algorithmen und Evolutionäre Suchstrategien sind in diesem Zusam-menhang bewährte Techniken, um z.B. die Funktionsweise des Gehirns im Com-puter nachzubilden. Gleichzeitig stellt sich die Frage, wie Lebewesen bzw. Teile von selbigen – quasi von Nichts – künstlich erzeugt werden können.

Antworten auf diese Frage geben verschiedene Untersuchungen, die im Feld EAL anzusiedeln sind. Um die Entwicklung künstlicher Lebensformen (AL) geht es u.a. bei Lohn/ Reggia´s Zellautomaten (1995), der die Möglichkeit der Selbstrepli-kation besitzt, Harvey´s Layout und Struktur von Neuronen (1997), die mithilfe von EAs erzeugt werden, sowie Dawkin´s und Sim´s Pflanzen- bzw. Tier-analoge Morphologien (1989/ 1994). Die für die Generierung von ALs ist primär theoretischer Natur. Es wird häufig eines der drei Ziele verfolgt:

• Erforschung der Mechanismen der natürlichen Evolution

• Erklärung der Lebensformen, die in der Natur vorkommen

• Ausnutzung/ Übertragung v. Lösungen, die sich in der Natur bewährt haben.

56 Infolgedessen sind die Lösungen, die sich in der Endpopulation befinden, meistens sehr

ähnlich und enthalten die gleichen, im Gen-Code verankerten Stilelemente. Dies ist in-sofern problematisch, da es bei der künstlerischen Arbeit eher auf die Generierung von neuen, außergewöhnlichen Objekten als auf die (inkrementelle) Verbesserung eines be-reits vorhandenen „Kunstwerkes“ ankommt. Die Konvergenz der Lösungskandidaten im Laufe der Evolution ist nicht im Sinne des Künstlers bzw. Programmierers.

Page 234: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

212 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Obwohl das Feld EAL das mit Abstand größte Entwicklungspotenzial besitzt, sind die praktischen Anwendungen bis dato eher spärlich. Die Repräsentationen der Lösungen sind oftmals systemspezifisch. Lohn/ Reggia (1995) nutzen z.B. Regel-tafeln innerhalb der Chromosomen ihres GAs, während Sims auf hierarchisch aufgebaute Chromosomen-Strukturen setzt, um „Körper“ und „Kopf“ der ALs darzustellen. Nahezu alle Forscher in diesem Feld sind bestrebt, die Genotyp-Struktur von natürlichen Lebewesen problemadäquat nachzuempfinden.57

Ähnlich wie bei EArt besitzen die Algorithmen, die im Rahmen von EAL zum Einsatz kommen, einen überwiegend . Die erzeugten ALs werden in simulierten Welten evaluiert, wobei die Fitnessfunktion nicht zwangs-läufig konstant ist. Um den Evolutionszyklus zu verkürzen, werden unterschiedli-che Strategien angewendet, z.B. Einsatz von parallelen und hybriden GAs. Im Anfangsstadium wird meistens von einer zufällig erzeugten Population ausgegan-gen. Ziel ist es, nach möglichst wenigen Optimierungsrunden das beste bzw. „fitt-este“ Individuum zu erhalten. Dieses Ziel wird auch bei der Ableitung eines ent-sprechenden Vorgehensmodells für DFSS verfolgt (vgl. Abschnitt 5.2.1).

4.3.4 Grundkonzeption und Programmierung von Genetischen Algorithmen am Beispiel

Alle unter Abschnitt 4.3.1 genannten EAs basieren auf dem folgenden Basisalgo-rithmus, der in Abb. 4-12 aufgelistet ist (vgl. Feltl 2003, S. 29; Michalewicz/ Fo-gel 2000, S. 151; Sprave 1999, S. 11; Gen/ Cheng 1997, S. 2). Als genetische Operationen gelten die Operatoren Rekombination und Mutation; sie sind nur bei GAs vorzufinden. Evolutionäre Operationen werden durch die Operatoren Evalu-ierung und Selektion repräsentiert; sie sind allen EAs – als übergeordneter Gruppe – zu eigen. Unabhängig von der Art des Algorithmus können Informationen aus dem Problemumfeld direkt in den Lösungsweg einfließen.

In diesem Fall handelt es sich um , im Gegensatz zu , wenn kein Vorwissen vorliegt (vgl. Gen/ Cheng 1997, S. 4, 42, 97).

Weiterhin besteht die Möglichkeit, GAs bzw. EAs für unterschiedliche Suchzwe-cke zu verwenden: (a) Auffinden des globalen Optimums, wobei die vorgegebe-nen Suchraumgrenzen zu berücksichtigen sind, und (b) Erkunden des unbekannten Suchraums, um neue, alternative Lösungen zu finden. Fortschrittliche GAs ver-binden beide Zwecke auf ideale Weise, so dass sich mit ihnen folgende zwei Arten von Optimierungsproblemen effizient lösen lassen: (a)

, bei denen es um die Maximierung oder Minimierung einer Zielfunktion

57 Die benutzten Codes sind i.d.R. hochflexibel und von variabler Länge. Gleichzeitig

werden erste Schritte unternommen, die Stufen der embryonalen Entwicklung auf ALs zu übertragen, um dadurch Lebewesen höherer Ordnung zu erzeugen. Dies erfordert i.A. hochkomplexe genetische Operatoren, die bei den EAs zugrunde gelegt werden.

Page 235: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 213

unter Berücksichtigung von mind. einer NB geht, und (b) , die durch eine endliche Anzahl möglicher Lösungen gekenn-

zeichnet sind (vgl. auch Abschnitt 4.1.1).

Im Weiteren unterscheiden sich GAs von konventionellen Optimierungsalgorith-men in folgenden vier Punkten (vgl. Goldberg 1989, S. 20ff.):

• GAs arbeiten mit codierten Lösungen, nicht mit den Lösungen selbst

• GAs gehen von einer Population mit Lösungen aus, nicht von einer einzelnen

• GAs nutzen Ergebnisinformationen (Fitnessfunktion), nicht Indikatoren

• GAs basieren auf stochastischen Regeln, nicht auf deterministischen.

Nach dem Ablaufschema in Abb. 4-12 wird zuerst die Ausgangspopulation er-zeugt und bewertet. Ausgehend von dieser stochastisch generierten Startmenge (Population) von Lösungsalternativen (Individuen) werden iterative Zyklen, sog.

, in Gang gesetzt, bei denen aus den alten Lösungen immer wieder neue, modifizierte Lösungen generiert werden. Solange das Abbruchkrite-rium für den Algorithmus nicht erfüllt ist, wird eine neue Population gebildet.

Abb. 4-12: Grundkonzeption eines Genetischen Algorithmus (GA)

Die Individuen der neuen Population werden jeweils den genetischen Operationen Selektion, Rekombination und Mutation unterzogen. Durch diese Transformation entsteht eine Population, die als Eltern in der nächsten Generation fungieren. Im Verlauf vieler Generationszyklen führt dieses Wechselspiel aus ungerichteter Veränderung von Lösungen durch die Variationsoperatoren und die Bevorzugung der besten Lösungen durch den Selektionsoperator zu sukzessiv besseren Lö-

1. Initialisierungs-Operator: Ausgangspopulation P(t) mit t:= 0 erzeugen

2. Evaluierungs-Operator: Fitness der Individuen von P(t) bewerten

Solange kein Abbruch durch tmax o.a. Kriterium:

3. Selektions-Operator: Individuen zur Fortpflanzung P´(t) aus P(t) selektieren

4. Rekombinations-Operator: Genetische Informationen der Elterngeneration über Kreuzung der Gene (zufällig) vermischen

5. Mutations-Operator: Genetische Informationen der Elterngeneration an bestimmten Stellen im Code (zufällig) variieren

6. Evaluierungs-Operator: Fitness der Individuen von P´(t+1) bewerten

7. Neue Population bilden: P(t) mit t: = t + 1 und Schleife wiederholen

8. Abbruchs-Operator: Ergebnisse ausgeben und bewerten

Basis: Michalewicz/ Fogel 2000, S. 151

Page 236: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

214 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

sungsvorschlägen. Die Iterationsschleife wird i.d.R. abgebrochen, wenn die ma-ximale Anzahl von Iterationen durchgeführt und/ oder eine angemessene Lö-sungsqualität erreicht worden ist.58

Bevor ein GA gestartet werden kann, ist zunächst festzulegen, wie die einzelnen Lösungsvorschläge zu codieren und zu evaluieren sind. Im Weiteren ist der Such-raum zu spezifizieren, in dem nach zulässigen Lösungen gesucht wird (vgl. hierzu und im Folgenden Michalewicz/ Fogel 2000, S. 165ff.).

• : Jedem Individuum (= Chromosom) wird durch eine Zufallsauswahl mind. ein x-Wert als Eigenschaft zugewiesen, welcher mit ei-ner binären Zeichenfolge codiert ist. Das Chromosom, dargestellt als ein String der Länge w, enthält alle Informationen über die individuumsspezifi-sche Lösung. Analog der DNA bei Lebewesen gliedert sich der String übli-cherweise in n ≤ w Segmente, wobei jedes Segment bwi einer Variable des Optimierungsproblems entspricht. Dadurch wird der Wert für jede Entschei-dungsvariable in binärer Form codiert. Je nach Wertebereich der einzelnen Variablen können die Segmente gleichlange oder verschiedenlange Bitfolgen enthalten; dies wird in Abschnitt 5.2.2 verdeutlicht.

Entsprechend dem biologischen Vorbild werden die einzelnen Bits auf dem String als „Gene“ und ihre konkrete Ausprägung (0/ 1) an einer bestimmten Stelle (Locus) des Strings als „Allel“ bezeichnet. Bei Vorliegen von nur einer Entscheidungsvariable enthält jedes Chromosom die codierte Information von genau einem realen Zahlenwert. Dabei gilt: Je größer w ist, desto größer ist die reale Zahl, die maximal codierbar ist. In Abb. 4-13 ist die binäre Lösungs-codierung bei einem GA schematisch dargestellt.

Die genotypische Lösung kann mit Hilfe einer geeigneten Decodierfunktion in ihre phänotypische Form überführt werden. Zur Behandlung reellwertiger Funktionen wird üblicherweise der Bit-String eines Individuums in folgender Weise entschlüsselt und in eine Festkommadarstellung überführt:

( )10

22 11

0

−−

=+⋅ −⋅

= (4.17)

Dabei ist w die Anzahl der Bits, die einen Parameter codieren, b0 ... bw-1 der Bit-String und k die Anzahl der Nachkommastellen. Wie leicht nachvollzieh-

bar ist, stellt xmin = 0 die kleinste und xmax = 10

12 − die größte Zahl dar. Ist

58 Da im Gegensatz zur Natur bei der Optimierung ein Anfangs- und ein Endpunkt benö-

tigt werden, wird im Rahmen der Optimierung mithilfe von EAs die natürliche Evolu-tion um einen Initialisierungs- und Abbruchsoperator „erweitert“.

Page 237: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 215

für die zu codierende Zahl ein bestimmter Wertebereich xi’ ∈ [ai; bi] vorgege-ben, dann ist die Gleichung (4.17) entsprechend zu erweitern:

( )1210

22 11

0'

−−

⋅−⋅

+=

−−

=+⋅

(4.18)

Vor jeder Zielfunktionsauswertung ist eine sog. Mapping-Funktion = auszuwerten, welche den binären Code in reelle Werte decodiert. Die Ziel-funktion spezifiziert die zu optimierenden Zielkriterien bzw. -merkmale und berechnet ein Gütemaß für die gegebenen Modellparameter. Wenn das Primärziel eines GA darin besteht, eine Evoluti-on zu simulieren, die zum Aufspüren des globalen Maximums der Fitness-funktion führt, dann ist es i.A. nicht notwendig, eine Trennung zwischen Ziel- und Fitnessfunktion vorzunehmen, da die Maximierung der Fitness dem Optimierungsziel des Optimierungsproblems entspricht.59 Im anderen Fall ist die Definition einer Fitnessfunktion erforderlich.

Abb. 4-13: Schema für die binäre Lösungscodierung bei einem GA (Ausschnitt)

• : Neben der Lösungscodierung muss i.d.R. eine Fitness- bzw. Evaluierungsfunktion definiert werden, die über die Güte einer bestimmten Genkombination Auskunft gibt. In der Natur ist die Fitness ein wesentlicher Indikator für die relative Überlebens- und damit Fortpflan-zungsfähigkeit eines Individuums innerhalb der Population (vgl. Abschnitt 4.3.1). Bei der Programmierung von GAs wird in entsprechender Weise über

59 Bei Minimierungsproblemen wird zwischen Ziel- und Fitnessfunktion häufig eine (ne-

gative) lineare Skalierungsfunktion gesetzt. In Abhängigkeit von der Problemstellung sind hier oftmals auch geometrische oder exponentielle Funktionen zielführend.

xi+1xi

Basis: Michalewicz/ Fogel 2000, S. 165f.

Page 238: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

216 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

die Fitnessfunktion jede Lösung evaluiert, um zu entscheiden, ob diese an der Generierung von Nachfolgelösungen teilnimmt. Im übertragenen Sinn gibt der Wert dieser Funktion an, wie „fit“ eine Lösung ist, das gegebene Optimie-rungsproblem zu lösen. Lerneffekte und damit Verbesserungen der Fitness-werte werden durch den Wettbewerb zwischen den sich entwickelnden Lö-sungskandidaten in einer Population bewirkt.

Die funktionellen Zusammenhänge zwischen Einfluss- und Zielgrößen sowie Fitnesswerten, wie sie bei regulären GAs zugrunde gelegt werden, sind in Abb. 4-14 nachvollziehbar. Die Merkmale der Lösungskandidaten gehen als Einflussgrößen bzw. unabhängige Variablen in die Zielfunktion y ein. Bei Vorliegen mehrerer Zielgrößen bzw. mehrerer abhängiger Variablen handelt es sich um einen Zielgrößen-Vektor . Dieser spiegelt bei Six Sigma die in Outputmessgrößen abgeleiteten CTQs wider (vgl. Abschnitt 3.3.1). Je besser die einzelnen CTQs erfüllt werden, desto höher ist die Fitness )( eines ausgewählten Lösungskandidaten. Die Berechnung der Fitnesswerte, die in dem Pool gesammelt werden, erfolgt über eine vorgegebene Funktion. In diese fließen alle relevanten Zielgrößen ein. Das Vorgehen ist dem Grunde nach vergleichbar mit der Ermittlung des Nutzens von Produkten.

Abb. 4-14: Funktionelle Abhängigkeiten bei der Ermittlung der Fitness

Beim Entwurf eines GA stellt die Definition einer geeigneten Fitnessfunktion eine der schwierigsten Aufgaben dar. So ist darauf zu achten, dass die Fit-

Zielgröße(n)Einflussgrößen Fitnesswerte

.

.

.

( ),...,, 21= ( ),...,, 21=

)(11 =

( ),...,, 21=

)(22 =

)(=

)(= mit i ... Individuum

Quelle: Eigene Darstellung

Page 239: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 217

nessfunktion sich nach Möglichkeit bei kleinen Änderungen des genetischen Codes eines Individuums nicht zu stark verändert, so dass man eine möglichst

erhält. In diesem Fall besteht ein starker kausa-ler Zusammenhang zwischen dem Bit-String des Individuums und dessen Fit-ness. Im anderen Fall, bei einem schwach kausalen Zusammenhang, stehen die Änderungen der Codierung eines Individuums in keinem Verhältnis zu dem Effekt auf dessen Fitness. Zur Normierung der Fitness von Individuen wird i.d.R. die mittlere Fitness der Population herangezogen.60

• Wie oben ausgeführt, ist die Trennung zwischen Codier- bzw. Chromosomenraum und Such- bzw. Lösungsraum einer der we-sentlichen Charakteristika von GAs. Während die genetischen Operationen Rekombination und Mutation im Codierraum arbeiten, kommen die evolutio-nären Operationen im Suchraum zur Anwendung. Dabei wird jeweils nur ein Teil des gesamten Suchraums durch den GA in der Initialisierungs-Phase er-fasst. In diesem „erfassten Raum“ können Lösungen, die im Laufe des Algo-rithmus auf der Genotypebene erzeugt werden, auf der Phänotypebene ein-deutig zugeordnet und repräsentiert werden. Wie in Abb. 4-15 gut erkennbar ist, kann es unter bestimmten Voraussetzungen dazu kommen, dass Chromo-somen generiert werden, die auf der Phänotypebene nicht erfassbar sind bzw. die außerhalb des Suchraums liegen und für die gegebene Problemstellung keine zulässige Lösung darstellen.61

Die Festlegung des Suchraums spielt sowohl bei als auch bei eine

herausragende Rolle. Bei erstgenannter Problemart ergibt sich der zulässige Suchraum als erfasster Raum durch die Formulierung entsprechender Neben-bedingungen. Nicht selten liegt das gesuchte Optimum genau an der Grenze zwischen erfasstem und nicht-erfasstem Raum.62 Bei kombinatorischen Opti-mierungsproblemen besteht das Ziel i.A. darin, das Verhältnis von erfasstem zu nicht-erfasstem Raum zu maximieren. Der Suchraum soll möglichst groß-

60 Algorithmen, bei denen die Fitness der Individuen auf die durchschnittliche Fitness der

Population normiert ist, werden auch als kanonische GAs bezeichnet. Auf weitere Formen der Normierung/ Skalierung wird in Abschnitt 5.2.2 eingegangen.

61 Auch bei der Übertragung evolutionärer Prinzipien auf die BWL, insb. Organisations- und Managementwissenschaften, wird sinngemäß zwischen Geno- und Phänotypebene unterschieden (vgl. Abschnitt 4.3.2). Auf der Genotypebene befinden sich z.B. organi-sationale Routinen wie der DMAIC-Zyklus, die über kurz oder lang zu Veränderungen auf der Phänotypebene führen, z.B. Aufbau einer Six Sigma-Organisation.

62 In der praktischen Anwendung von GAs gibt es eine Reihe von Möglichkeiten, nicht-erfassbare bzw. unzulässige Lösungen zu unterdrücken. Erprobte Mittel sind die Durch-führung von Reparaturen (Repairing-Technik) im Rahmen der Rekombinations-Phase und die Vergabe von Strafpunkten (Penalty-Funktion) im Rahmen der Evaluations-Phase des GA (vgl. Gen/ Cheng 1997, S. 18). Im Weiteren werden hybride Methoden vorgeschlagen, welche die GA-Lösungsstrategien mit deterministischen Verfahren der numerischen Optimierung kombinieren (vgl. Michalewicz et al. 2000, S. 204).

Page 240: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

218 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

flächig nach potenziellen Lösungen abgesucht werden. Folglich ist hier darauf zu achten, dass die Rahmenbedingungen der Optimierung in der Initialisie-rungs-Phase nicht zu eng gefasst werden.

Abb. 4-15: Schematischer Zusammenhang zwischen Codier- und Suchraum

Um eine evolutionäre Simulation beginnen zu können, muss in einem ersten Schritt eine Startpopulation einer bestimmten Größe, d.h. mit n Individuen, er-zeugt werden. In den meisten Anwendungen wird die Ausgangspopulation sto-chastisch initialisiert und mit einer geraden Anzahl von Individuen versehen. Die einzelnen Bits eines Chromosoms können dabei unabhängig voneinander mit der gleichen Wahrscheinlichkeit entweder auf den Wert 0 oder 1 gesetzt werden.

Ein „guter“ Initialisierungsoperator ist entscheidend, um möglichst schnell zu dem gewünschten Ergebnis zu gelangen. Vor allem in den Anfangsstadien ist deshalb darauf zu achten, dass die Population eine relativ große Vielfalt aufweist. Dadurch wird sichergestellt, dass der GA einen möglichst großen Teil des Suchraums gleichzeitig erfasst. Für die Suche selbst stehen die folgenden drei Strategien zur Auswahl (vgl. hierzu und im Folgenden Gen/ Cheng 1997, S. 29f.):

• : Es werden bevorzugt die Chromosomen mit extre-men Fitness-Werten (nach oben und unten) aus der Population eliminiert.

• : Es werden bevorzugt die Chromosmen mit (deutlich) niedrigeren Fitness-Werten als der Durchschnitt eliminiert. Diese Form der Selektions- und damit Suchstrategie ist die gebräuchlichste.

Codierraum- Genotypebene -

Erfasster Raum

Nicht erfasster Raum

Basis: Gen/ Cheng 1997, S. 18f.

Suchraum- Phänotypebene -

Page 241: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 219

• : Es werden bevorzugt die Chromosomen mit moderaten Fitness-Werten aus der Population eliminiert.

Die Individuen (Chromosomen) der Startpopulation werden durch Einsetzen der einzelnen Parameterwerte in die Mapping- und anschließend in die Fitnessfunkti-on evaluiert. Für jedes Individuum wird ein Fitnesswert bestimmt, welcher die Güte der Lösung hinsichtlich des definierten Zielkriteriums anzeigt. Dieser Schritt ermöglicht ein Benchmarking für die nachfolgenden Optimierungsschritte.

Die Initialisierung und Evaluierung der Ausgangspopulation bilden die Grundlage für den iterativen Zyklus, der den Schritten 3-8 des Basisalgorithmus entspricht (siehe Abb. 4-12). Während bei Holland (1975) immer nur einzelne Individuen einer Population ersetzt worden sind, weisen die heutigen Generationenzyklen, die im Wesentlichen auf Goldberg (1989) zurückgehen, einen dreistufigen Ablauf mit Selektion (S) – Rekombination (R) – Mutation (M) auf. Die Grundzüge der zwei genetischen Operatoren und der Selektion, die in der Natur als Bindeglied zwi-schen Chromosom und Fitness/ Performance der decodierten Lösung fungiert, werden im Folgenden kurz erläutert (vgl. Nissen 1997, S. 37ff.).

• : Die Modellierung der Selektion in GAs beruht auf der Annahme, dass in der Natur die zu erwartende Anzahl der Nachkommen in irgendeiner Weise proportional zur Fitness ist. Weiterhin gilt: Je besser ein Individuum an seine Umwelt angepasst ist, desto größer ist seine Fitness. Aus diesem Grund werden die Optimierungsprobleme bei klassischen GA als Maximierungs-problem formuliert. Die Selektion erfolgt meist zufallsgesteuert und „treibt“ die Individuen in Richtung der optimalen Lösung. Dabei werden – entspre-chend dem Prinzip der natürlichen Auslese – bessere Individuen öfter bzw. mit größerer Wahrscheinlichkeit ausgewählt als schlechtere. Die Zulassung von Individuen zur Reproduktion wird auf zwei Arten realisiert:

Bei der fitnessproportionalen Selektion wird aus einer aktuellen Genera-tion durch sog. eine Elterngeneration gleicher Größe ermittelt. Dabei liegt die bildliche Vorstellung zugrunde, dass je-dem Individuum eine von der Fitness abhängige Anzahl von Slots auf ei-nem Roulette-Rad zugeordnet werden. Der Anteil eines Individuums an den insgesamt verfügbaren Slots wird relative Fitness )( genannt. Rechnerisch ergibt sie sich, indem man den individuellen Fitnesswert durch die Summe aller Fitnesswerte innerhalb der Population teilt. Durch Drehen des Roulette-Rades werden die Individuen zufallsgesteuert selek-tiert. Es wird jeweils das Individuum in die Elterngeneration übernom-men, welches den Slot an der Haltemarkierung besetzt, wo das Roulette-Rad zum Stillstand kommt (vgl. auch Abschnitt 5.3.1).

Im Gegensatz zum Roulette-Spiel ist die eine rela-tiv einfach zu implementierende Selektionsmethode, bei der nur die Ord-nung der Individuen einer Population, nicht aber ihre absoluten Fitness-werte eine Rolle spielen. Bei diesem rangbasierten Verfahren wird die

Page 242: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

220 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Population gemäß der Zielfunktionswerte sortiert. Um ein Individuum zu selektieren, wählt man k Individuen zufällig (gleichverteilt) aus der Po-pulation aus und nimmt davon jeweils das beste, also das mit der höchs-ten Fitness. Der Parameter k steuert gleichzeitig den Selektionsdruck in-nerhalb der Population. Im übertragenen Sinn gibt er Auskunft darüber, wie (sehr) gute Individuen gegenüber schlechteren bevorzugt werden. Sowohl ein sehr hoher als auch sehr niedriger Selektionsdruck kann sich negativ auf das Konvergenzverhalten des GA auswirken.

• : Im Basis-GA werden die Eltern, aus denen die Nachkommen hervorgehen, stochastisch „mit Zurücklegen“ gezogen.63 Die Selektionswahr-scheinlichkeit eines jeden Individuums entspricht dessen relativer Fitness, die nach dem fitnessproportionalen Ansatz als radialer Flächenanteil eines Rou-lette-Rades interpretiert werden kann. Durch das Drehen des Rades werden die Individuen ausgewählt, die zur Fortpflanzung bestimmt sind, und in eine sog. Intermediärpopulation kopiert. Zur Generierung einer solchen Population mit n Individuen ist das Roulette-Rad gedanklich n-mal zu drehen.

Aus der Intermediär- bzw. Elternpopulation (mating pool) werden dann mit-hilfe von Rekombination neue Individuen als Kindergeneration erzeugt. Dies geschieht in der Weise, dass mit gleicher Wahrscheinlichkeit 1 / n und „ohne Zurücklegen“ zwei Eltern ausgewählt und als Paar zusammengeführt werden. Dieser Schritt wird n / 2-mal wiederholt, bis alle Individuen zu Paaren zu-sammengeführt sind. Aus ihnen gehen im Folgenden durch Variation jeweils zwei Nachkommen hervor. Über den Austausch von Genen zwischen zwei Chromosomen als potenzielle Lösungen werden neue Informationen in die Population eingebracht. Wie oben ausgeführt wurde, werden beim Crossover-Verfahren Bruchstücke zwischen zwei Chromosomen ausgetauscht. Dazu ist für je zwei Eltern mind. eine Bruchstelle im Genom zu ermitteln.64 Als typi-sche Crossover-Operatoren stehen zur Auswahl:

Es werden zwei Zufallszahlen gleichverteilt erzeugt, die jene Gene auf den Chromosomen indizieren, die das auszutauschende Bruchstück eingrenzen. Im einfachsten Fall, beim 1-Point-Crossover, werden die Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt.

63 Das aus der Stochastik bekannte Urnenmodell „Ziehen mit Zurücklegen“ gilt für sehr

große Grundgesamtheiten bzw. Populationen. Der Rekombinationsprozess lässt sich mathematisch auf der Basis der Binomialverteilung beschreiben. Bei Populationen mit relativ kleinem Umfang, z.B. n = 10, ist hingegen die Hypergeometrische Verteilung anzuwenden. Da die Auswahl eines Elternteils die Wahrscheinlichkeit für die Paarung der verbleibenden Elternteile ändert, liegt hier das Urnenmodell „Ziehen ohne Zurück-legen“ vor, d.h. die Ergebnisse der einzelnen Ziehungen sind statistisch nicht mehr unabhängig voneinander (vgl. Seyffert 2003, S. 292).

64 Sowohl die Paarbildung als auch die Wahl der Bruchstellen (Crossover-Punkte) erfol-gen in den meisten Fällen zufallsgesteuert (vgl. Sprave 1999, S. 16).

Page 243: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 221

: Bei dieser Art der Kreuzung (Crossover) wird für jedes Gen zufällig mit gleicher Wahrscheinlichkeit entschieden, von wel-chem Eltern- es übernommen wird. Hierdurch wird eine ma-ximale Variation des Genpools von Runde zu Runde erreicht.

• : Dem biologischen Vorbild folgend, wird jedes Bit eines erzeug-ten Nachkommen mit einer sehr geringen Wahrscheinlichkeit, der Mutations-rate, invertiert. Bei GAs kommt, anders als bei ESs, der Mutationsrate als Suchoperator eine eher nachrangige Bedeutung zu. Ziel ist es zu verhindern, dass an einzelnen Stringpositionen der gleiche Wert (0 oder 1) bei allen Indi-viduen einer Population steht. Andernfalls würde nur noch ein des gesamten Lösungsraums nach Lösungsalternativen untersucht. Rekombinati-on und Mutation werden als stochastische Verfahrenselemente im Rahmen von GAs bewusst eingesetzt, um einen „intelligenten“ Suchprozess in Gang zu setzen. Dieser ist in der Lage, systematische, aufeinander aufbauende Lö-sungsalternativen in solchen Regionen des Suchraumes zu generieren, die Er-folg versprechend sind.

Es wird davon ausgegangen, dass bei großen Ausgangspopulationen bereits eine ausreichende Anzahl „guter“ Chromosomen vorhanden ist, mit denen es gelingt, nahezu ausschließlich durch Rekombination ein Optimum zu finden. Die Mutation stellt deshalb den sekundären Variationsoperator dar, der vor al-lem zum Einbringen von neuem bzw. verlorengegangenem Genmaterial in die Population dient. Mutationen sollten nur relativ selten ausgeführt werden, da der Suchvorgang bei zu häufiger Anwendung zu einer vollständigen Zufalls-suche degeneriert. Im klassischen Fall liegt die Mutationsrate deshalb bei et-wa 1 ⋅ 10-3.65 Als Mutationsvarianten kommen infrage:

: Bei dieser Variante erfolgt die Auswahl des zu mutieren-den Gens zufallsgesteuert, und zwar in der Weise, dass das ausgewählte Bit (Gen) im Bit-String einfach negiert wird.

: Hier wird der Inhalt der durch Zufall bestimmten Gene von zwei Individuen der Kindergeneration einfach vertauscht. Sie wird bei der Programmierung von GAs seltener verwendet.

Nach Abschluss einer oder mehrerer Mutationsschritte werden die erhaltenen Individuen in die Nachfolgegeneration kopiert, welche die neue Population P(t) mit t: = t + 1 bilden. Die Individuen von P(t+1) werden erneut evaluiert und an-schließend – wie vorstehend beschrieben – mit den drei Evolutionsoperatoren prozessiert. Der Zyklus Evaluierung, Selektion, Rekombination und Mutation wird solange durchlaufen, bis ein definiertes Abbruchkriterium erfüllt ist.

65 Im übertragenen Sinn beträgt die zulässige Mutationsrate bei Six Sigma 3,4 ⋅ 10-6, d.h.

bei der Erstellung eines Produktes/ einer Dienstleistung dürfen maximal 3,4 Fehler bezogen auf 1 Mio. Fehlermöglichkeiten (OFD) auftreten. Letztere beschreiben dabei den Suchraum für neue, zu verbessernde Produkt- respektive Prozessmerkmale.

Page 244: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

222 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

In Abb. 4-16 sind die wesentlichen Stellgrößen bei der Programmierung von GAs in Form eines Morphologischen Kastens dargestellt. Durch Kombination der in der Matrix enthaltenen Bausteine ergeben sich die unterschiedlichen Spielarten von GAs. Bei der konkreten Ausgestaltung des DFSS-Vorgehensmodells in Un-terkapitel 5.2. stützen wir uns hauptsächlich auf den Algorithmus, der sich durch das Verbinden der Zellen in der 2. Spalte ergibt.

Abb. 4-16: Morphologischer Kasten zur Einordnung von GAs

Das Beispiel dient zur schrittweisen Einführung in die programmiertechnische Umsetzung von GAs.66 Der Algorithmus soll dabei exemplarisch anhand des Auf-findens des globalen Maximums bei einer zweigipfligen Funktion verdeutlicht werden, wie sie vorher bei der formal-analytischen Erklärung des DMAIC- und DMADV-Zyklus zugrunde gelegt worden ist (vgl. Unterkapitel 3.4).

Als realer Anwendungshintergrund wird die Entwicklung eines neuen Kugel-schreibers mit optimierter Länge y gewählt. Letztere stellt aus Sicht des Kunden ein kritisches Qualitätsmerkmal (CTQ) dar. Die Gesamtlänge des Kugelschreibers ergibt sich aus den Längen der Einzelkomponenten x1, x2, ..., xn und lässt sich in

Form einer gewichteten Summenfunktion =

⋅==1

)( berechnen.

Zu den Einzelkomponenten eines Standard-Kugelschreibers gehören: Oberteil ( ), Unterteil ( ), Druckknopf ( ), Schreibmine ( ), Feder ( ), Distanzring ( ). Sie nehmen mit absteigendem Gewicht gi Einfluss auf die Gesamtlänge des Ku-gelschreibers. Für jede Komponente liegt eine lange Version (Allel = 1) und eine

66 Ein anschauliches Beispiel für das Design von Produktlinien mithilfe von Genetischen

Algorithmen geben Steiner/ Hruschka 2003. In ihrem Beitrag beschreiben die Forscher ein Vorgehen, das auf Basis der Monte Carlo-Simulation zu einer Produktlinie mit maximalem Gewinnbeitrag führt. Dabei vergleichen sie die Leistungsfähigkeit der GA-Methodik mit der Greedy-Heuristik von Green/ Krieger (1985).

Initialisierung

Lösungs-repräsentation

Mutation

Crossover

Selektion

Basis: Lippe 2004, S. 31

Page 245: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 223

kurze Version (Allel = 0) zum Verbau vor. Ziel des Projektes ist es, die optimale Kombination der Einzelkomponenten zu finden, die zur nutzenmaximalen Länge y* führt. Aus Marktforschungsaktivitäten in der Vergangenheit ist bekannt, dass bezogen auf die Länge des Kugelschreibers zwei Produktsegmente (Cluster) exis-tieren: (1) Kurze Kugelschreiber und (2) Lange Kugelschreiber.

Zunächst ist eine Fitnessfunktion zu definieren, die eine Bewertung des Kugelschreiber-Designs aus Kundensicht erlaubt. Die Funktion weist zu jedem Zeitpunkt einem Individuum einen Fitnesswert in Abhängigkeit von seiner Eigenschaft zu, also in unserem Fall den Kundennutzen in Abhängigkeit von der Länge des Kugelschreibers. Zur Abbildung der zwei Produktsegmente sei die folgende Bewertungsfunktion beispielhaft gewählt:

+−⋅−−⋅+−⋅−−⋅= 432 )(201)(

53)(

511)(

513)( (4.19)

Die Parameter a und b geben die horizontale und vertikale Verschiebung der Fit-nessfunktion an; sie betragen hier a = 8 und b = 2. Das Polynom 4. Grades nach Gleichung (4.19) weist zwei Nullstellen67 auf, so dass die Fitnesswerte im Inter-vall [7,49; 14,76] positiv sind. In diesem Intervall weist das Polynom ebenfalls zwei lokale Maxima auf. Wie in Abb. 4-17 ersichtlich ist, liegt das linke Maxi-mum (Produktsegment 1) in der Nähe von y1 = 9. Ein weiteres, das gleichzeitig globales Maximum ist, liegt in der Nähe von y2 = 13. Die längere Kugelschreiber-Variante (Produktsegment 2) führt also zum höheren Produktnutzen.

Die exakten Extremumpunkte ergeben sich nach Differenzieren und Nullsetzen (vgl. Abschnitt 4.2.1) mit: E1(8,872; 2,963) und E2(13,333; 3,857). Ziel des zu konzipierenden GA ist es, eine Evolution zu simulieren, die zum Aufspüren des globalen Maximums fit(y*) im Produktsegment 2 führt.

Wie im vorstehenden Abschnitt ausgeführt, ist im Rahmen der Initialisierung eine binäre Codierung und Decodierung der evolutionären Strategien vorzunehmen. Dabei werden in einem GA typischerweise die Eigenschaften jedes Individuums durch eine binäre Zeichenfolge als Chromosom dargestellt. In unserem Fall um-fasst das Chromosom sechs Gene bzw. der Bit-String sechs Stellen, z.B. Chromo-som = (0 0 1 0 1 0). Jedes Chromosom enthält damit als codierte Information einen reellen Zahlenwert für das kritische Produktmerkmal y. Unter Anwendung von Gleichung (4.17) kann diese binäre Zeichenfolge entschlüsselt werden.

Die reelle Zahl, die durch obiges Chromosom codiert wird, beträgt z = 10. Im Weiteren sammeln wir „Chromosomen“ einer ganzen Population in einem Vektor POP. Im übertragenen Sinn handelt es sich dabei um n verschiedene Kugelschrei-

67 Die zwei Nullstellen sind im Vorfeld analytisch mit dem Newton´schen Näherungs-

verfahren berechnet worden (vgl. Abschnitt 4.2.1).

Page 246: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

224 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

ber mit unterschiedlicher Länge. Mit einem Unterprogramm lässt sich die Deco-dierung für alle Individuen gleichzeitig durchführen. Je größer die Länge (BITS) eines Chromosoms ist, um so größer ist die Zahl (zmax), die damit maximal codier-bar ist. Für 6 Bits, wie im Beispiel gegeben, beträgt zmax = 63.

Abb. 4-17: Fitnessfunktion fit(y) mit zwei lokalen Maxima

Um sicherzustellen, dass bestimmte reale Zahlenwerte nicht überschritten werden, müssen die Werte bei der Decodierung normalisiert werden. Im vorliegenden Fall ist es sinnvoll die Länge der Kugelschreiber auf ymin = 7,49 [cm] nach unten und ymax = 14,76 [cm] nach oben zu beschränken, da nur in diesem Bereich positive Fitness- respektive Nutzenwerte existieren. Der GA sucht dann in dem vorgege-benen Bereich nach möglichen Lösungen. Durch Division von (ymax – ymin) durch zmax und Verschiebung um ymin ergibt sich entsprechend Gleichung (4.18) für das ursprüngliche Chromosom ein Wert, der im Intervall [7,49; 14,76] liegt.

Um eine Simulation beginnen zu können, ist im Rahmen der Initialisierungs-Phase eine Ausgangspopulation zu erzeugen. Dazu wird die gewünschte Anzahl von Individuen (POPSIZE) vorgegeben, für die dann eine zufällige Auswahl an Chro-mosomen der vorgegebenen Länge (BITS) generiert wird. Durch Decodierung und Normalisierung ergibt sich daraus ein Vektor , der die Eigenschaften der Indivi-duen der Ausgangspopulation erfasst. Wird die Fitnessfunktion auf diesen Vektor angewendet, dann erhält man einen weiteren Vektor , der die Fitness der ein-zelnen Individuen auflistet. In einer Populationsmatrix lässt sich jedem Chromo-som zeilenweise der Eigenschafts- und Fitnesswert zuordnen (siehe Abb. 4-18).

0 2 4 6 8 10 12 14 16 18 20

1

2

3

43.857

0

fit y( )

200 y

Fitness fit(y)

CTQyQuelle: Eigene Darstellung

Page 247: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 225

Bevor der Selektions-Operator gestartet wird, sind die Zeilen und damit die zuge-hörigen Individuen in der neu entstandenen Matrix zu sortieren, so dass das Indi-viduum mit dem höchsten (niedrigsten) Fitnesswert in der ersten (letzten) Zeile erfasst ist. Der Selektionsoperator bestimmt, welche der Chromosomen an die nächste Generation weitergegeben werden dürfen. Dabei wird nach der rangbasierten Selektionsmethode vorgegangen (vgl. Abschnitt 4.3.3), welche das Darwin´sche Prinzip des „Survival of the Fittest“ abbildet. Die Individuen der Elterngeneration „sterben“ und werden durch „Kinder“ ersetzt.

Abb. 4-18: Initialisierung und Evaluierung der Ausgangspopulation

Es dürfen sich jeweils die Individuen fortpflanzen, die sich vorher in einem „Paa-rungswettkampf“ behauptet haben. Dieser erfolgt in der Weise, dass zwei Indivi-duen zufällig ausgewählt und deren Fitnesswerte miteinander verglichen werden. Der Gewinner, also das Individuum mit der höheren Fitness, darf sich dann fort-pflanzen. Ein Unterprogramm liefert eine Matrix, in der die Positionsnummern der Gewinner dieses Wettkampfes als Paare zusammengefasst sind. Sie bilden die Eltern von jeweils zwei Kindern. Das Programm erlaubt, dass Individuen auch mehrfach als Gewinner ausgewählt und mit sich selbst „gepaart“ werden.

Üblicherweise werden nicht alle Individuen in den Paarungswettkampf geschickt. So gibt der Parameter KEEP im o.g. Programm eine (gerade) Anzahl der Indivi-duen mit der höchsten Fitness an, deren Chromosomen unverändert in die nächste Generation übernommen werden. Sie bilden sozusagen die Elite der Population (bei KEEP = 0 wird keine Elite gebildet) und werden als „Klone“ erhalten.

0 1 1 0 1 0 10,487 2,1760 0 1 1 1 0 9,102 2,9231 0 1 0 1 1 12,449 3,2690 1 0 0 0 0 9,333 2.821 1 1 1 0 1 14,526 1,3440 0 1 1 1 0 9,102 2,9231 0 1 0 1 1 12,449 3,2690 0 1 1 0 0 8,871 2,9630 1 0 0 0 1 9,448 2,7540 1 1 1 1 0 10,948 2,141

=POPInit

Chromosom fiti(y)yi

Quelle: Eigene Darstellung

Page 248: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

226 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

Damit noch bessere Individuen entstehen, kombiniert der Rekombinations- bzw. Kreuzungsoperator das genetische Material (Chromosomen) der Individuen mit hoher Fitness, die sich in dem oben beschriebenen rangbasierten Auswahlverfah-ren durchgesetzt haben. Mit der Wahrscheinlichkeit CROSSPROB68 findet ein Austausch der Bit-Zeichenfolgen an einer zufällig gewählten Stelle (Crossover-point) der Chromosomen eines Paares statt. Dieses 1-Point-Crossover-Verfahren wird im Rahmen des Kreuzungsoperators auf alle zur Fortpflanzung bestimmten Individuen angewendet und ebenfalls mit einem Unterprogramm realisiert:

Mit dem Mutationsoperator ist es möglich, ganz neue Formen (Innovationen) von Individuen hervorzubringen, die bisher in der Population noch nicht auftraten. Dazu wird mit der Wahrscheinlichkeit MUTPROB jedes Bit in einem der erzeug-ten Kinder-Chromosomen invertiert. In Abb. 4-19 ist exemplarisch der Program-miercode für diesen Parameter aufgeführt. Die Zusammenfassung der neu erzeug-ten Kinder und der im Vorfeld ausgelesenen Elite-Individuen ergibt die nächste Generation der Population. Im Gegensatz zur Ausgangspopulation [⎯yI = 10,67; fit(⎯yI ) = 2,14 ] hat sich die durchschnittliche Fitness der ersten Kindergeneration nur unwesentlich erhöht [⎯yK = 10,37; fit(⎯yK ) = 2,21 ].

Abb. 4-19: Programmiercode für die Erzeugung von Mutationen (Beispiel)

Im Anfangsstadium des Algorithmus verfügt die Population über Individuen, deren Merkmalsausprägungen sich mehrheitlich zwischen den beiden Maximum-stellen befinden. Die Effizienz des GA entscheidet nun darüber, wie schnell das suboptimale Niveau verlassen und das globale Maximum detektiert werden kann. Dazu ist eine maximale Anzahl von Iterationsschleifen vorzugeben (MAXITER), welche die neu zu schaffenden Generationen begrenzt.

Das Hauptprogramm kann bei Thiemer (2005) nachvollzogen werden. Es ist in MathCad R8 programmiert und setzt sich aus mehreren Unterprogrammen zu-sammen. Für jede Generation werden die durchschnittliche Zielgröße, also im

68 I.d.R. beträgt CROSSPROB = 1, d.h. die Kreuzung findet bei allen Paaren mit 100%

Wahrscheinlichkeit statt. Die Vermischung des genetischen Materials erfolgt ebenfalls mit einem Unterprogramm, in dem für jedes Paar die Bits auf der rechten Seite des Crossover-Position ausgetauscht werden, so dass zwei neue Individuen entstehen.

MUT1(POP, MUTPROB) := for i∈0..spalten(POP) – 1

POP

for i∈0..zeilen(POP) – 1

POPj,i ← ⏐POPj,i – 1 ⏐ if rnd(1) ≤ MUTPROB

Quelle: Thiemer 2005

Page 249: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

4.3 Evolutionäre Algorithmen 227

Beispiel die durchschnittliche Länge⎯y des Kugelschreibers, sowie der zugehörige Fitnesswert )( berechnet. Für die Ausführung des GA sind insgesamt sechs Parameter zu spezifizieren: POPSIZE, BITS, KEEP, CROSSPROB, MUTPROB und MAXITER, die bei der projektbezogenen Umsetzung des Algorithmus in Unterkapitel 5.2 unmittelbar Berücksichtigung finden.

Für die Parameterwerte 100, 10, 6, 1, 0,01 und 10 ergibt sich der in Abb. 4-20 dargestellte Kurvenverlauf der Fitness )( über mehrere Generationen. Wie ersichtlich ist, hat der GA bereits nach vier Generationen (Iterationsschleifen) das globale Maximum aufgespürt. Aufgrund der S-R-M-Operatoren kann das Plateau zu Beginn relativ schnell überwunden werden; so tritt nach der ersten Kindergene-rationen ein kontinuierlicher Anstieg der Fitnesswerte ein.

Nach der Maximierung der Fitnessfunktion mithilfe des GA beträgt die optimale Länge des Kugelschreibers y* = 13,3 [cm]. Dies entspricht dem Chromosom* = (1 1 0 0 1 0), welches durch Invertierung der Decodierungsformel ermittelt werden kann. Für das Design des Kugelschreibers ergeben sich die folgenden konkreten Gestaltungsempfehlungen: Oberteil – lang, Unterteil – lang, Druckknopf – kurz, Schreibmine – kurz, Feder – lang und Distanzring – kurz.

Abb. 4-20: Entwicklung der durchschnittlichen Fitness über die Zeit

Wie das Zahlenbeispiel verdeutlicht, stellen GAs eine interessante Alternative zu den klassischen Optimierungsverfahren dar (vgl. Unterkapitel 4.2). Anstelle der schrittweisen Verbesserung einer einzelnen Lösung tritt die systema-tische Optimierung der Fitness einer gesamten Population von Lösungskandida-ten. Bei „richtiger“ Wahl des Suchraums ist die Wahrscheinlichkeit groß, das

Fitness fit(y)

GenerationTimeQuelle: Eigene Darstellung

Page 250: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

228 4 Mathematische Vorgehensmodelle zur funktionellen Optimierung

globale Optimum einer gegebenen Ziel- bzw. Bewertungsfunktion zu finden. Die Weiterentwicklung der Lösungskandidaten in Richtung maximale Fitness erfolgt dabei S-kurvenförmig, wie sie im Rahmen des Technologie-/ Innovationsmana-gements geläufig ist (vgl. Abschnitt 3.1.2).

Für die Managementwissenschaften stellt sich vor diesem Hintergrund die Frage, ob und wie der (mathematische) Algorithmus, für die Lösung betrieblicher Prob-lemstellungen, z.B. in F&E, nutzbar ist. Nach den Ausführungen zu den For-schungstypologien in Abschnitt 1.2.1 gilt: Die auf abstrakter Ebene gefundenen Algorithmen sind nicht ohne Weiteres auf die reale Ebene, d.h. in die Unterneh-menspraxis, übertragbar. Es ist eine Spezifizierung bzw. Operationalisierung vor-zunehmen, aus denen praxistaugliche (Management-)Konzepte hervorgehen.

Zu diesem Zweck ist – nach allgemeiner Auffassung – ein effektives Schnittstel-lenmanagement aufzubauen, um die bidirektionale Kommunikation zwischen Theorie und Praxis zu fördern. Im vorliegenden Fall ist deshalb – entsprechend der – zu analysieren, inwieweit sich das GA-Prinzip durch die Verwendung von möglichst einfachen, bekannten und in der Praxis akzeptierten Methoden und Vorgehensmodellen, z.B. aus dem Qualitäts- und Innovationsma-nagement (vgl. Unterkapitel 3.2), simulieren bzw. „nachstellen“ lässt.

Page 251: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5 Theorie-Praxis-Transformation als deduktive Vorgehens-weise: Vom abstrakten zum konkreten Vorgehensmodell der Problemlösung in F&E-Projekten

Aus den beschriebenen Ansätzen zur Lösung schwieriger mathematischer Proble-me (vgl. Unterkapitel 4.2 und 4.3) lassen sich im Ergebnis zwei konkrete Vorge-hensmodelle für die Unternehmenspraxis ableiten. Der DMAIDV-Zyklus stellt eine Weiterentwicklung des bisherigen DFSS-Problemlösungszyklus dar (vgl. Unter-kapitel 5.1). Die Aufnahme einer zusätzlichen Phase nach Analyse basiert auf den in Abschnitt 4.2.3 gewonnenen Erkenntnissen über Lokale Suchverfahren, die der Gruppe der klassischen Algorithmen zugeordnet werden können. Aus den evoluti-onären Algorithmen, wie sie in Abschnitt 4.3.3 beschrieben sind, wird im Weite-ren der IESRM-Zyklus abgeleitet (vgl. Unterkapitel 5.2). Bei diesem handelt es sich um ein für die „Six Sigma Welt“ völlig neues Vorgehensmodell, dessen An-wendbarkeit erst noch überprüft werden muss. Die Ergebnisse aus zwei Praxisstu-dien legen jedoch nahe, dass der Zyklus den eingangs formulierten Erwartungen an die Effizienz und Effektivität der Lösungssuche gerecht wird.

5.1 Abgeleitetes Vorgehensmodell 1: DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus

In diesem Unterkapitel wird das aus den klassischen Algorithmen abgeleitete Vorgehensmodell operationalisiert. Es unterscheidet sich vom DMADV-Zyklus um die zusätzliche Phase Innovate. Das Vorgehen und die Methoden dieser Phase orientieren sich sehr stark an der Problemlösungstechnik TRIZ, die bereits seit längerem im Zusammenhang mit Six Sigma bzw. Design for Six Sigma diskutiert wird. Der Einsatz wesentlicher Methoden wird beispielhaft dargestellt.

5.1.1 Vorgehensmodell mit 5+1 Phasen

Wie in Abschnitt 3.3.2 beschrieben wurde, wird am Ende der Analyse-Phase das beste High Level-Design nach einem vorgegebenen Kriterienraster ausgewählt. Dieses wird in der sich anschließenden Design-Phase detailliert ausgearbeitet und dabei auf Komponenten- und Teileebene herunter gebrochen. Welches Produkt am Ende des Entwicklungsprozesses steht, ist maßgeblich davon abhängig, welches High Level-Design am Ende der Analyse-Phase favorisiert wird. Der Prozess läuft unweigerlich in die falsche Richtung, wenn man nicht auf das richtige Produkt setzt. In diesem Fall kann es dazu kommen, dass ein suboptimales Designkonzept perfektioniert wird.

Die Analyse auf übergeordneter Ebene hat ebenso gezeigt, dass ein relativ hohes Ausgangsniveau bei der Erfüllung der CTQs nicht allein für den Produkterfolg entscheidend ist. Mindestens genauso wichtig ist ein relativ hohes Verbesserungs-potenzial, das sich im Rahmen der Design-Phase durch eine systematische Vorge-

Page 252: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

230 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

hensweise aktivieren lässt. Aus diesem Grund sollte mit der Ausarbeitung/ Detail-lierung des Konzeptentwurfs nur dann fortgefahren werden, wenn das am Ende der Analyse-Phase realisierte Qualitätsniveau zuzüglich der möglichen Steigerung im Verlauf der Design-Phase maximal wird.

Im Rahmen des Prozessschrittes „High Level-Design evaluieren“ ist analog zum DMAIC-Zyklus eine Quantifizierung der Möglichkeiten vorzusehen. Dadurch ist eine stärkere Ausrichtung am langfristig erreichbaren Qualitätsniveau/ CTQ-Erfüllungsgrad gegeben, die dazu führt, dass neue, innovative Konzepte im Zuge der Evaluierung in der Analyse-Phase ein höheres Gewicht erlangen. Um ein innovatives Produktkonzept mit einem hohen (Weiter-)Entwicklungspotenzial zu erhalten, sind i.d.R. weiterführende, über die reine Analyse und Umsetzung von Kundenanforderungen hinausgehende Aktivitäten erforderlich. Wie in Abb. 5-1 zu sehen ist, werden diese in einer separaten Phase gebündelt.

Im Ergebnis liegt ein erweiterter DFSS-Zyklus mit maximal sechs Phasen vor. Unmittelbares Vorbild für die Erweiterung um die (optionale) Phase Innovate sind die in Abschnitt 4.2.3 erläuterten Lokalen Suchverfahren. Sie erlauben es, über eine flexible Schrittweitensteuerung „Täler“ in der Zielfunktion zu überspringen. Die Innovate-Phase ist zu durchlaufen, wenn die in der Analyse-Phase erstellten Designkonzepte nicht zu den gewünschten Ergebnissen führen, wenn also die analysierten Kundenanforderungen nicht erfüllt und/ oder die vergleichbaren Wettbewerbsangebote nicht erreicht werden können. In diesem Fall ist der Einsatz von Kreativitätstechniken, z.B. Brainstorming, oder weiterführenden Erfindungs-methoden, z.B. TRIZ, naheliegend (vgl. Abschnitt 3.1.2).

5.1.2 Vorgehen und Methoden der Innovate-Phase

Im Unterschied zum „klassischen“ Six Sigma hat Design for Six Sigma zum Ziel, einen erkannten Bedarf durch eine möglichst neuartige Lösung mit einem hohen Kundennutzen zu befriedigen. Nach dem Kano-Modell kann nur bei einer über-durchschnittlichen Erfüllung von ausgewählten Kundenanforderungen eine Kun-denbegeisterung hervorgerufen werden. Infolgedessen kommt es darauf an, mög-lichst innovative Lösungsvorschläge für das identifizierte Kundenproblem zu finden. Wie in Abschnitt 3.3.2 ausgeführt wurde, ist der Einsatz von Kreativitäts- und Erfindungsmethoden insb. in der Analyse-Phase des DMADV-Zyklus vorge-sehen. Im Hinblick auf ihr systematisches Vorgehen bei der Ideenfindung können die Methoden grundsätzlich in drei Gruppen eingeordnet werden:

(a) Intuitive Methoden, z.B. Brainstorming/ -writing, 6-3-5-Methode, N/3-Metho-de und Delphi-Methode, die einfach anzuwenden sind und an verschiedenen Stellen des Entwicklungszyklus zum Einsatz kommen können

(b) Systematische Methoden, z.B. Synektik, Bionik, Morphologischer Kasten, Paarweiser Vergleich und Nutzwertanalyse, die sich durch eine strukturier-te(re), gleichzeitig auch formalisierte(re) Vorgehensweise auszeichnen

Page 253: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 231

Abb. 5-1: Der erweiterte DMADV-Zyklus

Defin

e

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l de-

finie

ren

•Mar

ktda

ten

aus-

wer

ten

•Pro

jekt

plan

er-

stel

len

•Pro

jekt

char

ter

•Ben

chm

arki

ng•G

antt-

Diag

ram

m

Vorg

ehen

Met

hode

n

•Kun

den

iden

tifiz

ie-

ren,

prio

risie

ren

und

segm

entie

ren

•Kun

denb

edür

f-ni

sse

sam

mel

n un

d an

alys

iere

n

•Clu

ster

anal

yse

etc.

•VO

C-C

TQ-A

naly

se•Q

FD (1

. HoQ

)•L

aste

n-/ P

flich

ten-

heft

Vorg

ehen

Met

hode

n

•Des

ignk

onze

pte

best

imm

en•H

igh

Leve

l Des

ign

entw

icke

ln•H

igh

Leve

l Des

ign

eval

uier

en

•Bra

inst

rom

ing/

-writ

ing

•QFD

/ FM

EA•O

utpu

tsim

ulat

ion

•Tar

get C

ostin

g

Vorg

ehen

Met

hode

n

•Det

ailli

erte

s De

-si

gnen

twic

keln

•Det

ailli

erte

s De

-si

gn e

valu

iere

n•I

mpl

emen

tieru

ng

vorb

erei

ten

•QFD

/ FM

EA•D

OE

nach

Sha

inin

/ Ta

guch

i•Z

uver

läss

igke

it•P

roze

ss-/

Mas

chi-

nenf

ähig

keit

Vorg

ehen

Met

hode

n

•Pilo

tieru

ng d

urch

-fü

hren

•Im

plem

entie

rung

vo

rber

eite

n•P

roze

ss ü

berg

eben

•Des

ign

Scor

ecar

d•R

egel

kart

en/ S

PC•V

erfa

hren

san-

wei

sung

Vorg

ehen

Met

hode

n

•ARI

Z

•TRI

Z

Mea

sure

Anal

yse

Desi

gnVe

rify

Inno

vate

Defin

e

Vorg

ehen

Met

hode

n

•Pro

blem

/ Zie

l de-

finie

ren

•Mar

ktda

ten

aus-

wer

ten

•Pro

jekt

plan

er-

stel

len

•Pro

jekt

char

ter

•Ben

chm

arki

ng•G

antt-

Diag

ram

m

Vorg

ehen

Met

hode

n

•Kun

den

iden

tifiz

ie-

ren,

prio

risie

ren

und

segm

entie

ren

•Kun

denb

edür

f-ni

sse

sam

mel

n un

d an

alys

iere

n

•Clu

ster

anal

yse

etc.

•VO

C-C

TQ-A

naly

se•Q

FD (1

. HoQ

)•L

aste

n-/ P

flich

ten-

heft

Vorg

ehen

Met

hode

n

•Des

ignk

onze

pte

best

imm

en•H

igh

Leve

l Des

ign

entw

icke

ln•H

igh

Leve

l Des

ign

eval

uier

en

•Bra

inst

rom

ing/

-writ

ing

•QFD

/ FM

EA•O

utpu

tsim

ulat

ion

•Tar

get C

ostin

g

Vorg

ehen

Met

hode

n

•Det

ailli

erte

s De

-si

gnen

twic

keln

•Det

ailli

erte

s De

-si

gn e

valu

iere

n•I

mpl

emen

tieru

ng

vorb

erei

ten

•QFD

/ FM

EA•D

OE

nach

Sha

inin

/ Ta

guch

i•Z

uver

läss

igke

it•P

roze

ss-/

Mas

chi-

nenf

ähig

keit

Vorg

ehen

Met

hode

n

•Pilo

tieru

ng d

urch

-fü

hren

•Im

plem

entie

rung

vo

rber

eite

n•P

roze

ss ü

berg

eben

•Des

ign

Scor

ecar

d•R

egel

kart

en/ S

PC•V

erfa

hren

san-

wei

sung

Vorg

ehen

Met

hode

n

•ARI

Z

•TRI

Z

Mea

sure

Anal

yse

Desi

gnVe

rify

Inno

vate

Que

lle: E

igen

e Da

rste

llung

Page 254: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

232 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

(c) Widerspruchsorientierte Methoden, z.B. TRIZ und WOIS, denen ein systema-tisches Problemlösungskonzept zugrunde liegt, welches darauf abzielt, Kon-flikte in Systemen, Produkten usw. zu finden und sie zu lösen.

Allen genannten Methoden ist gemeinsam, dass sie darauf ausgerichtet sind, mög-lichst viel kreatives Ideenpotenzial bei den Akteuren freizusetzen. Während die erste Gruppe mehrheitlich durch subjektive, spontane und wenig systematische Aktivitäten gekennzeichnet ist, finden sich in der zweiten Gruppe systematische Methoden, die durch objektivierte, planmäßig durchlaufene und jederzeit wieder-holbare Denk- und Handlungszyklen gekennzeichnet sind. Die Methoden der dritten Gruppe verlangen neben einer systematischen Arbeitsweise das Ableiten und Lösen von administrativen, technischen und/ oder physikalischen Widersprü-chen.1 Gegenüber den Erfindungsmethoden/ -verfahren der ersten beiden Gruppen besitzen sie den Vorteil, den Entscheidungsfindungsprozess zu strukturieren und zu beschleunigen, die Wahrscheinlichkeit von fehlerhaften Entscheidungen, z.B. aufgrund von Subjektivität im Bewertungsprozess, zu verringern und die Lö-sungsqualität im Hinblick auf Innovations- und Wettbewerbsfähigkeit insgesamt deutlich zu erhöhen (vgl. Töpfer/ Günther 2007b, S. 154f.).

Aufgrund umfangreicher Patentrecherchen kamen Altschuller et al. (1984) zu der Schlussfolgerung, dass Innovation kein Zufall ist. Vielmehr geht, so die Hypothe-se, jeder Idee und jeder Erfindung ein systematischer Prozess voran, der sich durch universelle Grundregeln erklären lässt. Durch die Kenntnis und Anwendung dieser Regeln ist es im Umkehrschluss möglich, gezielt Innovationen hervorzu-bringen. Die grundlegende Voraussetzung hierfür ist das Vorhandensein eines Widerspruchs, der durch die Anwendung von TRIZ aufgedeckt, verschärft und schließlich überwunden wird. Durch die Verbindung von Kreativität und Systema-tik mit Widerspruchsorientierung hilft TRIZ technisch-wissenschaftliche Aufga-benstellungen methodisch und systematisch zu entwickeln und ohne Kompromisse in „robuste“ Lösungen zu überführen (vgl. Günther 2004, S. 1).2

Die Anwendung von TRIZ basiert auf einer Vielzahl von Methoden und Instru-menten, die – vor allem im deutschsprachigen Raum – in die vier Gruppen „Sys-tematik“, „Wissen“, „Analogie“ und „Vision“ eingeteilt werden (siehe Abb. 5-2).

1 Die Ausnutzung von Widersprüchen zum Auffinden von Innovationen wird bei Toyota

– als einem Nicht-Six-Sigma-Unternehmen – in Form von „konstruktiver Eskalation“ praktiziert (vgl. Mandl 1999, S. 55). Die Mitarbeiter am Fließband werden hier seit Jah-ren ermutigt, bei Entdeckung eines Fehlers am Produkt das Band unmittelbar anzuhal-ten. Dadurch wird die Situation eskaliert und aus einem System, das eher träge auf Fehler reagiert, wird ein System mit kurzer Reaktionszeit. Aus regelungstechnischer Sicht wirkt das Anhalten des Bandes als Verstärker, mit dem eine von einem Einzelnen wahrgenommene Abweichung für das Unternehmen als Ganzes bedeutsam wird.

2 Im Gegensatz zu anderen Kreativitätstechniken werden bei der Anwendung der TRIZ-Methodik neue Ideen abstrahiert, selektiert und spezifiziert. Dadurch wird die Qualität der Ergebnisse, d.h. die Generierung von Lösungsansätzen und ihre Realisierung, deutlich erhöht (vgl. Teufelsdorfer/ Conrad 1998, S. 9).

Page 255: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 233

Diese vier Gruppen werden auch als die 4 TRIZ-Säulen bezeichnet, da sie die elementaren Eigenschaften kennzeichnen, die einen „guten“ Forscher und Ent-wickler auszeichnen. Auf die Beschreibung der einzelnen Methoden wird an die-ser Stelle nicht näher eingegangen, da sie in der einschlägigen Literatur ausführ-lich behandelt werden (vgl. z.B. Orloff 2002; Herb et al. 2000).

Abb. 5-2: Konzeption und Inhalte der 4 TRIZ-Säulen

Die bekannteste Methode aus dem TRIZ-Toolset ist die auf Altschuller (1984) zurückgehende Widerspruchsanalyse.3 Ihr liegt die Erkenntnis zugrunde, dass sich alle möglichen technischen Anforderungen mithilfe von 39 (allgemeingültigen) Parametern beschreiben lassen. Gleichzeitig geht sie von der Annahme aus, dass alle denkbaren Widersprüche (max. 1.482) zwischen zwei technischen Anforde-rungen mit Hilfe von „nur“ 40 (allgemeingültigen) Innovations-Prinzipien gelöst werden können. Die 40 Prinzipien technischer Konfliktlösung zusammen mit den 39 Parametern technischer Systembeschreibung sind in der auf Altschuller (1984) zurückgehenden Widerspruchstabelle/ -matrix zusammengefasst.

3 Zur erfolgreichen Anwendung der Widerspruchsmatrix und den Innovationsprinzipien

nach Altschuller gibt es mittlerweile auch kritische Stimmen. So weist z.B. Shub (2007, S. 20f.) darauf hin, dass die vorstehend genannten TRIZ-Werkzeuge nicht universell einsetzbar und zur Ideengenerierung nur bedingt geeignet sind. Zudem verkomplizieren sie nach Meinung des Autors den Innovationsprozess anstelle ihn zu vereinfachen.

TRIZ

SystematikStrukturierungvon Problemen

• Innovationscheckliste• Ressourcencheckliste• Problemformulierung• Idealität • Funktionen-/ Objekt-

Modellierung• Trimmen• Operator MZK• Zwerge-Modellierung• Inverte Fehlererkennung• 40 Innovationsprinzipien• 4 Separationsprinzipien• ARIZ 1956ff./ Meta-ARIZ

VisionWeiterentwicklungdes Systems

• S-Kurve• Evolutions-

gesetze• Innovations-

ebenen

AnalogieErkenntnisse ausanderen Bereichen

• Widerspruchs-analyse:- Administrativer Wider-spruch („Problem“)

- Technischer Wider-spruch („Konflikt“)

- Physikalischer Wider-spruch („Widerspruch“)

• Stoff-Feld-Modell mit76 Standardlösungen

Antizipierende Fehlererkennung Direkte Entwicklung

Innovative Problemlösung

Wissen Problemorien-tierte Prinzipien

• Effekte-Lexikon• Internetrecherche• Patentrecherchen

1 2 3 4

Basis: Herb et al. 2000, S. 56

Page 256: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

234 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Der TRIZ-Anwender wird zielgerichtet von seinem speziellen technischen Prob-lem über die allgemeinen Parameter auf die geeigneten innovativen Prinzipien geleitet, die zu seiner Aufgabenstellung passen. Die Philosophie und Vorgehens-weise von TRIZ ähnelt sehr stark der grundsätzlichen „Denkweise von Six Sigma“: In beiden Konzepten werden mit der Realitäts- und der Abstraktionsebene zwei Ebenen der Problemlösung unterschieden. Bei Six Sigma wird das reale Problem in ein statistisches transformiert und gelöst; bei TRIZ führt eine konkrete Prob-lemstellung zu einer abstrakten Lösungssuche. Erst wenn eine zufriedenstellende Lösung auf der Abstraktionsebene gefunden worden ist, erfolgt die Rücktransfor-mation in die Realitätsebene, d.h. die Umsetzung der abstrakten Lösung in ein reales Lösungskonzept (vgl. Töpfer/ Günther 2007b, S. 158).

Als zentrale Kenn- bzw. Optimierungsgröße wird der Idealitätsgrad definiert, der sich – bezogen auf ein System – als Quotient aus der Summe „nützlicher“ Effekte (Nutzen) geteilt durch die Summe „schädlicher“ Effekte (Kosten) ergibt. Das Ziel besteht darin, den Idealitätsgrad entsprechend dem generellen Extremumprinzip durch Minimierung der Kosten und Maximierung des Nutzens zu optimieren. Anhand der Änderung des Idealitätsgrades durch eine Neuerung im System lässt sich der Innovationsgrad einer bestimmten Entwicklung/ Erfindung ableiten. Je größer die Änderung des Idealitätsgrades ist, desto höher ist also auch der Innova-tionsgrad einer neuen Lösung.4 Im Hinblick auf die Problemlösung mithilfe der Methoden der 4 TRIZ-Säulen unterscheidet man folgende drei Grade: (a) Innova-tive Problemlösung (Methoden aller vier Säulen), (b) Antizipierende Fehlererken-nung (Methoden der Säulen „Systematik“, „Analogie“ und „Wissen“) und (c) Direkte Entwicklung (Methoden der Säule „Vision“).

Die übergeordnete Zielsetzung von TRIZ läuft im Wesentlichen darauf hinaus, sich durch die Lösungssuche auf der Abstraktionsebene bestmöglich dem Leitbild bzw. der Vision des Idealitätsgrades anzunähern.5 Deshalb steht nach der Trans-formation des realen in das abstrakte Problem die rein rational-funktionelle Be-trachtungsweise bei der Lösungssuche im Vordergrund. Das ideale funktionelle Modell bei einem Kugelschreiber lautet z.B.: „Die Tinte soll dickflüssig sein, damit sie nicht ausläuft; sie soll nicht dickflüssig sein, damit sie leicht durch das Arbeitsorgan fließen kann“ (vgl. Orloff 2002, S. 9f.). Unter Anwendung der Ana-logieverfahren in Abb. 5-2 lässt sich der Widerspruch beseitigen, der beim Errei-

4 Bei seinen Patentrecherchen stellte Altschuller u.a. fest, dass nur etwa 1% aller Erfin-

dungen einen hohen Innovationsgrad aufweisen und damit als wirkliche Innovationen gelten. Hingegen handelt es sich bei ca. drei Viertel aller sogenannten Innovationen um „einfache“ Problemlösungen, die i.d.R. mit keinem besonderen Methoden- und Wis-senshintergrund verbunden sind (vgl. Mazur 1995, S. 5f.).

5 Neben dem Vorhandensein von Widersprüchen ist die Definition eines idealen End-resultats eine weitere wichtige Anforderung zur Anwendung von TRIZ. So ist bspw. die „beste“ Maschine nicht eine „schöne“ oder „starke“ Maschine, sondern eine auf das rein Funktionelle beschränkte, die „von selbst“ arbeitet und im besten Fall „gar nicht mehr da ist“ und trotzdem ihre Funktion erfüllt (vgl. Zobel 2004, S. 2ff.).

Page 257: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 235

chen des idealen Resultats – Tinte tritt nur beim Schreiben aus – stört. Konkret hatten die Erfinder des Kugelschreibers (1938) die Idee vor Augen, ein Schreibge-rät zu bauen, das wie eine Miniaturdruckmaschine funktioniert. Anstelle einer (miniaturisierten) Druckwalze, welche die Tinte gleichmäßig verteilt, setzten sie eine Kugel ein. Die sich drehende Kugel verwirklicht das Prinzip der ununterbro-chenen Übertragung der Farbe von der Walze auf das Papier.

Um „erfinderische Problemlösungen“ systematisch zu generieren, entwickelten Altschuller et al. Vorgehensmodelle, die in der einschlägigen Literatur unter der Bezeichnung ARIZ6 bekannt sind. Der erste „klassische“ Handlungsleitfaden (Algorithmus) stammt aus dem Jahr 1956; die darauf basierende Version ARIZ-68 umfasst die folgenden fünf Schritte (vgl. u.a. Zobel 2004, S. 3f.):

(1) Strukturierte Problembeschreibung: Im ersten Schritt ist zu klären, welches Ziel erreicht bzw. welches Problem gelöst werden soll. Dazu ist das „ideale Endresultat“ zu definieren und – über einen Vergleich mit der aktuellen Situa-tion – der konkrete Verbesserungsbedarf abzuleiten. Wird das Problem von vornherein als schwierig zu lösen eingestuft, ist über eine Umkehrung der Aufgabenstellung nachzudenken, da diese u.U. leichter zu bearbeiten ist als die Originalaufgabe, z.B. „Motor von Auto startet auf keinen Fall“ anstelle von „Motor startet bei jeder Witterungslage“.

(2) Abstrahierte Problembeschreibung: In zweiten Schritt geht es darum, abstrak-te Modellformulierungen, z.B. „Von Ort A nach Ort B kommen“, zu finden, da Fachtermini das Denken in Richtung konventioneller Lösungsansätze „ka-nalisieren“. Zu diesem Zweck ist z.B. mittels Patentrecherche zu eruieren, ob und wie ähnliche Aufgaben in der Fach- bzw. Patentliteratur gelöst worden sind. Aufgrund des Vergleichs des eigenen Problems mit bereits gelösten Problemen ist es i.d.R. möglich, die Aufgabe ohne gängige Fachtermini zu beschreiben und vergleichbare Patent-/ Problemlösungen zu finden.

(3) Ideale Lösungsbeschreibung: Mit dem dritten Schritt wird das analytische Stadium des Problemlösungsprozesses erreicht. Ziel ist es, auf abstrakter E-bene eine ideale Lösung für das Problem zu beschreiben. Dabei sind die Er-kenntnisse aus bisherigen Optimierungsversuchen zu berücksichtigen, wobei u.a. zu klären ist, warum bisherige Lösungsansätze versagten. Im Weiteren ist der Kernkonflikt herauszuarbeiten, welcher der wahrscheinliche Schlüssel zur Lösungsfindung ist. Das Standardvorgehen besteht darin, administrative in technische Widersprüche umzuwandeln und sie anschließend zu lösen.

(4) Abstrahierte Lösungsfindung: Im vierten Schritt von ARIZ werden die den 4 TRIZ-Säulen zugeordneten Methoden/ Instrumente systematisch angewendet, um eine Lösung des Problems auf abstrakter Ebene herbeizuführen. Der Ein-satz richtet sich dabei nach der Art des unter (3) beschriebenen Problems. Handelt es sich um einen technischen Widerspruch (z.B. Geschwindigkeit

6 Russ. Akronym für „Algoritm Reshenije Izobretatjelskich Zadacz“

Page 258: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

236 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

hoch/ niedrig), dann kann versucht werden, die 40 innovativen Grundprinzi-pien auf das Problem anzuwenden. Liegt hingegen ein physikalischer Wider-spruch vor (z.B. Gewicht hoch/ niedrig), dann ist über eine Variation des Ar-beitsmediums, der Umgebung und/ oder der Verfahren nachzudenken.7

(5) Konkrete Lösungsbeschreibung: Die endgültige Lösung, die sich auf die kon-krete Problemstellung bezieht, wird im fünften Schritt festgelegt. Durch die Rücküberführung der abstrakten Lösung in die reale Welt wird das syntheti-sche Stadium des TRIZ-Algorithmus erreicht. Liegen mehrere Lösungsansät-ze vor, ist die „beste“ Lösung mit dem höchsten Zielerfüllungsgrad auszuwählen. Bei der Implementierung der Lösung ist zu prüfen, ob sich weitere Veränderungen empfehlen und/ oder ob das grundlegend veränderte System/ Objekt u.U. ganz neue Anwendungsmöglichkeiten beinhaltet.

Generell bietet sich die Anwendung von TRIZ in DFSS-Projekten an, wenn spezi-fische, auf der Basis bisheriger Denkmuster schwierig zu lösende Probleme bei der Konzepterstellung aufgedeckt worden sind. Als widerspruchsorientiertes Er-findungskonzept ist sein Einsatz insbesondere im Zusammenhang mit QFD ge-rechtfertigt, um Konflikte und Widersprüche, die in einer Dimension, z.B. zwi-schen unterschiedlichen Produktfunktionen (im „Dach“ des HoQ), und/ oder in mehreren Dimensionen, z.B. zwischen Kundenanforderungen und Produktfunkti-onen (in der „Matrix“ des HoQ) offengelegt worden sind, aufzulösen (vgl. Töpfer/ Günther 2007b, S. 151f.). Unabhängig davon, welcher Art das Entwicklungspro-jekt ist und welchen Umfang es besitzt, führt das Vorgehen nach ARIZ mit einer hohen Wahrscheinlichkeit zu innovativen Lösungsansätzen.

Der 5-phasige Innovations-Zyklus soll ebenfalls die Grundlage für die Innovate-Phase des erweiterten DMADV-Zyklus bilden. Als Ausgangspunkt für den Durchlauf der Phase dienen die in der Analyse-Phase entworfenen und bewerteten Designkonzepte, welche die folgenden zwei Voraussetzungen erfüllen:

• Die Konzepte besitzen eine hohe Potenz zur Lösung des Kundenproblems.

• Die Konzepte weisen mindestens einen signifikanten Widerspruch auf.

Während die erste Voraussetzung leicht nachvollziehbar ist, lautet die Begründung für die zweite, dass Designkonzepte mit einem hohen Neuigkeits-/ Innovations-grad nur dann bewusst erzeugt werden können, wenn (gravierende) administrative, technische und/ oder physikalische Widersprüche vorliegen, die durch die An-wendung eines systematischen Vorgehensmodells (ARIZ) beseitigt werden kön-nen.8 Hier liegt der Hauptunterschied von TRIZ zu allen bisherigen Erfindungs-

7 Im Hinblick auf die Idealität der Lösung ist jeweils zu prüfen, ob es Umkehrmöglich-

keiten gibt, die dazu führen, dass z.B. etwas Schädliches in etwas Nützliches oder etwas Gefährliches in etwas Harmloses verwandelt wird.

8 Für den Fall, dass sich bei den ermittelten High Level-Designs keine Widersprüche ent-decken lassen, sind entsprechende zu konstruieren. Nur so ist es nach der Theorie von Altschuller möglich, neue, innovative Produkt- bzw. Prozessdesigns zu finden.

Page 259: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.1 DMAIDV-Zyklus als erweiterter DFSS-Problemlösungszyklus 237

methoden, deren Fokus vordergründig auf Kreativität und Intuition liegt. Nachtei-le von TRIZ ergeben sich zum einen aus dem umfangreichen Werkzeugkasten, dessen Beherrschung umfangreiche Schulungen mit vielen praktischen Beispielen erfordert. Zum anderen werden für die Anwendung von TRIZ kreative Mitarbeiter mit einem hohen Abstraktionsvermögen benötigt.

5.2 Abgeleitetes Vorgehensmodell 2: IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen

Analog zum vorangegangenen Unterkapitel wird das aus den Evolutionären Algo-rithmen abgeleitete Vorgehensmodell operationalisiert. Konzeption und Inhalte unterscheiden sich grundlegend vom DMADV-Zyklus. Allein der Fünf-Phasen-Ansatz mit phasenspezifischem Methodeneinsatz wird beibehalten. Die Einord-nung in das DFSS-Rahmenkonzept bleibt an dieser Stelle offen. Im Vordergrund steht die Entwicklung eines stringenten Verbesserungszyklus auf der Grundlage von Genetischen Algorithmen, wie sie zur Lösung von komplexen Optimierungs-aufgaben eingesetzt werden (vgl. Abschnitt 4.3.3). Während es sich beim DMAIDV-Zyklus um eine eher inkrementale Weiterentwicklung des in der Praxis weit verbreiteten DMADV-Zyklus handelt, stellt der im folgenden Abschnitt ab-geleitete IESRM-Zyklus ein völlig neues DFSS-Vorgehensmodell dar.

5.2.1 Vorgehensmodell mit 5 Phasen

Entsprechend den bekannten, primär technisch orientierten Qualitätsregelkreisen DMAIC und DMADV wird der IESRM-Zyklus nach dem Vorbild biologischer Evolutionsprozesse konzipiert. Ziel ist es, den abstrakten GA-Basisalgorithmus, wie er in Abb. 4–10 visualisiert worden ist, für betriebliche Verbesserungszwecke zu operationalisieren und eine konkrete Prozess- und Methodenbeschreibung für den vorstehend genannten Problemlösungszyklus zu geben.

Das Akronym IESRM steht für die fünf wesentlichen Phasen, die bei der Bearbei-tung von Optimierungsaufgaben nach evolutionärem Muster zu durchlaufen sind: Initialisierung, Evaluierung, Selektion, Rekombination und Mutation, wobei die drei letztgenannten Phasen zu einem Operator9 zusammengefasst werden können. Der IESRM-Zyklus lässt sich analog zum PDCA-Zyklus in Form eines Rades, welches einer schiefen Ebene hinauf gerollt wird, metaphorisch darstellen. Die schiefe Ebene in Abb. 5-3 wird in der Horizontalen durch die Dimension „Zeit“ und in der Vertikalen durch die Dimension „Verbesserung“ determiniert.

Das aufwärts rollende Rad symbolisiert die kontinuierliche Verbesserung eines Objektes (z.B. Produkt, Dienstleistung oder Prozess) über die Zeit, indem die

9 Der S-R-M-Operator kennzeichnet die eigentliche Verbesserungsschleife, die aus einer

nicht zufriedenstellenden Bewertung der vorhandenen Lösungsansätze in der Evaluie-rungs-Phase in Gang gesetzt wird (vgl. Abschnitt 4.3.3).

Page 260: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

238 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Evaluierungs-Phase sowie die drei Phasen des S-R-M-Operators iterativ durchlau-fen werden. Die Initialisierungs-Phase ist zugleich Start- und Endpunkt der Ver-besserungsaktivitäten. Sie lässt sich – bildlich gesprochen – mit einem Bremskeil vergleichen, der das Zurückrollen des ESRM-Rades am Hang verhindert.

In Anlehnung an das Anwendungsbeispiel zum Design eines nutzenmaximalen Kugelschreibers in Abschnitt 4.3.4 sind im Rahmen der Prozessbeschreibung die folgenden sieben Parameter respektive Variablen zu operationalisieren: POPSIZE, BITS, FIT(Y), KEEP, CROSSPROB, MUTPROB und MAXITER.

Abb. 5-3: Kontinuierliche Verbesserung mit IESRM-Zyklus

Im Gegensatz zu anderen Verfahren der Produktentwicklung, z.B. Conjoint-Ana-lyse, beinhaltet der IESRM-Zyklus ein definiertes Schema zur (Re-)Kombination der Merkmale, um funktionsfähige Produkte mit einem hohen Nutzen für den Kunden zu generieren. Nach evolutionstheoretischem Ansatz handelt es sich bei den Produkten um Lebewesen, die nach einer Maximierung der individuellen Fitness streben. Je höher die Fitness ist, desto größer ist die Wahrscheinlichkeit, dass sie von den potenziellen Kunden gekauft werden. Um Produkte mit einer hohen Fitness zu erhalten, werden sie – genau wie in der Natur – „gezüchtet“. Dazu sind n Lösungsvarianten in einer Population zusammenzufassen und in einen evolutionären Entwicklungsprozess einzubringen.

ZeitVe

rbes

seru

ng

Evaluierung

MutationSelektion

Initialisierung

Rekombination

Quelle: Eigene Darstellung

Page 261: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 239

Das Primärziel des Prozesses, der im Folgenden im Detail beschrieben wird, be-steht darin, die durchschnittliche Fitness der Population zu maximieren.10

Initialisierungs-Phase

Die Initialisierungs-Phase stellt den Ausgangspunkt für die Durchführung des Entwicklungsprojektes dar. Die Inhalte decken sich im großen und ganzen mit denen der Define-Phase des DMADV-Zyklus. Zu Beginn des Verbesserungspro-jektes ist ein Projektauftrag bzw. eine Projektcharter zu definieren, in der u.a. der Business Case, also der Problemhintergrund, die Projektziele und der voraussicht-lich erreichbare Projektnutzen (Net Benefit) spezifiziert werden. Weiterhin sind Angaben zum Projektumfang/ -rahmen, der Rollenverteilung/ Verantwortlichkeit sowie der anvisierten Projektlaufzeit zu machen. Nach Erstellung der Projektchar-ter sind die Zielgrößen des Projektes in Form von CTQs zu spezifizieren. Als unterstützende Methoden kommen hier die VOC-CTQ-Analyse aus dem DMAIC-Zyklus und/ oder das 1. House of Quality (HoQ) aus dem DMADV-Zyklus zum Einsatz. Für die Messung der CTQs sind u.U. technische Messsysteme erforder-lich, die im Vorfeld einer Messsystemanalyse (Gage R&R) zu unterziehen sind. Dadurch lässt sich die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Messungen sicherstellen und ggf. verbessern.

Im Unterschied zu den klassischen Six Sigma-Verbesserungszyklen kommen beim IESRM-Zyklus bereits in der Initialisierungs-Phase Kreativitätstechniken zum Einsatz, z.B. Brainstorming/ -writing und Morphologischer Kasten. Ziel ist es, bereits zu Beginn eine möglichst große Anzahl unterschiedlicher Problemlösungen „ins Rennen zu schicken“, um die Chance, die ideale Lösung zu finden, zu maxi-mieren.11 Im übertragenen Sinn bedeutet dies, dass die Lösungskandidaten in der Ausgangspopulation relativ inhomogen zueinander sein sollten, damit die Prob-lemlösungsfähigkeit der Population insgesamt steigt. Im Gegensatz zum DMAIC-/ DMADV-Zyklus geht es weniger darum, eine bestimmte Lösungsalter-native zu finden, welche die geforderten CTQs optimal erfüllt. Vielmehr soll die Population als Ganzes in Richtung Optimum verbessert werden. Zu diesem Zweck werden die individuellen Fitnesswerte aggregiert. Das Primärziel der Initialisierungs-Phase besteht vor diesem Hintergrund darin, möglichst viele Lösungsalternativen zu generieren, die im definierten Bit-String abbildbar sind.

Ausgehend von der GA-Programmierung sind in der Initialisierungs-Phase zum einen die Populationsgröße (POPSIZE), also die Anzahl potenzieller Lösungen

10 Die Zielstellung ist anders gelagert als bspw. bei populationsökologischen Erklärungs-

ansätzen im Rahmen der Organisations- und Managementwissenschaften. Hier geht es primär um die Beantwortung der Frage, warum bestimmte Unternehmen bzw. Unter-nehmenstypen überleben und andere nicht (vgl. Abschnitt 4.3.2).

11 Dieser Ansatz deckt sich mit der Aussage des Fisher-Fundamentaltheorems der natür-lichen Selektion, nach der die Verbesserung der durchschnittlichen Fitness einer Popu-lation proportional zur Varianz der Fitness innerhalb der Population ist.

Page 262: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

240 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

für das definierte Kundenproblem, sowie zum anderen die Chromosomengröße (BITS) festzulegen, durch welche die reale Problemlösung in codierter Form er-fasst wird. Während die Chromosomengröße bestimmt, wie viele unterschiedliche Lösungsvarianten maximal codierbar sind, ist die Populationsgröße ein Indikator dafür, mit wie vielen Lösungskandidaten der definierte Suchraum pro Runde pa-rallel abgesucht wird. Für beide Parameter gilt: Je größer, desto besser. Der Such-raum (SOLUTION) ergibt sich aus der Anzahl unabhängiger Merkmale, welche bei der Optimierung Berücksichtigung finden, sowie der Größe ihrer Definitions-bereiche. Als Hilfsmittel zur Definition/ Abgrenzung des Suchraums12 eignen sich der Morphologische Kasten und das Ishikawa-Diagramm. Bei letzterem werden die (vermuteten) Ursachen-Wirkungsbeziehungen zwischen definiertem CTQ und relevanten Einflussgrößen in Form einer Fischgräte visualisiert.

Für eine effektive und effiziente Lösungsfindung sollten Suchraum-, Populations- und Chromosomengröße in einem ausgewogenen Verhältnis stehen – sie bilden das „magische Dreieck“ der evolutionären Produktentwicklung (siehe Abb. 5-4). Große Suchräume ziehen i.d.R. große Populationen und lange Chromosomen nach sich, wobei der erforderliche F&E-Aufwand überproportional steigt, c.p.

Abb. 5-4: Das „magische Dreieck“ der evolutionären Produktentwicklung

Die (De-)Codierung der Lösungen ist ein essentieller Bestandteil von GAs. Sie wird deshalb beim Layout des IESRM-Zyklus explizit berücksichtigt. Verfolgt man im Rahmen der Produktentwicklung reine Evolutionsstrategien (ES), dann kann auf die Codierfunktion prinzipiell verzichtet werden (vgl. Abschnitt 4.3.1).

12 Die Definition des Such-/ Lösungsraums wurde im Zusammenhang mit der beispiel-

haften Beschreibung der Funktionsweise von GAs in Abschnitt 4.3.4 nicht weiter the-matisiert. Bei der Lösung praktischer Probleme stellt sie jedoch eine wesentliche Aufgabe zu Beginn des F&E-Projektes dar.

PopulationsgrößePOPSIZE

SuchraumgrößeSOLUTION

ChromosomengrößeBITS

F&E-Aufwand

Quelle: Eigene Darstellung

Page 263: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 241

In diesem Fall findet die Evolution ausschließlich auf der Phänotypebene statt; die n unabhängigen Merkmale werden auf direktem Wege rekombiniert und mutiert. Genau wie bei DOE steigt aufgrund der Kombinatorik die Anzahl der möglichen Lösungen mit der Anzahl unabhängiger Merkmale exponentiell. Dadurch werden bereits in der Initialisierungs-Phase sowohl die Genauigkeit (Effektivität) als auch die Schnelligkeit (Effizienz) des Suchprozesses determiniert. Zwischen den ge-nannten Größen besteht ein Trade-off, der im Zusammenhang mit dem Anwen-dungsbeispiel in Abschnitt 5.3.1 genauer analysiert wird.

Wie fein/ grob der Suchraum nach der optimalen Lösung abgesucht wird, lässt sich an der Anzahl abgeleiteter Merkmale bzw. Einflussgrößen und zugehöriger Ausprägungen festmachen. Je differenzierter die Abstufung in den einzelnen Merkmalsausprägungen gewählt wird, desto mehr Stellen umfasst der Bit-String und desto feiner wird der Suchraum nach dem globalen Optimum abgesucht. Die Frage, wie schnell/ langsam bei der Lösungssuche vorgegangen werden kann, ist – neben der Effizienz der sich anschließenden Projektphasen – abhängig vom Pool der bestehenden Problemlösungen in der Ausgangssituation. Das Aufspüren des Optimums wird beschleunigt, wenn – wie oben ausgeführt – die Lösungen in der Ausgangspopulation möglichst heterogen sind, d.h. es existieren viele verschiede-ne Produktlösungen, die auf das gegebene Kundenproblem „passen“.

Evaluierungs-Phase

In dieser Phase ist der Bewertungsalgorithmus zu spezifizieren, auf dessen Basis die Lösungskandidaten jeweils vor bzw. nach einem Durchlauf der Phasen Selek-tion, Rekombination und Mutation (S-R-M-Operator) evaluiert werden. Nach den Ausführungen in Abschnitt 4.3.3 ist die Fitness13 der in der Population befindli-chen Lösungen zu ermitteln. Um eine möglichst objektive Bewertung der Prob-lemlösung aus Kundensicht zu erreichen, wird empfohlen, die Fitness anhand des realisierten Kundennutzens zu bestimmen. Es ist davon auszugehen, dass zu Pro-jektbeginn die Erfüllung der Kundenanforderungen und damit der Nutzen- bzw. Fitnesswert der Lösungen im Durchschnitt relativ gering ist. Er steigt im Verlauf der Projektbearbeitung kontinuierlich an. Um die Weiterentwicklung in Richtung Optimum/ Idealität messbar zu machen, wird das erreichte Fitnessniveau nach jedem Durchlauf des S-R-M-Operators evaluiert. Dabei ist im Vorfeld, möglichst

13 Das Fitness-Konzept ist in der biologischen Evolutionstheorie von herausragender Be-

deutung. Bei der Bewertung von ökonomisch-technischen Sachverhalten spielt es eine eher untergeordnete Rolle. In der englischsprachigen Literatur wurde der Begriff des „Strategic Fit“ geprägt; er steht für die Güte des Zusammenhangs zwischen Umwelt, Struktur und Strategie eines Unternehmens. Die Vorstellung einer „guten Passung“ (Fit) zwischen den drei genannten Größen entspricht der pragmatischen Ausrichtung und Zielstellung des situativen Ansatzes. Ein hoher Fit ist demnach die Voraussetzung für eine hohe Effizienz und Effektivität der Organisation (vgl. Bea/ Haas 2005, S. 378f.). Daraus lässt sich der Begriff der „Fitness“ ableiten, welcher – im übertragenen Sinn – die Höhe des erzielten System-Umwelt- bzw. Intra-System-Fit determiniert.

Page 264: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

242 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

bereits in der Initialisierungs-Phase, eine genaue Spezifikation der Zielgröße(n) vorzunehmen, um die Objektivität der Messungen zu gewährleisten.

Im Zuge der Projektdurchführung stellt sich immer wieder die Frage, wie gut einzelne Lösungen die Zielvorgaben des Unternehmens und/ oder die Erwartun-gen der Kunden erfüllen. Der Operational Fit ist ein Maß für die Annäherung der gefundenen Lösung(en) an die ideale Lösung, die in den Vorstellungen der Kun-den/ des Unternehmens existiert. Wie bereits oben erwähnt, soll hier „Fitness“ in direktem Zusammenhang mit „Nutzen“, den ein Kunde aus dem Konsum eines Produktes/ einer Dienstleistung zieht, gesehen werden. Während die Fitness eines Individuums aus der „situationsgerechten Ausprägung“ gleich mehrerer (organi-scher) Merkmale resultiert, ergibt sich der Nutzen eines Konsumenten aus der „problemadäquaten Kombination“ von Merkmalen/ Merkmalsausprägungen, die sich zu Nutzenbündeln zusammenfassen lassen. Der Wert, den eine Problemlö-sung aus Sicht des Kunden besitzt, entspricht folglich dem Gesamtnutzen, der aus der Aggregation der Teilnutzenwerte resultiert. Letztere lassen sich sowohl pro-gressiv (direkt) über ein metrisches Bewertungsverfahren als auch retrograd (indi-rekt) über ein ordinales Rangordnungsverfahren bestimmen.

Nur in Ausnahmefällen wird die optimale Zielerreichung durch die zur Auswahl stehenden Handlungsalternativen erreicht. Häufig tritt der Fall auf, dass gleich mehrere Alternativen zu zulässigen, optimumnahen Ergebnissen führen, jedoch mit unterschiedlicher Ergebnishöhe, unterschiedlichem Eintrittszeitpunkt und/ oder unterschiedlicher Sicherheit. Der Entscheidungsträger prüft dabei die relative Vorteilhaftigkeit der Alternativen vor dem Hintergrund persönlicher Höhen-, Zeit- und Sicherheitspräferenzen. Aus diesem Grund sind in der Praxis i.d.R. mehrere Nutzenbewertungen erforderlich, die schließlich zu einer einheitlichen Nutzen-funktion u(y) zusammengeführt werden.

Die Entscheidungsregel, die vordergründig auf die Nutzenfunktion von Individuen abstellt, ist die Bernoulli-Regel (vgl. Wiese 2002, S. 14f.). Sie besagt, dass dieje-nige Handlungsalternative auszuwählen ist, die den höchsten Zielerreichungsgrad aufweist. In seiner allgemeinen Form fordert es die Maximierung des Erwar-tungswertes für die Zielerreichung. Dazu ist die Ergebnismatrix in eine Nutzen-matrix zu überführen, wobei jedem einzelnen Ergebnis yij ein Nutzen u(yij) zuge-ordnet wird. Im Ergebnis wird beim o.g. Prinzip über den Erwartungswert des Nutzens entschieden. Das Risikoverhalten des Entscheidungsträgers, welches von risikoavers über risikoneutral bis zu risikofreudig reicht, wird dabei implizit über den Verlauf der Nutzenfunktion berücksichtigt.14 Zur Ermittlung des Nutzwertes

14 Es kann gezeigt werden, dass ein Entscheidungsträger (z.B. Manager oder Kunde) ge-

nau dann risikoavers ist, wenn seine Nutzenfunktion konkav verläuft, wenn also ihr An-stieg mit zunehmender Merkmalsausprägung abnimmt. Demgegenüber zeichnet sich ein risikofreudiger Akteur dadurch aus, dass er jeweils die Alternative mit dem vermut-lich höchsten Zielereichungsgrad wählt; bei ihm verläuft die Nutzenfunktion konvex.

Page 265: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 243

gibt es einschlägige Verfahren, z.B. Nutzwertanalyse, Platzziffer-Verfahren und Paarweiser Vergleich; diese werden in Abschnitt 5.2.2 kurz vorgestellt. Außerdem wird auf die Fitness-Transformation eingegangen, die – analog zur Nutzenmatrix – erforderlich ist, um die ermittelten Merkmalswerte zu normieren.

Das Konzept der Maximierung des individuellen Nutzens sowie das Konzept der Maximierung der individuellen Fitness basieren auf den gleichen mathematisch-statistischen Prinzipien. Sie gehen auf den Mathematiker und Physiker DANIEL BERNOULLI (1738) zurück. Um Optimierungsprobleme bei unsicherem bzw. un-gewissem Entscheidungsumfeld zu lösen, forderte er die Maximierung des geomet-rischen anstelle des arithmetischen Mittels. Ein solches Umfeld liegt sowohl in der Natur als auch in Unternehmen in der Mehrzahl der Fälle vor.

Nach Stearns (2000, S. 224ff.) ist das geometrische dem arithmetischen Mittel bei Entscheidungen unter Risiko bzw. Ungewissheit jeweils vorzuziehen, da es neben dem Niveau auch die Streuung der Einzelwerte der Zielgröße berücksichtigt. Es kann mathematisch gezeigt werden, dass sich der geometrische Mittelwert einer Wahrscheinlichkeitsverteilung aus dem Erwartungswert μ und der Varianz σ2 ergibt (vgl. Young/ Trent 1969).15 In der Statistik wird die Schätzung des geomet-rischen Mittels häufig über das arithmetische Mittel als Schätzer für μ abzüglich eines Korrekturterms, der die Varianz σ2 berücksichtigt, vorgenommen. Danach ergibt sich die geometrische mittlere Fitness der Population wie folgt:

i

i

ifit

fitfitPopfit

μσ

μ⋅

−=2

2

(5.1)

Aus dieser Beziehung leitet sich unmittelbar die Erkenntnis ab, dass bei der Ma-ximierung des geometrischen Mittels das Risiko, falsche Entscheidungen zu tref-fen, minimiert wird. Gleichzeitig wird offensichtlich, dass zwischen Erwartungs-wert und Varianz eine Austauschbeziehung (Trade-off) besteht, die dazu führt, dass z.B. eine geringere erwartete Fitness der Population durch eine geringere Varianz der Fitnesswerte der einzelnen Lösungen kompensiert werden kann. Die Maximierung der geometrischen mittleren Fitness Popfit setzt – entsprechend

Gleichung (5.1) – die Maximierung von μ und die Minimierung von σ2 der ge-messenen Fitnesswerte )(yfiti innerhalb der Population voraus.

Ein Entscheidungsträger, bei dem die Nutzenfunktion geradlinig verläuft, ist risikoneu-tral (vgl. Sturm 2005, S. 56f.; Bültel/ Wiese 1996, S. 781ff.).

15 μ wird – bei Entscheidungen unter Ungewissheit – über das ungewogene arithmetische Mittel aller Ursprungswerte geschätzt. σ2 wird – im gleichen Fall – über das ungewo-gene arithmetische Mittel der quadrierten Abstände aller Beobachtungswerte vom Mittelwert der Stichprobe geschätzt (vgl. Sturm 2005, S. 56f.).

Page 266: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

244 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

S-R-M-Operator

Die generelle Risikoeinstellung eines Individuums hat einen wesentlichen Einfluss darauf, welche Lösungen wie bewertet und infolgedessen selektiert werden. Um vermarktungsfähige Produkte zu erhalten, ist stets eine Bewertung aus Kunden-sicht vorzunehmen. Dabei sollten im Rahmen von Neuprodukt-/ Neuprozessent-wicklungen nicht die Untersuchung von Kundenanforderungen/ -bedürfnissen im Vordergrund stehen, sondern die gezielte Analyse von Kundenproblemen. Wie in Abschnitt 3.1.1 ausgeführt wurde, ist es nur dadurch möglich, die latenten Gründe für den Kauf/ Nicht-Kauf eines Produktes offen zu legen (vgl. Shiba et al. 1993). Um ein möglichst umfassendes Bild über das bestehende und zu lösende Kunden-problem zu erhalten, sind in erster Linie die vier Dimensionen Kundenerwartung, Kundennutzen, Kundenvorteil und Kundenzufriedenheit zu messen und zu analy-sieren. Dies wird in der vorgelagerten Evaluierungs-Phase durchgeführt.

Die differenzierte Messung und Analyse der Dimensionen bildet die Grundlage für eine effektive, d.h. zielgerichtete Selektion der bis dato gefundenen Lösungen. Die Wahrscheinlichkeit, mit der eine Lösung für die Reproduktion selektiert wird, ist davon abhängig, wie gut sie im Vergleich zu anderen Lösungen ein definiertes Problem – aus Kunden- und/ oder aus Unternehmenssicht – zu lösen vermag. Bezogen auf das „Weiterkommen“ eines einzelnen Lösungskandidaten i ist also nicht die absolute, sondern seine relative Fitness )(yfit rel

i im Pool entscheidend. Sie wird allgemein nach folgender Gleichung ermittelt:

=

=k

i

absi

absirel

i

yfit

yfityfit

1

)(

)()( (5.2)

Durch die Funktion KEEP wird sichergestellt, dass eine gefundene beste Lösung *,gifit nicht durch Zufall in der nächsten Generation g verloren geht.16 Im Rahmen

einer Elitismusoption ist zu überprüfen, ob der beste Lösungskandidat der aktuel-len Generation (Kindergeneration) einen schlechteren Fitnesswert als der beste Lösungskandidat der vorhergehenden Generation (Elterngeneration) besitzt. Ist dies der Fall, wird die beste Lösung der Elterngeneration in die Kindergeneration sozusagen „hinübergerettet“. Infolgedessen ist der Verlauf der Fitnessfunktion des jeweils besten Lösungskandidaten über die Zeit monoton, d.h. die Bewertungs-punktzahl der „Spitzenlösung“ ist nach jeder Iteration größer gleich der Bewer-tungspunktzahl der „Spitzenlösung“ in der Ausgangspopulation. Die Dauer des Suchvorganges, d.h. die Anzahl der Iterationen des S-R-M-Operators wird durch die Festlegung des Parameters MAXITER nach oben hin begrenzt.

16 Dies kann durchaus oft passieren, wenn die Population bei jedem Durchlauf des S-R-

M-Operators jeweils komplett ersetzt wird.

Page 267: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 245

Die nach einem bestimmten Selektionsmechanismus ausgewählten Lösungen stellen die Intermediärpopulation dar. Aus dieser werden der Reihe nach je zwei Lösungen (Individuen) zur Rekombination zufällig ausgewählt. Unter der Voraus-setzung, dass die ausgewählten Lösungskandidaten nicht identisch sind, wird durch Kreuzung der codierten Eigenschaftswerte eine Neustrukturierung der „ge-netischen Information“ und infolgedessen der produktbezogenen Merkmale/ Merkmalsausprägungen erreicht. Die systematische Veränderung der codierten Eigenschaftswerte führt dazu, dass sich die Lösungsalternativen der Kindergenera-tion von denen der Elterngeneration z.T. signifikant unterscheiden. Wie schon an anderer Stelle ausgeführt, findet die „Durchmischung des Erbgutes“ vor allem zwischen den Lösungen statt, die eine relativ hohe Fitness besitzen und deshalb von der Selektion bevorzugt werden (vgl. auch Abschnitt 4.3.3).

Die Populationsgröße bleibt infolge des Reproduktionsvorganges unverändert, da die in der Elterngeneration befindlichen Lösungen jeweils paarweise zu zwei Nachkommen rekombiniert werden. Dabei ist im Bit-String mind. eine Kreu-zungsstelle zufällig auszuwählen, an der ein Austausch der codierten Eigen-schaftswerte der zwei Produkt- bzw. Prozesslösungen erfolgt. Mit welcher Wahr-scheinlichkeit der Austausch der Bit-Zeichenfolgen an der ausgewählten Stelle tatsächlich stattfindet, wird durch den Parameter CROSSPROB festgelegt. Ist die Crossing-over-Wahrscheinlichkeit hoch, dann werden durch den Rekombinati-onsmechanismus eine Reihe von neuen Lösungen erzeugt, welche die Merk-malsausprägungen von jeweils zwei Vorgängerlösungen in sich vereinigen. Da-durch kommt es zum einen zur Bewahrung (Retention) von Merkmalen, die sich im Wettbewerb als vorteilhaft erwiesen haben. Zum anderen lässt sich auf diese Weise feststellen, ob die Kombination von Merkmalen/ Merkmalsausprägungen einen Einfluss auf die Höhe der Fitness besitzt.

Während die Reproduktion zu einer mehr oder weniger gewollten Variation der Eigenschaftswerte von Individuen innerhalb der Population führt, kommt es infol-ge der Mutation zu ungewollten Veränderungen im Bit-String einzelner Lösungen. Zur Nachahmung der biologischen Mutation wird jedes Bit eines erzeugten Nach-kommen mit einer sehr geringen Wahrscheinlichkeit MUTPROB invertiert bzw. mit einem anderen vertauscht. Genau wie bei der Rekombination gilt: Vor allem lange Schemata sind gefährdet, durch die Änderung von nur einer Stelle in der Bit-Zeichenfolge zerstört zu werden.17 Trotz dieser Tatsache sind Mutationen von entscheidender Bedeutung für das Auffinden innovativer Problemlösungen. Durch

17 Mutationen sind die Tastschritte der Natur, um i.d.R. über kleine, selten über große

Änderungen im Genotyp ganz neue Wege der Problemlösung zu finden. Fisher (1930, S. 38ff.) beschreibt in diesem Zusammenhang einen einfachen, aber sehr eleganten Weg, um das Problem formal-analytisch zu erfassen. Seine Argumentation basiert auf einem geometrischen Modell, mit dessen Hilfe sich die Bedingungen für Mutationen, die zu einer verbesserten Anpassung des Individuums führen, spezifizieren lassen.

Page 268: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

246 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

sie lassen sich u.a. die Sprungstellen in der Entwicklung von Technologien erklä-ren, z.B. Übergang von mechanischen auf elektronische Systeme.

5.2.2 Phasenbezogener Methodeneinsatz

Die Methoden und Instrumente, die für den Einsatz im Rahmen des IESRM-Zyklus infrage kommen, entstammen zum großen Teil aus der DFSS- sowie TRIZ-Toolbox. Ihre Inhalte und Konzeptionen sind weitläufig bekannt und bedür-fen keiner detaillierten Darstellung. Die Ausführungen konzentrieren sich deshalb auf die wesentlichen Ziele/ Inhalte sowie den vernetzten Einsatz. In Abb. 5-5 ist das phasenspezifische Vorgehen des IESRM-Zyklus zusammen mit den vorzugs-weise anzuwendenden Methoden aufgeführt. Sie werden im Folgenden kurz be-schrieben und – soweit sie nicht standardmäßig im Six Sigma-Konzept verankert sind – am Beispiel „Kugelschreiber“ ausgeführt (vgl. Abschnitt 4.3.4).

Methoden der Initialisierungs-Phase

Im Hinblick auf die Vorgehensschritte und den Methodeneinsatz ist die erste Pha-se des IESRM-Zyklus am umfangreichsten. Der Zeit- und Ressourcenbedarf für die Initialisierung des Projektes sind – im Vergleich zu den restlichen vier Phasen des Problemlösungszyklus – relativ hoch. Die Methoden, die zu Projektstart zum Einsatz kommen, entstammen zum überwiegenden Teil aus der klassischen Tool-box des Qualitäts- und Innovationsmanagements (vgl. Unterkapitel 3.1). Beson-derheiten ergeben sich lediglich hinsichtlich ihrer phasenspezifischen Kombinati-on, die dem Grunde nach neu ist und deshalb hier erklärt wird:

• Projektcharter: Die Projektcharter, die als Methode in der Initialisierungs-Phase an erster Stelle steht, dient zur Problem- und Zielspezifikation. Sie hat sich im Rahmen von (Design for) Six Sigma-Projekten als Planungs- und Kontrollinstrument bewährt. Aufbau und Inhalte wurden bereits im Zusam-menhang mit dem DMAIC-/ DMADV-Zyklus in Unterkapitel 3.3 erläutert. Eine spezifische Anpassung für die Durchführung des IESRM-Zyklus ist in-soweit nicht erforderlich. Unter dem Punkt Net Benefit, der für Six Sigma-Projekte essentiell ist, sind vorzugsweise Angaben zu Target Costs bzw. Costs of Design zu machen (vgl. Simon/ Dahlhoff 1998).

• VOC-CTQ-Analyse: Nachdem die Projektinhalte und -ziele für alle Beteilig-ten klar definiert sind, geht es im zweiten Schritt um die Spezifizierung der Zielgröße(n). Es sind Metriken zu entwickeln, anhand derer der Projekterfolg, insb. der Zielerreichungsgrad des F&E-Vorhabens, nachvollzogen werden können. Im Sinne von DFSS ist ein Projekt dann erfolgreich, wenn mit dem neu konzipierten Produkt/ Prozess alle zukünftigen wesentlichen Kundenan-forderungen – unter Beachtung des Wirtschaftlichkeitsprinzips – erfüllt wer-den. Eine einfache Methode, um herauszufinden, was dem Kunden an einem Produkt/ einer Dienstleistung (besonders) wichtig ist, ist die VOC-CTQ-Analyse (vgl. Abschnitt 3.3.1). Aus den definierten CTQs lassen sich – direkt oder indirekt – die kritischen Qualitätsmerkmale ableiten.

Page 269: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 247

Abb. 5-5: Die fünf Phasen des IESRM-Zyklus

Initi

alis

ieru

ng

Vorg

ehen

Met

hode

n

•Pr

oble

m/ Z

iel d

efin

iere

n•

Ziel

größ

e(n)

fest

lege

n•M

esss

yste

m p

rüfe

n•S

uchr

aum

def

inie

ren

•Lö

sung

en g

ener

iere

n•

Lösu

ngen

cod

iere

n (

Gen

otyp

)

•Pr

ojek

tcha

rter

•VO

C-CT

Q-A

naly

se

•G

age

R&R

•Is

hika

wa-

Diag

ram

m•

Bra

inst

orm

ing/

-writ

ing

•M

orph

olog

isch

er

Kas

ten

•C

odie

r-Tab

leau

Vorg

ehen

Met

hode

n

•Lös

unge

n be

wer

ten

•Fitn

ess-

Wer

t ber

echn

enfü

r ein

zeln

e Lö

sung

für g

es. P

opul

atio

n

•Nut

zwer

tana

lyse

•Pla

tzzi

ffer-

Verfa

hren

•Pa

arw

eise

r Ver

glei

ch•F

itnes

s-Tr

ansf

orm

atio

n•S

-Kur

venv

erla

uf

Vorg

ehen

Met

hode

n

•Lö

sung

en fü

r „Fo

rt-

pfla

nzun

g“ a

us-

wäh

len/

sel

ektie

ren

(Elte

rnge

nera

tion)

•Pro

porti

onal

eSe

lekt

ion

•Ran

gbas

ierte

Sele

ktio

n

Sele

ktio

nEv

alui

erun

g

Vorg

ehen

Met

hode

n

•Ne

ue L

ösun

gen

durc

h „K

reuz

ung

der G

ene“

erz

euge

n (K

inde

rgen

erat

ion)

•1-P

oint

-Cro

ssov

er•n

-Poi

nt-C

ross

over

•Uni

form

-Cro

ssov

er

Vorg

ehen

Met

hode

n

•Lö

sung

en z

ufäl

lig

varii

eren

•Lö

sung

en d

ecod

ie-

ren

(Ph

änot

yp)

•Flip

mut

atio

n•S

wap

mut

atio

n•A

ttrib

ute

List

ing

•Cod

ier-T

able

au

Itera

tion Re

kom

bina

tion

Mut

atio

nIn

itial

isie

rung

Vorg

ehen

Met

hode

n

•Pr

oble

m/ Z

iel d

efin

iere

n•

Ziel

größ

e(n)

fest

lege

n•M

esss

yste

m p

rüfe

n•S

uchr

aum

def

inie

ren

•Lö

sung

en g

ener

iere

n•

Lösu

ngen

cod

iere

n (

Gen

otyp

)

•Pr

ojek

tcha

rter

•VO

C-CT

Q-A

naly

se

•G

age

R&R

•Is

hika

wa-

Diag

ram

m•

Bra

inst

orm

ing/

-writ

ing

•M

orph

olog

isch

er

Kas

ten

•C

odie

r-Tab

leau

Vorg

ehen

Met

hode

n

•Lös

unge

n be

wer

ten

•Fitn

ess-

Wer

t ber

echn

enfü

r ein

zeln

e Lö

sung

für g

es. P

opul

atio

n

•Nut

zwer

tana

lyse

•Pla

tzzi

ffer-

Verfa

hren

•Pa

arw

eise

r Ver

glei

ch•F

itnes

s-Tr

ansf

orm

atio

n•S

-Kur

venv

erla

uf

Vorg

ehen

Met

hode

n

•Lö

sung

en fü

r „Fo

rt-

pfla

nzun

g“ a

us-

wäh

len/

sel

ektie

ren

(Elte

rnge

nera

tion)

•Pro

porti

onal

eSe

lekt

ion

•Ran

gbas

ierte

Sele

ktio

n

Sele

ktio

nEv

alui

erun

g

Vorg

ehen

Met

hode

n

•Ne

ue L

ösun

gen

durc

h „K

reuz

ung

der G

ene“

erz

euge

n (K

inde

rgen

erat

ion)

•1-P

oint

-Cro

ssov

er•n

-Poi

nt-C

ross

over

•Uni

form

-Cro

ssov

er

Vorg

ehen

Met

hode

n

•Lö

sung

en z

ufäl

lig

varii

eren

•Lö

sung

en d

ecod

ie-

ren

(Ph

änot

yp)

•Flip

mut

atio

n•S

wap

mut

atio

n•A

ttrib

ute

List

ing

•Cod

ier-T

able

au

Itera

tion Re

kom

bina

tion

Mut

atio

n

Que

lle: E

igen

e D

arst

ellu

ng

Page 270: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

248 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

In der Vergangenheit sind zur genaueren Bestimmung von Kundenanforde-rungen/ -bedürfnissen und deren Wichtigkeit eine Reihe von mehrstufigen Verfahren und Tools entwickelt und in der Unternehmenspraxis – mit mehr oder weniger großem Erfolg – angewendet worden, z.B. Quality Function Deployment (QFD) und Conjoint Measurement (CM) (vgl. Abschnitt 3.3.2). Hauptansatzpunkt ist die Bewertung von Produktalternativen und deren ein-zelne Bestandteile mit dem Kunden und durch den Kunden. Auf diesem Weg können Produkte/ Dienstleistungen mit einem hohen Nutzen für den Kunden identifiziert und ggf. ausgebaut werden. Für die wirkungsvolle Anwendung des IESRM-Zyklus sind diese Verfahren aber nicht zwingend erforderlich, wie an den Beispielen in Abschnitt 5.3 zu sehen ist.

• Gage R&R: Die CTQs sind so zu formulieren, dass sie direkt messbar sind oder – zumindest indirekt – über Outputmessgrößen erfasst und quantifiziert werden können. Die Herleitung der Beziehungen zwischen CTQs und Out-putmessgrößen erfolgt in praxi standardmäßig über eine Matrix-Darstellung (vgl. Abschnitt 3.3.1). Durch die Sicherstellung der Messbarkeit aller CTQs wird die Voraussetzung geschaffen, dass im weiteren PEP auf den Kunden als Bewertungsinstitution für die (neu) generierten Lösungen verzichtet werden kann. Die Phasen Evaluierung, Selektion, Rekombination und Mutation lau-fen fortan automatisiert, ohne explizite Beteiligung des Kunden ab. Der Kun-de kommt erst wieder am Ende des F&E-Projektes bei der Überprüfung des endgültigen Designs ins „Spiel“. In der Zwischenzeit kann das Projektteam relativ autonom arbeiten und Lösungen entwickeln.18

Auch beim IESRM-Zyklus ist es wichtig, dass die Mess- und Kennzahlensys-teme, die zur Quantifizierung der CTQs herangezogen werden, vorab einer Analyse/ Überprüfung unterzogen werden. Nur dadurch lässt sich sicherstel-len, dass tatsächlich das gemessen wird, was vorgegeben wird zu messen. Die Konzeption und Inhalte der Gage R&R wurden bereits in Abschnitt 3.2.4 er-läutert. Für die Anwendung der Gage R&R für stetige Daten sei auf das Bei-spiel in Abschnitt 5.3.1 verwiesen. Eine Gage R&R für diskrete Daten ist im Fall des Kugelschreibers z.B. für das CTQ „Angenehme Griffform“ durchzu-führen. Hierbei handelt es sich um ein attributives Merkmal.

• Ishikawa-Diagramm: Das Ishikawa- oder auch Fischgrät-Diagramm (1943) ist ein weiteres wichtiges Instrument aus dem Bereich des Qualitätsmanage-ments. Hier dient es zur systematischen Ermittlung sowie strukturierten Dar-stellung von Fehlereinflussfaktoren (vgl. Kamiske/ Brauer 2006, S. 242). Die definierte Wirkung, z.B. Fehlerfolge oder Zielgröße, bildet – bildlich gespro-chen – den Fischkopf; die vermuteten Einflussgrößen den Fischrumpf. Ziel ist es, über das Fischgrät-Diagramm sämtliche Haupt- und Nebeneinflussgrößen

18 Vor diesem Hintergrund ist es empfehlenswert, zu Beginn eines DFSS-Projektes aus-

reichend Zeit zu verwenden, um die CTQs für ein neues Produkt/ eine neue Dienst-leistung vollständig und fehlerfrei abzuleiten. Ansonsten gilt der Ausspruch: „Garbage in, garbage out“ (vgl. Töpfer/ Günther 2007b, S. 117ff.).

Page 271: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 249

im Team zu sammeln und zu strukturieren. Als Strukturierungshilfe bietet sich die Unterteilung in 7 M an – Mensch, Maschine, Messung, Material, Me-thode, Mitwelt und Management an. Diese stehen als Oberbegriffe für die tat-sächlichen Ursachen und werden an den Hauptgräten abgetragen. Als „Faust-regel“ für die Tiefenanalyse zu den einzelnen M´s gilt: Frage 5-mal „Wa-rum?“. Die tieferliegenden Einflussgrößen werden dann in hierarchischer Form an den Untergräten abgetragen (vgl. Abschnitt 5.3.1).

Weiterhin ist es zweckmäßig, den Grad der Beeinflussbarkeit der einzelnen Einflussgrößen zu kennzeichnen (constant, noise, variable), denn nur die vari-ablen Größen sind unmittelbar unternehmensintern zu gestalten. Die konstan-ten Größen sind praktisch nicht, zumindest nicht kurzfristig beeinflussbar; sie bleiben bei der Ableitung von (kurzfristigen) Verbesserungsmaßnahmen au-ßen vor. Einflussgrößen, die mit „noise“ gekennzeichnet werden, sind nur schwer über die Zeit bestimmbar und damit auch steuerbar. Analog zum Hin-tergrundrauschen in der Fernmeldetechnik sind sie nur mit deutlich erhöhtem Analyseaufwand extrahierbar und als Einflussgrößen quantifizierbar. Prinzi-piell geht die Zielstellung dahin, dass alle als wesentlich erkannten Ursachen-größen einer hohen Beeinflussbarkeit unterliegen, also „variable“ sind.

Nachdem die Wichtigkeit und der Beeinflussungsgrad von möglichen Ursa-chengrößen durch die Akteure festgestellt worden sind, besteht das weitere Vorgehen im Rahmen von klassischen (Design for) Six Sigma-Projekten dar-in, die Stärke des Einflusses mit geeigneten statistischen Methoden zu über-prüfen, sprich zu verifizieren. Es soll festgestellt werden, ob die vermuteten Ursachen-Wirkungsbeziehungen statistisch signifikant sind. Erst auf dieser Grundlage ist es – nach strenger Six Sigma-Philosophie – möglich, konkrete Verbesserungsmaßnahmen zu planen und umzusetzen.

Im Gegensatz hierzu liegt die Bedeutung des Einsatzes des Ishikawa-Dia-gramms im Rahmen des IESRM-Zyklus auf einem anderen Punkt: Hier sollen alle Lösungsmerkmale identifiziert werden, die mit der definierten Zielgröße in einem ursächlichen Zusammenhang stehen. Dabei wird davon ausgegan-gen, dass die Merkmale, zumindest im Entwicklungsstadium, in bestimmten Grenzen, unabhängig voneinander variiert werden können. Aus der Gesamt-zahl identifizierter Merkmale und der zugehörigen Anzahl relevanter Ausprä-gungen ergibt sich letztendlich die Größe des Suchraums. Darüber hinaus wird durch die Erstellung des Ishikawa-Diagramms die Voraussetzung für ei-ne eindeutige (De-)Codierung der Lösungsvarianten geschaffen.

Nach dem Eingrenzen des Suchraums mithilfe des Ishikawa-Diagramms sind Lö-sungen zu sammeln respektive zu generieren, die auf das Problem passen. Im Gegensatz zur klassischen DFSS-Vorgehensweise steht dieser Schritt relativ am Anfang des Problemlösungszyklus. Dabei stellt das Auffinden neuer und innovati-ver Lösungsansätze in erster Linie eine Herausforderung an die Kreativität und den Ideenreichtum des Projektteams dar. Als Menschentypus für die Umsetzung wird der homo creativus gesucht, der mit einer vorgefundenen Situation nie (voll-ständig) zufrieden ist, d.h. „er akzeptiert Beschränkungen, denen sein Vorhaben

Page 272: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

250 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

ausgesetzt sind, nicht einfach als Nebenbedingungen, sondern versucht, sie zu verändern, um so für sich zu besseren Lösungen zu kommen“ (Cantner/ Hanusch 1997, S. 779).19 Zur Unterstützung kommen sowohl spontan-intuitive als auch systematisch-analytische Methoden zum Einsatz (vgl. Abschnitt 3.1.2).

Im Folgenden soll kurz auf die drei wesentlichen Methoden Brainstorming/ wri-ting, Morphologischer Kasten und Codier-Tableau eingegangen werden. Die zwei erstgenannten Methoden sind in der Unternehmenspraxis weit verbreitet und wer-den vor allem bei F&E-Vorhaben angewendet, die das Auffinden innovativer Produktlösungen zum Ziel haben. Die drittgenannte Methode ist spezifisch für die evolutionäre Produktentwicklung, basierend auf Genetischen Algorithmen. Im Rahmen des IESRM-Zyklus spielt sie eine zentrale Rolle; daher sind die Ausfüh-rungen zum Einsatz und effizienten Vorgehen relativ ausführlich.

• Brainstorming/ -writing: Beim Brainstorming20 handelt es sich um eine intui-tive Methode der Ideensammlung. Durch eine „ungezwungene Atmosphäre“ soll die Kreativität der Beteiligten im Ideenfindungsprozess gefördert werden. Dabei liegt die Auffassung zugrunde, dass eine Gruppe prinzipiell zu mehr Kreativität fähig ist als eine einzelne Person. Denn durch die Verknüpfung der Ideenpotenziale mehrerer Mitarbeiter werden i.d.R. bessere Ideen/ Lösun-gen gefunden als bei isolierter Suche (vgl. Ophey 2005, S. 110ff.). Das Brain-storming-Team setzt sich typischerweise aus drei bis acht Personen zusam-men, die aus verschiedenen Abteilungen/ Bereichen im Unternehmen kom-men und über ein breit gestreutes Fachwissen verfügen.

Im Gegensatz zum Brainstorming werden beim Brainwriting die Ideen nicht ausgesprochen und im Team diskutiert, sondern zunächst von jedem Teil-nehmer separat aufgeschrieben. Die Ideensammlung erfolgt in „ruhiger“ At-mosphäre. Der Fokus dieser Kreativitätstechnik liegt auf der Verbesserung von Ideen, weniger auf Spontaneität. Weil keine Möglichkeit zur direkten Kritik besteht, wird die Gefahr konformen Verhaltens der Akteure weitge-hend ausgeschaltet. Die 6-3-5-Methode als typische Anwendungsform des Brainwritings verlangt eine Gruppenstärke von sechs Personen.21 Jede Person erhält ein Formular und notiert auf diesem drei Ideen bzw. Vorschläge. Nach

19 Diese Sichtweise entspricht in weiten Zügen dem Bild des „dynamischen Unterneh-

mers“ mit bahnbrechenden Innovationen, wie er von Schumpeter (1912) propagiert wird, und/ oder dem des „findigen Unternehmers/ Entrepreneurs“ mit kleinen Verbesse-rungen/ Innovationen, wie er sich bei Kirzner (1973) wiederfindet.

20 Ihre Bezeichnung geht auf den „Erfinder“ ALEX OSBORN (1953), welcher den Satz prägte: „Using the brain to storm a problem“. Auf Osborn geht ebenfalls eine gleich-namige Checkliste zurück, die zur Erweiterung des betrachteten Umfeldes eines Pro-blems und dessen Lösung(en) dient (vgl. Backerra et al. 2002, S. 62ff.).

21 Im Juli 2006 wurde von IBM das größte Brainstorming aller Zeiten durchgeführt. 140.000 Menschen aus 75 Ländern nahmen an dem 72 Stunden dauernden „Kreativi-tätsmarathon“ per Internet teil. Es war das 8. Online-Brainstorming von IBM dieser Art seit 2001 (vgl. Seiwert et al. 2006, S. 77).

Page 273: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 251

Ablauf von fünf Minuten werden die Formulare an den jeweils nächsten Teil-nehmer in der Runde zur Verfeinerung weitergegeben.

• Morphologischer Kasten: Während die Kreativitätstechniken Brainstorming und Brainwriting überwiegend auf intuitiven Assoziationen basieren, be-schreibt die morphologische Methode22 eine logisch-systematische Vorge-hensweise. Ihre Zielsetzung ist es, alle möglichen Lösungen eines Problems durch systematische Abwandlung zu finden. Dazu wird ein gegebenes Prob-lem so in seine Parameter und Einzelteile zerlegt, dass es alle möglichen Lö-sungen in geordneter Form enthält. Zur Darstellung benutzt man den sog. Morphologischen Kasten, eine Matrix, die sowohl unveränderliche Grundbe-standteile als auch mögliche Varianten enthält. Der Kasten ermöglicht die mehrstufige Klassifikation von Aufgaben und Problemstellungen (vgl. Teu-felsdorfer/ Conrad 1998, S. 19). Indem bereits bekannte Teillösungen neu zu-sammengesetzt und miteinander verknüpft werden, entstehen im Ergebnis z.T. ganz neue, innovative Gesamtlösungen.

Zu Beginn muss das Untersuchungsobjekt im Hinblick auf seine Merkmale/ Merkmalsausprägungen formal beschrieben werden. Um keine Lösungsmög-lichkeit vorzeitig auszuschließen, sollte dies so allgemein wie möglich erfol-gen. Nachdem das Gesamtproblem in seine Grunddimensionen (Parameter) zerlegt und eine Zuordnung möglicher Varianten (Komponenten) vorgenom-men worden ist, erfolgt im dritten Schritt die Analyse sämtlicher Teillösun-gen. Durch die systematische Kombination der vorgegebenen Komponenten ergibt sich eine Vielzahl von möglichen Handlungsalternativen. Von diesen kann im Anschluss – nach einem im Vorfeld definierten Entscheidungsraster – die beste ausgewählt werden. Im Verlauf der Erstellung eines Morphologi-schen Kastens stößt man unweigerlich auch auf (zunächst) unsinnig erschei-nende Kombinationen. Diese dürfen jedoch nicht gleich verworfen werden, da sie u.U. den Anstoß zu einer neuen, innovativen Lösung geben.

In Abb. 5-6 ist das Vorgehen der morphologischen Methode am Beispiel Ku-gelschreiber visualisiert.23 Wie ersichtlich ist, erfolgt die Zuordnung der Komponenten zu den Parametern tabellarisch. Sind alle möglichen Varianten erfasst, erhält man durch die Kombination von je einer Komponente pro Pa-rameter über alle aufgeführten Parameter des Morphologischen Kastens ge-nau eine Lösungsvariante. Bei der Zerlegung muss darauf geachtet werden, dass die Parameter als Bestimmungsgrößen des Problems voneinander unab-

22 Der Morphologische Kasten wurde im Jahr 1956 von dem Schweizer Astrophysiker

FRITZ ZWICKY entwickelt (vgl. u.a. Schweitzer 1999, S. 27ff.). Er gehört zu den 7 Krea-tivitätswerkzeugen (K 7), welche in Ergänzung zu den 7 Qualitätswerkzeugen (Q 7) und den 7 Managementwerkzeugen (7 M) dazu dienen, kreative Prozesse anzustoßen und Innovationen zu fördern (vgl. insb. Backerra et al. 2002, S. 42ff.).

23 Die an der Erstellung des Morphologischen Kastens beteiligten Personen sollten mög-lichst aus unterschiedlichen Fachbereichen kommen, um zum einen eine breite Abdec-kung von Anwendungsgebieten zu erreichen und zum anderen das Lösungsfeld nicht zu sehr zu beschränken (vgl. Gelbmann et al. 2003, S. 32ff.).

Page 274: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

252 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

hängig sind, weil andernfalls die Kombinationsmöglichkeiten eingeschränkt werden. Prinzipiell ist es wichtig, die Phase der Ideen-/ Lösungsfindung von den Phasen der Bewertung und Auswahl zu trennen. Ansonsten werden u.U. Lösungen mit hohem Innovationsgehalt bereits in einem frühen Projektstadi-um schlecht bewertet und infolgedessen ausgeschlossen.

Abb. 5-6: Morphologischer Kasten am Beispiel Kugelschreiber

Je nach Komplexität des Entwicklungsvorhabens kann es notwendig sein, die aus der Ideenfindung hervorgegangene große Anzahl von Lösungskandidaten auf einen handhabbaren Umfang zu reduzieren. In der Improve-Phase von Six Sigma-Projekten kommt hier vor allem die N/3-Methode24 zum Einsatz, bei der die Lö-sungsvorschläge unmittelbar durch das Projektteam beurteilt werden. Auf dieser Basis wird – unter Herbeiführung eines Konsens – die Ausgangspopulation defi-niert. Für die Anwendung der genetischen Operationen im Rahmen des IESRM-Zyklus sind die Lösungen im Weiteren zu codieren. Ein einfaches Hilfsmittel, um

24 Jedes Teammitglied hat N/3 „Stimmen“ zu vergeben, wobei N die Anzahl der zur Ver-

fügung stehenden Alternativen bezeichnet. Alle Beteiligten treffen ihre Auswahl auf-grund ihrer persönlichen Einschätzung des Ergebnisbeitrages der jeweiligen Lösung. Nach der Stimmenabgabe werden die Lösungsalternativen in eine Rangfolge gebracht, in dem sie absteigend, nach der Anzahl der erhaltenen Stimmen, geordnet werden. Die Vorschläge mit den meisten Punkten verbleiben in der (Rest-) Auswahl, deren Anzahl ca. 1/3 der Lösungsvorschläge entspricht (vgl. Lunau et al. 2006, S. 224f.).

Nicht ergonomischErgonomischGriffform

HolzAluminiumKunststoff(Edel-)MetallGriffmaterial

Nicht austauschbarAustauschbarGriffstück (I)

ProfiliertGlattGriffstück (II)

AbgefedertSelbstfederndClip-Federung

EinsystemMehrfarbigDruckbleistiftMarkerMehrsystem

BlauSchwarzPastenfarbe

MattiertBeschichtetVerchromtEloxiertGeh.-Oberfläche

GraphikTransparentBuntEinfarbigGehäusefarbe

HolzAluminiumKunststoff(Edel-)MetallGehäusematerial

RundOvalDreieckRechteckGehäuseform

MaximalmineStandardmineMinimalmineArt der Mine

DrehungDruckStarrMechanismus

AusprägungMerkmal

Nicht ergonomischErgonomischGriffform

HolzAluminiumKunststoff(Edel-)MetallGriffmaterial

Nicht austauschbarAustauschbarGriffstück (I)

ProfiliertGlattGriffstück (II)

AbgefedertSelbstfederndClip-Federung

EinsystemMehrfarbigDruckbleistiftMarkerMehrsystem

BlauSchwarzPastenfarbe

MattiertBeschichtetVerchromtEloxiertGeh.-Oberfläche

GraphikTransparentBuntEinfarbigGehäusefarbe

HolzAluminiumKunststoff(Edel-)MetallGehäusematerial

RundOvalDreieckRechteckGehäuseform

MaximalmineStandardmineMinimalmineArt der Mine

DrehungDruckStarrMechanismus

AusprägungMerkmal

1

2

3

4

5

6

7

8

9

10

11

12

13

Kuli „blau“ Kuli „schwarz“Quelle: Eigene Darstellung

Page 275: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 253

die Repräsentationen auf Phäno- und Genotypebene eindeutig zu verbinden, ist das Codier-Tableau, welches nachstehend beschrieben ist.

• Codier-Tableau: Die Codierung der Lösungen erfolgt üblicherweise unter Verwendung eines Binärcodes.25 Zu seiner Erstellung ist jede (mögliche) Merkmalsausprägung, die in die Untersuchung einbezogen wird, mit einem 0/1-Code zu deklarieren. Ein Codier-Tableau, wie es in Abb. 5-7 beispielhaft zu sehen ist, ist ein geeignetes Hilfsmittel, um die (De-)Codierung vorzuneh-men. Die Länge der merkmalsbezogenen Binär-Codes BITS richtet sich da-nach, wie viele Ausprägungen A pro Merkmal maximal zu berücksichtigen sind. Die Berechnung erfolgt nach der Gleichung BITS = ln A / ln 2.

Abb. 5-7: Codier-Tableau am Beispiel Kugelschreiber (Ausschnitt)

Wie schnell deutlich wird, ist die Bitlänge nur für den Fall, dass 2BITS = A mit A ∈ Z ist, geradzahlig, also für A = 2, 4, 8, ... – der Zusammenhang zwischen Codier- und Lösungsraum ist dann eindeutig beschrieben (1-to-1-Mapping). Im Kugelschreiber-Beispiel trifft dies für die Codierung von Merkmal M3 zu: jedem der vier Merkmalsausprägungen ist genau ein Bit-Code zugeordnet. In Abhängigkeit von der Problemstellung und der Lösungsstrategie existieren weitere Fälle, die jedoch im Hinblick auf eine effektive Lösungsfindung eher zu vermeiden sind (vgl. Gen/ Cheng 1997, S. 19):

Bei 2BITS > A liegen mehr Codiermöglichkeiten vor als Lösungsmerkma-le. Im Kugelschreiber-Beispiel ist dies beim erstgenannten Merkmal M1 gegeben (siehe Abb. 5-7). Der 2-stellige Bit-Code „11“ bleibt hier unbe-setzt. Wird keine zusätzliche Repräsentation auf der Phänotypebene für

25 Die Codierung kann prinzipiell auch in nicht-binärer Form erfolgen, z.B. dekadische

Zahlen-Codierung bei beschränkten Optimierungsproblemen und Integer-Codierung bei kombinatorischen Optimierungsproblemen (vgl. Abschnitt 4.3.3). In diesem Fall ist be-sonders darauf zu achten, dass keine Lösungen codiert werden, die auf der Phänotyp-ebene unzulässig bzw. illegal sind (vgl. Gen/ Cheng 1997, S. 19). Die Effektivität des GA, sprich des Problemlösungszyklus, wird in konkreten Anwendungsfällen erhöht, wenn alle gefundenen Lösungen eindeutig spezifizierbar und über artkonforme Chro-mosomen, d.h. vergleichbare Bit-Strings, abbildbar sind.

MerkmalBezeichnungAusprägung Wert Code Wert Code Wert Code

1 Starr 00 Minimal 0 Rechteck 002 Druck 01 Standard 1 Dreieck 013 Drehung 10 Maximal ? Oval 104 ? 11 Rund 11

M1 M2 M3Mechanismus Art der Mine Gehäuseform

Quelle: Eigene Darstellung

Page 276: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

254 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

diese spezielle Code-Kombination gefunden, z.B. „Ziehen“ als weitere Merkmalsausprägung für das Merkmal M1, ist entweder eine Ausprä-gung mehrfach zu codieren (n-to-1-Mapping), oder es sind sog. Repara-turstrategien auf der Genotypebene zu definieren, die unzulässige Bit-Codes, die im Zuge der Rekombination bzw. Mutation entstehen, wieder ausmerzen (vgl. Orvosh/ Davis 1994, S. 548ff.).

Bei 2BITS < A existieren weniger Codiermöglichkeiten als Lösungsmerk-male. Dieser Fall tritt z.B. auf, wenn das Chromosom aufgrund von Komplexitätsbeschränkungen eine bestimmte Länge nicht überschreiten darf. Die Ausprägungen von mindestens einem Merkmal sind dann nur unvollständig im Bit-Code erfassbar. Konkret bedeutet dies, dass auf ei-nen Bit-Code mehrere Merkmalsausprägungen kommen (1-to-n-Map-ping). Es ist die ungünstigste Form der Lösungscodierung, da einer be-stimmten Code-Kombination mehrere Repräsentationen auf der Phäno-typebene gegenüber stehen – die konkrete Zuordnung ist dem Zufall zu überlassen. Im Kugelschreiber-Beispiel trifft dies für das Merkmal M2 zu, welches drei relevante Ausprägungen besitzt, die mit einem 1-stel-ligen Bit-Code erfasst werden (siehe Abb. 5-7).

Methoden der Evaluierungs-Phase

Zur Bewertung von Lösungsvorschlägen haben sich in der Unternehmenspraxis eine Reihe von Methoden etabliert. Sie unterscheiden sich vor allem im Hinblick auf die erzielbare Ergebnisqualität (Objektivitätsgrad) sowie das mit der Anwen-dung verbundene Methodenwissen (Komplexitätsgrad). Zwischen beiden Größen besteht eine Austauschbeziehung, die sich darin äußert, dass mit steigender Quali-tät der Ergebnisse der Bedarf an methodischem Know-how steigt. Die Six Sigma-Toolbox reicht deshalb vom einfachen Platzziffer-Verfahren, bei dem mehrere Personen unabhängig voneinander eine oder mehrere Lösungsvorschläge in eine Rangfolge bringen, bis zum anspruchsvollen Verfahren der Conjoint-Analyse, bei der Lösungsvorschläge hinsichtlich mehrerer Kriterien „gemeinschaftlich“ beur-teilt werden. Daneben kommen Nutzwertanalyse und Paarweiser Vergleich zum Einsatz, welche zu einer mehr oder weniger genauen Bewertung der Lösungskan-didaten führen. Auf die genannten Verfahren wird kurz eingegangen.

• Platzziffer-Verfahren: Dieses einfache Verfahren eignet sich zur Bewertung von Lösungsvorschlägen in multiattributiven Entscheidungssituationen. Dabei sind die Anwendungsvoraussetzungen prinzipiell geringer als bei der nach-stehend beschriebenen Nutzwertanalyse. Die n Lösungen, die sich in der Po-pulation befinden, werden aufgelistet und von jedem Teilnehmer in eine Rangfolge gebracht. Die Lösung, die nach den individuellen Präferenzen am besten geeignet erscheint, erhält den höchsten Rang bzw. Platz. Aus der Platzziffer ergibt sich direkt die individuelle Bewertungspunktzahl je Lösung P [1; n]. Um zu einem Gesamturteil zu gelangen, werden die Punktzahlen – nach Abschluss der Bewertungsrunde – für jeden Lösungsvorschlag über alle Teilnehmer aufsummiert (vgl. Lunau et al. 2006, S. 248f.).

Page 277: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 255

Im Ergebnis erhält man eine objektivierte Rangliste, bei der die Bewertungs-abstände zwischen den einzelnen Lösungen metrisch interpretierbar sind. Die Objektivität des Bewertungsverfahrens erhöht sich, je mehr Personen (Pro-banden) in den Bewertungsprozess einbezogen werden.

Conjoint-Analyse: Die Analyse ist ein weiterführendes und in der Marketing-praxis vielfach angewandtes mathematisch-statistisches Verfahren zur ge-meinschaftlichen Messung des Nutzens von Produkten aus Kundensicht (vgl. Backhaus et al. 2006, S. 558ff.). Ziel ist es, die optimale, d.h. nutzenmaximie-rende Kombination von Merkmalen und Merkmalsausprägungen eines Pro-duktes unter realistischen Kaufbedingungen zu bestimmen. Der Einsatz der Conjoint-Analyse im Rahmen des IESRM-Zyklus et al. hat den Vorteil, dass nicht alle Lösungskandidaten einzeln zu bewerten sind. Denn mithilfe des Verfahrens, das auf einem dekompositionellen Multi-Attributiv-Modell ba-siert, lässt sich der Nutzwert einer Lösung, die sich aus „bekannten Merk-malsattributen“ zusammensetzt, a posteriori bestimmen. Infolgedessen ist eine physische Bewertung durch den Kunden nicht mehr bei allen Lösungskandi-daten der Population erforderlich, um zu einem aussagefähigen, d.h. intersub-jektiv nachvollziehbaren Nutz-/ Fitnesswert zu gelangen.

Aus Sicht der Conjoint-Analyse stellen die in Abb. 5-8 eingezeichneten Merkmalskombinationen Nutzenbündel dar, für die sich jeweils ein Gesamt-nutzen bestimmen lässt. Das Standardvorgehen umfasst fünf Schritte:

Zunächst sind die relevanten Merkmale und dazugehörigen Merkmals-ausprägungen, die in die Analyse einbezogen werden, festzulegen. Dies ist mit dem Codier-Tableau in Abb. 5-7 geschehen.

Auf dieser Basis können dann im zweiten Schritt Kombinationen von Merkmalsausprägungen (Stimuli) gebildet werden, welche den Kunden (Probanden) zur Beurteilung im dritten Schritt vorzulegen sind.

Durch die Offenlegung der Präferenzen lassen sich die Teilnutzenwerte der einzelnen Merkmale/ Merkmalsausprägungen bestimmen.26 In der Sprache des IESRM-Zyklus geht es hier um die Generierung und Bewer-tung einer Population von Lösungskandidaten.

Im vierten Schritt ist dann für jede Merkmalsausprägung ein Teilnutzen-wert mittels statistischer Verfahren zu schätzen.

Aus den Teilnutzenwerten kann im fünften Schritt der Gesamtnutzenwert für alle Stimuli sowie die relativen Wichtigkeiten der einzelnen Merkma-le retrograd ermittelt werden.

Die letzten beiden Schritten, in denen es um die Ableitung von funktionellen Zusammenhängen zwischen Input- und Outputfaktoren geht, sind beim

26 Dazu müssen die Probanden (Kunden) die ihnen vorgelegten Stimuli in eine Rangfolge

bringen, wodurch sie ihre Nutzenvorstellungen offen legen.

Page 278: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

256 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

IESRM-Zyklus in der Weise nicht vorgesehen. Hier steht vielmehr das Errei-chen des globalen Optimums im Vordergrund, ohne dabei die bestehenden Ursachen-Wirkungsbeziehungen bei den einzelnen Lösungskandidaten expli-zit offen zu legen respektive offen legen zu wollen (vgl. Abschnitt 1.2.2). Die Conjoint-Analyse stellt deshalb im Rahmen des IESRM-Zyklus eher ein Er-gänzungsverfahren dar, dessen Einsatz für alle die Fälle infrage kommt, in denen bestimmte Lösungskandidaten, z.B. aus Zeit- und Kostenrestriktionen, nicht generiert werden können. Der Gesamtnutzen dieser nicht generierbaren, aber für die Problemlösung insgesamt wichtigen Lösungskandidaten lässt sich rechnerisch ermitteln, und zwar über die additive Verknüpfung der normier-ten und gewichteten Teilnutzenwerte, die im Vorfeld über einen linearen Reg-ressionsansatz geschätzt worden sind und den lösungsinhärenten Merkmals-ausprägungen eindeutig zuordenbar sind.27

• Nutzwertanalyse: Bei diesem kompositionellen Verfahren wird die Menge der zur Verfügung stehenden Lösungen mit Hilfe eines Bewertungssystems in ei-ne Rangfolge gebracht, welche ihre Eignung bzgl. einer Anzahl von vorher fixierten Kriterien widerspiegelt. Die Bewertungen sind metrisch, so dass Aussagen hinsichtlich der Höhe des Unterschiedes zwischen einzelnen Lö-sungen getroffen werden können. Die Festlegung der Kriterien kann sowohl aus Kundensicht (Critical to Customer Characteristics) als auch aus Unter-nehmenssicht (Critical to Business Characteristics) vorgenommen werden. Möglich ist auch eine Mischung aus beiden. In diesem Fall wird das originäre Ziel von Six Sigma, alle wichtigen Kundenanforderungen vollständig und wirtschaftlich zu erfüllen, optimal berücksichtigt (vgl. Abschnitt 2.2.3).

Für die Durchführung der Nutzwertanalyse (auch Kriterienbasierte Auswahl genannt) ist eine Liste mit Kriterien anzufertigen, die eine ganzheitliche Beur-teilung der Leistungsfähigkeit/ Qualität bzw. Eignung des Produktes, einen bestimmten Zweck zu erfüllen, erlauben. In diesem Zusammenhang ist es na-turgemäß von Vorteil, wenn bei der Anfertigung der Liste auf die Erfahrun-gen früherer F&E-Projekte und dabei ermittelter Kriterien zurückgegriffen werden kann. Im Weiteren wird eine Gewichtung der aufgestellten Kriterien vorgenommen. Diese kann in Form von Prozentangaben zwischen 0 und 100% erfolgen oder auch in Form von Punkten, bei der jedem Kriterium eine Zahl zwischen 1 (geringe Bedeutung) und 10 (hohe Bedeutung) zugewiesen wird.28 Im nächsten Schritt werden Kriterien zusammen mit den generierten Lösungen in eine Tabelle eingetragen. Die Anordnung von Zeilen und Spalten erfolgt dabei wie in Abb. 5-8 am Beispiel Kugelschreiber zu sehen ist.

27 Bei der Conjoint-Analyse besteht die unmittelbare Anforderung, aus den von den Be-

fragten geäußerten ordinalen Gesamtnutzenurteilen metrische Teilnutzenwerte für die einzelnen Merkmalsausprägungen abzuleiten. Ziel ist es, die Teilnutzenwerte so zu be-stimmen, dass die resultierenden Gesamtnutzenwerte „möglichst gut“ den empirischen Rangwerten entsprechen (vgl. Backhaus et al. 2006, S. 572).

28 Durch die differenzierte Gewichtung wird eine Anpassung des Bewertungsmaßstabes an das Hauptziel des Verbesserungsprojektes ermöglicht.

Page 279: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 257

Abb. 5-8: Nutzwertanalyse am Beispiel Kugelschreiber

Wie gut die alternativen Lösungsvorschläge die formulierten Anforderungen entsprechend der Kriterienliste erfüllen, wird im mittleren Teil der Tabelle/ Matrix eingetragen. Hier wird üblicherweise eine Skalierung von 1 bis 10 verwendet, wobei 1 für den geringsten und 10 für den höchsten Erfüllungs-grad steht. Durch Multiplikation der vergebenen Punkte mit den kriterienbe-zogenen Gewichten ergeben sich sog. Teilnutzenwerte, die den anteiligen Wert einer Lösung bei einem bestimmten Kriterium zum Ausdruck bringen. Den Nutzwert einer Lösung erhält man durch Aufsummierung der gewichte-ten Punktzahlen je Spalte. Dabei gilt: Je höher die Punktzahl, also der Nutz-wert, ist, desto besser ist die Eignung der Lösung hinsichtlich der Erfüllung der vorgegebenen Zielkriterien/ -größen. Im Beispiel beträgt der Nutzwert von Kuli „blau“ 4,4 Punkte und der von Kuli „schwarz“ 5,1 Punkte; letztge-nannter erhält damit den besten bzw. ersten Rang.

Der Vorteil von kriterienbasierten Verfahren liegt vor allem darin, dass sie ei-ne objektivierte Lösungsbewertung erlauben und damit eine Vergleichbarkeit der Lösungen herbeiführen. Im Ergebnis wird ein „roher“ Nutz- bzw. Fit-nesswert ermittelt, der im Weiteren ggf. noch zu transformieren ist, um eine effektive Selektion sicherzustellen. Von Nachteil ist der relativ große Zeit-aufwand. Dieser begründet sich u.a. darin, dass die Ergebnisse für jeden Lö-sungsvorschlag im Team diskutiert werden, um eventuell auch Aspekte au-ßerhalb der Kriterien bei der Lösungsbewertung einzubeziehen und eine mög-lichst einstimmige Entscheidung zu treffen. Nichtsdestotrotz wird das Verfah-ren bei der Anwendung des IESRM-Zyklus präferiert.

• Paarweiser Vergleich: Bei der Methode des Paarweisen Vergleichs handelt es sich um ein einfaches, psychometrisches Skalierungsverfahren, welches ur-sprünglich in der Psychologie eingesetzt worden ist.29 Ziel ist es, die Ent-

29 Das Grundprinzip des Paarweisen Vergleichs geht auf den Psychologen LOUIS L.

THURSTONE (1927) zurück.

Kuli „blau“

(1)5,1

1,1

1,2

0,4

2,0

0,4

Teilnutzenwert

7

4

2

8

4

Erfüllungsgrad

(2)4,4

0,8

1,2

0,6

1,5

0,3

Teilnutzenwert

5

4

3

6

3

ErfüllungsgradGewichtKriterium

Summe

(5) Preis-Leistung

(4) Schriftbild

(3) Features

(2) Ästhetik

(1) Haltbarkeit

100%

Rang

15%

30%

20%

25%

10%

(1)5,1

1,1

1,2

0,4

2,0

0,4

Teilnutzenwert

7

4

2

8

4

Erfüllungsgrad

(2)4,4

0,8

1,2

0,6

1,5

0,3

Teilnutzenwert

5

4

3

6

3

ErfüllungsgradGewichtKriterium

Summe

(5) Preis-Leistung

(4) Schriftbild

(3) Features

(2) Ästhetik

(1) Haltbarkeit

100%

Rang

15%

30%

20%

25%

10%

Kuli „schwarz“

Quelle: Eigene Darstellung

Page 280: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

258 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

scheidungskomplexität durch direkten (paarweisen) Vergleich von Einzelkri-terien/ -lösungen aufzulösen (vgl. Gelbmann et al. 2003, S. 78ff.). Zu Beginn des Verfahrens werden den Teammitgliedern unterschiedliche Handlungsal-ternativen – jeweils paarweise kombiniert – angeboten, z.B. A-B, A-C und B-C. Nach kurzer Bedenkzeit werden die Teilnehmer aufgefordert, nach einem sich aus dem Projektziel ergebenden Kriterium eine Entscheidung für jeweils eine der beiden Möglichkeiten zu treffen. Auf diese Weise lässt sich die Rangordnung einer Reihe von Alternativen eindimensional bestimmen. Bei insgesamt n zur Auswahl stehenden Vorschlägen ergibt sich eine Gesamtan-zahl von n! / 2! ⋅ (n-2)! durchzuführenden Paarvergleichen.30

Infolgedessen nimmt mit steigender Anzahl von auszuwählenden Alternativen der Umfang/ Aufwand der Methode exponentiell zu. Im Ergebnis wird eine Rangordnung mit metrischer Skalierung gebildet, auf deren Basis jede Lö-sungsalternative genau einordenbar ist und der Abstand zur nächstbesseren bzw. -schlechteren Lösung exakt gemessen werden kann. In praxi werden die Einzelbewertungen zu einer Rangziffer verknüpft. Ein Beispiel für dieses re-lativ einfache Vorgehen wird im Zusammenhang mit der rangbasierten Selek-tion im folgenden Unterabschnitt gegeben (siehe Abb. 5-11).

Als Vorteil des Paarweisen Vergleichs ist anzuführen, dass er auch in Fällen, bei denen eine recht große Anzahl von Möglichkeiten zu beurteilen ist, die Teammitglieder durch die Reduzierung auf jeweils zwei Alternativen nicht überfordert. Dem steht der Nachteil gegenüber, dass Paarvergleiche nur dann zu verwertbaren Resultaten führen, wenn die Beurteilungen der Beteiligten konsistent sind. In Fällen, in denen bspw. die Lösung A besser als die Lösung B ist und B besser als C, jedoch A zugleich schlechter als C, kommt es zu Verzerrungen bzw. Ungenauigkeiten (vgl. o.V. 2005, S. 1f.).

• Fitness-Transformation: Mit der Skalierung und Normierung der metrischen Zielfunktionswerte, die sich z.B. aus einer Nutzwertanalyse ergeben, werden nach Gen/ Cheng (1997, S. 25) insb. die folgenden zwei Ziele verfolgt:

Aufrechterhaltung einer eindeutigen Differenzierung zwischen den rela-tiven Fitnesswerten, die den einzelnen Chromosomen zuordenbar sind

Vermeidung einer zu schnellen Konvergenz der Lösungen, die durch ei-nige „Super-Chromosomen“ zu Beginn des GAs bewirkt wird.

Durch die Fitness-Transformation wird sichergestellt, dass die Überlebens-wahrscheinlichkeit der Chromosomen proportional zu ihrer (relativen) Fitness ist. Dies ist ein wesentlicher Vorteil gegenüber der ordinalen Fitness-Bewer-tung, z.B. nach dem o.g. Verfahren des Paarweisen Vergleichs. Hier werden die Fitnesswerte – ohne Berücksichtigung ihrer relativen Unterschiede – in eine Rangordnung gebracht und die Lösungen auf dieser Basis i.A. ungewich-tet selektiert. Als Nachteil kann bei der metrischen Fitness-Bewertung ange-

30 Die Berechnung erfolgt nach der Formel für „Kombination ohne Wiederholung“.

Page 281: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 259

führt werden, dass zur Bestimmung der relativen Fitnesswerte geeignete Ska-lierungsparameter gefunden werden müssen, die von der zu bearbeitenden Problemstellung abhängig sind und i.d.R. nach dem Entwicklungsfortschritt gesetzt werden (vgl. Reeves 1993, S. 344ff.).

In der einschlägigen Literatur werden verschiedene mathematische Ansätze diskutiert, um die ermittelten Zielwerte, die auch als „rohe“ Fitnesswerte be-zeichnet werden, in skalierte Fitnesswerte zu überführen (vgl. Michalewicz 1995, S. 135ff.). Sie können im Wesentlichen in zwei Kategorien unterteilt werden, nämlich statische und dynamische Skalierungsverfahren. Bei letzte-ren besteht zum einen die Möglichkeit, den Skalierungsparameter (a, b) so zu wählen, dass in jeder Generation der gleiche Selektionsdruck herrscht.31 Zum anderen ist es möglich, den Skalierungsparameter (a, b) schrittweise so zu verändern, dass sich der Selektionsdruck mit zunehmender Generationenzahl erhöht. Im Folgenden sind fünf typische Verfahren der Fitness-Skalierung für den Fall, dass nur eine Zielgröße y existiert, benannt:

Lineare Skalierung fit(y) = a + b ⋅ y: über die lineare Skalierung werden die Fitnesswerte der besten und schlechtesten Chromosomen relativiert, so dass sichergestellt wird, dass aus den besten nicht zu viele und aus den schlechtesten nicht zu wenige Nachkommen hervorgehen. Die lineare Skalierung ist die einfachste Form der Skalierung; sie wird beim ersten Anwendungsbeispiel in Abschnitt 5.3.1 zugrunde gelegt.

Dynamische lineare Skalierung fit(y) = ag + b ⋅ y: Im Gegensatz zu oben variiert bei der dynamischen Skalierung der Absolutfaktor ag mit den Ge-nerationen g. Ein typisches Vorgehen ist die Verwendung der minimalen rohen Fitness der aktuellen Population zur Normierung: ag = -ymin.

Potenzielle Skalierung fit(y) = ya: In Abhängigkeit von der Problemstel-lung erlaubt diese Skalierung eine progressive oder degressive Verzer-rung der gemessenen rohen Fitnesswerte. Wenn a > 1 ist, dann steigt die Fitness mit zunehmendem y progressiv an. Die besseren Chromosomen werden dann gegenüber den schlechteren bevorzugt, c.p. Die Skalierung findet beim zweiten Beispiel in Abschnitt 5.3.2 Anwendung.

Sigma-Skalierung fit(y) = y – (⎯y – c ⋅ σ ): Diese Methode der Skalierung basiert auf statistischen Kennzahlen und stellt vor diesem Hintergrund eine Verbesserung gegenüber der linearen Skalierung dar. Der Selekti-onsdruck ist abhängig von der Verteilung der Fitnesswerte. Neben dem Parameter c gehen der durchschnittliche Erfüllungsgrad⎯y und die ge-messene Standardabweichung σ als Korrekturfaktoren ein.32

31 Unter dieser Voraussetzung müssen sich die Individuen in einer Population jeweils

„gleich stark anstrengen“, um mit einer bestimmten Wahrscheinlichkeit zu überleben. 32 Besonders schlechte Chromosomen, also Ausreißer nach unten, können durch dieses

Vorgehen relativ leicht erkannt und ausgemerzt werden.

Page 282: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

260 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Boltzmann-Skalierung fit(y) = ey/T: Die Skalierung basiert auf der Boltz-mann-Verteilung, die u.a. beim Optimierungsalgorithmus Simulated An-nealing eine wichtige Rolle spielt (vgl. Abschnitt 4.2.3). Die Exponenti-alfunktion, die hier zugrunde gelegt wird, führt zu einer proportionalen Selektion entsprechend der Einstellung des Kontrollparameters T.

• S-Kurvenverlauf: Um das Ergebnis des evolutionären Entwicklungsprozesses zu verdeutlichen, bietet sich die Darstellung der durchschnittlichen Fitness der Population Popfit in Abhängigkeit von der kumulierten Anzahl von Ge-nerationen g an. Zur Berechnung wird vorzugsweise das geometrische Mittel herangezogen (vgl. Abschnitt 5.2.1). Bei gerichteter Selektion steigt die geo-metrische mittlere Fitness der Population in Form eine S-Kurve über die Zeit bzw. in unserem Fall über die kumulierte Anzahl von Generationen an.

Abb. 5-9: Entwicklung der durchschnittlichen Fitness der Population (S-Kurve)

In Abb. 5-9 ist der idealtypische S-Kurvenverlauf angegeben. Im Rahmen der Projektdurchführung gibt die Entwicklung der geometrischen mittleren Fit-ness zum einen wichtige Hinweise auf das verbleibende Optimierungspoten-zial und damit die Anzahl von Iterationen n, die (noch) notwendig sind, um das globale Optimum fit* (näherungsweise) aufzuspüren. Zum anderen kön-nen Rückschlüsse auf den rechtzeitigen Abbruch des IESRM-Problem-lösungszyklus gezogen werden. Dadurch lässt sich sicherstellen, dass die Lö-

0Kum. Anzahl vonGenerationen g

gmax-n gmax0

Restliche Anzahlvon Iterationen n

fitgmaxfitgmax

Mittlere Fitness der Population fit Mittlere Fitness

der Population fit

fitgmax-nfitgmax-n

fit0fit0

VerbleibendesOptimierungs-Potenzial fitg - fitg-n

VerbleibendesOptimierungs-Potenzial fitg - fitg-n

Abbruch desIESRM-Zyklus

fit*

Sigma-Korrektur

Quelle: Eigene Darstellung

Page 283: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 261

sungssuche nicht zu lange auf einem bestimmten Fitnessniveau verharrt und damit (zu stark) zu Lasten einer effizienten Projektbearbeitung geht.

Nach dem Fundamentaltheorem der Natürlichen Selektion, welches auf den Begründer der modernen Evolutionstheorie SIR RONALD A. FISHER (1930) zu-rückgeht, gilt: „The rate of increase in fitness of any organism at any time is equal to its genetic variance in fitness at that time“. Die Standardinterpretati-on des Theorems läuft darauf hinaus, dass die Verbesserung der durchschnitt-lichen Fitness einer Population proportional zur (genetischen) Varianz der Fitness innerhalb der Population ist (vgl. Frank/ Slatkin 1992, S. 92). Dieser Zusammenhang wird mathematisch wie folgt beschrieben:

2~ifit

Pop

dtfitd

σ (5.3)

Sind die Lösungskandidaten sehr ähnlich und damit die Fitnesswerte nur marginal unterschiedlich, dann nimmt die Fitness der Population im Durch-schnitt nur geringfügig zu. Dies ist bei g ≥ gmax sowie in den ersten Generati-onen des IESRM-Zyklus der Fall. Bei g < gmax, also im mittleren Teil der S-Kurve, steigt die durchschnittliche Fitness relativ stark an; die Varianz der Merkmals- und damit Fitnesswerte in der Population ist entsprechend hoch. Nach Durchführung einer Sigma-Skalierung, bei der die rohen Fitnesswerte in Richtung Nulllinie verschoben werden, lässt sich die progressive Dynamik bzgl. der Entwicklung der Population durch folgende Differentialgleichung erfassen (in Anlehnung an Hofbauer/ Sigmund 1998, S. 5):

*

*

fit

fitfitfit

dt

fitd PopPop

Pop −⋅⋅= λ (5.4)

Die Gleichung (5.4) kennzeichnet ein exponentielles Wachstum der durch-schnittlichen Fitness der Population mit der Steigerungsrate λ und der (obe-ren) Wachstumsgrenze fit*.33 Die Auflösung der Gleichung nach Popfit mit

der Anfangsbedingung 00 )( fittfit Pop = ergibt die Wachstums- bzw. Entwick-

lungsfunktion )(tfit Pop für die durchschnittliche Fitness der Population in ei-ner bestimmten Generation g bzw. – allgemein – zum Zeitpunkt t: 34

33 Bereits Fisher (1930) bemerkte, dass die mittlere (absolute) Fitness einer Population

nicht ins Unendliche ansteigen kann. Dies würde bedeuten, dass in der Natur eine be-stimmte Art – aufgrund ihrer exponentiellen Vermehrung – über kurz oder lang den gesamten Lebensraum beherrscht und alle anderen Arten verdrängt.

34 Die mathematischen Herleitungen der Gleichungen für exponentielles und logistisches Wachstum von Populationen sind u.a. bei Hofbauer/ Sigmund (1998, S. 3ff.) nachvoll-ziehbar. Wie die beiden Autoren anmerken, bilden die vergleichsweise einfachen Diffe-rentialgleichungen komplexe Zusammenhänge, wie z.B. Bifurkation und Chaotisches Verhalten, ab. Sie bilden ein wichtiges Merkmal von ökologischen Systemen.

Page 284: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

262 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

e

ett

tt

Pop

fitfitfit

fittfit

)(

0

0*

)(*

0

0

)(−⋅

−⋅

+−

⋅=

λ

λ

(5.5)

Unter der Voraussetzung, dass das Ausgangsniveau 0fit sowie die Parameter λ und fit* bekannt sind, lassen sich mithilfe der Gleichung (5.5) die Fragen zur Projektplanung und -steuerung exakt beantworten:

Wann ist ein guter Zeitpunkt erreicht, um den Optimierungsalgorithmus – ggf. vorzeitig – abzubrechen?

Wie viele Iterationen bzw. Generationen sind aus jetziger Sicht notwen-dig, um zum Optimum zu gelangen?

Dabei gilt: Je größer die Rate λ ist, desto schneller wird das maximale Fit-nessniveau fit* ausgehend von 0fit erreicht. Die Differenz 0

* fitfit − spie-gelt das vorhandene Verbesserungspotenzial wider. Die Rate λ ist ein Maß für die Geschwindigkeit, mit der sich besonders fitte Lösungskandidaten in einer Population durchsetzen können. Sowohl λ als auch 0

* fitfit − werden über die o.g. Fitness-Transformation beeinflusst.35 Um die S-Kurve in Abb. 5-9 nachzubilden, ist eine Sigma-Skalierung erforderlich. Insgesamt erlaubt das adaptierte S-Kurven-Konzept sowohl die Erklärung als auch die Prognose der Entwicklung der mittleren Fitness einer Population.

Methoden des S-R-M-Operators

Nachdem alle Lösungskandidaten der Population bewertet worden sind, werden sie im Rahmen des S-R-M-Operators selektiert, rekombiniert und mutiert. Hier kommen überwiegend Methoden zum Einsatz, die sich direkt am Vorgehen des Genetischen Algorithmus orientieren (vgl. Abschnitt 4.3.3). Sie lassen sich relativ einfach operationalisieren und in das Vorgehensmodell des IESRM-Zyklus integ-rieren. Aufgrund ihres starken evolutionstheoretischen Charakters, sind sie bis dato kein fester Bestandteil des klassischen Tool-Sets von IM-/ QM-Projekten. Bei der Darstellung der Methoden wird vor allem auf die Nutzwertanalyse als vorausgegangenes Evaluierungsverfahren Bezug genommen.

Für die Selektion der in der Initialisierungs-Phase generierten und in der Evaluie-rungs-Phase bewerteten Lösungen sind zwei Vorgehensweisen gebräuchlich:

• Roulette-Wheel-Selection: Die Lösungsalternativen werden entsprechend ihrer relativen Fitness- respektive Nutzwerte (NW) selektiert. Der fitnessproportio-nalen Selektion liegt die bildliche Vorstellung eines Roulette-Rades zugrunde,

35 Auf diesen Punkt kommen wir im Zusammenhang mit der experimentellen Überprü-

fung an zwei Anwendungsbeispielen im Unterkapitel 5.3 zurück.

Page 285: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 263

dass bei jeder Drehung eine zufällige Endposition erreicht und dadurch die Selektion der Individuen (Lösungen) bewirkt.

• Tournament-Selection: Die Lösungsalternativen werden nach der absoluten Höhe ihres Nutzwertes sortiert und durch paar-/ gruppenweisen Vergleich se-lektiert. Dazu wird eine Turnier-Situation erzeugt, in der sich die Individuen (Lösungen) gegeneinander behaupten müssen. Hierbei handelt es sich um ein rangbasiertes Selektionsverfahren.

In den folgenden Abbildungen sind die zwei Selektionsmechanismen am Beispiel Kugelschreiber nachvollziehbar. In beiden Fällen umfasst der Lösungspool zehn Kandidaten, die nach der im vorangegangenen Unterabschnitt beschriebenen Nutzwertanalyse bewertet worden sind. Im Hinblick auf die Problemlösungsfä-higkeit stellt die Lösung 5 (NW = 6,1) die beste und die Lösung 7 (NW = 1,5) die schlechteste dar. Die Summe aller Fitness-/ Nutzwerte beträgt 35. Teilt man die-sen Wert durch die Größe der Population, dann ergibt sich eine durchschnittliche Fitness von μ = 3,5 bei einer Standardabweichung von σ = 1,6.

Für die fitnessproportionale Selektion ist die relative Fitness der Lösungen inner-halb der Population zu bestimmen. Je größer die relative Fitness, also der absolute Nutzwert bezogen auf die Summe aller Nutzwerte ist, desto größer ist die Wahr-scheinlichkeit, dass der Lösungskandidat in den „Fortpflanzungspool“ aufgenom-men wird. Die Selektions- respektive Fortpflanzungswahrscheinlichkeit lässt sich durch die Ermittlung der kumulierten Häufigkeitsverteilung (CDF – Cumulative Density Function) über alle Lösungen visualisieren. Gleichzeitig gibt die Funktion CDF(i) die Intervallgrenzen für die Selektion an (siehe Abb. 5-10).

Abb. 5-10: Vorgehen bei proportionaler Selektion am Beispiel Kugelschreiber

Lösungen(Individuen)

10

9

8

7

6

5

4

3

2

1

3,2

5,1

2,1

1,5

4,4

6,1

3,7

2,4

1,7

4,8

1 2 3 4 5 6 7 8 9 10 i

Nutzwert(Fitness)

Relative Fitness CDF (i) Gleichverteilte

ZufallszahlenSelektierte Lösungen

0,137

0,0490,069

0,106

0,174

0,126

0,0430,060

0,146

1,000

0,091

35,0

10

9

8

66

5

5

4

2

10,085

0,169

0,275

0,381

0,466

0,5720,635

0,741

0,868

0,953

Quelle: Eigene Darstellung

Page 286: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

264 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Die Auslese erfolgt bei der proportionalen Selektion in der Weise, dass zehn Zu-fallszahlen gleichverteilt zwischen 0 und 1 ermittelt werden. Jede Zufallszahl liegt in einem bestimmten Intervall, deren Größe sich nach den relativen Fitnesswerten der Lösungskandidaten bestimmt. Dies bedeutet im Umkehrschluss, dass jeweils die Lösung selektiert wird, in dessen Intervall sich die aktuelle Zufallszahl befin-det. Bei Populationen mit einer relativ großen Streuung der (absoluten) Fitness-werte tritt regelmäßig der Fall auf, dass einzelne Lösungskandidaten gleich mehr-fach zur Rekombination/ Reproduktion zugelassen werden. Im Beispiel betrifft dies die Lösungen 5 und 6 mit je zwei Auswahltreffern.

Beim rangbasierten Auswahlprozess spielen nicht die relativen, sondern die abso-luten Fitnesswerte eine Rolle. Um einen Lösungskandidaten zu selektieren, wählt man k Lösungen zufällig gleichverteilt aus der Population aus und nimmt davon jeweils die beste, also die mit der höchsten Fitness. Im einfachsten Fall werden jeweils zwei Lösungen (k = 2) ausgewählt und paarweise verglichen (siehe Abb. 5-11). Im Beispiel sind zu diesem Zweck 2 ⋅ 10 ganzzahlige Zufallszahlen im Intervall [1; 10] ermittelt worden. Die Rangordnung der absoluten Fitnesswerte entscheidet nun darüber, welche Lösung im „2er-Turnier“ weiterkommt, also selektiert wird. Genau wie bei der proportionalen Selektion besteht die Möglich-keit, dass eine Lösung mehrmals zur Auswahl steht.

Abb. 5-11: Vorgehen bei rangbasierter Selektion am Beispiel Kugelschreiber

Für die Rekombination kommen ebenfalls mehrere Methoden infrage. In Abhän-gigkeit von der Anzahl der Bruchstellen im Genom bzw. Bit-Code wird zwischen

13,210

95,19

832,18

101,57

4,46

56,15

93,74

532,43

41,72

4,81

3,25,12,11,54,46,13,72,41,74,8Nutzwert(Fitness)

10987654321Lösungen(Individuen)

13,210

95,19

832,18

101,57

4,46

56,15

93,74

532,43

41,72

4,81

3,25,12,11,54,46,13,72,41,74,8Nutzwert(Fitness)

10987654321Lösungen(Individuen)

Selektierte Lösung bei paarweisem Vergleich

Selektierte Lösung bei paarweisem Vergleich

Gle

ich-

verte

ilte

Zufa

lls-

zahl

en

Gleich-verteilteZufalls-zahlen

Quelle: Eigene Darstellung

Page 287: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 265

1-Point-, 2-Point- und Uniform-Crossover (Kreuzung) unterschieden. Gegenüber den vorherigen Phasen – Evaluation und Selektion – finden die Rekombinations- und die sich anschließende Mutations-Phase ausschließlich auf der Genotypebene statt. Dazu werden alle Lösungen bereits in der Initialisierungs-Phase codiert. Die Codes der Lösungen, sprich Chromosomen, die sich im Rahmen der Selektion durchgesetzt haben, werden paarweise rekombiniert – aus zwei Chromosomen der Elterngeneration werden zwei Chromosomen der Kindergeneration. In der nach-folgenden Abbildung ist die Vorgehensweise für das 1-Point-Crossover – mit Auftritt einer Flipmutation – beispielhaft skizziert. Es bildet die Grundlage für die zwei Anwendungsbeispiele in Abschnitt 5.3.1 und 5.3.2.

• Beim 1-Point-Crossover wird von zwei Individuen der Elterngeneration zu-fällig eine Bruchstelle im Genom ermittelt. An dieser Stelle werden die hinte-ren Bruchstücke der beiden Elterngenome abgetrennt und an das vordere Bruchstück des jeweils anderen Genoms angehängt. Bezogen auf die Neupro-duktentwicklung bedeutet dies, dass die Merkmale von zwei Lösungen, die einen relativ hohen Nutzen besitzen und für die Reproduktion von hohem Wert sind, per Zufallssteuerung rekombiniert werden. Dadurch entstehen zwei neue Lösungen, welche die Merkmalsausprägungen von zwei (ausge-wählten) Elternteilen besitzen. In Abb. 5-12 ist das Vorgehen der punktuellen Rekombination sowohl auf der Geno- als auch der Phänotypebene nachvoll-ziehbar. Der Merkmalsraum umfasst insgesamt 13 Dimensionen mit maximal vier Faktorstufen (Merkmalsausprägungen) je Dimension. Folglich beträgt die Länge des Bit-Codes je Merkmal maximal zwei Stellen; bei weniger als drei relevanten Ausprägungen je Merkmal ist nur eine Stelle erforderlich. Der Bit-String umfasst insgesamt 21 Stellen, mit denen jeder Lösungskandidat, hier im Beispiel „Kugelschreiber-Typ“, eindeutig erfasst werden kann.

Die Kreuzung der Gene zwischen Eltern 1 und Eltern 2 erfolgt im Beispiel Kugelschreiber an der – per Zufallsprinzip ermittelten – Bit-Stelle 12. Die Endstücken des Bit-Codes der beiden Eltern werden im Übergang von 11. zu 12. Stelle getauscht. Es entstehen zwei Kinder, also zwei neue Lösungskandi-daten, deren Genome zu jeweils ca. der Hälfte mit den ursprünglichen Lö-sungskandidaten übereinstimmen. Gänzlich neue Merkmalsausprägungen er-geben sich lediglich bei Merkmal (6), da die Soll-Bruchstelle genau innerhalb des relevanten Bit-Strings liegt. Aus den Eltern-Codes „0 1“ und „1 0“ gehen die Kinder-Codes „0 0“ und „1 1“ hervor. Die Auswirkungen des Rekombina-tionsprozesses auf der Phänotypebene können im unteren Teil der Abb. 5-12 nachvollzogen werden. Bei Merkmal (6) „Gehäuseoberfläche“ treten die Ausprägungen „Eloxiert“ und „Mattiert“ neu in Erscheinung.

• Neben dem Verfahren mit einer Bruchstelle ist das 2-Point-Crossover das wohl am häufigsten verwendete Rekombinationsschema bei der GA-Programmierung. In der praktischen Umsetzung sind hier zwei Kreuzungs-punkte im Genom bzw. Merkmalsraum zu wählen. Im Beispiel werden die Bit-Stellen 13 und 18 per Zufallsprinzip als Soll-Bruchstellen bestimmt. Zwi-schen diesen beiden Stellen wird der Bit-Code der Lösungskandidaten der El-

Page 288: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

266 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

terngeneration vertauscht. Infolgedessen unterscheiden sich die Lösungskan-didaten der Kindergeneration auf der Phänotypebene vor allem in den „Griff“-bezogenen Merkmalen (7) bis (10).

Abb. 5-12: 1-Point-Crossover mit Flipmutation am Beispiel Kugelschreiber

Gegenüber dem 1-Point-Crossover wird durch die Wahl von zwei oder mehr Kreuzungspunkten die Ähnlichkeit zwischen Vorgängern und Nachfolgern

Mec

hanis

mus

Art d

er M

ineGe

häus

efor

mGe

häus

emat

erial

Gehä

usef

arbe

Geh.

-Obe

rfläc

heGr

ifffor

mGr

iffmat

erial

Griffs

tück

(I)

Griffs

tück

(II)

Paste

nfar

beM

ehrs

yste

mCl

ip-Fe

deru

ng

1

0

1

0

11 11010 0110 0 0 1 1 10 11 0 Kind 2

01 10100 1000 00 0 1 1 0 10 1Kind 1

01 10100 100 0 0 0 1 1 10 11 0 Eltern 2

11 11010 0110 00 0 1 10 00 1Eltern 1

1

0

1

0

11 11010 0110 0 0 1 1 10 11 0 Kind 2

01 10100 1000 00 0 1 1 0 10 1Kind 1

01 10100 100 0 0 0 1 1 10 11 0 Eltern 2

11 11010 0110 00 0 1 10 00 1Eltern 1

1 2 3 4 5 6 7 8 9 10 11 12 13

Flipmutation

Merkmal

- Rekombination auf der Genotypebene -

Crossover

Nicht ergonomischErgonomischGriffform

HolzAluminiumKunststoff(Edel-)MetallGriffmaterial

Nicht austauschbarAustauschbarGriffstück (I)

ProfiliertGlattGriffstück (II)

AbgefedertSelbstfederndClip-Federung

EinsystemMehrfarbigDruckbleistiftMarkerMehrsystem

BlauSchwarzPastenfarbe

MattiertBeschichtetVerchromtEloxiertGeh.-Oberfläche

GraphikTransparentBuntEinfarbigGehäusefarbe

HolzAluminiumKunststoff(Edel-)MetallGehäusematerial

RundOvalDreieckRechteckGehäuseform

MaximalmineStandardmineMinimalmineArt der Mine

DrehungDruckStarrMechanismus

AusprägungMerkmal

Nicht ergonomischErgonomischGriffform

HolzAluminiumKunststoff(Edel-)MetallGriffmaterial

Nicht austauschbarAustauschbarGriffstück (I)

ProfiliertGlattGriffstück (II)

AbgefedertSelbstfederndClip-Federung

EinsystemMehrfarbigDruckbleistiftMarkerMehrsystem

BlauSchwarzPastenfarbe

MattiertBeschichtetVerchromtEloxiertGeh.-Oberfläche

GraphikTransparentBuntEinfarbigGehäusefarbe

HolzAluminiumKunststoff(Edel-)MetallGehäusematerial

RundOvalDreieckRechteckGehäuseform

MaximalmineStandardmineMinimalmineArt der Mine

DrehungDruckStarrMechanismus

AusprägungMerkmal

Crossover

Flipmutation1

2

3

4

5

6

7

8

9

10

11

12

13

- Rekombination auf der Phänotypebene -

Kind 2Kind 1Quelle: Eigene Darstellung

Page 289: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.2 IESRM-Zyklus als konkrete Anwendung Evolutionärer Algorithmen 267

eher verringert als erhöht. Um eine möglichst hohe Variation zu erhalten, wird bei der Genetischen Programmierung deshalb auch auf das Verfahren des Uniform-Crossover gesetzt, bei dem jedes Bit zufällig mit gleicher Wahr-scheinlichkeit von einem der beiden Elternteile übernommen wird.

Die Wahl von nur ein oder zwei Bruchstellen ist durch das Schema-Theorem nach Holland (1975) motiviert. Nach diesem sollen kurze Schemata, die eine hohe Fitness bewirken, mit hoher Wahrscheinlichkeit nicht aufgetrennt werden. Beim zufallsgesteuerten Rekombinationsvorgang kann es passieren, dass ein Schema zerstört wird, wenn der Crossover-Point innerhalb des ersten und des letzten defi-nierenden Bits liegt. Im Beispiel wird der Griff des Kugelschreibers durch die vier Merkmale Griffform, Griffmaterial, Griffstück (1) und Griffstück (2) spezifiziert. Ist eine besonders vorteilhafte Kombination der Merkmalsausprägungen im Laufe des Entwicklungsprozesses gefunden worden, besteht das Ziel darin, dieses „Schema“ zu bewahren. Bei den weiteren Rekombinationsprozessen ist deshalb darauf zu achten, dass kein Crossover-Point innerhalb des Bit-String-Bereichs liegt, der das Griffdesign determiniert bzw. codiert. Nur so kann sichergestellt werden, dass das nutzenmaximale Design einer (Teil-)Lösung von einer zur nächsten Generation unverändert übernommen wird.

Für die Mutation sind für die Praxis insb. folgende zwei Arten relevant:

• Bei der Flipmutation wird ein Bit (Gen) im Bitstring zufällig ausgewählt und negiert. Dadurch verändert sich nicht nur der Genotyp, sondern in den meis-ten Fällen auch der Phänotyp des Individuums. Im Beispiel Kugelschreiber ist bei einem Elternteil das Merkmal „Art der Mine“ von der Flipmutation be-troffen (siehe Abb. 5-12). Durch die zufällige Veränderung des Bit-Codes an der 4. Bit-Stelle „springt“ die Merkmalsausprägung von „Minimalmine“ auf „Standardmine“. Beide Lösungskandidaten der Kindergeneration besitzen in-folgedessen die gleiche Art von Mine – die Varianz der Lösungen wird durch die Mutation insgesamt reduziert. In der praktischen Anwendung würde dies bedeuten, dass es keinen Markt für kleine Minen gibt.

Die Frage nach der Vorteilhaftigkeit der Flip-Mutation kann über die Ermitt-lung des Fitnesswertes beantwortet werden. Ist die Fitness/ der Nutzen der Lösung mit verändertem Merkmal größer als die ohne, dann handelt es sich um eine nutzenstiftende Mutation mit einer positiven Wirkung auf die durch-schnittliche Fitness der gesamten Population. Im günstigen Fall wird durch die Mutation eine für die Lösungsfindung suboptimale Merkmalsausprägung bei einem der potenziellen Lösungskandidaten eliminiert. Sind die zugrunde liegenden Ursachen-Wirkungsbeziehungen bekannt, dann lässt sich der Muta-tionsvorgang auch per Hand durchführen. Zielgerichtete Eingriffe in das Ge-nom der Lösungen sind vor allem dann wirkungsvoll, wenn der Suchraum für die optimale Lösung bereits (grob) eingegrenzt werden konnte.

• Bei der Swapmutation wird der Inhalt der durch Zufall bestimmten Gene einfach vertauscht, d.h. an einer beliebigen Stelle des Bit-Strings springt der Wert von „0“ auf „1“, während er gleichzeitig an einer anderen Stelle von „1“

Page 290: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

268 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

auf „0“ zurückgeht. Von der Swapmutation können maximal zwei Schemata betroffen sein. Dadurch sind die Auswirkungen dieser Mutation i.d.R. deut-lich größer als beim Auftreten einer einfachen Flipmutation, die jeweils nur ein Schema betrifft. Je nachdem, wie viele Bits zur Codierung einer Entschei-dungsvariable notwendig sind, können sich die Veränderungen im Phänotyp bei mehr als einer Merkmalsdimensionen niederschlagen. Von der Swapmuta-tion sind immer zwei Merkmale betroffen, sofern die Merkmalsausprägungen der Lösungen, auf die sich die Mutation bezieht, dichotom codiert sind. Im Beispiel Kugelschreiber werden durch die Swapmutation die Werte des Bit-Strings an den Stellen 6 und 10 vertauscht. Dadurch ändern sich die Merk-malsausprägungen bei den Merkmalen (3) Gehäuseform und (5) Gehäusefar-be, die beide der Komponente „Gehäuse“ angehören. Die Ausprägungen, die durch die Mutation hervorgerufen werden, liegen bei keinen der beiden Vor-gänger-/ Elternmodelle vor – eine Innovation ist entstanden.

In Abhängigkeit von der Eindeutigkeit der Codierung (s.o.) können im Zuge des Mutationsprozesses Bit-Code-Kombinationen auftreten, die keine Repräsentatio-nen auf der Phänotypebene besitzen, z.B. ist der Bit-Code „11“ bei Merkmal (1) unbesetzt. In diesem Fall bestehen folgende zwei Handlungsalternativen: Zum einen können Reparaturstrategien zum Einsatz kommen, durch welche die nicht zulässigen Codes direkt auf der Genotypebene ausgemerzt werden (= reaktives Vorgehen). Die Mutationen treten infolgedessen auf der Phänotypebene gar nicht erst in Erscheinung. Zum anderen kann über ein proaktives Vorgehen versucht werden, neue Merkmalsausprägungen zu finden, welche den bis dato nicht zuläs-sigen Codes zugeordnet werden; z.B. ist bei Merkmal (1) in Abb. 5-6 „Schlagen“ als vierte Merkmalsausprägung für den Mechanismus des Minenausschubs denk-bar. Ein strukturiertes Vorgehen besteht in Form des Attribute Listing, welches mit dem Morphologischen Kasten nahe verwandt ist.36 Das Attribute Listing dient vor allem dazu, Variationen bzw. Mutationen außerhalb des bestehenden Merkmals-raumes zu generieren (vgl. Schlicksupp 2004, S. 89ff.).

Zwischenfazit: Die bisherigen Ausführungen zum DMAIDV- und IESRM-Zyklus konzentrierten sich auf das Beispiel Kugelschreiber. Auf dieses wird in der Litera-tur des Öfteren Bezug genommen; zudem wurde es bereits im Zusammenhang mit der Vorstellung des Genetischen Algorithmus in Abschnitt 4.3.4 referiert. Bei den Darstellungen ging es in erster Linie um die Demonstration der adaptierten Me-thoden, weniger um die Optimierung des Produktes selbst. Die empirische Über-prüfung der Wirksamkeit der abgeleiteten Vorgehensmodelle, einschließlich ihrer Methoden, ist dem folgenden Unterkapitel vorbehalten.

36 Auf der Basis des Morphologischen Kastens werden in einer separaten Spalte interes-

sante und bisher noch nicht berücksichtigte Merkmalsausprägungen aufgeführt. Per Zu-fallsauswahl sollte dann entschieden werden, welche Gestaltungsmöglichkeiten in den Lösungspool zusätzlich aufzunehmen sind; sie sind entsprechend zu codieren.

Page 291: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 269

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle an Beispielen

Um die Effektivität des DMAIDV- und IESRM-Zyklus empirisch zu überprüfen, werden die Problemlösungszyklen in zwei konkreten Anwendungsbeispielen zum Einsatz gebracht.37 Im ersten Beispiel geht es um die Optimierung der Flugzeit eines Papier-Rotors (vgl. Abschnitt 5.3.1). Das Laborexperiment gilt als Standard-beispiel zur Anwendung von DOE im Rahmen von (Design for) Six Sigma-Schu-lungen. Aufgrund einer Reihe von Vorerfahrungen ist ein direkter Vergleich mit den Ergebnissen des DMAIDV-Zyklus möglich. Im zweiten Beispiel wird auf die unternehmensbezogene Anwendung der zwei Vorgehensmodelle eingegangen (vgl. Abschnitt 5.3.2). In einem F&E-Projekt in einem mittelständischen Unter-nehmen besteht das Ziel darin, auf der Grundlage des IESRM-Zyklus die Kehrei-genschaften von Straßenbesen zu optimieren. Zur Absicherung der Ergebnisse werden in beiden Beispielanwendungen Methoden/ Instrumente aus dem klassi-schen DFSS-Toolset als Benchmark zum Einsatz gebracht.

5.3.1 Optimierung der Flugzeit eines Papier-Rotors (Laborexperiment)

(a) Einführung in die Problemstellung

Weltweit gibt es eine Vielzahl von Veröffentlichungen, vor allem in Fachzeit-schriften und als Konferenzbeiträge, welche die erfolgreiche Anwendung der Statistischen Versuchsplanung (DOE) zeigen. Ein verbreitetes Übungsbeispiel im Rahmen von DFSS-Trainings, an dem die verschiedenen Versuchdesigns und Auswertungsmethoden, z.B. Screening-Design, Faktorielles Design und Taguchi Design, gut nachvollzogen werden können, ist die Maximierung der Flugzeit eines Papier-Rotor (siehe Abb. 5-13). Die Versuchsdurchführung ist relativ einfach. Als Materialien werden lediglich Papier, Stift, Lineal, Schere, Stoppuhr und ggf. Bü-roklammern benötigt.38 Allerdings ist die Zufallsstreuung erfahrungsgemäß relativ groß im Vergleich zu den Effekten, die aufgrund der Versuchsdurchführung nachweisbar sind.39 Um signifikante Effekte zu finden, sind deshalb viele Reali-sierungen erforderlich (vgl. Kleppmann 2006, S. 289ff.).

37 Im Vordergrund steht hier die Überprüfung der Effektivität, also der Wirksamkeit, der

abgeleiteten Vorgehensmodelle. Diese lässt sich im Rahmen einer explorativen Unter-suchung relativ leicht ermitteln. Aussagen zur Effizienz werden zwar ebenfalls getrof-fen; sie bedürfen jedoch einer weiterführenden empirischen Untersuchung.

38 Bei den Rotor-Versuchen wurden die folgenden Materialien verwendet: Papier: 80 g/m2, weiß, ~ 5,0 g/Stck.; Büroklammer: 26 mm, spitz, ~0,5 g/Stck.

39 Es gibt andere DOE-Übungsbeispiele, bei denen die Effekte größer und physikalisch leichter zu interpretieren sind als beim Rotor, z.B. Nürnberger-Trichter. Diesem Vorteil steht i.A. der Nachteil gegenüber, dass mit höherer Genauigkeit der Ergebnisse die An-forderungen an den Versuchsaufbau und die Durchführung steigen.

Page 292: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

270 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Das Beispiel Papier-Rotor kann als Modell für eine Produktoptimierung betrachtet werden: Aus einem DIN A4-Blatt Papier wird ein Rotor gemäß Abb. 5-13 ausge-schnitten. Das Rechteck mit der Länge e und der Breite f spiegelt den Schaft des Rotors wider. Die Flügel ergeben sich dadurch, dass man die Parallelogramm-Flächen von der Länge c und der Breite a entlang der punktierten Linie um 90° nach vorne bzw. um 90° nach hinten knickt. Zwischen Schaft und Flügel liegt der Steg mit einer Fläche von 2⋅a ⋅ d. Wird das gefaltete Papierblatt aus einer be-stimmten Höhe fallen gelassen, beginnt es sich als Rotor in der Luft zu drehen. Bei günstiger Wahl der Dimensionen rotiert der Rotor relativ stabil und sinkt langsam zu Boden. Dabei kann es je nach verwendetem Papier erforderlich sein, den Rotor am unteren Ende zu beschweren, z.B. mit Büroklammer(n).

Abb. 5-13: Abmessungen des Papier-Rotors40

Die Aufgabenstellung besteht darin, die Abmessungen a, b, c, d, e und f so zu wählen, dass die Zeit maximiert wird, die der Rotor benötigt, um aus einer vorge-

40 Bei dieser und allen folgenden Abbildungen handelt es sich um eigene Darstellungen.

a ab

2·a

Flügel Flügel

Steg

Scha

f t

f

c

d

e

29,7cm

21,0 cm

Page 293: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 271

geben Höhe zu Boden zu sinken (= Hauptziel). Als weitere Zielgrößen können z.B. die Absturzneigung (wie auch immer zu messen) oder die Drehzahl definiert werden. Bei der Konstruktion des Rotors ist als Randbedingung einzuhalten, dass das DIN A4-Blatt vollständig genutzt wird, d.h. die Gesamtbreite beträgt 2 ⋅ a + b = 21,0 cm und die Gesamtlänge c + d + e = 29,7 cm. Zusammen mit der Schaftbreite f erhält man dann vier Konstruktionsparameter, die frei wählbar sind. Die restlichen zwei ergeben sich aus den obigen Randbedingungen.

(b) Anwendung des DMAIDV-Zyklus zur Optimierung

Die Anwendung des DMAIDV-Zyklus zur Optimierung des Papier-Rotors kann in einem 2-Tages-Seminar erfolgen. Die Teilnehmerzahl sollte dabei auf max. 25 begrenzt werden. In Abhängigkeit von den Six Sigma-Vorerfahrungen der Teil-nehmer werden am ersten Tag die Konzeption und Inhalte von Design for Six Sigma (DFSS) vermittelt. Am zweiten Tag sind – unter Anleitung eines erfahre-nen (Master) Black Belts – die einzelnen Phasen des DMAIDV-Zyklus am Bei-spiel des Papier-Rotors zu durchlaufen. Wesentliche Tools, die sich in der Praxis bei F&E-Projekten bewährt haben, werden zum Einsatz gebracht. Für eine erfolg-reiche Anwendung sind den Teilnehmern im Vorfeld einschlägige Kenntnisse in statistischen Methoden, insb. DOE, sowie vertieftes Wissen in Kreativitäts-/ Inno-vationstechniken, insb. TRIZ, zu vermitteln.

Die Vorgehensbeschreibung und Analyseergebnisse, die im Folgenden kurz refe-riert werden, basieren auf einem 2-tägigen Six Sigma-Seminar, das am 20.04.-21.04.2006 an der TU Dresden durchgeführt worden ist. Teilnehmer des Seminars waren Studenten der Fakultät Wirtschaftswissenschaften, die sich zu diesem Zeit-punkt im Hauptstudium befanden und – aufgrund der gewählten Studienrichtung und absolvierter Praktika – bereits über Vorerfahrungen/ -wissen im Bereich „Qualitätsmanagement/ Prozessoptimierung/ Six Sigma“ verfügten. Aus diesem Grund konnte relativ zügig mit der konkreten Optimierungsarbeit begonnen wer-den. Unter meiner Leitung als Black Belt wurden zu Beginn des Seminars 5 Grup-pen á 5 Studenten gebildet, die getrennt voneinander mit der Optimierung der Flugzeit des Papierrotors beauftragt wurden. Als Grundlage diente die o.g. Be-schreibung im Buch von Kleppmann (2006, S. 289ff.), die alle Beteiligten zu Beginn des Seminars als Basiswissen zur Verfügung gestellt bekamen.

Nachdem die Inhalte und Methoden der einzelnen Phasen des Verbesserungszyk-lus hinreichend erläutert wurden, bestand die erste Aufgabe darin, 10 unterschied-liche Papier-Rotoren entsprechend den genannten Rahmenbedingungen anzuferti-gen und aus einer Höhe von 3,75 m jeweils mindestens 2-mal fallen zu lassen. Die Flugzeiten wurden jeweils von zwei Personen (ausgestattet mit Handy-Stoppuhr) gemessenen und in einer Excel-Tabelle notiert. Aus den Daten wurden im Nach-gang die mittlere Flugzeit pro Rotor sowie die durchschnittliche Streuung (Stan-dardabweichung) der Flugzeiten bestimmt. Pro Gruppe wurde – bezogen auf die vorstehend genannten Kriterien – jeweils der beste und schlechteste Rotor der Population ausgewiesen. Die besten Rotoren hatten eine mittlere Flugzeit von ca.

Page 294: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

272 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

4,0 s mit einer Standardabeichung von 0,1 s. Die schlechtesten Rotoren wiesen eine mittlere Flugzeit von ca. 2,0 s auf; die Standardabweichung betrug bis zu 0,4 s. Einige Rotoren fielen dadurch „negativ“ auf, dass sie teilweise oder gar nicht rotierten und einfach zu Boden trudelten bzw. schwebten. Die Flugzeiten dieser Rotoren waren aber mitunter vergleichsweise hoch.

Define-Phase: Aufstellen der Projektcharter

Durch den Bau und das Fliegenlassen der ersten 10 Rotoren konnten die Teams erste Erfahrungen mit dem Neuprodukt „Papier-Rotor“ sammeln. Dadurch war es möglich, die Projektcharter zur Maximierung der Flugzeit des Rotors gezielt auf-zusetzen. Am Ende der ersten Projektphase erstellte jede Gruppe eine Projektchar-ter analog Abb. 5-14. Wie nachvollziehbar ist, wurde bei der Formulierung der Charter darauf geachtet, die einzelnen Punkte möglichst genau zu spezifizieren, um den Projektfokus für alle Beteiligten klar abzugrenzen. Gleichzeitig waren die Teams bemüht, sich relativ nahe an der „DFSS-Praxis“ zu bewegen und der dabei geforderten Stringenz Rechnung zu tragen. Die Projektcharter plus weitere Ergeb-nisse der Methodenanwendungen sind Bestandteil eines ca. 5-seitigen Ergebnis-protokolls, das jede Gruppe nach Ende des Seminars erstellte.

Abb. 5-14: Projektcharter für die Optimierung des Papier-Rotors

Measure-Phase: Durchführen der Gage R&R

Ein wesentliches statistisches Verfahren im Rahmen der Measure-Phase ist die Messsystemanalyse (Gage R&R). Hierbei soll sichergestellt werden, dass die zu messenden Daten zuverlässig erhoben und durch das verwendete Messsystem nicht (zu sehr) verfälscht werden. Ziel ist es, dass der mithilfe des Standardverfah-

Projekt: „Optimierung der Flugzeit eines Papier-Rotors“ 1. Problembeschreibung

2. Ziele

3. Nutzen

6. Projektumfang/ -rahmenIN: Veränderung der geometrischen Abmessungen des Papier-Rotors bei Ausnutzung eines DIN-AA-Blattes (80g), Nutzung von Beschwerungen (Büroklammer) zur Flugstabi-lisierung sowie Anbringen von Faltungen, um eine Verstei-fung der Konstruktion zu erreichen, sind erlaubt. OUT: Veränderung der Papierart (Größe & Gewicht), der örtlichen Bedingungen (Lufttemperatur, Feuchtigkeit etc.) und der Teamzusammensetzung werden ausgeschlossen.7. Verantwortungen

5. Net Benefit

9. Unterschriften Champion: Black Belt:

Es ist ein Papier-Rotor zu entwickeln, der beim Loslassen aus einer bestimmten Höhe im Innenraum möglichst lange und gleichmäßig in der Luft rotiert. Die grundsätzliche Form und das Aussehen des Rotors sind vom Kunden vorge-geben (siehe Abb. 5–19). Die Flugzeit und das Rotations-verhalten der bis dato erstellten Rotoren ist unzureichend; Kundenunzufriedenheit war die Folge. Die Ursachen-Wirkungsbeziehungen zwischen den einzel-nen Gestaltungsparametern und der Flugdauer/ dem Flug-verhalten als Zielgröße sind kaum determinierbar. Sie sind schwierig zu bestimmen, da nicht-lineare Zusammenhänge und Wechselwirkungen höherer Ordnung auftreten. Bishe-rige Verbesserungen, die zu einer Erhöhung der Flugzeit führten, entstanden nach dem Trial-and-Error-Prinzip.

• Hauptziel: Entwicklung eines Papier-Rotors mit maximaler Flugdauer (Sinkzeit) bei stabiler Fluglage

• Unterziel: Entwicklung eines Papier-Rotors, der während des gesamten Fluges gleichmäßig rotiert

• Prinzipiell höherer Kundennutzen/ höhere Kundenzu-friedenheit durch bessere Flugeigenschaften

• Maximale Flugdauer, die aufgrund eines wissenschaft-lichen Verbesserungsansatzes erzielt worden ist, als ein-zigartiges Verkaufsargument (USP)

Champion: Swen Günther (Black Belt/ TU Dresden)Projektleitung: Silvio S. (TU Dresden)Team: Cornelia S., Theresa H., Peter L. und Matthias L. (Studenten der TU Dresden)

keine Angabe

4. Marktanalyse & Benchmarking Es ist mit steigenden Absatzzahlen zu rechnen, wenn ein Papier-Rotor entwickelt werden kann, der signifikante Leistungsvorteile gegenüber den Wettbewerbsmodellen besitzt. Unter der Voraussetzung, dass die Geometrie des Zielmodells deutliche Veränderungen aufweist, eröffnen sich darüber hinaus Differenzierungspotenziale.

8. ZeitvorgabenSTART: 20.04.2006 ENDE: 21.04.2006

Page 295: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 273

rens Gage R&R ermittelte relative Messsystemfehler unter 5% liegt, d.h. die Ab-weichung in den Messwerten ist zu mehr als 95% in der Variation der Produkte/ Prozesse begründet und nicht im Messsystem selbst (vgl. Abschnitt 3.3.1). Von einem noch „guten“ Messsystem kann ausgegangen werden, wenn die durch das System erklärte Varianz der gemessenen Daten weniger als 10% beträgt; in einem Bereich von 10-30% gilt das Messsystem als „akzeptabel“.41

Alle fünf Gruppen wurden in der zweiten Aufgabe damit beauftragt, eine Gage R&R mit Minitab R14 für die Messung der Flugzeit des Papier-Rotors durchzu-führen. Dazu wurden im Vorfeld in jeder Gruppe Überlegungen zu den Anforde-rungen an den Messvorgang angestellt. Im Rahmen einer Operationalen Definiti-on wurde anschließend festgelegt, was Gegenstand des Messvorgangs ist und wie dieser zu messen ist. Im vorliegenden Fall ist die (Flug-)Zeit zu messen, die ein Papier-Rotor vom Loslassen an der Zimmerdecke bis zum Aufschlagen auf dem Fußboden benötigt. Dabei ist der Messvorgang wie folgt zu gestalten:

„Ein Teammitglied hält den Rotor mit geknickten Flügeln senkrecht an die Decke und zählt laut von 3 abwärts. Bei 0 lässt das Teammitglied den Papier-Rotor fal-len; die Messzeit beginnt. Zwei (weitere) Teammitglieder erfassen unabhängig voneinander die Flugzeit des Rotors, und zwar mittels einer in ihrem Handy integ-rierten Stoppuhr. Sie betätigen bei 0 den Startknopf. Der Messvorgang endet, wenn der Rotor erstmals den Boden berührt. Die zwei Zeitnehmer betätigen dann unmittelbar den Stoppknopf auf ihrer Stoppuhr.“

Die Durchführung einer Gage R&R für stetige Daten, wie es hier der Fall ist, erfordert pro Rotor mindestens zwei Messvorgänge. Der Stichprobenumfang ist auf mindestens 10 unterschiedliche Papier-Rotoren festgelegt. Damit ist es den Gruppen möglich, auf die Messwerte aus der ersten Versuchsreihe zurückzugrei-fen, sofern der Messvorgang zu diesem Zeitpunkt bereits in geeigneter Weise definiert worden war. Die Auswertung der Daten erfolgt mit der Statistik-Software Minitab R14. Unter dem Menüpfad Stat/ Quality Tools/ Gage Study/ werden hier gleich zwei Gage R&R-Varianten für stetige Daten angeboten:

• Gage R&R Study (Crossed) steht für die Analyse von Messsystemen, bei denen die Prüfteile zerstörungsfrei geprüft werden können, d.h. die Prüfer können auf gleiche Teile zurückgreifen. Dies ist in unserem Fall gegeben, da ein und derselbe Rotor mehrmals Fliegen gelassen werden kann.

• Gage R&R Study (Nested) bezeichnet die Analyse von Messsystemen, bei denen die Prüfteile nicht zerstörungsfrei geprüft werden können, d.h. eine be-stimmte Auswahl von Teilen (Batch), die für die Messung vorgesehen sind, können von einem Prüfer nur einmal geprüft werden.

41 Bei höheren Werten ist eine Verbesserung des Messsystems dringend erforderlich,

tatsächliche Unterschiede in den Produkt-/ Prozessvarianten können dann nicht mehr „statistisch sauber“ erfasst werden.

Page 296: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

274 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Bei beiden Verfahrensvarianten wird das Messsystem im Hinblick auf die Wie-derholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) der Daten überprüft. Die Aggregation beider Werte ergibt die Variation des Messsystems (Total Gage R&R); sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt. Die Differenz aus Total Variation und Total Gage R&R ergibt die durch die Verwendung unterschiedlicher Teile begründete Varianz der Messwerte (Part-To-Part). Im Seminar lag diese bei den einzelnen Gruppen zwischen 70 und 90%, d.h. maximal 30% der Varianz der gemessenen Flugzeiten wurde durch das verwendete Messsystem erklärt. Die Systeme waren damit zum überwiegenden Teil „akzeptabel“ mit Tendenz zu „gut“. Dieses Ergebnis steht im Einklang mit dem eingangs erwähnten Problem, dass die Zufallsstreuung erfah-rungsgemäß relativ groß im Vergleich zu den Effekten ist.

Zur Auswertung und Interpretation der Ergebnisse wird von der o.g. Statistik-Software standardmäßig eine Graphik mit sechs Diagrammen angeboten. In Abb. 5-15 ist die Auswertung von Gruppe 5 beispielhaft angegeben.

Abb. 5-15: Gage R&R-Ergebnisse mit Minitab für Papier-Rotor

Wie nachvollziehbar ist, betrug die Total Gage R&R ca. 15%, wobei diese sich vollständig aus einer unzureichenden Repeatability ergibt (siehe Diagramm oben links). Das Diagramm oben rechts gibt den Mittelwert sowie die Streuung der Messwerte über die einzelnen Rotoren wieder. Relativ hohe Streuungen weisen die Rotoren 3 und 8 auf. Niedrige Streuungen sind bei den Rotoren 1, 2M und 5 zu verzeichnen (M = Rotor mit Büroklammer). Die höchsten mittleren Flugzeiten

Per

cent

Part-to-PartReprodRepeatGage R&R

10085

50

150

% Contribution

Sam

ple

Ran

ge

0,8

0,4

0,0

_R=0,2583

UCL=0,8440

LCL=0

Matthias Silvio

Sam

ple

Mea

n 4,0

3,5

3,0

__X=3,481

UCL=3,967

LCL=2,995

Matthias Silvio

Rotor-Nr.8M87M765432M210

4,0

3,2

2,4

PrüferSilvioMatthias

4,0

3,2

2,4

Rotor-Nr.

Ave

rage

8M87M765432M210

4,0

3,5

3,0

PrüferMatthias

Silvio

Gage name: MSA F lugzeit RotorDate of study : 20.04.2006

Reported by : Gruppe 5Tolerance:M isc:

Components of Variation

R Chart by Prüfer

Xbar Chart by Prüfer

Flugzeit by Rotor-Nr.

Flugzeit by Prüfer

Prüfer * Rotor-Nr. Interaction

Gage R&R (ANOVA) for Flugzeit

Page 297: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 275

besitzen die Rotoren 2M und 7M; diese rotieren aufgrund der Beschwerung auch relativ gleichmäßig, was zu einer sehr geringen Streuung der Messwerte führt. Wechselwirkungen zwischen Prüfer und gemessenen Rotoren liegen nicht vor, wie der gleichmäßige Verlauf der Kennlinien im Diagramm rechts unten verdeut-licht.42 Weiterhin fällt auf, dass die Lage der Mittelwerte über alle Rotoren sowie die Streuung der Messwerte nahezu identisch sind (siehe Diagramm rechts Mitte); dies begründet u.a. die hohe Reproducibility des Messsystems. Die abgebildeten Regelkarten (R- und Xbar-Chart) in den Diagrammen links unten geben Hinweise auf die Prozessstabilität; sie spielen hier eine untergeordnete Rolle.

Analyse-Phase: Planung und Durchführung von DOE

Nachdem die Güte des Messsystems überprüft und sichergestellt werden konnte, beginnt die eigentliche Entwicklungs- bzw. Verbesserungsarbeit. Aus Six Sigma-Sicht besteht die originäre Aufgabe der Analyse-Phase darin, die wesentlichen Einflussgrößen zu bestimmen, welche die Flugzeit des Rotors als CTQ maßgeb-lich beeinflussen. Dazu sind zunächst Vermutungen (Hypothesen) über mögliche und aus Entwicklungssicht plausible Ursachen-Wirkungszusammenhänge aufzu-stellen, die dann im zweiten Schritt – auf der Grundlage von statistischen Depen-denzanalysen – überprüft werden. Ein häufig genutztes Instrument, um die vermu-teten Zusammenhänge zwischen Einfluss- und Ergebnisgrößen zu systematisieren und zu visualisieren ist das Ishikawa-Diagramm (vgl. Abschnitt 3.3.1). In Abb. 5-16 ist die Ursachenanalyse für die Beeinflussung der Flugzeit des Rotors von einer der fünf Seminargruppen beispielhaft dargestellt.

Mithilfe der Kreativitätstechnik Brainstorming wurden im Team mögliche Ursa-chengrößen in den sechs Kategorien Messung, Material, Maschine, Mensch, Mit-welt und Methoden (6 M) diskutiert und zugeordnet. Dabei war zunächst entschei-dend, möglichst viele Haupt- und Nebeneinflussgrößen zu ermitteln, die in Bezug auf die Zielstellung von Relevanz sind. Im Weiteren wurden die hierarchisch angeordneten, potenziellen Einflussgrößen im Hinblick auf ihre Beeinflussbarkeit beurteilt. Mit „variabel“ sind diejenigen Größen gekennzeichnet, die aus Sicht der Teammitglieder kurz- bzw. mittelfristig beeinflusst werden können.

Wie in Abb. 5-16 ersichtlich wird, ist der überwiegende Teil der Einflussgrößen veränderbar. Im Gegensatz dazu gelten die Größen, die „von der Natur“ gegeben sind und damit nicht unmittelbar veränderbar sind, als „constant“. Nach Einschät-zung der Gruppe sind „nur“ die Bedingungen für das Fallenlassen des Rotors (Prüfraum) und die Herstellung (per Hand) konstant. Das Raumklima und die ungewollte Luftströmung werden als „noise“ charakterisiert. Hierbei handelt es sich um veränderliche Einflussgrößen, die jedoch nur schwer oder gar nicht kontrollierbar sind und zu einem sog. Hintergrundrauschen führen.

42 Dies bedeutet, dass die beiden Prüfer keine besonderen Präferenzen in Bezug auf die zu

vermessenden Teile haben und nicht bestimmte Rotoren favorisieren.

Page 298: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

276 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Abb. 5-16: Ishikawa-Diagramm für Papier-Rotor

Me n

sch

Mes

s ung

Mas

c hin

e

F lug

zei t

des

P ap i

er-R

oto r

s

Mitw

elt

Met

hod e

Mat

e ria

l

Mes

s -vo

rgan

g

Ga g

e R &

R

Rep

r odu

zier

bar k

eit

Me s

s-g e

rät e

Fallh

ö he

Uhr

Ha n

dy

S top

puhrLin e

al

Mat

eria

lL ä

nge

Varia

nz d

e r

Prüf

tei le

Zeit m

ess u

ngStop

p fe

stl e

gen

Star

t fe

stle

gen

Anf a

ng

defin

iere

nEn

de

defin

iere

n

P rüf

er

Zeitn

ehm

er

Losl

ass e

rQua

lifi-

katio

n

Ope

ratio

nal e

D

efin

it ion

für

L osl

asse

nV a

rian z

de s

Mes

ssys

tem

s

Wie

d erh

olba

rke i

t

Prüf

-ra

u m

Rau

mhö

h e

Gru

ndflä

che

L uft -

strö

mu n

g

V ent

ilato

r

K lim

a -an

lag e

Offe

nes

Fens

ter

Gew

o llt

Ung e

wo l

ltZ ugl

uft

(z.B

.Tür

of fe

n)

A rm

bew

e-gu

ngen

R aum

-kl

ima

Luftt

empe

ratu

r

War

mN

orm

al

Luft -

feuc

hte

Luf t-

dru c

k

Kalt

Geo

met

r ie

Sieh

e Ab

b. m

it R o

tor -S

kiz z

e

Gew

i cht

Papi

ers t

ärk e

Roto

rfläc

he

Zusa

tzg e

wic

ht( z

.B. B

üro k

lam

mer

)

Faltu

ngen

Ste i

figke

itVers

tärk

ung e

nKl

e beb

a nd

am S

chaf

tKl

e beb

a nd

am F

lüg e

l

Knic

k an

Fl

ügel

n

Knic

k am

Sc

haft Ae

ro-

d yna

mikLö

che r

Run d

unge

nF lüg

e lSt

e gS c

haft

Prüf

er

Zeitn

ehm

e r

Losl

asse

rS tar

tpun

ktei

n hal

ten

(Zei

t & O

rt)

Sta r

t-ze

i che

nge

b en

Han

d y-

Bed i

enun

gAu

f sch

lag-

punk

t er

ken n

enH e

rst e

ller

Korre

kte

Faltu

ngFe

hle r

freie

r Zu

schn

ittZu

s chn

e ide

r

Zeic

hner

Ric

htig

e M

a ße

E xak

te

Zeic

h nun

g

Qua

l ifi-

katio

n

Ope

ratio

nale

D

efin

i tion

f ür

Z eitm

essu

n g

A nal

y st

D ate

naus

wer

tun g

Dat

e n-

erfa

ssu n

g

H ilfs

mitt

e lSc

h ere

(Mes

s er)

Zusc

hnei

den

Zei c

hne n

Blei

s tift

Lin e

al

Roto

r

Pap i

er

S tär

keAr

t

B üro

klam

mer

A rt

Anz a

hl

Her s

tel lu

ng

Zus c

hne i

den

Zeic

hnen

per H

and

auto

mat

isie

rt(z

.B. m

it D r

ucke

r )

per H

and

a uto

ma t

isie

rt( z

.B. m

it Pl

ott e

r)Fa

llen-

l ass

e n

Ort

spe z

.

Zeit

spe z

.M

essu

ng

5

2

3

3

2

v

v

v nc

v

vvv

vv

v

v

v

v

v

Lege

nde:

v aria

b le

nois

eco

nsta

ntPu

n ktb

ewer

tung

v c

c

n

v n

Me n

sch

Mes

s ung

Mas

c hin

e

F lug

zei t

des

P ap i

er-R

oto r

s

Mitw

elt

Met

hod e

Mat

e ria

l

Mes

s -vo

rgan

g

Ga g

e R &

R

Rep

r odu

zier

bar k

eit

Me s

s-g e

rät e

Fallh

ö he

Uhr

Ha n

dy

S top

puhrLin e

al

Mat

eria

lL ä

nge

Varia

nz d

e r

Prüf

tei le

Zeit m

ess u

ngStop

p fe

stl e

gen

Star

t fe

stle

gen

Anf a

ng

defin

iere

nEn

de

defin

iere

n

P rüf

er

Zeitn

ehm

er

Losl

ass e

rQua

lifi-

katio

n

Ope

ratio

nal e

D

efin

it ion

für

L osl

asse

nV a

rian z

de s

Mes

ssys

tem

s

Wie

d erh

olba

rke i

t

Prüf

-ra

u m

Rau

mhö

h e

Gru

ndflä

che

Prüf

-ra

u m

Rau

mhö

h e

Gru

ndflä

che

L uft -

strö

mu n

g

V ent

ilato

r

K lim

a -an

lag e

Offe

nes

Fens

ter

Gew

o llt

Ung e

wo l

ltZ ugl

uft

(z.B

.Tür

of fe

n)

A rm

bew

e-gu

ngen

L uft -

strö

mu n

g

V ent

ilato

r

K lim

a -an

lag e

Offe

nes

Fens

ter

Gew

o llt

Ung e

wo l

ltZ ugl

uft

(z.B

.Tür

of fe

n)

A rm

bew

e-gu

ngen

R aum

-kl

ima

Luftt

empe

ratu

r

War

mN

orm

al

Luft -

feuc

hte

Luf t-

dru c

k

Kalt

R aum

-kl

ima

Luftt

empe

ratu

r

War

mN

orm

al

Luft -

feuc

hte

Luf t-

dru c

k

Kalt

Geo

met

r ie

Sieh

e Ab

b. m

it R o

tor -S

kiz z

e

Gew

i cht

Papi

ers t

ärk e

Roto

rfläc

he

Zusa

tzg e

wic

ht( z

.B. B

üro k

lam

mer

)

Faltu

ngen

Ste i

figke

itVers

tärk

ung e

nKl

e beb

a nd

am S

chaf

tKl

e beb

a nd

am F

lüg e

l

Knic

k an

Fl

ügel

n

Knic

k am

Sc

haft Fa

ltung

en

Ste i

figke

itVers

tärk

ung e

nKl

e beb

a nd

am S

chaf

tKl

e beb

a nd

am F

lüg e

l

Knic

k an

Fl

ügel

n

Knic

k am

Sc

haft Ae

ro-

d yna

mikLö

che r

Run d

unge

n

Aero

-d y

nam

ikLöch

e r

Run d

unge

nF lüg

e lSt

e gS c

haft

Prüf

er

Zeitn

ehm

e r

Losl

asse

rS tar

tpun

ktei

n hal

ten

(Zei

t & O

rt)

Sta r

t-ze

i che

nge

b en

Han

d y-

Bed i

enun

gAu

f sch

lag-

punk

t er

ken n

enH e

rst e

ller

Korre

kte

Faltu

ngFe

hle r

freie

r Zu

schn

ittZu

s chn

e ide

r

Zeic

hner

Ric

htig

e M

a ße

E xak

te

Zeic

h nun

g

Qua

l ifi-

katio

n

Ope

ratio

nale

D

efin

i tion

f ür

Z eitm

essu

n g

A nal

y st

D ate

naus

wer

tun g

Dat

e n-

erfa

ssu n

g

H ilfs

mitt

e lSc

h ere

(Mes

s er)

Zusc

hnei

den

Zei c

hne n

Blei

s tift

Lin e

al

H ilfs

mitt

e lSc

h ere

(Mes

s er)

Zusc

hnei

den

Zei c

hne n

Blei

s tift

Lin e

al

Roto

r

Pap i

er

S tär

keAr

t

B üro

klam

mer

A rt

Anz a

hl

Roto

r

Pap i

er

S tär

keAr

t

B üro

klam

mer

A rt

Anz a

hl

Her s

tel lu

ng

Zus c

hne i

den

Zeic

hnen

per H

and

auto

mat

isie

rt(z

.B. m

it D r

ucke

r )

per H

and

a uto

ma t

isie

rt( z

.B. m

it Pl

ott e

r)

Her s

tel lu

ng

Zus c

hne i

den

Zeic

hnen

per H

and

auto

mat

isie

rt(z

.B. m

it D r

ucke

r )

per H

and

a uto

ma t

isie

rt( z

.B. m

it Pl

ott e

r)Fa

llen-

l ass

e n

Ort

spe z

.

Zeit

spe z

.

Falle

n-l a

sse n

Ort

spe z

.

Zeit

spe z

.M

essu

ng

5

2

3

3

2

v

v

v nc

v

vvv

vv

v

v

v

v

v

Lege

nde:

v aria

b le

nois

eco

nsta

ntPu

n ktb

ewer

tung

v c

c

n

v n

Page 299: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 277

Die anschließende Aufgabe bestand darin, die gesammelten Einflussgrößen im Hinblick auf ihre Bedeutung bzgl. der Maximierung der Flugzeit zu bewerten. Dazu erhielt jeder der fünf Teammitglieder 3 Klebepunkte, die er auf dem Ishika-wa-Diagramm beliebig verteilen konnte. Zulässig war es, die Punkte sowohl auf Haupteinflussgrößen- als auch der Nebeneinflussgrößen-Ebene zu verteilen. Zu-dem konnten die Teilnehmer Mehrfachbewertungen vornehmen. Im Ergebnis entfielen insgesamt 9 von 15 Punkten auf die Kategorie Maschine (Rotor), wobei die geometrischen Maße mit 5 Punkten am bedeutsamsten erschienen. Als eben-falls wichtig wurden – mit jeweils 3 Punkten – die Größen Messvorgang und Luft-strömung eingestuft; ihr Einfluss wurde bereits im Zusammenhang mit der Mess-systemanalyse thematisiert. Die Gruppen konzentrierten sich deshalb im Weiteren auf die Optimierung der konstruktiven Auslegung des Papier-Rotors.

Nach Kleppman 2005 (S. 282) ist es im Prinzip gleichgültig, welche der sechs geometrischen Parameter (siehe Abb. 5-13) als Einflussfaktoren gewählt werden, um die Flugzeit des Rotors bei Fallenlassen aus einer gegebenen Höhe zu maxi-mieren. Folgende Überlegungen sollten jedoch bei der Dimensionierung berück-sichtigt werden, um den Versuchsaufwand in Grenzen zu halten:

• Das Gewicht des Rotors ist von der Gesamtfläche 2⋅a ⋅ (c + d) + e ⋅ f und ggf. dem Gewicht der Büroklammer abhängig. Das Gewicht zieht einerseits den Rotor nach unten (Flugzeit sinkt), andererseits erhöht es aber auch das Dreh-moment, welches die Rotation bewirkt (Flugzeit steigt).

• Die Fläche der Flügel F, die F = 2⋅a ⋅ c beträgt, behindert zum einen das Sinken (Flugzeit steigt). Zum anderen korreliert sie i.A. mit einem höheren Gewicht, so dass das Sinken des Rotors beschleunigt wird (Flugzeit sinkt).

• Die Stabilität des Rotors beim Drehen wird vor allem durch die Lage des Schwerpunktes determiniert. Liegt er zu hoch, fängt er an zu trudeln.43 Gleichzeitig kann beobachtet werden, dass der Rotor instabil wird und weg-knickt, wenn die Fläche 2⋅a ⋅ d im Verhältnis zur Flügelfläche relativ klein ist.

Diese Überlegungen verdeutlichen, dass bei der Konstruktion des Rotors eine Reihe von Widersprüchen bestehen, die durch eine geeignete Dimensionierung zu überwinden sind. Außerdem lässt sich das Flugverhalten aufgrund der Einfluss-größen und ihrer Wechselwirkungen nicht im Voraus berechnen. Als unabhängige Größen kommen z.B. die Längen a, c, d und f in Frage. Denkbar sind aber auch die Verwendung von F, a, d und f oder anderer Kombinationen. Aufgrund der formulierten Bedingungen hat e vermutlich geringeren Einfluss auf die Flugeigen-schaften des Rotors und dürfte daher weniger gut als unabhängiger Faktor geeig-net sein als bspw. c und d. Ausgehend von diesen Überlegungen wurden in den

43 Hier hilft die Befestigung einer Büroklammer o.ä. am Schaftende. Das Gewicht der

Büroklammer beträgt – je nach Layout – ca. 1/5 des Papier-Rotor-Gewichts.

Page 300: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

278 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Teams Input-Variablen festgelegt, deren Zusammenhang mit der Output-Variable „Flugzeit“ im Folgenden statistisch überprüft werden sollte.

Durch die Konzentration auf geometrische Maße war diese Aufgabe relativ leicht zu lösen; Einflussgröße und Messgröße sind i.d.R. identisch und bedürfen keiner weiteren Operationalisierung. Schwieriger gestaltet sich hingegen die empirische Überprüfung der vermuteten Ursachen-Wirkungsbeziehungen. Aufgrund des Vor-handenseins von mehreren Input-Variablen (Faktoren), die in Bezug auf die Out-put-Variable (Effekt) einzeln und gemeinsam wirken, z.B. Flügellänge und -breite, ist auf DOE als geeignete Untersuchungsmethode zurückzugreifen.

In Seminaren bietet sich ein vollständiger faktorieller 23-Versuchsplan an, in dem die Effekte von drei Faktoren und ihren Wechselwirkungen untersucht werden. Dabei bleibt es den Teilnehmern überlassen, die Faktoren festzulegen, konkrete Stufenwerte für die Faktoren anzugeben, den Versuchsplan aufzustellen, die Ein-zelversuche durchzuführen und auszuwerten sowie Verbesserungsmaßnahmen abzuleiten. Aufgrund der Voranalysen mithilfe der Gage R&R und des Ishikawa-Diagramms kristallisierten sich in den verschiedenen Gruppen die folgenden fünf Einflussgrößen als „untersuchungswürdig“ heraus: Flügelbreite (a), Flügellänge (c), Stegbreite (d), Schaftbreite (f) und Büroklammer (ja/ nein).

Abb. 5-17: Vollfaktorieller 23-Versuchsplan für Papier-Rotor

Für 3 der 5 Größen wurden in jeder Gruppe dichotome Ausprägungen festgelegt und Versuchspläne nach o.g. Muster aufgestellt. In Abb. 5-17 ist ein solcher Ver-suchsplan mit Angabe der Ergebniswerte exemplarisch aufgeführt. Es wurden 8 Rotoren entsprechend dem Versuchsplan, der in nicht-randomisierter Form vorlag, gefertigt und mind. jeweils 2-mal Fliegen gelassen.44 Als Faktoren gingen die

44 Aus statistischer Sicht wäre es ideal, dass für jede Realisierung ein neuer Rotor ausge-

schnitten und gefaltet wird, der dann nur jeweils einmal fällt. Die zufälligen Abwei-chungen in den Sinkzeiten von nominell identischen Rotoren beinhalten nämlich u.a. zufällige Unterschiede im Material (Papier), in der ausgeschnittenen Form und Größe, in der Faltung, in Höhe und Haltung beim Loslassen des Rotors, in der Luftströmung und in der Zeitmessung (Stoppuhr). Nachteil sind der hohe Zeit-/ Kostenaufwand.

StdOrder RunOrder Steg (d) F-Länge (c) F-Breite (a) Mittelwert Stabwa1 1 2 8 5 2,53 0,1772 2 5 8 5 2,48 0,0353 3 2 12 5 2,80 0,0714 4 5 12 5 3,55 0,0005 5 2 8 8 2,43 0,1066 6 5 8 8 1,88 0,0357 7 2 12 8 2,70 0,0718 8 5 12 8 2,53 0,106

Page 301: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 279

Flügelbreite und -länge sowie die Stegbreite in das Untersuchungsmodell ein. Um möglichst eindeutige Effekte zu erhalten, sind die Abstände zwischen hoher und niedriger Ausprägung zunächst relativ groß gewählt worden.

Die mittleren Flugzeiten der Rotoren aus zwei Versuchsdurchführungen bewegen sich zwischen 1,88 s (Minimum) und 3,55 s (Maximum); dies deutet auf gravie-rende Unterschiede in der Designqualität der Rotoren hin. Die durchschnittliche Streuung (Standardabweichung) der Flugzeiten ist gleichzeitig über alle Faktorstu-fenkombinationen relativ gering, was u.a. auf ein zuverlässiges Messsystem schließen lässt. Eine detaillierte Auswertung der Versuchsergebnisse ist mithilfe von einschlägiger Statistik-Software möglich, z.B. Minitab R14.

In Abb. 5-18 sind die ermittelten standardisierten Effekte der Variablen des Unter-suchungsmodells in Form eines Pareto-Charts aufgeführt. Wie ersichtlich ist, sind die zwei Hauptfaktoren Flügellänge und -breite für die Maximierung der Flugzeit hoch signifikant (p-Wert < 0,001), die Stegbreite besitzt hingegen keine signifi-kante Wirkung auf die Zielgröße (p-Wert = 0,894). Im Hinblick auf die Optimie-rung des Rotors darf sie jedoch keinesfalls vernachlässigt werden, da sie in Wech-selwirkung mit den anderen beiden Faktoren steht. So werden die Zwei-Faktoren-Wechselwirkungen (2FWW) Stegbreite x Flügellänge und Stegbreite x Flügelbrei-te als hoch signifikant ausgewiesen (je p-Wert < 0,001). Die 2FWW Flügellänge x Flügelbreite und die sich ergebende 3FWW zwischen allen drei Faktoren sind nach der Berechnung mit ANOVA gerade noch signifikant (p = 0,048). Graphisch ist dies über die eingezeichnete Linie bei 2,31 in Abb. 5-18 ablesbar, welche die Länge des ermittelten Konfidenzintervalls bei α = 0,05 angibt.

Das Zielmodell wird durch ein Polynom 1. Grades beschrieben, wobei sich die (Regressions-)Koeffizienten direkt aus den Effekten der einzelnen Faktoren und Faktoren-Wechselwirkungen berechnen lassen (vgl. Minitab Session Command Help). Im vorliegenden Fall wird die Flugzeit der Rotoren (y) mit einem Be-stimmtheitsmaß von 97,9% durch folgenden Term beschrieben:

dcadcdacadcadcafy

⋅⋅⋅−⋅⋅+⋅⋅−⋅⋅−⋅−⋅+⋅−==

053,0147,0178,0053,0003,0284,0228,0609,2),,(

(5.6)

mit y in s; a, b, c und d in cm

Entscheidet man sich für die einfache Variante, also für Einzelversuche mit demselben

Rotor auf jeder Faktorstufenkombination, dann genügt es, 8 Rotoren nach dem Ver-suchsplan auszuschneiden und zu falten. Nach systematischer Durchnummerierung können diese in den Einzelversuchen immer wieder verwendet werden. Dadurch wird der Versuchsaufwand wesentlich reduziert. Jedoch muss man sich im Klaren darüber sein, dass die Zufallsstreuung gegenüber Versuchen mit mehreren nominell identischen Rotoren i.A. unterschätzt wird, da die ersten drei Streuungsursachen (Material, Form, Größe und Faltung) nicht erfasst werden.

Page 302: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

280 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Die graphische Darstellung der Koeffizienten respektive Effekte erfolgt in Form des Main Effects Plot sowie Interaction Plot. Aus ihnen sind die Stärke und Rich-tung der analysierten Faktoren und ihrer Wechselwirkungen ablesbar. Der Zu-sammenhang zwischen Faktorausprägung und Effekthöhe wird über lineare Reg-ressionsgeraden beschrieben, deren Anstieg dem jeweiligen Koeffizienten in Glei-chung (5.6) entspricht. Während die beiden Flügelparameter a und c jeweils einen relativ großen Einfluss auf die mittlere Flugzeit des Papier-Rotors haben, geht der Haupteffekt, der durch die Stegbreite d begründet ist, gegen Null. Nach dem Pare-to-Chart sind für die Zielgrößenmaximierung Rotoren mit langen, schmalen Flü-geln zu bevorzugen. Jedoch ist hier zu beachten, dass die Wahl der Merkmalsaus-prägungen für a und c nicht unabhängig von d erfolgen darf. Die Wechselwir-kungseffekte AB und AC im Zusammenhang mit der Stegbreite werden durch die gekreuzten Linien in den entsprechenden Interaction Plots verdeutlicht.

Abb. 5-18: Pareto-Chart der standardisierten Effekte beim Papier-Rotor

Über den Response Optimizer, der sich ebenfalls im Menüpunkt Stat/ DOE/ Facto-rial in Minitab R14 befindet, ist schließlich eine Optimierung der im Portfolio befindlichen Designvarianten möglich. Wie im Cube Plot in Abb. 5-19 ersichtlich ist, werden die höchsten durchschnittlichen Flugzeiten erzielt, wenn sich die Steg-breite und die Flügellänge auf hoher Ausprägung (d.h. 5 cm bzw. 12 cm) und die Flügelbreite auf niedriger Ausprägung (d.h. 5 cm) befinden. Das gegenwärtige Optimum (y* = 3,55 s) befindet sich damit an den Grenzen des definierten Unter-suchungsraumes. Eine Erweiterung der Toleranzbereiche bzgl. der Einflussgrößen

Term

Standardized Effect

A

BC

ABC

AB

AC

C

B

14121086420

2,31Factor NameA StegbreiteB F lügellängeC F lügelbreite

Pareto Chart of the Standardized Effects(response is Flugzeit, Alpha = ,05)

Page 303: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 281

ist empfehlenswert, um eine weitere Verbesserung der Flugzeiten zu erreichen. Es ist davon auszugehen, dass das Maximum von y bei a < 5 cm, c > 12 cm und d > 5 cm liegt. Folglich sollten in der nächsten Verbesserungsrunde z.B. folgende Ein-stellwerte für die drei Faktoren gewählt werden: a = [3; 6]; c = [11; 15] und d = [4; 7], um näher an das wahre Optimum heranzukommen.

Abb. 5-19: Cube Plot mit mittleren Flugzeiten der Papier-Rotoren

Zwischenfazit: Das Optimierungsproblem stellt sich – im Gegensatz zur ersten Einschätzung vieler Beteiligter – als relativ komplex dar. Aus der Vielzahl der potenziellen Einflussgrößen, die im Zuge der Ursachen-Wirkungsanalyse gefun-den worden sind, ist jeweils nur ein kleiner Ausschnitt überprüfbar. Unter Berück-sichtigung des Versuchsaufwandes lassen sich i.d.R. maximal fünf Größen in einem Durchgang analysieren. Nimmt man die Ergebnisse der einzelnen Gruppen-arbeiten zusammen, dann ergibt sich folgendes Bild, welches die Komplexität und den Schwierigkeitsgrad der Problemstellung untermauert:

• Die Einflussgrößen, die insb. unter der Kategorie Material eingeordnet sind, können im großen und ganzen in ihrer Wirkung bestätigt werden. Sowohl die geometrischen Maße als auch die verwendeten Zusatzeinrichtungen, z.B. Bü-roklammer, haben einen signifikanten Einfluss auf die Flugzeit.

• Die Signifikanz der ermittelten Effekte richtet sich in erster Linie danach, wie groß der Wertebereich der modellrelevanten Faktoren definiert ist, d.h. die Schrittweite zum Abtasten des Lösungsraumes darf nicht zu klein gewählt sein, da ansonsten das Rauschen (Noise) zu groß wird.

8

5

12

852

Flügelbreite

Flügellänge

Stegbreite

2,525

1,8752,425

2,700

3,550

2,4752,525

2,800

Cube Plot (data means) for Flugzeit

Page 304: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

282 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

• Die Hauptfaktorwirkungen fallen – je nach gewählter Versuchsanordnung – in ihrer Stärke und Richtung recht unterschiedlich aus. Dies legt den Schluss nahe, dass die Lage des Optimums nicht grenzwertig ist und sich „irgendwo“ im mittleren Bereich der zulässigen Faktorausprägungen befindet.

• Die Faktoren-Wechselwirkungen besitzen eine außerordentlich hohe Bedeu-tung in Bezug auf die Maximierung der Flugzeit des Rotors. Aus diesem Grund sind teilfaktorielle Versuchspläne, bei denen Wechselwirkungen höher Ordnung überlagert werden, zur Untersuchung nur bedingt geeignet.

• Die Ermittlung von optimalen Faktor-Einstellwerten gestaltet sich aufwendig und schwierig: Erstens wegen der hohen Anzahl benötigter Versuchsanord-nungen/ -wiederholungen, zweitens wegen dem erforderlichen Methoden-Know-how, das erst im Zuge eines weiterführenden Studiums erlangt wird.

• Die Maximierung der Flugzeit des Rotors erfordert das Aufdecken und Ana-lysieren von nicht-linearen Zusammenhängen. Mit linearen Optimierungsan-sätzen lässt sich die Lage des Optimums i.d.R. nur (sehr) grob schätzen.

• Die systematische Vorgehensweise im Rahmen von DOE führte bei allen Gruppen zum Auffinden einer verbesserten Lösung gegenüber dem ersten Versuchsdurchgang, bei dem das Trial-and-Error-Prinzip zugrunde lag.

• Die Güte der Messsysteme verbesserte sich zusehends. So lagen am Ende der Analyse-Phase in allen Gruppen valide Ergebnisse zur Verifizierung respekti-ve Falsifizierung der vermuteten Ursachen-Wirkungsbeziehungen vor.

Erweiterungen über die hier beschriebene Aufgabenstellung hinaus sind je nach Trainingsinhalt und -tiefe jederzeit möglich (vgl. Kleppmann 2006, S. 292). So sind u.a. weitere Faktoren denkbar, deren Einfluss auf die Flugzeit des Rotors untersucht werden kann, wie z.B. Form der Flügel, Abschrägungen an der Verstei-fung, Papierart und Verwendung unterschiedlicher Gewichte, z.B. Büroklammer, Heftklammer. Nichtlinearitäten lassen sich mit zentral zusammengesetzten Ver-suchsplänen, z.B. Central-Composite-Designs oder Box-Behnken-Pläne, untersu-chen. Die Standardabweichung der Flugzeit kann als Maß für die Anfälligkeit des Rotors gegenüber Störungen als weitere Zielgröße definiert werden. Unter Nut-zung von Versuchsdesigns nach Taguchi lassen sich auf diese Weise das Signal-Rausch-Verhältnis ermitteln und ggf. verbessern.

Innovate-Phase: Lösen von Widersprüchen mit TRIZ

Nachdem ein akzeptabler Papier-Rotor gefunden worden ist, der den in der Defi-ne-Phase formulierten Anforderungen entspricht, beginnt nach klassischem DFSS-Verständnis die Design-Phase. Der Raum für Innovationen ist in diesem Fall rela-tiv (stark) beschränkt. Für den besten Rotor, der in der Analyse-Phase experimen-tell ermittelt werden konnte, wird ein Feinkonzept ausgearbeitet. Innovative Lö-sungen werden im Zuge der Konfektionierung allenfalls zufällig gefunden. Aus

Page 305: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 283

diesem Grund wird der Einschub einer zusätzlichen Phase empfohlen (vgl. Ab-schnitt 5.1.1), so dass sich ein insgesamt 6-phasiger DFSS-Zyklus ergibt.

In der Innovate-Phase wird vordergründig nach innovativen Verbesserungsmög-lichkeiten gesucht, die den Kundennutzen erhöhen. Aus mathematischer Sicht soll auf diese Weise sichergestellt werden, dass die ermittelte Lösung tatsächlich ein globales Optimum repräsentiert (vgl. Abschnitt 3.4.2).

Unter Anwendung von TRIZ wird im Folgenden die Konstruktion des Rotor-Schaftes im Hinblick auf seine Optimalität überprüft. Die Funktion des Schaftes besteht darin, durch die Beeinflussung der Lage des Schwerpunktes des Rotors die Rotationen in der Luft zu stabilisieren. Erfahrungsgemäß reicht aber der reine Papierzuschnitt nicht aus, um eine stabile Rotation zu erreichen. Gängige Praxis ist deshalb ein Zusatzgewicht in Form von Büroklammern anzubringen, was zu einer signifikanten Verlagerung des Schwerpunktes des Rotors nach unten bei-trägt. Im Vergleich zum Papier-Rotor ohne Klammer(n) wird i.d.R. eine deutlich höhere Rotationsstabilität erreicht. Diese äußert sich u.a. darin, dass der Rotor gleich von Beginn an rotiert sowie bei kurzeitigen Änderungen der Fallbedingun-gen, z.B. Luftströmung, nicht gleich ins Trudeln gerät.

Die stabilisierende Wirkung aufgrund des Zusatzgewichtes geht jedoch zu Lasten der maximal erreichbaren Flugzeit. Denn je schwerer der Rotor ist, desto schneller sinkt er zu Boden. Es besteht folglich ein Trade-off zwischen der Verbesserung der Rotationseigenschaften und der Maximierung der Flugzeit. Im Hinblick auf die zwei genannten Ziele ist die optimale Gewichtsverteilung am Schaft für jeden Rotor einzeln zu bestimmen. Mittels geeigneter Experimentieranordnung lässt sich untersuchen, welches Zusatzgewicht am Rotor anzubringen ist, um bei (noch) akzeptablem Drehverhalten die maximale Flugzeit zu erreichen.

In diesem Zusammenhang besitzt die bisher praktizierte Lösung den Nachteil, dass die Gewichts- und damit Schwerpunktbeeinflussung nur grob, d.h. über eine diskrete Änderung der Anzahl von Klammern erfolgen kann. Zudem verursacht das Anbringen und ggf. wieder Abnehmen der Klammern einen zusätzlichen Zeit- und Kostenaufwand in der „Herstellung“ des Rotors. Diesen gilt es bei der Suche nach einer verbesserten Lösung zu vermeiden.

Die Bewertung des Systems basiert bei TRIZ auf dem Konzept der Idealität. Bei diesem werden alle erwünschten Funktionen ins Verhältnis zu allen unerwünsch-ten Funktionen gesetzt (vgl. Abschnitt 5.1.2). Die unerwünschte Funktion besteht im Fall des Papier-Rotors darin, dass der Schaft eine oder mehrere Büroklammern zu halten hat (Nebenfunktion = unerwünscht), um den Rotor stabil fliegen zu lassen (Hauptfunktion = erwünscht). Ein ideales System liegt nach der TRIZ-Philosophie genau dann vor, wenn zur Ausübung der Hauptfunktion auf alle Ne-benfunktionen verzichtet werden kann, d.h. der Rotor rotiert lange und stabil, ohne dass Klammer(n) notwendig sind. Um zu einem solchen ideal(er)en System zu gelangen, sind verschiedene Wege möglich. Eine gebräuchliche Vorgehensweise, die auch in unserem Fall zur Anwendung kommen soll, ist – entsprechend dem

Page 306: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

284 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Minimumprinzip der BWL – die sukzessive Beseitigung der Schwächen des Sys-tems, ohne die Stärken desselbigen negativ zu beeinflussen.

Ausgangspunkt für das Auffinden innovativer Lösungsideen ist das Vorhanden-sein von Konflikten. Dabei handelt es sich um technische Widersprüche, die sich aus administrativen Widersprüchen ergeben, wie sie vorstehend am Beispiel Pa-pier-Rotor genannt sind. Das Vorliegen von technischen Widersprüchen erlaubt u.a. die Anwendung der Altschuller´schen Konflikte-Matrix zur innovativen Lö-sungsfindung (siehe Abb. 5-20). Grundlage hierfür bilden die 39 technischen Parameter, die – paarweise gegenübergestellt – direkt zu technischen Widersprü-chen (Konflikte) führen. Das Auffinden innovativer Lösungen geht mit der Auf-hebung dieser Konflikte einher, und zwar nach dem Motto „Verbessert man den einen Parameter, dann verschlechtert sich nicht der andere“. Hilfestellung bei der Lösungsfindung wird anschließend in Form der 40 innovativen Lösungsprinzipien gegeben, die den definierten Konfliktepaaren in der Matrix selektiv zugeordnet sind. Der „zu verbessernde Parameter“ sowie die „nicht erwünschte Veränderung“ lassen sich im Fall des Papier-Rotors wie folgt beschreiben:

• Der technische Parameter (15) soll verbessert werden.45 Bei diesem geht es um die „Haltbarkeit eines bewegten Objektes“, was der geforderten stabilen und gleichmäßigen Rotation des Papier-Rotors (ohne Zusatzgewicht) auf sei-ner Flugbahn sehr nahe kommt.

• Der technische Parameter (01), der das „Gewicht eines bewegten Objektes“ definiert, soll gleichzeitig unverändert bleiben.46 Ziel ist es, die stabile Flug-lage des Rotors zu gewährleisten, ohne das Gewicht durch Anbringen zusätz-licher Materialien am Schaft erhöhen zu müssen.

Die Gegenüberstellung der zwei Parameter in der Konflikte-Matrix führt zu den vier Lösungsvorschlägen aus der Liste der 40 Innovations-Prinzipien:

• Periodische Wirkung (19): (a) Von der kontinuierlichen Wirkung ist zur peri-odischen (Impulswirkung) überzugehen (Bsp.: Schlagbohrmaschine)/ (b) Wenn die Wirkung bereits periodisch erfolgt, ist die Periodizität zu verändern (Bsp.: Morse-Code)/ (c) Die Pausen zwischen den Impulsen sind für eine an-dere Wirkung auszunutzen (Bsp.: Musik in Telefonwarteschleife)

• Vereinen (05): (a) Gruppiere gleichartige oder zur Zusammenarbeit bestimm-te Objekte räumlich zusammen, d.h. kopple sie (Bsp.: Bicolor-Bleistifte)/ (b)

45 Der technische Parameter (15) ist wie folgt definiert (vgl. Herb et al. 2000, S. 268):

„Die Zeitspanne, während der ein räumlich bewegendes Objekt in der Lage ist, seine Funktion erfolgreich zu erfüllen.“

46 Der technische Parameter (01) ist wie folgt definiert (vgl. Herb et al. 2000, S. 267): „Die messbare, von der Schwerkraft verursachte Kraft, die ein bewegter Körper auf die ihn vor dem Fallen bewahrende Auflage ausübt. Ein bewegtes Objekt verändert seine Position aus sich heraus oder aufgrund externer Kräfte.“

Page 307: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 285

Vertakte gleichartige oder zur Zusammenarbeit bestimmte Objekte, d.h. kopp-le sie zeitlich (Bsp.: Radio-Cassettenrecorder)

• Beseitigung und Regeneration (34): (a) Teil eines Objekts, das seinen Zweck erfüllt hat oder unbrauchbar geworden ist, wird beseitigt (aufgelöst, ver-dampft o.ä.) oder unmittelbar im Arbeitsgang umgewandelt (Bsp.: Patronen-hülse)/ (b) Verbrauchte Teile eines Objektes werden unmittelbar im Arbeits-gang wieder hergestellt (Bsp.: Autobatterie)

• Poröse Materialien (31): (a) Das Objekt ist porös auszuführen, oder es sind zusätzlich poröse Elemente (Einsatzstücke, Überzüge usw.) zu benutzen (Bsp.: Filzstift)/ (b) Wenn das Objekt bereits porös ausgeführt ist, sind die Po-ren mit einem geeigneten Stoff zu füllen (Bsp.: Flaschenkorken)

Abb. 5-20: Altschuller´sche Konflikte-Matrix (Auszug)

Nach ausführlicher Diskussion der vier Lösungsvorschläge im Team erwies sich das Prinzip (31) für die Aufhebung des genannten Konfliktes am vielverspre-chendsten. Denn die Verwendung von porösem Material liegt bereits vor; Papier hat Poren47 und ist – je nach Sorte und Beschichtung – mehr oder weniger gut

47 Papier besteht aus einem Netzwerk von Zell-/ Holzstofffasern verschiedener Länge,

Dicke und Form. Aufgrund dieser Tatsache besitzt ein Papierblatt Luftzwischenräume (Poren), die durch Füllstoffteilchen z.T. aufgefüllt werden können, z.B. Feuchtigkeit.

Technischer Parameter 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Tech

nisc

her P

aram

eter

Nicht erwünschte Veränderung (Konflikt)

Zu verbessernder Parameter

Gew

icht

ein

es b

eweg

ten

Obj

ekte

s

Gew

icht

ein

es s

tatio

näre

n O

bjek

tes

Läng

e ei

nes

bew

egte

n O

bjek

tes

Läng

e ei

nes

stat

ionä

ren

Obj

ekte

s

Fläc

he e

ines

bew

egte

n O

bjek

tes

Fläc

he e

ines

sta

tionä

ren

Obj

ekte

s

Vol

umen

ein

es b

eweg

ten

Obj

ekte

s

Vol

umen

ein

es s

tatio

näre

n O

bjek

tes

Ges

chw

indi

gkei

t

Kraf

t

Dru

ck o

der S

pann

ung

Form

Sta

bilit

ät e

ines

Obj

ekte

s

Fest

igke

it

Hal

tbar

keit

eine

s be

weg

ten

Obj

ekte

s

Hal

tbar

keit

eine

s st

atio

näre

n O

bjek

tes

Tem

pera

tur

1 Gewicht eines bewegten Objektes

15, 8, 29, 34

29, 17, 38, 34

29, 2, 40, 28

2, 8, 15, 38

8, 10, 18, 37

10, 36, 37, 40

10, 14, 35, 40

1, 35, 19, 39

28, 27, 18, 40

5, 34, 31, 35

6, 20, 4, 38

2Gewicht eines stationären Objektes

10, 1, 29, 35

35, 30, 13, 2

5, 35, 14, 2

8, 10, 19, 35

13, 29, 10, 18

13, 10, 29, 14

26, 39, 1, 40

28, 2, 10, 27

2, 27, 19, 6

28, 19, 32, 22

3 Länge eines bewegten Objektes 8, 15, 29, 34

15, 17, 4

7, 17, 4, 35 13, 4, 8 17, 10,

4 1, 8, 35 1, 8, 10, 29

1, 8, 15, 34

8, 35, 29, 34 19 10, 15,

19

4Länge eines stationären Objektes

35, 28, 40, 29

17, 7, 10, 40

35, 8, 2, 14 28, 10

1, 14, 35

13, 14, 15, 7

39, 37, 35

15, 14, 28, 26

1, 40, 35

3, 35, 38, 18

5 Fläche eines bewegten Objektes

2, 17, 29, 4

14, 15, 18, 4

7, 14, 17, 4

29, 30, 4, 34

19, 30, 35, 2

10, 15, 36, 28

5, 34, 29, 4

11, 2 13, 39

3, 15, 40, 14 6, 3 2, 15,

16

6Fläche eines stationären Objektes

30, 2, 14, 18

26, 7, 9, 39

1, 18, 35, 36

10, 15, 36, 37 2, 38 40

2, 10, 19, 30

35, 39, 38

7 Volumen eines bewegten Objektes

2, 26, 29, 40

1, 7, 4, 35

1, 7, 4, 17

29, 4, 38, 34

15, 35, 36, 37

6, 35, 36, 37

1, 15, 29, 4

28, 10, 1, 39

9, 14, 15, 7 6, 35, 4 34, 39,

10, 18

8Volumen eines stationären Objektes

35, 10, 19, 14 19, 14

35, 8, 2, 14

2, 18, 37 24, 35 7, 2, 35

34, 28, 35, 40

9, 14, 17, 15

35, 34, 38 35, 6, 4

9 Geschwindigkeit2, 8,

28, 13, 38

13, 14, 8

29, 30, 34

7, 29, 34

13, 28, 15, 19

6, 18, 38, 40

35, 15, 18, 34

28, 33, 1, 18

8, 3, 26, 14

3, 19, 35, 5

28, 30, 36, 2

10 Kraft8, 1, 37,18

18, 13, 1, 28

17, 19, 9, 36 28, 10

19, 10, 15

1, 18, 36, 37

15, 9, 12, 37

2, 36, 18, 37

13, 28, 15, 12

18, 21, 11

10, 35, 40, 34

35, 10, 21

35, 10, 14, 27 19, 2

35, 10, 21

11 Druck oder Spannung 10, 36, 37, 40

13, 29, 10, 18

35, 10, 36

35, 1, 14, 16

10, 15, 36, 25

10, 15, 35, 37

6, 35, 10 35, 24 6, 35,

3636, 35,

2135, 4, 15, 10

35, 33, 2, 40

9, 18, 3, 40

19, 3, 27

35, 39, 19, 2

12 Form 8, 10, 29, 40

15, 10, 26, 3

29, 34, 5, 4

13, 14, 10, 7

5, 34, 4, 10

14, 4, 15, 22 7, 2, 35 35, 15,

34, 1835, 10, 37, 40

34, 15, 10, 14

33, 1, 18, 4

30, 14, 10, 40

14, 26, 9, 25

22, 14, 19, 32

13 Stabilität eines Objektes 21, 35, 2, 39

26, 39, 1, 40

13, 15, 1, 28 37 2, 11,

13 39 28, 10, 19, 39

34, 28, 35, 40

33, 15, 28, 18

10, 35, 21, 16

2, 35, 40

22, 1, 18, 4

17, 9, 15

13, 27, 10, 35

39, 3, 35, 23

35, 1, 32

14 Festigkeit 1, 8, 40, 15

40, 26, 27, 1

1, 15, 8, 35

15, 14, 28, 26

3, 34, 40, 29

9, 40, 28

10, 15, 14, 7

9, 14, 17, 15

8, 13, 26, 14

10, 18, 3, 14

10, 3, 18, 40

10, 30, 35, 40

13, 17, 35

27, 3, 26

30, 10, 40

15 Haltbarkeit eines bewegten Objektes

19, 5, 34, 31 2, 19, 9 3, 17,

1910, 2, 19, 30 3, 35, 5 19, 2,

1619, 3,

2714, 26, 28, 25

13, 3, 35

27, 3, 10

19, 35, 39

16Haltbarkeit eines stationären Objektes

6, 27, 19, 16

1, 10, 35

35, 34, 38

39, 3, 35, 23

19, 18, 36, 40

17 Temperatur36, 22, 6, 38

22, 35, 32

15, 19, 9

15, 19, 9

3, 35, 39, 18 35, 38

34, 39, 40, 18 35, 6, 4

2, 28, 36, 30

35, 10, 3, 21

35, 39, 19, 2

14, 22, 19, 32

1, 35, 32

10, 30, 22, 40

19, 13, 39

19, 18, 36, 40

Innovationsprinzipien

Page 308: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

286 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

saugfähig, es nimmt Flüssigkeiten, z.B. Wasser, auf und wird dadurch schwerer. Daraus ergab sich die folgende konkrete Lösungsidee: „Der Schaft des Papier-Rotors wird vor dem Fliegen lassen in ein Gefäß mit Wasser gehalten. In Abhän-gigkeit davon, wie lange er in das Gefäß getaucht wird, saugt er sich mit Flüssig-keit voll und wird schwerer. Der Schwerpunkt des Papier-Rotors verlagert sich entsprechend nach unten. Um eine stabile Rotation zu erreichen, kann im Weite-ren auf das Anbringen von Büroklammern verzichtet werden.“

Gegenüber der „Büroklammer-Lösung“ besitzt die Verwendung eines flüssigen Mediums gleich mehrere Vorteile: Zum einen lässt sich die Wasseraufnahme des Schaftes dosieren, was zu einer kontrollierten Gewichtszunahme und damit defi-nierten Verlagerung des Schwerpunktes führt. Die Lösung ist folglich flexibel einsetzbar, um die Flugzeit verschiedener Rotor-Typen zu maximieren. Zum ande-ren besitzt Flüssigkeit den Vorteil, dass es sich nach dem Flug quasi von selbst entfernt. Der Schaft trocknet und wird leichter, indem man das Wasser einfach verdunsten lässt. Damit sind sowohl die Bereitstellungs- als auch die Entsor-gungskosten i.d.R. geringer als bei der Ausgangslösung.

Alles in allem ist die „Wasser-Lösung“ innovativ, da die genannten Vorteile zu einer deutlichen Verbesserung der Idealität führen. Der Anteil unerwünschter Nebenfunktionen, z.B. Abnehmen der Büroklammer nach dem Flug, wird redu-ziert während die erwünschte Hauptfunktion, insb. Stabilisierung der Rotation durch Schwerpunktverlagerung, vollständig erhalten bleibt.

Ein Vergleichstest von zwei Rotoren48 mit unterschiedlicher Schaftbeschwerung ergab folgendes Ergebnis: (1) Der Rotor, dessen Schaft mit zwei Büroklammern beschwert ist, weist – bei insgesamt 12 Flügen – eine mittlere Flugzeit von 2,67 s auf; die Standardabweichung beträgt 0,130 s. (2) Wird derselbe Rotor in Wasser getränkt, dann beläuft sich die mittlere Flugzeit – bei gleichem Versuchsumfang – auf 2,90 s bei einer Standardabweichung von 0,53 s. Die durchschnittliche Streu-ung der Flugzeiten ist nach der F-Teststatistik für Varianzhomogenität deutlich größer als im Ausgangszustand (p = 0,000), was unmittelbar auf einen weiteren Forschungs- und Entwicklungsbedarf schließen lässt. Z.B. ist die Operationale Definition für den Prozess der Wasseraufnahme zu verbessern.

Die mittlere Flugzeit hat sich geringfügig verbessert, was für die grundsätzliche Tragfähigkeit des neuen Lösungsansatzes spricht. Der statistische Mittelwertver-gleichstest – basierend auf dem Zweistichproben-t-Test mit einseitig nach oben begrenztem Konfidenzintervall – weist ein gering signifikantes Ergebnis aus (p =

Diese Eigenschaft wird als „porös“ bezeichnet. Die Porösität des Papiers ist umso größer, je höher das Verhältnis von Poren- zu Gesamtvolumen ist. Dabei existieren standardisierte Verfahren, z.B. nach DIN 53120 bzw. ISO 2965, um die Porosität eines Stoffes zu bestimmen (vgl. Austropapier 2006).

48 Für den Vergleichstest wurde ein Papier-Rotor mit den folgenden geometrischen Maßen verwendet: a = 5,9 cm, c = 14,7 cm, e = 12,7 cm und f = 4,3 cm.

Page 309: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 287

0,087). Dies bedeutet, das die mittlere Flugzeit der Rotoren, deren Schaft in Was-ser getränkt ist, mit einer Irrtumswahrscheinlichkeit von kleiner 10% größer ist als bei den (gleichen) Rotoren, die mit Büroklammern ausgestattet sind. Um dieses Ergebnis mit einem höheren Signifikanzniveau abzusichern, sind weitere Ver-suchsreihen mit größerem Versuchsumfang notwendig. Im Projekt ging es primär darum, die Effektivität des neuen Lösungsansatzes nachzuweisen.

Design-Phase: Auslegen des Papier-Rotors für die „Serienproduktion“

Durch die Anwendung der widerspruchsorientierten Problemlösungstechnik TRIZ konnte eine innovative Lösung gefunden werden. Das Design des Papier-Rotors ist im Weiteren unter Verwendung der „Wasser-Lösung“ zu detaillieren. Außer-dem sind erste Überlegungen im Hinblick auf die Aufnahme der „Serienprodukti-on“ anzustellen. Dabei ist u.a. der Prozess der Flüssigkeitsaufnahme am Schaft genau zu beschreiben, um ein optimales Flugverhalten zu erzielen. Unter der Vor-aussetzung, dass bereits ein bestimmter Rotor-Typ zur weiteren Optimierung ausgewählt worden ist, kommt hier als Untersuchungsmethode die nicht-lineare Regressionsanalyse infrage. Bei dieser ist in inkrementellen Schritten die Höhe der Wasseraufnahme (= Einflussgröße) zu verändern und jeweils die Wirkung auf die Flugzeit des Rotors (= Zielgröße) zu überprüfen.

Im Ergebnis sollte die Gewichtserhöhung am Schaft genau quantifiziert werden können, um so eine maximale Flugzeit zu erreichen. Liegt noch keine Entschei-dung über die Verwendung eines bestimmten Rotor-Typs vor, ist die Durchfüh-rung eines weiterführenden DOE mit mehr als 4 Faktoren notwendig. Um das globale Optimum exakt zu bestimmen, ist nach Eingrenzen der einzelnen Faktor-ausprägungen auf nicht-lineare Optimierungsverfahren überzugehen (vgl. Ab-schnitt 4.2.2). Die Anwendung dieser Verfahren erfordert i.A. ein vertieftes Me-thoden-Know-how, welches im Rahmen von 2-Tages-Seminaren nicht bzw. nur ansatzweise vermittelbar ist. Aus diesem Grund wird an dieser Stelle auf eine detaillierte Auslegung und Evaluierung des Rotordesigns verzichtet.

Verify-Phase: Sicherstellen der Qualität der Input-/ Prozessvariablen

Da das Ziel des Projektseminars nicht darin besteht, Papier-Rotoren in Serie zu fertigen, ist die Verify-Phase ebenfalls rein hypothetischer Natur. Die Arbeits-schritte, die in der letzten Phase des DMAIDV-Zyklus durchzuführen sind, bezie-hen sich vor allem auf die Auslegung des Fertigungsprozesses. In praxi werden Verfahrensanweisungen für die Fertigung erstellt und zusammen mit den entwor-fenen Design Scorecards an den (zukünftigen) Prozesseigner übergeben (vgl. Abschnitt 3.3.2). Außerdem werden für die Überwachung und Steuerung der we-sentlichen Input-/ Prozess-Variablen Regelkarten entwickelt, welche die Grundla-ge für die Statistische Prozesskontrolle (SPC) in der Fertigung bilden. Durch diese Maßnahme können Abweichungen in der Fertigungsqualität der Papier-Rotoren frühzeitig erkannt und Abstellmaßnahmen eingeleitet werden.

Page 310: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

288 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Zwischenfazit: Der erweiterte DMADV-Zyklus integriert – entsprechend der For-derung von Hypothese H3 – systematisch-analytische und intuitiv-kreative Prozes-se und bringt sie in ein ausgewogenes Verhältnis. Dadurch werden die Effektivi-tätskriterien, die an F&E-Vorhaben gestellt werden, nämlich Generieren von Pro-zess-/ Produktinnovationen und Erreichen von Null-Fehler-Qualität, besser erfüllt als beim standardmäßig eingesetzten DMADV-Zyklus. Im Hinblick auf die Wirt-schaftlichkeit ist beim DMAIDV-Zyklus ein höherer Zeit- und Kostenaufwand – vor allem begründet durch den Einsatz von TRIZ – zu erwarten. Dieser ist dem zusätzlich generierbaren Nutzen aus Kunden- und Unternehmenssicht, z.B. höhere Deckungsbeiträge, gegenüberzustellen. Alles in allem deuten die Ergebnisse des hier durchgeführten Fallbeispiels darauf hin, dass der DMAIDV-Zyklus als erwei-terter Problemlösungszyklus im Rahmen von Design for Six Sigma effektiver, aber nicht effizienter als der ursprüngliche DMADV-Zyklus ist.

(c) Anwendung des IESRM-Zyklus zur Optimierung

In diesem Unterabschnitt wird das praktische Vorgehen zur Maximierung der Flugzeit des Papier-Rotors nach dem IESRM-Zyklus beschrieben (vgl. Abschnitt 5.2.1). Die empirischen Ergebnisse entstammen einem 2-Tages-Workshop, der am 13.07.-14.07.2006 gemeinsam mit Studenten der TU Dresden am Lehrstuhl für Marktorientierte Unternehmensführung durchgeführt worden ist. Im Vordergrund stand die Beantwortung der Frage, inwieweit der IESRM-Zyklus in der Produkt-entwicklung/ -optimierung praktisch anwendbar ist und somit eine echte Alterna-tive zum technisch orientierten DMA(I)DV-Zyklus darstellt.

Um eine Vergleichbarkeit der Ergebnisse zu gewährleisten, wurde der evolutionä-re Optimierungsansatz am o.g. Produktbeispiel nachvollzogen. Dabei wurde auf die Erfahrungen, die im Zusammenhang mit dem vorangegangenen DOE-Seminar gesammelt werden konnten, zurückgegriffen. Dies betrifft insb. das erlangte Vor-wissen über die Einrichtung eines funktionierenden Messsystems und die Begren-zung auf wesentliche Einflussfaktoren. Phasenablauf und Methodeneinsatz des IESRM-Zyklus werden im Folgenden produktbezogen beschrieben.

Initialisierung: Spezifizieren der Ausgangspopulation

Die Initialisierungs-Phase umfasst die drei Hauptschritte: (Ia) Festlegen des Lö-sungssuchraumes, (Ib) Generieren der Ausgangspopulation und (Ic) Codieren der Merkmalsausprägungen.

(Ia) Festlegen des Lösungssuchraumes: Im ersten Schritt der Initialisierungs-Pha-se ist die Anzahl der zu variierenden Merkmale n festzulegen. Sie stehen im Zent-rum des Lösungsfindungsprozesses. Ihre jeweiligen Ausprägungen determinieren – direkt oder indirekt – die maximale Flugzeit des Papier-Rotors. Im Weiteren sind pro Merkmal Mi die minimal und maximal zulässige Merkmalsausprägung anzugeben. Zusammen mit der Anzahl der einbezogenen Merkmale bestimmen sie die Größe des Lösungssuchraumes. Je mehr Merkmale variiert werden können und je größer der Definitionsbereich pro Merkmal ist, desto größer ist der Such-

Page 311: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 289

raum. Die Suchraumgröße (SOLUTION) ist insofern von Relevanz, da sie unmit-telbar mit dem Aufwand in Beziehung steht, der notwendig ist, um die optimale Lösung (in einer vorgegebenen Zeit) zu finden. Aus diesem Grund ist es in jedem Fall sinnvoll, gezielte Vorüberlegungen anzustellen und in die Auswahl der Merkmale und Bestimmung der Merkmalsgrenzen einfließen zu lassen.

Beim Papier-Rotor beruht die Festlegung des Lösungssuchraumes zum einen auf den dokumentierten Ergebnissen in einschlägigen Fachbüchern (z.B. Kleppmann 2006) und zum anderen auf den gesammelten Erfahrungen bei Six Sigma-Seminaren (z.B. DOE-Seminar). Wie in Abb. 5-21 nachvollziehbar ist, wurden insgesamt fünf Merkmale M1-M5 für die Optimierung des Rotors mittels IESRM-Zyklus ausgewählt. Neben der Variation der geometrischen Maße a, c, e und f erschien die Beschwerung des Papier-Rotors mit einer Büroklammer als (beson-ders) zielführend. Bei der Festlegung der minimalen und maximalen Merk-malsausprägung (Min in cm/ Max in cm) der Merkmale 1-4 wurde darauf geach-tet, dass die Vorgabe, beim Zuschnitt jeweils ein DIN-A4-Blatt vollständig auszu-nutzen, nicht verletzt wird. In Bezug auf M5 wurde von einer dichotomen Ausprä-gung des Merkmals ausgegangen (0 = „nicht vorhanden“/ 1 = „vorhanden“).

In der 5. Spalte der Tabelle in Abb. 5-21 ist die Auflösung A je Merkmal festege-legt. Sie gibt die Schrittweite an, mit welcher der definierte Merkmalsraum nach optimalen Einstellwerten abgesucht werden soll. Dabei gilt: Je größer die Auflö-sung ist, desto kleiner ist die Schrittweite. Aus mathematischer Sicht entspricht die Auflösung der Bit-String-Länge (BITS), welche für die Codierung der in dekadi-scher Form vorliegenden Merkmalswerte genutzt wird. Je größer die Bit-String-Länge ist, desto größer ist die maximale natürliche Zahl zmax, die in Binär-Form darstellbar ist. Über zmax erfolgt die Unterteilung des Definitionsbereichs je Merkmal. Bei metrisch-skalierten Merkmalen wird der Bereich in 2A-1 gleichgroße Intervalle unterteilt. Z.B. sind realisierbare Werte (gerundet) für M1 mit einer Auflösung von A = 3 [3,0; 3,6; 4,1; 4,7; 5,3; 5,9; 6,5; 7,0]. Bei ordinal-skalierten Merkmalen werden 2A Klassen gebildet, bei nominal-skalierten Merkmalen 2A unterschiedliche Merkmalsausprägungen. Bei zwei möglichen Ausprägungen [0; 1], wie es z.B. bei M5 der Fall ist, beträgt A = zmax = 1.

Abb. 5-21: Definierter Suchraum zum Auffinden des optimalen Papier-Rotors

(Ib) Generieren der Ausgangspopulation: Im zweiten Schritt der Initialisierungs-Phase ist die Größe der Population (POPSIZE) zu spezifizieren. Für die Maximie-

Merkmal Bezeichnung Min in cm Max in cm Auflösung zmaxM1 a - Flügelbreite 3,0 7,0 3 7M2 c - Flügellänge 6,0 14,0 4 15M3 e - Schaftlänge 5,0 15,0 4 15M4 f - Schaftbreite 1,0 5,0 3 7M5 K - Büroklammer 0 1 1 1

Page 312: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

290 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

rung der Flugzeit des Papier-Rotors wird eine Populationsgröße von 10 festgelegt. Letztere bleibt im Zuge der weiteren Optimierungsrunden unverändert, d.h. aus jeder Elterngeneration mit 10 Rotoren ergibt sich jeweils die gleiche Anzahl von Kindern (vgl. auch Abschnitt 4.3.3). In der Ausgangssituation werden gewöhnlich die Lösungskandidaten per Zufallsprinzip erzeugt. Dabei ist sicherzustellen, dass die Spezifikationen/ Merkmalsausprägungen innerhalb der oben festgelegten Merkmalsgrenzen liegen. Weiterhin ist darauf zu achten, dass entsprechend der gewählten Auflösung jeweils nur bestimmte Merkmalsausprägungen realisierbar sind; dies gilt insb. für metrisch-skalierte Merkmale (s.o.).

Die Spezifikationen der ersten 10 Rotoren, die per Zufallsprinzip erzeugt wurden, sind in Abb. 5-22 ersichtlich. Die Lösungssuche wird prinzipiell begünstigt, wenn die Variation der Rotoren in der Ausgangspopulation relativ groß ist und keine identischen Rotoren vorliegen. Dies ist in unserem Fall gegeben: Jeweils zwei Rotoren unterscheiden sich in mind. einem Merkmal, die Merkmalsausprägungen in der Population streuen insgesamt relativ stark.

(Ic) Codieren der Merkmalsausprägungen: Die zufällig erzeugten Merkmalsaus-prägungen je Rotor sind über einen geeigneten Bit-String zu codieren. Wie oben angesprochen, ergibt sich die Bit-String-Länge pro Merkmal entsprechend der gewählten Auflösung. Die binäre Darstellung der zufällig erzeugten Ausgangspo-pulation mit 10 Rotoren ist in Abb. 5-23 ersichtlich. Die Chromosomengröße (BITS) entspricht der Zeilenlänge. Der formale Zusammenhang zwischen dekadi-scher und binärer Darstellung wird für metrisch-skalierte Merkmale mit vorgege-benem Definitionsbereich durch Gleichung (4.18) beschrieben.

Abb. 5-22: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und dekadischer Darstel-lung der Merkmalsausprägungen

Ein alternatives Vorgehen zur Erzeugung der Ausgangspopulation besteht darin, zuerst den Bit-String je Papier-Rotor per Zufallsprinzip zu erzeugen und diesen anschließend mithilfe der invertierten Gleichung (4.18) in die dekadische Darstel-

Rotor-Nr. M1 M2 M3 M4 M51 3,6 9,7 8,3 5,0 02 5,3 13,5 5,7 5,0 13 7,0 13,5 12,3 1,6 04 7,0 8,1 12,3 5,0 15 4,7 10,8 8,3 2,7 06 4,1 6,0 8,3 3,9 07 4,1 12,9 7,7 2,7 08 3,0 11,3 13,0 4,4 19 3,0 9,2 12,3 3,3 110 6,4 10,3 14,3 4,4 0

Page 313: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 291

lung zu transformieren. Dies hat den Vorteil, dass die zulässigen Merkmalsaus-prägungen, die sich aus dem definierten Merkmalsraum und der gewählten Auflö-sung ergeben, im Vorfeld nicht explizit ermittelt werden müssen. Besonders ein-fach ist die Vorgehensweise bei Vorliegen von nominal bzw. ordinal skalierten Merkmalen. Jeder Ausprägung wird eine Zahl zwischen 0 und zmax zugeordnet und nach entsprechender Vorschrift codiert.

Abb. 5-23: Zufällig erzeugte Ausgangspopulation mit 10 Rotoren und binärer Darstellung der Merkmalsausprägungen

Während die Festlegung der Merkmale und damit des Lösungssuchraumes zu einem Großteil auf Vorwissen und bereits gemachten Erfahrungen mit dem Unter-suchungsobjekt basieren, ist die Ermittlung konkreter Merkmalsausprägungen zu Beginn des IESRM-Zyklus rein zufallsbedingt. Dadurch wird sichergestellt, dass die Maximierung der Flugzeit der Papier-Rotoren nicht von vornherein in eine bestimmte, ggf. suboptimale Richtung läuft (vgl. auch Abschnitt 4.3.3). Außerdem wird der in Gleichung (5.3) festgehaltene Grundsatz zur Maximierung der geomet-rischen mittleren Fitness der Population berücksichtigt.

Evaluation: Bewerten der Fitness

Zur Bewertung der Fitness der Population sind die drei Hauptschritte erforderlich: (Ea) Festlegen der Zielgröße, (Eb) Messen der individuellen Fitness und (Ec) Bestimmen der Fitness der Population.

(Ea) Festlegen der Zielgröße: Nachdem der Problemlösungszyklus initialisiert ist, werden die 10 Rotoren der Ausgangspopulation nach den in Abb. 5-22 vorgege-benen Spezifikationen gefertigt und anschließend Fliegen gelassen. Die Messung der Flugzeit der Papier-Rotoren erfolgt unter den gleichen Rahmenbedingungen, wie sie bei der Durchführung der vollfaktoriellen Versuche vorherrschten. Insbe-sondere kann davon ausgegangen werden, dass die Datenerhebung auf einem verlässlichem Messsystem beruht, welches die Anforderungen an die Gage R&R

Rotor-Nr. M51 0 0 1 0 1 1 1 0 1 0 1 1 1 1 02 1 0 0 1 1 1 0 0 0 0 1 1 1 1 13 1 1 1 1 1 1 0 1 0 1 1 0 0 1 04 1 1 1 0 1 0 0 1 0 1 1 1 1 1 15 0 1 1 1 0 0 1 0 1 0 1 0 1 1 06 0 1 0 0 0 0 0 0 1 0 1 1 0 1 07 0 1 0 1 1 0 1 0 1 0 0 0 1 1 08 0 0 0 1 0 1 0 1 1 0 0 1 1 0 19 0 0 0 0 1 1 0 1 0 1 1 1 0 0 1

10 1 1 0 1 0 0 0 1 1 1 0 1 1 0 0

M3 M4M1 M2

Page 314: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

292 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

im Rahmen von Six Sigma erfüllt. Zur Evaluation wird jeder Rotor genau 2-mal hintereinander Fliegen gelassen. Aus beiden Werten wird der arithmetische Mit-telwert berechnet. Durch dieses Vorgehen wird der Einfluss von zufälligen Um-welteinflüssen (Störgrößen) auf die Flugdauer reduziert.

Beim Testen der Rotoren wurde festgestellt, dass eine Reihe von Lösungskandida-ten eine relativ hohe Flugzeit besitzt, obwohl die betreffenden Objekte kaum oder gar nicht in der Luft rotieren. Stattdessen trudeln sie ganz oder teilweise zu Boden und verletzen damit die eingangs formulierte Nebenbedingung einer gleichmäßi-gen Rotation. Das vermehrte Auftreten von Rotoren, die nicht rotieren, ist die Folge der zufällig generierten Merkmalsausprägungen in der Ausgangspopulation. Durch die Realisierung von Extremwerten, z.B. sehr kurze Flügel (Min = 6,0 cm) und sehr langer Schaft (Max = 15 cm), sind z.T. sehr exotische Flugobjekte ent-standen, die nach physikalischen Gesetzmäßigkeiten auf keinen Fall rotieren. Für das weitere Vorgehen wurde deshalb entschieden, neben der reinen Flugzeit yi als „A-Note“ eine „B-Note“ für das Flugverhalten einzuführen. Dabei wurde ein 3-stufiges Bewertungsschema zugrunde gelegt:

• Grad „A“ = Der Rotor rotiert gleichmäßig über dem gesamten Sinkweg.

• Grad „B“ = Der Rotor rotiert gleichmäßig über mind. dem halben Sinkweg.

• Grad „C“ = Der Rotor rotiert gleichm. über weniger als dem halben Sinkweg.

Aus der A- und B-Note wird ein normierter Fitnesswert pro Rotor ermittelt, und zwar in der Weise, dass die gemessene Flugzeit mit einem Gewichtungsfaktor gi multipliziert wird, der sich an o.g. Einschätzung des Flugverhaltens orientiert:

CBAjimitygyfit iiji ,,10,...,1)( =∀=⋅= (5.7)

Bei Rotoren mit schlechtem Rotationsverhalten beträgt der Faktor gC = 1/3, bei mittlerem Verhalten gB = 2/3. Rotoren, die gut rotieren und mit dem Grad „A“ versehen sind, erhalten keinen Abschlag (Penalty) auf die Flugzeit; der Gewich-tungsfaktor beträgt in diesem Fall gA = 1. Es ist davon auszugehen, dass sich nach n Runden nur noch gute Rotoren in der Population befinden. Die Bedeutung der „B-Note“ als Evaluationskriterium nimmt dann entsprechend ab.

(Eb) Messen der individuellen Fitness: In Abb. 5-24 sind die Ergebniswerte der ersten 10 Rotoren im Überblick dargestellt. Wie ersichtlich ist, variiert die Flug-zeit im Mittel zwischen 2,08 s und 3,24 s. Die meisten Rotoren besitzen ein eher schlechtes Rotationsverhalten (7 von 10); ihnen ist der Grad „C“ zugeordnet. Zwei Rotoren bekommen den Grad „B“; der Rotor mit der Nr. 8 erhält als einzigster den Grad „A“. Er gilt als Benchmark für die weitere Optimierung, da er neben einem guten Rotationsverhalten auch die längste Flugzeit besitzt. Die Skizze des jeweils besten Rotors ist im rechten Teil der Abb. 5-24 zu sehen. Aufgrund der „B-Note“ variiert die nach Gleichung (5.7) ermittelte Fitness der Rotoren deutlich stärker als die reinen Flugzeiten. Gegenüber dem besten Rotor, dessen Fitness fit8 = 3,24

Page 315: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 293

beträgt, erreicht der schlechteste Rotor nur einen Fitnesswert von fit4 = 0,69; er wird mit hoher Wahrscheinlichkeit nicht in die nächste Runde kommen.

(Ec) Bestimmen der Fitness der Population: Ausgehend von den individuellen Fitnesswerten wird pro Optimierungsrunde die Fitness der Population bestimmt. Sie ist ein Indikator dafür, wie gut die gefundenen Lösungen das (globale) Opti-mum eingrenzen und welche Verbesserungspotenziale ggf. noch bestehen (vgl. Abschnitt 4.3.3). Im Fall des Papier-Rotors beträgt die Fitness der Population in der Ausgangssituation⎯fit1 = 1,03. Der Wert ergibt sich als geometrisches Mittel über alle Fitnesswerte in der Population (vgl. Abschnitt 5.2.1).

Abb. 5-24: Bewertungsschema zur Ermittlung der Fitness der Rotoren in der Ausgangspo-pulation

Selektion: Auslesen der besten Rotoren

Das Selektieren der Lösungen erfordert die zwei Hauptschritte: (Sa) Bestimmen der kumulierten relativen Fitnessfunktion und – auf dieser Basis – (Sb) Auswahl von Lösungskandidaten für die nächste Runde.

(Sa) Bestimmen der kumulierten relativen Fitnessfunktion: Die kumulierte relative Fitnessfunktion (CDF) bildet die Grundlage für die fitnessproportionale Selektion von Lösungen, auf die hier abgestellt wird. Sie ist im oberen Diagramm in zu sehen. Die Ermittlung der CDF erfolgt in zwei Schritten:

(1) Entsprechend dem Prinzip der Roulette-Wheel-Selection werden aus den absoluten Fitnesswerten relative Fitnesswerte bestimmt:

10,...,1)(

)()( 10

1

==

=

imityfit

yfityfit

ii

iirel (5.8)

Ges.-NoteZeit 1 Zeit 2 MW Rotat. Faktor (Fitness)

1 2,71 2,61 2,66 C 0,33 0,88 1,03 Geo-Mittel2 2,31 2,50 2,41 C 0,33 0,79 1,19 Arith-Mittel3 2,15 2,59 2,37 C 0,33 0,78 0,77 Standardabw.4 2,19 2,02 2,11 C 0,33 0,695 2,37 2,33 2,35 C 0,33 0,786 2,06 2,09 2,08 C 0,33 0,687 2,44 2,21 2,33 C 0,33 0,778 3,37 3,10 3,24 A 1,00 3,249 2,33 2,21 2,27 B 0,66 1,50

10 2,89 2,68 2,79 B 0,66 1,84

1

Kenndaten der Population

A-Note B-NoteRotor-Nr.Runde

Rotor Nr. 09

K

Page 316: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

294 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Nach Gleichung (5.8) beträgt die relative Fitness des besten Rotors in der 1. Runde fitrel(y8) = 0,27 und die des schlechtesten fitrel(y4) = 0,06. Je größer die berechnete relative Fitness eines Rotors ist, desto größer ist die Wahrschein-lichkeit, dass er in die Intermediärpopulation kommt.

(2) Die relativen Fitnesswerte werden anschließend kumuliert. Dabei wird für jeden Rotor ein kumulierter relativer Fitnesswert ermittelt:

10,...,1,...,1)()(1

=∀===

kkimityfityfitk

iireli

kumrel (5.9)

Die kumulierten relativen Fitnesswerte werden auf der Ordinate des CDF-Diagramms nach aufsteigender Reihenfolge der Rotor-Nr. abgetragen. Der Anstieg der Funktion ist umso steiler, je größer der nach Gleichung (5.8) be-rechnete relative Fitnesswert des Rotors ist bzw. je größer die Differenz der kumulierten relativen Fitness )()( 1−− i

kumreli

kumrel yfityfit ist.

Abb. 5-25: Fitnessproportionale Selektion der Rotoren mit Angabe der Häufigkeitsvertei-lung zur Bildung der Intermediärpopulation

0

1

2

3

4

1 2 3 4 5 6 7 8 9 10Rotor-Nr.

Abs.

Häu

figke

it de

r Ro

tore

n fü

r Sel

ektio

n

0,00

0,20

0,40

0,60

0,80

1,00

1 2 3 4 5 6 7 8 9 10Rotor-Nr.

Kum

. rel

. Fitn

ess

(CDF

)

Page 317: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 295

(Sb) Auswahl von Lösungskandidaten für die nächste Runde: Zur Auswahl der Lösungskandidaten für die nächste Runde werden 10 Zufallszahlen zk im Bereich [0; 1] bestimmt und der vorstehend berechneten kumulierten relativen Fitness-funktion gegenübergestellt. Die Auswahl erfolgt nach folgender Relation:

10,...,1,)()( 1 =≤<− kimityfitzyfit ikumrelki

kumrel (5.10)

Ein bestimmter Rotor kann – in Abhängigkeit von der Höhe seiner relativen Fit-ness – prinzipiell mehrmals ausgewählt werden. Die absoluten Häufigkeiten sind im unteren Diagramm in Abb. 5-25 in Form eines Histogramms abgebildet. Der Rotor mit der höchsten Fitness (Nr. 8) wird am häufigsten selektiert. Die Rotoren mit den Nr. 2, 5, 6 und 9 bleiben für die weitere Optimierung außen vor.

Die Elterngeneration für die zweite Runde wird aus den Rotoren mit den Nr. 1, 3, 4, 7, 8 und 10 gebildet. Einzelne Rotoren der Gruppe sind dabei – zufallsbedingt – gleich mehrmals vorhanden. Im Extremfall kann ein bestimmter Rotor in einer Runde maximal 10-mal ausgewählt werden. Dies ist möglich, wenn die Fitness des Rotors gegenüber anderen in der Population überproportional hoch ist. Eine sinnvolle Variation der Merkmalsausprägungen, die zur Weiterentwicklung der Population führt, kann hier nicht stattfinden. Ebenfalls ungünstig ist es, wenn alle Rotoren genau einmal ausgewählt werden. Die Effektivität des Selektions-Opera-tors ist dann zu hinterfragen, insb. wenn keine der vorhandenen Lösungen die gewünschte Performance erfüllt (vgl. auch Abschnitt 5.2.2).

Rekombination: Vermischen des genetischen Codes

Die Rekombinations-Phase enthält die zwei Hauptschritte: (Ra) Bestimmen von je 2 Lösungen als Eltern und (Rb) Rekombination von dessen Bit-Strings.

(Ra) Bestimmen von jeweils 2 Lösungskandidaten als Eltern: In der vorhergehen-den Phase wurden 10 Rotoren als Eltern selektiert. Aus ihnen werden im Folgen-den 10 Kinder generiert, die über teils gleiche, teils neue Merkmalsausprägungen verfügen. Dazu werden jeweils zwei Rotoren aus der Elterngeneration ausgewählt und – entsprechend dem Vorgehen in der Natur – „gekreuzt“. Da die Populations-größe im Laufe der Optimierung unverändert bleiben soll, gehen aus 2 Eltern genau 2 Kinder hervor. Die paarweise Bestimmung der Eltern erfolgte im Fall des Papier-Rotors nach der Reihenfolge ihrer Selektion; eine erneute Zufallsauswahl erschien hier, insb. aus Kosten-Nutzen-Überlegungen, nicht zielführend.

In Abb. 5-26 ist das Vorgehen zur Erzeugung der Kindergeneration beispielhaft aufgeführt. Die fünf Kreuzungspaare A–D sind dabei in alphabetischer Reihenfol-ge angeordnet. Aus den ersten 4 Paaren gehen jeweils 2 neue Kinder (a + b) her-vor, die sich von den Merkmalsausprägungen der beiden Elternteile (1 und 2) mit hoher Wahrscheinlichkeit unterscheiden. Beim Paar D ist dies nicht der Fall, da die beiden Elternteile identisch sind (jeweils Rotor Nr. 8). Die Kreuzung der Gene führt zu keiner Änderung des Phänotyps, so dass bei dieser Konstellation Klone

Page 318: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

296 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

entstehen. Der Rotor mit der Nr. 8, der nach Phase 2 die höchste Fitness besaß, wird also unverändert in die nächste Generation übernommen.49

Abb. 5-26: Vorgehen zur Erzeugung der Kindergeneration am Beispiel Papier-Rotor

(Rb) Rekombination des Bit-Strings von je 2 Elternteilen: Während die Evaluation und Selektion jeweils auf der Phänotypebene durchgeführt wird, findet der (ei-gentliche) Kreuzungsprozess auf der Genotypebene statt. Entsprechend dem 1-Point-Crossover-Verfahren wird pro Elternpaar ein Kreuzungspunkt (Crossover-Point) im Gen- bzw. Bit-String festgelegt. Er wird per Zufallsgenerator ermittelt und ist für das Beispiel Papier-Rotor in der rechten Spalte der Tabelle in Abb. 5-26 aufgeführt. Der Kreuzungspunkt des ersten Elternpaares liegt z.B. an der 7. Stelle des 15-stelligen Bit-Strings. Genau an dieser Stelle werden die Codes (Ge-nome) der zwei Rotoren vertauscht (siehe Abb. 5-27). Aus den Rotoren mit den Nr. 3 und 4 entstehen zwei Kinder mit neuem Genom. Die Rekombination führt zu einer Variation des Gen-Codes und folglich zu einer fitnesserhöhenden Variati-on der Merkmalsausprägungen der Rotoren (vgl. Abschnitt 4.3.3).

Abb. 5-27: 1-Point-Crossover-Verfahren am Beispiel Papier-Rotor

49 Ein alternatives Vorgehen, um den jeweils besten Rotor einer Generation als Bench-

mark zu erhalten, ist die Programmierung einer KEEP-Funktion (vgl. Abschnitt 4.3.3); diese wurde im vorliegenden Fall aber nicht realisiert.

Nr. Elternteil 1 Elternteil 2 Kinder CrossoverpointA 3 x 4 = a+b 7B 8 x 1 = a+b 14C 1 x 10 = a+b 6D 7 x 3 = a+b 6E 8 x 8 = Klone 10

Rekombinationsschema A

123456789

10

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Bit-Nr.

Rot

or-N

r.

Ki d A1 Ki d A2

Kind A1Kind A2

Page 319: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 297

Mutation: Verändern des Bit-Strings

Die Mutationsphase ist durch folgende zwei Hauptschritte gekennzeichnet: (Ma) Hervorrufen von zufälligen und (Mb) gezielten Änderungen im Bit-String.

(Ma) Hervorrufen von zufälligen Änderungen im Bit-String: Neben der Rekombi-nation dient die Mutation zur Durchmischung des Erbgutes. Hier wird standard-mäßig so vorgegangen, dass eine Mutationswahrscheinlichkeit (MUTPROB) festgelegt wird, mit der Änderungen im Bit-String der Kinder zufällig hervorgeru-fen werden. Für die Optimierung des Papier-Rotors wurde von einer konstanten Mutationswahrscheinlichkeit i.H.v. von 1,0% ausgegangen. Mit dieser Wahr-scheinlichkeit kommt es zu einer zufälligen Änderung im Bit-String eines Rotors in der Kindergeneration; das Vorgehen entspricht der Flip-Mutation.

In Abb. 5-28 sind die Codes der Kindergeneration, die aus der 1. Optimierungs-runde hervorgehen, dargestellt. Dabei ist an der 7. Stelle im Bit-String des Rotors mit der Nr. 5 (Kind E1) eine Flip-Mutation aufgetreten (Zelle schwarz gekenn-zeichnet). Auf der Phänotypebene äußert sich diese Veränderung direkt im Merk-mal 2 „Flügellänge“ des betreffenden Rotors: Die Flügellänge beträgt jetzt 11,9 cm anstelle der ursprünglich vorgesehenen 11,3 cm.

Abb. 5-28: Population nach 1. Optimierungsrunde (Kinder) mit binärer Darstellung der Merkmalsausprägungen und zufälliger Flip-Mutation

(Mb) Hervorrufen von gezielten Änderungen im Bit-String: Bei Vorhandensein von ausreichenden Erfahrungswerten bietet es sich an, die Mutation nicht zufällig, sondern gezielt vorzunehmen. In diesem Fall werden die Veränderungen am Ge-nom „per Hand“ gemacht. Unter Berücksichtigung der Decodier-Funktion werden 0 und 1 im Bit-String der Kinder so geändert, dass die aus Anwendersicht favo-risierten Merkmalsausprägungen realisiert werden bzw. Merkmale, die aus An-wendersicht unvorteilhaft erscheinen, gar nicht erst zum Vorschein kommen.

Bei der Optimierung des Rotors wurde auf diese Form der Mutationsgenerierung weitestgehend verzichtet, da Änderungen im Code, die auf den ersten Blick als günstig erschienen, sich in Wirklichkeit nicht bewahrheiteten. Exogen vorgenom-mene Flip-Mutationen führten i.d.R. zu einer Verschlechterung der Flugzeit/ des

Rotor-Nr. Kind-Nr. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 151 Kind A1 1 1 1 1 1 1 0 1 0 1 1 1 1 1 12 Kind B1 0 0 0 1 0 1 0 1 1 0 0 1 1 1 03 Kind C1 0 0 1 0 1 0 0 1 1 1 0 1 1 0 04 Kind D1 0 1 0 1 1 1 0 1 0 1 1 0 0 1 05 Kind E1 0 0 0 1 0 1 1 1 1 0 0 1 1 0 16 Kind A2 1 1 1 0 1 0 0 1 0 1 1 0 0 1 07 Kind B2 0 0 1 0 1 1 1 0 1 0 1 1 1 0 18 Kind C2 1 1 0 1 0 1 1 0 1 0 1 1 1 1 09 Kind D2 1 1 1 1 1 0 1 0 1 0 0 0 1 1 0

10 Kind E2 0 0 0 1 0 1 0 1 1 0 0 1 1 0 1

Page 320: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

298 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Flugverhaltens bei den betroffenen Rotoren. Hierin zeigt sich u.a. die Komplexität der am Anfang als „einfach zu lösenden“ eingestuften Problemstellung. Selbst mit einer Reihe von Versuchen und Vorerfahrungen sind die bestehenden Ursachen-Wirkungsbeziehungen beim Papier-Rotor nicht ganzheitlich überschaubar. Viele Verbesserungsvorschläge im Team, die aus (vermeintlich) rationalen Überlegun-gen hervorgingen, erwiesen sich als falsch.

Mutationen, die von Zeit zu Zeit auftreten, sind außerordentlich wichtig, da sie eine zu schnelle Konvergenz der Lösungen auf einem suboptimalen Niveau ver-hindern. Im Fall des Papier-Rotors kann es dazu kommen, dass sich – ohne Vor-handensein von Mutationen – bereits nach wenigen Runden ein Rotor-Typ durch-setzt, der im Hinblick auf die Maximierung der Zielgröße nicht optimal ist. Der Lösungsalgorithmus hat sich dann in einem lokalen Optimum „verheddert“, aus dem es ohne zufällige Änderungen im Gen-Code kein Entrinnen gibt.

Die Gefahr des Verhedderns war bei den Papier-Rotor-Versuchen konkret in Run-de 5 gegeben. Wie in Abbildung Abb. 5-29 dargestellt ist, erreichte die Fitness der Population zu diesem Zeitpunkt ein Plateau, das bei rund 2,50 s lag. Ein weiterer Anstieg der (durchschnittlichen) Flugzeit wäre ohne Mutation mit hoher Wahr-scheinlichkeit ausgeblieben. In Runde 6 trat bei Rotor mit der Nr. 9 (an der Bit-Stelle 13) eine (Flip-)Mutation auf, die dazu führte, dass die Fitness der Populati-on in den nächsten drei Runden um weitere 0,48 s anstieg.

Abb. 5-29: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden

Insgesamt wurden die Phasen Evaluation, Selektion, Rekombination und Mutation 10-mal nach dem beschriebenen Muster durchlaufen (MAXITER = 10). An der Schnittstelle von einer zur nächsten Runde war jeweils eine Decodierung des Bit-

0,0

0,5

1,0

1,5

2,0

2,5

3,0

3,5

1 2 3 4 5 6 7 8 9 10

Generation

Fitn

ess

(Geo

-Mitt

el)

Tatsächliche Fitness Geschätzte Fitness

95,0

05,005,095,1

95,1)(

)1(05,1

)1(05,1

++−

⋅=

−⋅

−⋅

ee

g

g

Pop gfit

Page 321: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 299

Strings der neu generierten Lösungen (Kinder) notwendig. Am Ende des Optimie-rungszyklus betrug die durchschnittliche Fitness der Rotoren 2,98 s. 9 von 10 Rotoren, die sich in der Endpopulation befanden, besaßen ein gutes Flugverhalten, d.h. sie rotierten gleichmäßig über den gesamten Sinkweg zu Boden (Grad „A“). Die Rotoren mit schlechtem Flugverhalten wurden nach und nach selektiert.

Unter dieser Voraussetzung ist der oben angegebene Fitnesswert⎯fit10 mit der durchschnittlichen Flugzeit⎯y10 der Rotoren nahezu identisch. Dadurch ist ein Vergleich mit den Ergebnissen, die sich nach der Anwendung von anderen ein-schlägigen Optimierungsverfahren ergeben, z.B. DOE, prinzipiell möglich. Auf konkrete Benchmarking-Resultate wird am Ende des Abschnittes näher eingegan-gen. Der beste Rotor in der Endpopulation wies eine mittlere Flugzeit von 3,55 s auf; die mittlere Flugzeit des schlechtesten Rotors betrug 2,74 s.

Bei der Entwicklung der Fitness über die Zeit zeigt sich der für Technologie-Lebenszyklen typische S-Kurvenverlauf. Nach einigen „Anlaufschwierigkeiten“ steigt die durchschnittliche Fitness der Population in den Runden 4 und 5 deutlich an (siehe Abb. 5-29). Eine eher inkrementelle Weiterentwicklung findet ab der Runde 6 statt. Das Design der Rotoren gleicht sich von Runde zu Runde immer mehr an. Entsprechendes gilt für den genetischen Code der Flugobjekte. Die an-gegebene Gleichung für die berechnete Fitness in Abb. 5-29 basiert auf einer gra-phischen Annäherung der beobachteten Fitnessentwicklung.50 Der Absolutterm der Gleichung i.H.v. 0,95 gibt den Sigma-Korrekturfaktor an; das vorhandene Verbesserungspotenzial wird auf Δ1,10 = 2,0 geschätzt.

In der Endpopulation liegen nur noch zwei Typen von Rotoren vor. Der eine Typ lässt sich mit „Grazil“ beschreiben, der andere mit „Robust“ (siehe Abb. 5-30). Beide besitzen die gleiche Flügel- und Schaftlänge. Außerdem tragen alle Rotoren eine Büroklammer zur Beschwerung. Unterschiede bestehen „nur“ hinsichtlich der Breitenmaße, die zu den in skizzierten charakteristischen Proportionen führen. Die Veränderungen, die sich im Laufe des Verbesserungszyklus einstellen, sind nicht nur auf der Phänotypebene, sondern auch auf Genotypebene signifikant. So be-trägt der mittlere Grad der Übereinstimmung des Genoms zwischen der ersten und letzten Generation 63%: Dieser Wert ergibt sich aus dem Bit-Stellen-weisen Ver-gleich der Häufigkeit von „0“ und „1“ in jeder Population.

Trotz z.T. identischer Designs in den letzten Runden, ist es empfehlenswert, alle Rotoren einer Population zu bauen und Fliegen zu lassen. Dieses Vorgehen bietet zum einen die Möglichkeit, die Robustheit des Designs gegenüber möglichen Störgrößen in der Umwelt, z.B. Luftzug, zu objektivieren. Gleichzeitig wird da-durch das ggf. bereits lokalisierte globale Optimum statistisch besser abgesichert. Durch eine größere Anzahl von Versuchsdaten, die dann in die Berechnung der

50 Die mittlere quadratische Abweichung (MSE – Mean Square Error) über alle Werte-

paare ist ein wesentliches Kriterium zur Beurteilung der Güte einer Schätzfunktion (vgl. Voß et al. 2004, S. 400f.). Sie beträgt im vorliegenden Fall MSE1 = 0,01.

Page 322: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

300 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

mittleren Flugzeit einfließt, kann die Länge des Konfidenzintervalls für die Lage des Mittelwertes verringert werden. Gute und schlechte Rotoren können infolge-dessen mit einer größeren statistischen Sicherheit voneinander getrennt werden.

Zum anderen hat der Bau aller Rotoren, die der Spezifikation nach identisch sind, den Vorteil, dass u.U. weitere Einflussgrößen/ Merkmale, die bisher nicht im Betrachtungsfeld der Projektgruppe lagen, (zufällig) entdeckt werden. Diese kön-nen dann im Folgenden – durch eine Erweiterung des genetischen Codes – syste-matisch erfasst und in ihren Auswirkungen untersucht werden.51

Abb. 5-30: Wesentliche Designtypen in der Endpopulation der Rotor-Optimierung

Eine Erweiterung des Bit-Strings erscheint ebenfalls angebracht, wenn die Opti-mierung an so genannte Designgrenzen stößt. Dies ist der Fall, wenn die Ausprä-gung eines bestimmten Merkmals bei vielen, wenn nicht allen Lösungskandidaten in der Population grenzwertig ist und aufgrund des vorgegebenen Minimums bzw. Maximums nicht weiter variiert werden kann. Es ist dann zu prüfen, inwieweit die vorgegebene Beschränkung des Suchraums nach oben oder unten „gelockert“ und die minimale bzw. maximale Merkmalsausprägung weiter nach außen verschoben

51 Möglicherweise besitzt ein Rotor, der nicht ganz nach Spezifikation gefertigt worden ist

und z.B. eine kleine Rundung am Flügelende hat, ein besseres Rotationsverhalten als die bisherigen, „fehlerfrei“ zugeschnittenen Rotoren gleicher Bauart (Klone). Um die-sen Einfluss zu quantifizieren, ist die „Rundung“ als neues Merkmal im Bit-String auf-zunehmen und im Weiteren nach o.g. Vorgaben zu variieren.

Rotor-Typ 1: „Grazil (S)“ Rotor-Typ 2: „Robust (XXL)“

Rotor Nr. 92

K

Rotor Nr. 92

K

Rotor Nr. 97

K

Rotor Nr. 97

K

Page 323: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 301

werden kann. Für eine Erweiterung kommen vor allem Merkmale infrage, deren Definitionsbereiche in der Initialisierungs-Phase aufgrund unzureichender Erfah-rungen zu klein gewählt worden sind. 52 Der zuletzt geschilderte Fall findet sich im Beispiel Papier-Rotor beim Merkmal „Büroklammer“ wider. Die Obergrenze wurde hier – mehr oder weniger willkürlich – auf 1 festgelegt. Diese wird von allen Rotoren in der Endpopulation erreicht, so dass in diesem Merkmal am Ende der 10. Optimierungsrunde keine Variation mehr vorliegt.

Da es dem Kunden letztendlich egal ist, wie viele Klammern am Rotor zur Be-schwerung angebracht sind, steht einer Erhöhung der Maximalzahl von Büro-klammern nichts im Weg. Unter diesen veränderten Rahmenbedingungen wurde ein 2. Verbesserungszyklus gestartet. Die konkrete Zielsetzung bestand darin, die mittlere Flugzeit des als „robust“ gekennzeichneten Rotors vom Typ 2 weiter zu erhöhen. Gegenüber dem Rotor vom Typ 1 wird bei ihm das größere Optimie-rungspotenzial vermutet. Analog zum Vorgehen im 1. Verbesserungszyklus waren zunächst die untere und obere Grenze je Merkmal festzulegen (siehe Abb. 5-31). Aufgrund der im 1. Verbesserungszyklus gewonnenen Erkenntnisse konnte der Definitionsbereich bei den Merkmalen M1 bis M4 jeweils verkleinert werden. Bei unveränderter Auflösung bietet dies die Möglichkeit, das (globale) Optimum ge-nauer zu detektieren. Im Hinblick auf Merkmal M5 wurde der Suchraum erwei-tert; es dürfen jetzt bis zu max. 3 Büroklammern am Rotor befestigt werden.

Abb. 5-31: Definierter Suchraum zum Auffinden des optimalen „robusten“ Papier-Rotors (2. Verbesserungszyklus)

Durch den größeren Definitionsbereich bei M5 erhöht sich die Länge des Bit-Strings gegenüber dem 1. Verbesserungszyklus um eine Stelle; er umfasst jetzt insgesamt 16 Stellen. Die per Zufallsprinzip erzeugte Ausgangspopulation des 2. Zyklus im Umfang von 10 Rotoren verfügt über eine durchschnittliche Fitness von 1,82. Sie liegt damit deutlich unterhalb der Fitness, die im letzten Durchgang des 1. Verbesserungszyklus ermittelt wurde. Die Variation der Merkmalsausprägun-gen ist in Bezug auf die Anzahl von Büroklammern (M5) am Anfang relativ groß. Der beste Rotor besitzt eine mittlere Flugzeit von 3,86 s und ist mit 1 Büroklam-mer beschwert. Die mittlere Flugzeit der schlechtesten Rotoren liegt bei knapp

52 Bei einer Reihe von Merkmalen geht dies üblicherweise nicht, da sie mit feststehenden

Kundenanforderungen oder technisch-physikalischen Gegebenheiten direkt in Verbin-dung stehen. Hier ist allenfalls eine Verkleinerung des Suchraumes möglich.

Merkmal Bezeichnung Min in cm Max in cm Auflösung zmaxM1 a - Flügelbreite 5,0 8,0 3 7M2 c - Flügellänge 10,0 15,0 4 15M3 e - Schaftlänge 9,0 14,0 4 15M4 f - Schaftbreite 3,0 6,0 3 7M5 K - Büroklammer 0 3 2 3

Page 324: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

302 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

über 2,0 s. Aufgrund der unzureichenden Dreheigenschaften (meistens Grad „C“) beträgt die Gesamtfitness der Flugobjekte aber z.T. weniger als 1,0.

Das weitere Vorgehen zur Verbesserung der durchschnittlichen Fitness der Popu-lation gestaltet sich analog zum 1. Verbesserungszyklus. Insgesamt werden die Phasen Evaluierung, Selektion, Rekombination und Mutation 10-mal durchlaufen. Ziel ist es, unter den veränderten Rahmenbedingungen Papier-Rotoren mit noch besserem Flugverhalten „zu züchten“. Dabei steht die Maximierung der geometri-schen mittleren Fitness der Population im Vordergrund.

Abb. 5-32: Entwicklung der Fitness der Rotoren-Population innerhalb von 10 Runden (2. Verbesserungszyklus)

Die Entwicklung der Fitness der Population über die 10 Optimierungsrunden ist in Abb. 5-32 nachvollziehbar.53 Die Fitness steigt S-förmig bis zu einem Wert von 3,52 an. Ab der 5. Runde befinden sich nur noch Rotoren mit gutem Rotationsver-halten (Grad „A“) in der Population. In der Endpopulation des 2. Zyklus sind die Unterschiede zwischen den einzelnen Rotoren – sowohl auf Geno- als auch auf Phänotypebene – marginal. Alle Rotoren sind am Ende mit 2 Büroklammern aus-gestattet. Die mittleren Flugzeiten schwanken zwischen 3,19 s und 3,87 s. Damit liegt die mittlere Flugzeit des besten Rotors nur unwesentlich höher als in der Ausgangspopulation. Aufgrund der Beschwerung mit 2 Büroklammern sind die gemessenen Flugzeiten der Rotoren jedoch insgesamt stabiler.54

53 Für die Schätzung der Fitnessentwicklung in Abb. 5-32 wurde von einem Fitnessniveau

von⎯fit10 = 3,4 ausgegangen. Der MSE der Schätzfunktion beträgt MSE2 = 0,008. 54 So beträgt bspw. die durchschnittliche Streuung (Standardabweichung) der Flugzeiten

des besten Rotors in der Endpopulation 0,04 s, gegenüber 0,21 s des besten Rotors in

0,0

0,5

1,0

1,5

2,0

2,5

3,0

3,5

1 2 3 4 5 6 7 8 9 10

Generation

Fitn

ess

(Geo

-Mitt

el)

Tatsächliche Fitness Geschätzte Fitness

72,1

18,018,068,1

68,1)(

)1(91,0

)1(91,0

++−

⋅=

−⋅

−⋅

ee

g

g

Pop gfit

Page 325: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 303

Im Hinblick auf die Effektivität des IESRM-Zyklus lässt sich konstatieren, dass die Rotoren, die sich in der Endpopulation des 2. Zyklus befanden, in punkto Flugzeit den Rotoren, die nach Anwendung des DMADV- bzw. DMAIDV-Zyklus als Optimum hervorgingen, in nichts nachstehen. Beim direkten Vergleich der besten Rotoren aus den drei Verbesserungsansätzen stellte sich der Rotor, der nach dem evolutorischen Ansatz optimiert wurde, sogar als „Sieger“ heraus.

Hält man die Entwicklungspfade (Trajektorien) der Fitness der beiden Populatio-nen aneinander, dann wird deutlich, dass zwischen 1. und 2. Verbesserungszyklus ein S-Kurvensprung besteht. Beim Übergang vom 15- auf den 16-stelligen Bit-String fällt die durchschnittliche Fitness schlagartig ab. Erst nach fünf Optimie-rungsrunden wird das Endniveau des 1. Zyklus wieder erreicht. Nach weiteren fünf Runden beträgt der Unterschied der durchschnittlichen Flugzeiten zwischen den Papier-Rotoren des 1. und 2. Zyklus Δ1,2 = 0,89 s (p = 0,000).

Dieses Szenario stimmt mit der Entwicklung der Leistungsfähigkeit/ Performance einer neuen Technologie, wie sie in Abschnitt 3.1.2 beschrieben worden ist, prin-zipiell überein. Ausgangspunkt eines Technologiewechsels ist das Auftreten einer Basisinnovation, die in unserem Fall durch die Veränderung des Suchraums und infolgedessen der Erweiterung des Bit-Strings hervorgerufen wird. Letztere führt zu einem sog. Evolutionssprung, der sich auf der Phänotypebene in neuen Merk-malen sowie Merkmalsausprägungen manifestiert.

Während Basisinnovationen aus evolutorischer Sicht mit strukturellen Änderun-gen des Genoms (Chromosomen-Länge) einhergehen, sind Verbesserungsinnova-tionen das Resultat von Ausprägungsänderungen im bestehenden Gen-Code (Alle-le-Wert). Sie werden durch bewusste und/ oder unbewusste, d.h. zufällige, Ände-rungen im Bit-String einzelner Lösungskandidaten hervorgerufen. Basisinnovatio-nen beziehen sich hingegen jeweils auf die gesamte Population. Durch sie erfolgt eine diskontinuierliche (Weiter-)Entwicklung von Produkt- und Prozessdesigns. Das Verbesserungspotenzial, welches über die Änderungen im Genom aktiviert werden kann, ist im Vorfeld nur schwer zu quantifizieren. Sofern die Parameter λ,

0fit und fit* bekannt sind, ist eine Schätzung auf Basis der Gleichung (5.5) mög-lich. Diese leitet sich aus dem Fisher-Theorem her, welches folgende allgemeine Aussagen zum Auftreten von Verbesserungs-/ Basisinnovationen erlaubt:

• Verbesserungsinnovationen sind umso wahrscheinlicher, je größer die relati-ven Unterschiede zwischen den gemessenen Fitnesswerten in einer Populati-on sind. Dies ist i.A. zu Beginn des Verbesserungszyklus der Fall. Im Beispiel Papier-Rotor sind die Standardabweichungen der Fitnesswerte der Population in beiden Zyklen mit σ1,1 = 0,81 s und σ2,1 = 0,95 s zu Beginn relativ hoch.

der Ausgangspopulation. Die Standardabweichung der Fitnesswerte in der Population geht von 0,95 s auf 0,21 s zurück.

Page 326: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

304 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

• Basisinnovationen treten auf bzw. sind als solches zu generieren, wenn sich die Fitnesswerte der Lösungen kaum oder gar nicht unterscheiden. Dies ist üblicherweise am Ende des Verbesserungszyklus der Fall. Im Beispiel Papier-Rotor ist in beiden Zyklen ein deutlicher Abfall der Streuung der Fitnesswerte zu beobachten; sie beträgt am Ende σ1,10 = 0,47 s bzw. σ2,10 = 0,21 s.

Zwischenfazit: Auf der Basis des hier durchgeführten Fallbeispiels werden zum einen empirische Evidenzen für den Wahrheitsgehalt von Hypothese H7 gegeben (vgl. Abschnitt 1.2.3). Mit dieser werden die positiven (ökonomischen) Wirkun-gen von alternativen, am Vorbild von Evolutionären Algorithmen (EA) respektive Genetischen Algorithmen (GA) orientierten Problemlösungszyklen postuliert. Zum anderen zeigen sich die konzeptionellen Vorteile, die mit der Anwendung eines nach vorstehend genannten Prinzipien konzipierten Problemlösungszyklus einhergehen. Wie in Hypothese H8 gefordert, zeichnen sich fortschrittliche Prob-lemlösungszyklen in F&E dadurch aus, dass sie – hinsichtlich der Zielgröße – endogen die aus dem Technologiemanagement bekannte S-Kurve nachzeichnen, inkl. der zufälligen, systemimmanenten Innovationssprünge.

Wie die konkrete Anwendung zeigt, lässt sich mithilfe des IESRM-Zyklus die S-Kurve erzeugen und in ihrem Verlauf gut simulieren. Sie bildet eine wichtige Entscheidungsgrundlage/ -hilfe, um die Leistungsfähigkeit, sprich Fitness, eines neuen Produktes/ Prozesses in relativ kurzer Zeit zu maximieren. Bei „richtiger Wahl“ des Suchraums läuft die kontinuierliche Weiterentwicklung einer Populati-on von Lösungskandidaten in Richtung maximale Fitness quasi von selbst ab. Inno-vative Designs lassen sich vor allem durch die sukzessive Erweiterung des Suchraums bzgl. einzelner Merkmale/ Merkmalsausprägungen generieren. Dazu ist der IESRM-Zyklus entsprechend oft zu durchlaufen. Durch Änderung der Rahmenbedingungen in der Initialisierungs-Phase wird mit jedem Zyklus jeweils eine neue S-Kurve – auf unterschiedlich hohem Niveau – in Gang gesetzt.

Die Ergebnisse des Fallbeispiels zeigen im Weiteren, dass der IESRM-Zyklus als evolutionärer Problemlösungszyklus sowohl Effektivitäts- als auch Effizienzvor-teile gegenüber dem konventionellen DMADV-Zyklus besitzt. So wird – aus mo-delltheoretischer Sicht – jeweils das globale Optimum bei einem gegebenen Such-raum mit hoher Wahrscheinlichkeit detektiert. Sofern der Kunde aktiv in der Eva-luations-Phase beteiligt ist, werden mit dem IESRM-Zyklus die artikulierten Pro-dukt- und/ oder Prozessprobleme zu seiner vollsten Zufriedenheit gelöst. Der Zielerreichungsgrad in Form der Übereinstimmung (Fit) zwischen Produkt-/ Pro-zessmerkmalen und kundenspezifischen Anforderungen ist im Endergebnis ma-ximal. Gleichzeitig wird der wirtschaftliche Einsatz (Effizienz) des Problemlö-sungszyklus durch folgende Punkte positiv beeinflusst:

• Keine (Vor-)Kenntnisse über Ursachen-Wirkungsbeziehungen notwendig

• Relativ geringer Schulungsaufwand, da einfach anwendbare Methoden

• Niedrige Anforderungen an die Software-Unterstützung (Excel-Lösung!).

Page 327: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 305

5.3.2 Optimierung der Kehreigenschaften eines Straßenbesens (Fallstudie)

In diesem Abschnitt werden die Durchführung und Ergebnisse eines F&E-Projek-tes skizziert, welches in einem mittelständischen Unternehmen der Bürstenindust-rie auf der Basis des IESRM-Zyklus durchgeführt worden ist. Den Schwerpunkt der Ausführungen bildet die Optimierung der Kehreigenschaften von Straßenbe-sen. Obwohl sie eine wesentliche Erklärungsgröße des Gebrauchsnutzens aus Kundensicht darstellen, wurden sie bislang keiner systematischen Analyse sowie Optimierung unterzogen. Aus diesem Grund ist im Projektablauf ein Screening-Design zur Überprüfung der in praxi vermuteten Ursachen-Wirkungsbeziehungen vorgesehen. Außerdem werden erste Schritte mit TRIZ unternommen, um neue, innovative Lösungsansätze im Bereich des Besendesigns aufzuzeigen.

Insgesamt handelt es sich bei Besen um relativ einfache Produkte, die sich aus wenigen Komponenten zusammensetzen. Der generelle Produktaufbau sowie der Herstellungsprozess sind hinlänglich bekannt und leicht kopierbar. Aufgrund dieser Tatsache sind die Unternehmen in der Branche ständig bemüht, ihre Pro-dukte zu verbessern und gegenüber denen von Wettbewerbern abzugrenzen – Nicht nur Qualität, sondern auch Innovationen sind also gefragt.

Unternehmensporträt

Das Projekt wurde bei der Firma „Michael Jäckel Erzgebirgische Bürstenfabrik (EBF) GmbH“ durchgeführt, welche 1992 in Schönheide als Tochterunternehmen der Firma Walter Bretschneider gegründet worden ist. Mit anfänglich 7 Mitarbei-tern, die an zwei Stanzautomaten arbeiteten, sind jetzt am neuen Produktions-standort in Stützengrün über 100 Arbeitskräfte an CNC-Automaten beschäftigt. Täglich werden über 70.000 Handfeger, Stubenbesen, Saal- und Straßenbesen, WC- und Spülbürsten sowie Maler- und Deckenbürsten produziert.55

Der Industriezweig steht insgesamt unter einem starken Wettbewerbsdruck, so dass die Gewinnmargen bei den einzelnen Produkten relativ gering sind. Um die wirtschaftliche Situation in Zukunft zu verbessern, geht die Zielsetzung dahin, sich durch Produktinnovationen/ -optimierungen vom Wettbewerb zu differenzie-ren. Zu diesem Zweck soll ein systematischer Entwicklungsprozess implementiert werden. Dieser setzt im ersten Schritt in der Besenproduktion an, da hier aus Sicht des Managements der dringendste Handlungsbedarf besteht.

Initialisierungs-Phase

Die Initialisierungs-Phase ist aufgrund der geringen Voraussetzungen im F&E-Bereich relativ umfangreich. Sie umfasst die folgenden sechs Prozessschritte: (a) Definition der Projektcharter, (b) Ableiten der CTQs, (c) Einrichten des Messsys-

55 Weiterhin gehören zum Firmenverbund seit dem 01.01.1999 die neu gegründete Firma

J&S Kunststofftechnik GmbH. Hier werden alle benötigten Kunststoffteile für die Farb-roller- und Bürstenproduktion gespritzt (vgl. www.jaeckel-buersten.de).

Page 328: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

306 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

tems, (d) Ermitteln der Einflussgrößen, (f) Festlegen der Ausgangspopulation mit integriertem DOE und (g) Codieren der Lösungen.

(a) Definition der Projektcharter

Die Projektcharter wurde im Rahmen eines 0,5-tägigen Workshops am 22.08.2006 gemeinsam mit der Geschäftsleitung der Michael Jäckel EBF erarbeitet (siehe Abb. 5-33). Sie wurde in dieser Form vom Champion und zuständigen Black Belt unterzeichnet (vgl. hierzu und im Folgenden Günther/ Jäckel 2007).

Abb. 5-33: Projektcharter für die Optimierung von Straßenbesen

Für die Durchführung des Projektes wurden insgesamt 5 Monate geplant; Start-termin war der 01.09.2006. Als Champion des Projektes fungierte der Geschäfts-führer des Unternehmens, Michael Jäckel. Die Projektleitung und -koordination im Unternehmen wurde vom Vertriebsmanager, Alexander Jäckel, übernommen. Für die inhaltlich-methodische Umsetzung zeichnete der externe Black Belt, Swen Günther, Verantwortung. Zu seinen Aufgaben gehörte u.a. die statistische Aus-wertung und Zusammenstellung der Messergebnisse. Die Durchführung der Mes-sungen und Erstellung der Prototypen (Lösungskandidaten) erfolgte mit aktiver Unterstützung von Mitarbeitern der Produktion.

Jede Projektphase wurde im Rahmen eines mind. 1-tägigen Workshop im Team vorbereitet. In gleicher Weise erfolgte nach jeder Verbesserungsrunde eine aus-führliche Ergebnispräsentation und -diskussion. Der Champion wurde über den Fortgang des Projektes regelmäßig informiert. Das planmäßige Ende des Projektes bis zum 31.01.2007 konnte eingehalten werden.

Projekt: „Optimierung der Kehreigenschaften eines Straßenbesens “1. Problembeschreibung

2. Ziele

3. Nutzen

6. Projektumfang/ -rahmenIN: Besen zur Nutzung im Außenbereich OUT: Besen für Innenbereich, Saalbesen 7. Verantwortungen

5. Net Benefit

Das (Re-)Design von Straßenbesen basiert in erster Linie auf Erfah-rungswerten. Ein systematischer F&E-Prozess existiert in diesem Um-feld nicht. Weiterentwicklungen sind vor allem inkrementeller Natur und folgen einem Trial-and-Error-Prozess. Der Einkäufer im Großhandel ent-scheidet nach Bemusterung über die Aufnahme einer neuen Serie. Der Nutzen aus (End-)Kundensicht fließt in die Bewertung implizit ein.Die Qualitätsmerkmale von Straßenbesen werden in erster Linie pro-duktorientiert bestimmt, d.h. die Qualität richtet sich nach dem Erfül-lungsgrad von technischen Spezifikationen. Ein aus (End-)Kundensicht kritisches Qualitätsmerkmal (CTQ) ist die Kehreigenschaft des Besens. Sie wird bis dato nicht systematisch erfasst und bewertet. Die Einlei-tung eines darauf bez. Verbesserungsprozesses ist wünschenswert.

• Hauptziel: Entwicklung eines Straßenbesens mit optimalen Kehreigen-schaften ausgehend vom vorhandenen Portfolio und unter Berücksich-tigung der spezifischen Designanforderungen/ -wünsche des Kunden

• Unterziel: Entwicklung eines allgemeinen Messverfahrens zur Bestim-mung der Kehreigenschaften von Straßenbesen, um in Zukunft ange-nommene Designverbesserungen eindeutig validieren zu können

• Mehr Objektivität bei der Beurteilung der Qualität von Straßenbesen • Generierung eines UCVP: „Besen mit geprüften Kehreigenschaften“• Prinzipiell höherer Kundennutzen durch bessere Kehreigenschaften • Ansatzpunkte für den Aufbau eines Value Marketings im Handel• Steigender Unternehmensgewinn durch höhere Absatzzahlen

Champion: Michael Jäckel (Geschäftsführer, Erzgebir-gische Bürstenfabrik GmbH)Projektleitung: Alexander Jäckel (Export Managing Di-rector), Swen Günther (Black Belt, TU Dresden)

Prognostizierter zusätzlicher Gewinn: 10.000 €- aufgrund Umsatzsteigerung: 200.000 €- aufgrund Kosteneinsparung: 0 €Abzgl. prognostizierte Projektkosten: 5.000 €

Prognostizierte Netto-Einsparungen: 5.000 €

4. Marktanalyse & Benchmarking

8. ZeitvorgabenSTART: 01.09.2006 ENDE: 31.01.2007

9. Unterschriften Champion: Black Belt:

In den letzten Jahren ist der Markt für Straßenbesen ins-gesamt (stark) gewachsen. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an; in Deut-schland stagnieren die Absatzzahlen auf relativ hohem Niveau. Das Gesamtvolumen des Marktes beträgt ca. XX Mio. €. Die Michael Jäckel EBF GmbH konnte in der Ver-gangenheit deutlich Marktanteile gewinnen und zählt heu-te zu den 3 führenden Produzenten.

Page 329: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 307

Die Projektcharter umfasst insgesamt neun Punkte. Im linken Teil sind die Prob-lembeschreibung sowie die Ziele und der Nutzen des Projektes aufgeführt. Prob-lemschwerpunkt bildet zum einen die Tatsache, dass sich die Qualität von (Stra-ßen-)Besen weniger nach Kundenbewertungen bemisst, sondern vielmehr von der Einhaltung technischer Spezifikationen abhängig ist. Zum anderen liegt bis dato kein geeignetes Messinstrumentarium vor, um die Kehreigenschaften von Stra-ßenbesen – als wesentliches Qualitätsmerkmal aus Kundensicht (CTQ) – objektiv zu bestimmen. Folglich existiert auch kein systematischer F&E-Prozess, der sich auf die Messung und Verbesserung des Qualitätsmerkmals bezieht.

Das vordergründige Ziel des Projektes besteht darin, einen Straßenbesen mit op-timalen Kehreigenschaften ausgehend vom vorhandenen Portfolio und unter Be-rücksichtigung der spezifischen Designanforderungen/ -wünsche des (End-) Kun-den zu entwickeln. In diesem Zusammenhang ist zunächst der Aufbau eines zuver-lässigen Messsystems erforderlich, um die unterschiedlichen Qualitäten der Schmutzbeseitigung von Besen zu quantifizieren. Gegenstand der Verbesserung sind Besen, die vor allem zur Schmutzbeseitigung im Außenbereich zum Einsatz kommen, kurz: „Straßenbesen“ genannt. Besen, die zur Reinigung innerhalb von Gebäuden eingesetzt werden, kurz: „Saalbesen“ genannt, dienen lediglich als Benchmarking für die Messung und Beurteilung der Kehreigenschaften.56

Der Nutzen, der aus dem Projekt generiert wird, ist sowohl finanzieller als auch nicht-finanzieller Art. Zu berücksichtigende Aspekte hierbei sind:

• Einerseits ist die objektivierte Beurteilung der Kehreigenschaften von Stra-ßenbesen Grundlage für ein erfolgreiches, kommunikatives Marketing. Für den Endkunden bedeutet ein „Besen mit geprüften Kehreigenschaften“ mehr Sicherheit beim Kauf. Aus Unternehmenssicht ergibt sich daraus unmittelbar ein zusätzliches Verkaufsargument gegenüber dem (Groß-)Handel in Form einer Unique Selling Proposition (USP).

• Andererseits wird durch die nachweisbare Verbesserung der Kehreigenschaf-ten ein höherer Kundennutzen erzeugt in Form einer Unique Customer Value Proposition (UCVP). Aus dieser resultiert für das Herstellerunternehmen mit-telbar ein höherer Absatz und ein steigender Gewinn. Dies schlägt sich u.a. in

56 In der Branche existiert bis dato kein einheitliches Vorgehen zur Einteilung von Besen

in verschiedene Produktsegmente. Geläufig ist eine Dreiteilung in Straßen-, Saal- und Stubenbesen. Diese orientiert sich primär an den Produkteigenschaften des Besens. Der bevorzugte Anwendungsbereich aus der Sicht des Kunden spielt hier eine untergeord-nete Rolle. Der Unterschied zwischen Straßenbesen auf der einen Seite und Saal-/ Stu-benbesen auf der anderen wird in erster Linie an der Form und Breite des Holzkörpers festgemacht. Sie beträgt bei Straßenbesen 6,5 cm, bei Saal- und Stubenbesen liegt sie standardmäßig bei 5,5 cm. Die in der Optimierung verwendeten Besen besitzen die kür-zere Breite. Sie gehören damit – nach branchenüblicher Klassifikation – zur Gruppe der Saalbesen, obwohl ihr Anwendungsfeld eindeutig im Außenbereich liegt.

Page 330: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

308 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

der Höhe des Net Benefit nieder. Nach einer konservativen Schätzung betra-gen die Netto-Einsparungen des Projektes ca. 5.000 €.

Im rechten Teil der Projektcharter finden sich u.a. Angaben zur aktuellen Marktsi-tuation, zum zu erwartenden Net Benefit und zum generellen Projektrahmen (sie-he Abb. 5-33). Eine intern durchgeführte Marktanalyse ergab, dass in den letzten Jahren der Markt für Straßenbesen insgesamt um 30% gewachsen ist. Vor allem in Asien und im Mittleren Osten steigt die Nachfrage rapide an. In Deutschland stag-nieren die Absatzzahlen auf relativ hohem Niveau. Die Firma Michael Jäckel EBF konnte in der Vergangenheit deutlich Marktanteile gewinnen und zählt heute zu den führenden Anbietern in den eingangs genannten Produktfeldern.

(b) Ableiten der CTQs

Die Kundenanforderungen, die an das Produkt „Straßenbesen“ gestellt werden, sind vielschichtig. Für eine erste Klassifizierung bieten sich die acht Dimensionen der Produktqualität von Garvin (1987, S. 101ff.) an (vgl. auch Abschnitt 3.1.1). Sie beziehen sich sowohl auf „harte“ Produkt- und Leistungsmerkmale als auch auf „weiche“ Qualitätskriterien. Es wird davon ausgegangen, dass sich einige Dimensionen der Produktqualität gegenseitig verstärken, also komplementär zu-einander sind (z.B. Zuverlässigkeit und Haltbarkeit), andere Dimensionen hinge-gen in einer eher konfliktären Beziehung zueinander stehen und sich nur auf Kos-ten einer weiteren Qualitätsdimension verbessern lassen (z.B. Gebrauchsnutzen und Ästhetik). Im Folgenden sind die acht Dimensionen nach abnehmender Be-deutung für den Besen angeordnet. Die Liste mit produktspezifischen Ausführun-gen erhebt dabei keinen Anspruch auf Vollständigkeit :

(1) Gebrauchsnutzen (Performance): Der Besen besitzt unter verschiedenen An-wendungsbedingungen, z.B. trockener vs. nasser Straßenbelag, eine jeweils hohe Kehr-/ Reinigungswirkung. Der Besen eignet sich sowohl für das Keh-ren von fein- als auch grobkörnigem Schmutz. Er ist leicht und handlich. Schmutz, der sich in schwer zugänglichen Bereichen befindet, z.B. Ecken und Kanten in/ an Gebäuden, lässt sich ebenfalls problemlos entfernen.

(2) Haltbarkeit (Durability): Die Borsten des Besens sind im Holz- bzw. Plaste-körper fest eingestanzt und fallen nicht ohne Weiteres aus. Bei Gebrauch des Besens nutzen sie sich kaum ab, d.h. ihre Länge wird mit der Zeit nicht we-sentlich kürzer. Außerdem behalten sie langfristig ihre Form (Steifigkeit), und zwar unabhängig von der Art der Aufbewahrung des Besens, z.B. stehend auf dem Fußboden oder hängend an der Wand.

(3) Zuverlässigkeit (Reliability): Der Straßenbesen ist immer griff- und einsatzbe-reit. Er ist robust gegen Umwelteinflüsse, z.B. Feuchtigkeit und Sonne. Der Besenstiel ist im Holzkörper fest verankert und löst sich auch bei starker Be-anspruchung nicht (Robustheit). Der Stiel ist zudem sicher gegen Bruch.

(4) Ausstattung (Features): Die Besengeometrie ist optimal auf die Größe des Bedieners anpassbar, z.B. durch ein zusätzlich angebrachtes Gelenk auf dem

Page 331: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 309

Holzkörper, über den sich der Neigungswinkel des Stiels variabel einstellen lässt. Der Stiel kann einfach und schnell, d.h. ohne zusätzliche Hilfsmittel, montiert werden. Am oberen Ende befindet sich eine Aufhängevorrichtung.

(5) Normgerechtigkeit (Conformance): Die Herstellung des Besens erfolgt über alle Wertschöpfungsstufen hinweg umweltschonend. Europäische und inter-nationale Standards werden eingehalten, z.B. keine Kinderarbeit. Die ver-wendeten Materialien, z.B. Farben und Lacke, sind nicht gesundheitsschäd-lich. Der Anschluss und die Aufhängung des Besenstiels entsprechen der DIN-Norm. Alle vom (Groß-)Handel vorgegebenen Spezifikation, z.B. Be-senlänge und -breite, werden ausnahmslos eingehalten.

(6) Ästhetik (Aesthetics): Die Borsten des Besens sind gleich lang und farbtreu; einzelne Borsten stehen nicht ab. Die Löcher im Stanzfeld sind gleichmäßig verteilt sowie gleichmäßig mit Material bestückt. Zur Verbesserung der Kehr-eigenschaften können zwei Borstenarten verwendet werden; die Randborsten sind schräg eingestanzt. Am Holz des Besens, weder am Stiel noch am Kör-per, befinden sich Absplitterungen oder Ausbuchtungen. Alle Kanten und E-cken sind abgerundet und geschliffen, um Verletzungen zu vermeiden.

(7) Qualitätsimage (Perceived Quality): Die wahrgenommene Qualität beim Endkunden wird durch das Anbringen von Etiketten mit Hinweisen zu ver-wendeten Materialien, eingesetzten Produktionsverfahren, bestehenden Zerti-fikaten/ Auszeichnungen etc. verbessert. Informationen über die Kehreigen-schaften des Besens zur besseren Differenzierung und exakteren Bestimmung des Einsatzgebietes sind prinzipiell wünschenswert und zudem verkaufsför-dernd, insb. bei Verhandlungen mit dem (Groß-)Handel.

(8) Kundendienst (Serviceability): Aus Herstellersicht betrifft der Kundendienst in erster Linie die reibungslose Zusammenarbeit mit dem (Groß-)Handel. Hier geht es u.a. um eine schnelle und kundenorientierte Beschwerdeabwick-lung sowie die zeitgerechte Bereitstellung von (Nach-)Lieferungen. Da es sich beim Besen um ein „Einwegprodukt“ handelt, sind Ersatzteillieferungen von untergeordneter Bedeutung. Garantieleistungen für den Endkunden be-stehen darin, bei Ausfall/ Mängeln Ersatzprodukte zu liefern.

Wie gut zu erkennen ist, ist die „Stimme des Kunden“ (VOC), selbst bei diesem einfachen Produkt, umfangreich und komplex. Es können eine Reihe von Anfor-derungen abgeleitet werden, die bei genauerer Betrachtung jeweils als „kritisch“ einzustufen sind, d.h. ein Nicht-Erfüllen der Anforderungen führt zu Kundenun-zufriedenheit. Nach dem Kano-Modell der Kundenzufriedenheit handelt es sich bei den meisten Anforderungen um sog. Basisanforderungen (vgl. Abschnitt 3.2.4). Leistungs- und Begeisterungsanforderungen, bei denen mit steigendem Erfüllungsgrad die Kundenzufriedenheit steigt, sind bei Stuben-, Saal- und/ oder Straßenbesen kaum zu finden. Der Besen muss in erster Linie funktionieren, wenn man ihn braucht; ansonsten stellt sich schnell Unzufriedenheit ein.

Page 332: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

310 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Der größte Hebel, um den Kundennutzen und damit die Kundenzufriedenheit beim vorliegenden Produkt zu steigern, wird in der Dimension (1) „Gebrauchsnut-zen“ gesehen. In diesem Punkt wurden zu Beginn des Projektes auch die meisten Defizite und infolgedessen Verbesserungsbedarfe registriert. Der Projektfokus liegt deshalb im Weiteren auf der Optimierung der Kehreigenschaften des Besens als eine wesentliche Kundenanforderung (CTQ), welche den Gebrauchsnutzen determiniert. In diesem Zusammenhang stellt sich vor allem die Frage nach der Quantifizierung des CTQ, also der Definition und Zuordnung von geeigneten Outputmessgrößen (Ys) zur Objektivierung der Kehreigenschaften.

(c) Einrichten des Messsystems

Voraussetzungen: Im Hinblick auf die Entwicklung eines validen und zuverlässi-gen Messsystems zur Bestimmung der Kehreigenschaften von Besen besteht die Zielsetzung darin, jeden Besentyp anhand einer charakteristischen Kennlinie bzw. Kennzahl eindeutig klassifizieren zu können. Dabei sollen die Prüf-/ Messbedin-gungen so realitätsnah wie möglich sein, z.B. Kehren von Schüttgut in unter-schiedlicher Größe und Form auf rauhem Belag. Für diese Anforderung existieren bis dato keine standardisierten und dokumentierten Messverfahren. Anleihen aus anderen Bereichen können nur bedingt genommen werden, z.B. Reinigung von Metalloberflächen im technischen Bereich (vgl. Jancke 2004) oder Messung der Reinigungswirkung von Zahnbürsten im medizinischen Bereich (vgl. Becker 2004). Vor diesem Hintergrund wird für die Messung der Kehreigenschaften von Besen ein eigener Messansatz entwickelt. Dieser basiert zu großen Teilen auf dem Lern- bzw. Erfahrungskurven-Konzept (vgl. Baum et al. 2004, S. 89ff.), welches im betriebswirtschaftlichen Umfeld u.a. zur Bestimmung von Lerneffekten (Eco-nomies of Experience) in Produktionslinien genutzt wird.

Messansatz: Es wird die Restschmutzmenge gemessen, die auf einer definierten Kehrfläche nach n-maligem Kehren verbleibt. Aus einschlägigen Erfahrungen ist bekannt, dass die auf einer Fläche verbleibende Schmutzmenge bei mehrmaligem Kehren exponentiell abnimmt. Liegt z.B. Schüttgut unterschiedlicher Korngröße auf einer Fläche vor, dann wird mit den ersten Zügen relativ viel Material besei-tigt, mit den letzten Zügen relativ wenig. Dies liegt darin begründet, dass größere Steine (mit relativ viel Gewicht) gleich beim ersten Kehrvorgang erfasst werden; die Beseitigung von mittleren und kleineren Steinen (mit relativ wenig Gewicht) bedarf hingegen i.d.R. der Ausführung von mehreren Besenzügen.

Dabei gilt: Je öfter ein und dieselbe Fläche gekehrt wird, desto weniger Material (in kg) wird pro Zug beseitigt – die erfasste Schmutzmenge nimmt sukzessive ab. Ein „guter“ Besen zeichnet sich dadurch es, dass es mit ihm gelingt, in relativ wenigen Zügen eine vorgegebene Fläche nahezu vollständig zu säubern. Je schneller die Restschmutzmenge gegen Null geht, desto besser ist ein Besen. Die-se Eigenschaft lässt sich mathematisch wie folgt erfassen: Die auf einer definier-ten Fläche verbleibende Schmutzmenge (y) wird über die kumulierte Anzahl von Besenzügen bzw. Kehrvorgängen (x) abgetragen (siehe Abb. 5-34). Nach obigen

Page 333: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 311

Ausführungen wird zwischen den beiden Größen ein potenzieller funktioneller Zusammenhang vermutet, der sich mit folgender Gleichung beschreiben lässt:

00 <∀>⋅= bamitxay b (5.11)

Um die Parameter der Funktion empirisch zu bestimmen, sind a und b für eine ausreichend große Messreihe zu schätzen. a ist ein Skalierungsfaktor, welcher der Restschmutzmenge zu Beginn des Kehrversuchs entspricht also z.B. a = 5 kg. b kennzeichnet einen Degressionsfaktor, der angibt, wie stark die Schmutzmenge auf der Kehrfläche im Zuge der Reinigungsintensität abnimmt. Für eine effiziente Schätzung bietet es sich an, beide Seiten der Gleichung (5.11) zu logarithmieren:

)lg()lg()lg( xbay ⋅+= (5.12) Durch die log-Transformation ist es möglich, a und b mithilfe einer einfachen linearen Regressionsrechnung zu bestimmen. Das Absolutglied lg(a) gibt dabei den Schnittpunkt der Regressionsgeraden mit der Ordinate an. Der Faktor b wird zum Korrelationskoeffizienten, der beschreibt, um wie viele Einheiten lg(y) sinkt, wenn lg(x) um eine Einheit steigt. Da b < 0 ist, gilt: Je kleiner b wird, desto größer ist der (negative) Anstieg der in Gleichung (5.12) beschriebenen Geraden.

Abb. 5-34: Kennlinie für die Kehreigenschaften eines Besens (Beispiel)

In Abb. 5-34 ist die Kennlinie für die Kehreigenschaft eines Straßenbesens bei-spielhaft bestimmt. Es handelt sich dabei um einen 6-reihigen Kokos-Besen mit

Kum. Anz. Kehrvorgänge

Res

tsch

mut

zmen

ge (

in k

g)

654321

5,0

4,5

4,0

3,5

3,0

2,5

2,0

1,5

1,0

0,5

0,0

S 0,0714909R-Sq 92,3%R-Sq(adj) 91,5%

Regression95% CI

Fitted Line Plot: Besen 1logten(Y) = 0,6295 - 0,8573 logten(X)

p = 0,000

Charakteristische Kennlinie(bei allen Besen signifikant!)

Page 334: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

312 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

40 cm Länge; dieser gehört zum Standardsortiment der Firma EBF. Die Berech-nung der Kennlinie basiert auf 2 unabhängigen Messreihen à 6 Messwerten. Die geschätzte Regressionsfunktion lautet in logarithmierter Form:

)lg(8573,06295,0)lg( xy ⋅−= (5.13) Wie eingangs erwähnt, ist für die Quantifizierung der Kehreigenschaften eines Besens der Korrelationskoeffizient b entscheidend; er beträgt hier b = 0,8573.57 Nach dem Erfahrungskurven-Ansatz lässt sich aus dem Degressionsfaktor b eine Lern- bzw. Degressionsrate L bestimmen. Der mathematische Zusammenhang lautet: b = lg L / lg 2; danach beträgt die Verbesserungsrate im vorliegenden Fall L = 55,2%, d.h. bei einer Verdopplung der kumulierten Anzahl von Kehrvorgän-gen (x) sinkt bei dem untersuchten Besen die Restschmutzmenge (y) jeweils auf 55,2% des Ausgangsniveaus pro Kehrvorgang bzw. -zug.

Das Ergebnis ist in allen berechneten Fällen hochsignifikant (p = 0,000), d.h. die verwendete logarithmische Funktion nach Gleichung (5.13) eignet sich aus statis-tischer Sicht „sehr gut“, um den Zusammenhang zwischen den zwei Größen y = „Restschmutzmenge (in kg)“ und x = „Kum. Anz. Kehrvorgänge“ mathematisch zu beschreiben. Das Bestimmtheitsmaß liegt bei über 90% (R-sq = 92,3%), d.h. die Vorhersagegenauigkeit bzw. statistische Erklärungskraft der berechneten Funktion ist im vorliegenden Fall ebenfalls „sehr gut“. Aus statistischer Sicht werden 92,3% der Gesamtvarianz der gemessenen Restschmutzmengen-Werte durch die geschätzte Funktion erklärt. Diese und weitere statistische Auswertun-gen sind mit der Statistik-Software Minitab R14 erstellt worden.

Messsystem: Zur Datenerhebung wird standardmäßig die folgende Versuchsan-ordnung gewählt: Eine Europalette der Größe 120 cm x 80 cm, die mit Teer- bzw. Dachpappe vollständig bespannt ist, bildet die normierte Kehrfläche. Die Palette ist ca. 20 cm hoch und an drei Seiten mit Randleisten eingefasst; eine Längsseite ist offen. Vor dieser befindet sich ein Auffangbehälter, z.B. aus Wellpappe. Euro-palette und Auffangbehälter werden waagerecht aufgestellt (siehe Abb. 5-35). Als Kehrgut wird trockenes Schüttgut („Straßendreck“) mit unterschiedlicher Korn-größe, ∅ 0,1 cm bis ∅ 3,0 cm, verwendet. Dadurch werden realitätsnahe Prüfbe-dingungen geschaffen: Es ist grob- und feinkörniger Schmutz, der sich auf einem straßenbelagsähnlichen Untergrund befindet, zu kehren. Zur Bestimmung der Kehreigenschaften sind vom Prüfer exakt 5 kg des Kehrgutes auf die Kehrfläche zu schütten und dort – per Augenmaß – gleichmäßig zu verteilen. Auftretende Abweichungen von der Gleichverteilung können später im Rahmen der Auswer-tung durch Sortieren der Messwerte „ausgeglichen“ werden.

57 Der Wert ist unabhängig von der Art des verwendeten Logarithmus, z.B. ln oder lg.

Letztgenannter hat lediglich Einfluss auf die Höhe des Absolutgliedes der linearen Re-gressionsgleichung (5.12).

Page 335: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 313

Prüfanweisung: Jeder Besen (= Prüfteil) wird von 2 Prüfern mit je 1 Wiederho-lung geprüft. Für die Durchführung eines Kehrvorganges gilt:

„Der Prüfer steht mit dem zu prüfenden Besen an der Rückseite der Palette in ca. 0,5 m Entfernung von der Randbegrenzung hinten längs. Der Besen wird am Stiel mit zwei Händen festgehalten, und zwar rechtsseitig mit linker Hand vorne, etwa in der Mitte des Stiels, und rechter Hand hinten, im oberen Drittel des Stiels. Der Besen wird zum Kehren jeweils plan mit den Borsten auf die Kehrfläche aufgesetzt und mit einem kräftigen Schub nach vorne geschoben. Ein Besenschub bzw. -zug geht jeweils von der Rückseite der Palette bis zur gegenüberliegenden Seite (Vor-derseite), die nicht durch eine Randleiste begrenzt ist; der Zug verläuft parallel zu den Randbegrenzungen quer.“

Das Kehrgut, welches beim Überstreichen der Fläche von ca. 80 cm ⋅ 40 cm (Be-senlänge) erfasst wird, fällt an der Vorderseite der Palette herunter in den direkt anliegenden Auffangbehälter. Das aufgefangene Kehrgut wird nach jedem Kehr-vorgang/ -zug in ein Gefäß geschüttet und gewogen.

Abb. 5-35: Ablaufschema zur Reinigung der normierten Kehrfläche

Die Kehrfläche ist mit insgesamt 6 Zügen zu reinigen. Das zugehörige Ablauf-schema ist in Abb. 5-35 skizziert. Die Züge (1) und (4) gehen von der Mitte der Paletten-Rückseite aus; in der Ausgangsposition schlägt die Längsseite des Be-senholzkörpers genau mittig an die hintere Randleiste. Die restlichen Züge gehen

44

11

55

2233

66

= Nr. des Kehrvorgangs/ des Zuges

Mittlere KehrbahnRechteäußere Kehrbahn

Linkeäußere Kehrbahn

80 cm

120 cm

Überlappung Überlappung

11

Page 336: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

314 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

jeweils von den Paletten-Ecken aus. Dabei wird der Besen in der Ausgangspositi-on so gehalten, dass der Holzkörper mit einer Längs- und einer Querseite recht-winklig an die einschließenden Randbegrenzungen stößt. Bei den Zügen (2), (3), (5) und (6) wird der Besen – mit gleichmäßigem Druck – entlang der Begrenzung nach vorn bis zur Vorderseite der Palette geschoben. Jeder Flächenabschnitt wird auf diese Weise mind. 2-mal mit dem Besen überstrichen.58

Für die statistische Auswertung werden die gemessenen Schmutzmengen der Größe nach sortiert und anschließend aufsummiert. Die kumulierten Werte pro Zug (in kg) werden jeweils von dem Ausgangsgewicht i.H.v. 5 kg subtrahiert. Auf diese Weise ergeben sich insgesamt 7 Messpunkte pro zu testenden Besen.

Gage R&R: Bevor das Messsystem in der vorstehend beschriebenen Weise einge-setzt wird, um die Kehreigenschaften von verschiedenen Besentypen zu bestim-men, ist in Verbesserungsprojekten standardmäßig eine sog. Gage R&R durchzu-führen (vgl. auch Abschnitt 5.3.1). Um die Güte des verwendeten Messsystems (Gage) sicherzustellen, wird hier einerseits die Wiederholbarkeit des gleichen Messvorgangs durch die gleiche Person/ Maschine (R – Repeatability) analysiert und zum anderen die Reproduzierbarkeit des gleichen Messvorgangs durch zwei oder mehrere Personen/ Maschinen (R – Reproducibility). Ziel ist es, dass mög-lichst (deutlich) weniger als 30% der Gesamtvarianz der Messwerte durch das eingesetzte Messsystem hervorgerufen wird.

Die Aggregation von Repeatability und Reproducibility ergibt die Variation des Messsystems (Total Gage R&R). Sie wird ins Verhältnis zur Gesamtvariation (Total Variation) aller gemessenen Werte gesetzt, hier Restschmutzmenge (in kg). Die Gage R&R für stetige Daten basiert statistisch auf der Durchführung einer einfachen Varianzanalyse (ANOVA). Sie ergab im vorliegenden Fall eine Total Gage R&R von 11%; die Berechnung wurde mit MINITAB R14 auf der Grundla-ge einer Stichprobe von 120 Messdaten durchgeführt (10 Besen ⋅ 6 Züge ⋅ 2 Prü-fer). Die Güte des Messsystems kann damit im großen und ganzen als „gut“ be-zeichnet werden. 89% der Gesamtvariation wird durch die Verwendung verschie-dener Besen in Kombination mit einer abnehmenden Restschmutzmenge erklärt (Part-To-Part). Die detektierte Ungenauigkeit im Messsystem ist bei allen einbe-zogenen Fällen in einer unzureichenden Repeatability begründet.59

58 Es ergeben sich drei Kehrbahnen, die teilweise überlappend sind. Die Überlappungs-

fläche A zwischen mittlerer und äußerer Kehrbahn ist abhängig von der Länge des Borstenkopfes l und beträgt A = ((3 ⋅ l) – 120) / 2) ⋅ 80 cm2. Sie wird für die reali-tätsnahe (Prüf-)Bedingung, eine verschmutzte Fläche mit Begrenzungen zu reinigen, in Kauf genommen. Andernfalls, bei A = 0 cm2, würden die (Prüf-)Bedingungen dem Produkt angepasst werden und nicht umgekehrt.

59 Eine Verbesserung der Repeatability lässt sich zum einen durch die genauere Defi-nition der Prüfanweisung erreichen (Stichwort: Operationale Definition). Zum anderen trägt i.d.R. eine umfangreichere Schulung/ Einweisung der Prüfer zu einer Verringe-

Page 337: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 315

(d) Ermitteln der Einflussgrößen

Das verwendete Messsystem hat – direkt oder indirekt – einen wesentlichen Ein-fluss auf die Beurteilung der Kehrqualität eines Besens. Weitere wichtige Ein-flussgrößen (Xs), welche die Kehrwirkung des Besens determinieren, sind in dem Ishikawa-Diagramm in Abb. 5-36 zusammengetragen. Ziel ist es, einen ganzheit-lichen Blick auf das zu untersuchende Thema im Team zu bekommen und dabei die Komplexität der (vermuteten) Ursachen-Wirkungsbeziehungen offen zu legen. Die Erstellung des Ishikawa-Diagramms erfolgte an einer Metaplanwand; die Darstellung erhebt keinen Anspruch auf Vollständigkeit.

Die Klassifikation der Xs orientiert sich auf oberster Ebene an den „6 M´s“: Mes-sung, Mitwelt, Maschine, Mensch, Material und Methode. Auf das 7. M Manage-ment wurde bewusst verzichtet, weil es vordergründig um technische Aspekte der Produktentwicklung geht. Die 6 M´s sind jeweils auf mind. zwei weiteren Ebenen detailliert, um die ursächlichen Größen, die zu einer hohen Kehrwirkung des Be-sens führen, zu erkennen. Die Einflussgrößen, die unter die Merkmalsdimension „Material“ fallen, betreffen vor allem die z.T. recht umfangreichen Produktbe-schreibungen des Besens. Sie lassen sich auf übergeordneter Ebene in einigen wenigen Charakteristika zusammenfassen. Ihre Auflistung erfolgt im Zusammen-hang mit dem Morphologischen Kasten in Abb. 5-39.

Die Beurteilung der ermittelten Größen hinsichtlich der Beeinflussbarkeit wurde in vereinfachter Weise vorgenommen. So war für jedes „M“ auf oberster Ebene anzugeben, ob die zugehörigen Einflussgrößen überwiegend variable, noise oder constant sind. Wie in Abb. 5-36 ersichtlich ist, gibt es nur zwei Merkmalsdimen-sionen, die vom Team direkt beeinflussbar und damit variable sind, nämlich Mes-sung der Kehreigenschaften und Design der Maschine (Besen). Die zu Mensch und Methode zugehörigen Größen wurden als noise eingestuft; sie sind allenfalls indirekt beeinflussbar. Aus Sicht des Teams ist es im Rahmen einer Produktbe-schreibung möglich, dem Kunden Empfehlungen zu geben, unter welchen Bedin-gungen der Besen besonders gut bzw. besonders schlecht funktioniert.

Als nicht beeinflussbar und damit constant gelten schließlich die Größen, die unter die zwei Merkmalsdimensionen Mensch und Methode fallen. Bei diesen geht das Team davon aus, dass nicht ex ante bestimmt werden kann, welcher Kunde den Besen kauft und wie er ihn nutzt. Bei der Festlegung des Messsystems wird des-halb vom gebräuchlichsten Anwendungsfall ausgegangen (siehe Gage R&R). Mit der Beschränkung auf zwei variable M´s ist der Suchraum für die weitere Pro-duktoptimierung klar vorgegeben. Aus diesem Grund wurde auf eine Punktbewer-tung zur Fokussierung der kritischen Xs, wie es bei der Erstellung des Ishikawa-Diagramms sonst üblich ist (vgl. Abschnitt 5.3.1), verzichtet.

rung des Messsystemfehlers bei (Stichwort: Qualifikation der Prüfer). Beide Aspekte wurden bei der Optimierung des Messystems berücksichtigt.

Page 338: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

316 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Abb. 5-36: Ishikawa-Diagramm zur Beeinflussung der Kehrwirkung des Besens

Men

sch

Mes

sung

Mas

chin

e

Körp

er-

größ

e

Körp

er-

haltu

ng

Kehr

wirk

ung

des

Bes

ens

Bedi

ng-

unge

n

Obe

rkör

per

Arm

-lä

nge

Bein

-lä

nge

Obe

rkör

perAu

frech

tG

ebeu

gt

Arm

haltu

ng Nic

ht v

erdr

eht

Verd

reht

Labo

r (s

tand

ardi

sier

t)

Feld

(nic

ht s

tand

ardi

sier

t)

Mat

eria

l

Korn

-gr

öße

Fein

körn

ig, z

.B.

Qua

rzsa

nd

Gro

bkör

nig,

z.B

.Ki

esel

stei

ne

Schm

utz-

verte

ilung

Feuc

htig

-ke

it

Troc

kenNa

ss

Hom

ogen

Hete

roge

n

Met

hode

Kehr

-ric

htun

g

Zum

Kör

per h

in

Vom

Kör

per w

eg

Kehr

-ry

thm

usKu

rze,

sch

nelle

Züg

e

Lang

e, l

ang-

sam

eZü

ge

Anpr

ess-

kraf

t

Hoch

Nied

rig

Korn

-ar

ten Ei

ne

Meh

rere

Schm

utz-

men

ge

Viel

Wen

ig

Sieh

e Ex

cel-T

abel

le

mit

Mer

kmal

sauf

listu

ng

Mitw

elt

Unte

r-gr

und

Rauh

igke

it

Rau

hG

latt

Härte

Har

t

Wei

ch

Tem

pera

tur War

mKa

lt

Feuc

htig

keit

Troc

ken

Nas

s

Kehr

-flä

che

Eben

heit

Eben

Wel

lig

Gef

älle

Anst

eige

ndFl

ach

Wet

ter

Win

dstä

rke W

inds

tille

Win

dig

Luftt

empe

ratu

r

War

mKa

lt

Nied

ersc

hlag Ke

in R

egen

Reg

en Raum

klim

a (In

nen)

Bew

ertu

ng

Subj

ektiv

e Be

wer

tung

Obj

ektiv

eKe

nnda

ten

Kom

bina

tions

-ve

rfahr

en

Date

n-er

hebu

ngBefra

gung

Beob

acht

ung

Expe

rimen

t

Gag

e R&

R

Zuve

rläss

igke

it

Repr

oduz

ierb

arke

it

Körp

er-

gew

icht

Dick

, mit

Bauc

h

Schl

ank,

oh

ne B

auch

Lege

nde:

varia

ble

nois

eco

nsta

nt

v cn

cn

c

nv

v

Men

sch

Mes

sung

Mas

chin

e

Körp

er-

größ

e

Körp

er-

haltu

ng

Kehr

wirk

ung

des

Bes

ens

Bedi

ng-

unge

n

Obe

rkör

per

Arm

-lä

nge

Bein

-lä

nge

Obe

rkör

perAu

frech

tG

ebeu

gt

Arm

haltu

ng Nic

ht v

erdr

eht

Verd

reht

Labo

r (s

tand

ardi

sier

t)

Feld

(nic

ht s

tand

ardi

sier

t)

Mat

eria

l

Korn

-gr

öße

Fein

körn

ig, z

.B.

Qua

rzsa

nd

Gro

bkör

nig,

z.B

.Ki

esel

stei

ne

Schm

utz-

verte

ilung

Feuc

htig

-ke

it

Troc

kenNa

ss

Hom

ogen

Hete

roge

n

Met

hode

Kehr

-ric

htun

g

Zum

Kör

per h

in

Vom

Kör

per w

eg

Kehr

-ry

thm

usKu

rze,

sch

nelle

Züg

e

Lang

e, l

ang-

sam

eZü

ge

Anpr

ess-

kraf

t

Hoch

Nied

rig

Korn

-ar

ten Ei

ne

Meh

rere

Schm

utz-

men

ge

Viel

Wen

ig

Sieh

e Ex

cel-T

abel

le

mit

Mer

kmal

sauf

listu

ng

Mitw

elt

Unte

r-gr

und

Rauh

igke

it

Rau

hG

latt

Härte

Har

t

Wei

ch

Tem

pera

tur War

mKa

lt

Feuc

htig

keit

Troc

ken

Nas

s

Kehr

-flä

che

Eben

heit

Eben

Wel

lig

Gef

älle

Anst

eige

ndFl

ach

Wet

ter

Win

dstä

rke W

inds

tille

Win

dig

Luftt

empe

ratu

r

War

mKa

lt

Nied

ersc

hlag Ke

in R

egen

Reg

en Raum

klim

a (In

nen)

Bew

ertu

ng

Subj

ektiv

e Be

wer

tung

Obj

ektiv

eKe

nnda

ten

Kom

bina

tions

-ve

rfahr

en

Date

n-er

hebu

ngBefra

gung

Beob

acht

ung

Expe

rimen

t

Gag

e R&

R

Zuve

rläss

igke

it

Repr

oduz

ierb

arke

it

Körp

er-

gew

icht

Dick

, mit

Bauc

h

Schl

ank,

oh

ne B

auch

Lege

nde:

varia

ble

nois

eco

nsta

nt

v cnLege

nde:

varia

ble

nois

eco

nsta

nt

v cn

cn

c

nv

v

Page 339: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 317

(f) Festlegen der Ausgangspopulation

Das Ishikawa-Diagramm bildet den Ausgangspunkt, um wesentliche Merkmale für die Verbesserung des Besens festzulegen. Unter die Dimension Material fallen insgesamt mehr als 10 produktbezogene Merkmale, die einen Einfluss auf die Kehreigenschaften des Besens haben (siehe Abb. 5-37). Dabei lassen sich alle aufgeführten Merkmale in bestimmten Grenzen variieren. Die Änderungen sind jedoch mit unterschiedlich hohem F&E-Aufwand verbunden. Z.B. zieht die Varia-tion der Breite des Holzkörpers umfangreiche Produktionsumstellungen beim Hersteller- und Zulieferunternehmen nach sich und ist kurzfristig nicht realisier-bar. Unter der Maßgabe der Wirtschaftlichkeit wurde deshalb in einem zweiten Filterprozess die Anzahl der relevanten Einflussgrößen von 13 auf 8 reduziert; sie sind in Abb. 5-37 mit (v) gekennzeichnet. Größen, die im Rahmen der Optimie-rung unverändert bleiben, erhielten entsprechend ein (c).

Abb. 5-37: Skizze zur Dimensionierung eines Straßenbesens

Quantifizieren der Haupteffekte mit DOE

Bereits in diesem frühen Stadium des F&E-Projektes wurde ein statistischer Ver-suchsplan aufgestellt, um die Wirkungen (Effekte) der einbezogenen Merkmale (Faktoren) zu quantifizieren. Bei der Planung des DOE wurde zunächst davon ausgegangen, dass keine allzu starken Wechselwirkungen zwischen den Faktoren vorherrschen. Unter dieser Voraussetzung kam das Screening-Design nach Pla-

b

l

l*

b*

h*

h

<)<) ββββ

<)<) ββββ*

<) αααα<)<) αααα

s

M

a

Legende:a – Anzahl der Lochreihen (v)αααα – Winkelneigung des Stiels (v)b – Breite des Holzkörpers (c)b* – Breite des Borstenkopfes (c)ββββ – Borstenneigung am Rand längs (v)ββββ* – Borstenneigung am Rand quer (v)h – Dicke des Holzkörpers (c)h* – Länge der Borsten (v)i – Länge des Stils (c)l – Länge des Holzkörpers (v)l* – Länge des Borstenkopfes (v)M – Materialsorte (v)s – Bündelstärke (v)

i

Page 340: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

318 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

ckett/ Burman (1946) zum Einsatz. Mit ihm ist es möglich, mit einem Minimum an Versuchen eine Information über einen möglichen Einfluss von (sehr) vielen Faktoren zu erhalten (vgl. Breyfogle 2003, S. 574). Das Grundprinzip von stark reduzierten Versuchsplänen besteht darin, dass alle ermittelten (Haupt-)Effekte mit einem Grundversuch verglichen werden, bei dem sich alle Faktorstufen (Merkmalsausprägungen) auf dem unteren Niveau befinden.

Im Zusammenhang mit der Besenoptimierung ging es in erster Linie darum, statis-tisch zu überprüfen, ob die definierten Merkmale in Abb. 5-37 tatsächlich einen signifikanten Einfluss auf den Korrelationskoeffizienten b als Indikator für die Fitness haben. Bei erkennbarer Nicht-Signifikanz kann der Suchraum ggf. noch verkleinert werden. Für die Überprüfung des Einflusses der 8 Besenmerkmale wurde ein Plackett-Burman-Design mit insgesamt 12 Versuchen und 1 Wiederho-lung vorgeschlagen. Bei diesem ist die Faktorstufenkombination des ersten Versu-ches nicht frei wählbar, sondern abhängig von der Größe des Gesamtversuchspla-nes. Die Faktorstufenkombinationen der restlichen Versuche ergeben sich aus der Anordnung für den ersten Versuch, und zwar in der Weise, dass die Vorzeichense-rie (+ / –) im Versuchsplan jeweils eine Spalte nach links gerückt wird.

Die Auswertung von Plackett-Burman-Plänen erfolgt analog zu den teilfaktoriel-len Versuchsplänen. Hierbei ist zu berücksichtigen, dass Faktoren-Wechselwir-kungen (FWW) mit den Effekten der Faktoren zu einem gewissen Grad vermengt sind (vgl. Kleppmann 2006, S. 148ff.). Im vorliegenden Fall wurde ein Plackett-Burman-Design mit einer Auflösung von III verwendet, bei dem eine Vermengung von 2FWW mit Haupteffekten auftritt (vgl. auch Minitab R14/ Help). Infolgedes-sen werden bei der statistischen Auswertung nur die Haupteffekte geschätzt; Ne-beneffekte bzw. Wechselwirkungen bleiben unberücksichtigt.

In Abb. 5-38 sind die standardisierten Effekte, die sich für die 8 Merkmale (Fakto-ren) des Besens nach dem o.g. Versuchsplan ergeben, der Größe nach aufgeführt. Wie leicht nachvollziehbar ist, hat der Faktor M4 (Materialsorte) den größten Einfluss auf die Höhe des gemittelten Degressionsfaktors⎯bi. Der standardisierte Effekt beträgt TM4 = 16,49. Er ergibt sich als Quotient aus dem mittleren Hauptef-fekt des Faktors (Coef) und dem Standardfehler über alle ermittelten Koeffizienten (SE Coef). Der mittlere Haupteffekt des Faktors beträgt CoefM4 = 0,245, d.h. aus-gehend von einer Materialsorte mittlerer Härte (0-Niveau) steigt der Degressions-faktor b im Durchschnitt um 0,245 Einheiten, wenn die Faktorstufe auf hoch (+), also M4 = „Hart“, gestellt wird, c.p. Der (Gesamt-)Effekt des Faktors berechnet sich mit EffectM4 = 2 ⋅ CoefM4 = 0,49. Dieser gibt an, um wie viele Einheiten sich die Ergebniswerte zwischen hoher und niedriger Faktorstufeneinstellung im Durchschnitt unterscheiden; die mittlere Kehrwirkung beträgt im konkreten Fall bei niedriger Faktorstufe⎯bM4- = -1,20 und bei hoher⎯bM4+ = -1,69.

Page 341: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 319

Abb. 5-38: Pareto-Chart der standardisierten Effekte beim Besen

Neben der Materialsorte haben die Faktoren M2 (Anzahl der Lochreihen) und M1 (Länge des Holzes) einen relativ hohen Einfluss auf die Höhe des Degressionsfak-tors b. Ihre Haupteffekte betragen EffectM2 = 0,32 und EffectM1 = 0,22. Die stan-dardisierten Effekte (Länge der Balken in Abb. 5-38) liegen bei TM2 = 10,72 und TM1 = 7,53. Mit geringem Abstand folgen die Effekte, die von den drei Faktoren M3, M7 und M8 ausgehen. Hier ist interessant, dass nach den gemessenen Daten die Kehrwirkung, die aus unterschiedlichen Einstellwerten für die Winkelneigung des Stiels (M3) resultiert, größer ist als die, die durch eine Variation der Länge der Borsten (M7) bzw. der Bündelstärke (M8) bedingt ist. Vom Team wurde insbe-sondere eine größere Bedeutung des Merkmals M8 erwartet.60

Bis auf M5 und M6 sind alle vorstehend genannten Merkmale auf einem Niveau von α = 0,05 signifikant. Sie überschreiten den kritischen Wert von Tkrit = 2,14 (siehe Linie in Abb. 5-38). Dieser ergibt sich aus einem Vergleich mit den Quanti-len der t-Verteilung bei gegebener Anzahl von Freiheitsgraden und anvisiertem Signifikanzniveau. Nach der einfachen Varianzanalyse (ANOVA) sind die einbe-zogenen Faktoren (Factors) zur Erklärung der Kehrwirkung des Besens (Respon-

60 Die geringsten Effekte gehen, wie vermutet, von den Merkmalen M5 und M6 aus, d.h.

die Borstenneigung spielt bei der Optimierung der Kehreigenschaften des Besens eine eher untergeordnete Rolle. Trotz dieser Tatsache werden sie in die weitere Optimierung einbezogen, da sie – nach Auswertung des zugehörigen Interaction-Plots – mit hoher Wahrscheinlichkeit in Wechselwirkung mit anderen Faktoren stehen.

Term

Standardized Effect

M6 - Borstenneigung quer

M5 - Borstenneigung längs

M7 - Bündelstärke

M8 - Länge d. Borsten

M3 - Winkelneigung Stiel

M1 - Länge d. Holzes

M2 - Anz. d. Lochreihen

M4 - Materialsorte

181614121086420

2,14

Pareto Chart of the Standardized Effects(response is Fitness, Alpha = ,05)

Page 342: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

320 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

se) in Summe hoch signifikant (p = 0,000). Das Bestimmtheitsmaß für das berech-nete Regressionsmodell beträgt R-sq = 97,39%, d.h. die empirischen Werte des Degressionsfaktors werden nahezu vollständig durch das statistische Modell er-klärt. Die einbezogenen Merkmale bilden alles in allem einen sehr guten Aus-gangspunkt für die Optimierung der Kehreigenschaften des Besens.

Auf der Basis der Ergebnisse des Ishikawa-Diagramms und der Auswertung des Plackett-Burman-Designs wurde ein Suchraum mit insgesamt 8 Merkmalen defi-niert (siehe Abb. 5-39). Die Merkmale können unabhängig voneinander variiert werden. Dabei sind die geforderten Ausprägungen für die Merkmale (1) Länge des Holzkörpers, (3) Winkelneigung des Stiels, (4) Materialsorte und (8) Länge der Borsten mit den Zulieferunternehmen zu vereinbaren. Alle anderen Merkmale können über entsprechende Maschineneinstellungen an den Stanzautomaten im Unternehmen direkt verändert werden. Die Anzahl der Ausprägungen je Merkmal beträgt 4 oder 8. Nach den Gesetzen der Kombinatorik (hier: „Variation mit Zu-rücklegen“) ergibt sich daraus eine Suchraumgröße von 54 ⋅ 38 = 524.288 Mög-lichkeiten, d.h. im Lösungsraum (SOLUTION) können max. 524.288 Besenvari-anten erzeugt werden, die sich in mind. einem Merkmal unterscheiden.

Abb. 5-39: Morphologischer Kasten zur Bestimmung der Ausgangspopulation

Für den IESRM-Zyklus wurde eine Populationsgröße (POPSIZE) von 10 gewählt. Die Besen, die sich in der Ausgangspopulation befinden, sind als einzelne Profil-linien in der Matrix in Abb. 5-39 eingezeichnet. Dabei handelt es sich zum über-wiegenden Teil um Besentypen, die sich im aktuellen Produktportfolio des Unter-nehmens befinden. Die Variation der Merkmalsausprägungen ist hier – bis auf die Merkmale M1 und M4 relativ gering. Dies wurde aber bewusst in Kauf genom-

8,5 cm8,0 cm7,5 cm7,0 cm6,5 cm6,0 cm5,5 cm5,0 cmLänge der Borsten**

8

7,5 mm7,0 mm6,5 mm6,0 mm5,5 mm5,0 mm4,5 mm4,0 mmBündel-stärke*

7

25°16°8°0°Borstennei-gung quer

6

25°16°8°0°Borstennei-gung längs

5

PP-Copo

BasinePoly-mex

A-E-Mi-schung

Natur-haar

ArengaKokosElastonMaterial-sorte

4

45°35°30°0°Winkelnei-gung Stiel

3

8765Anzahl der Lochreihen

2

60 cm50 cm40 cm34 cmLänge des Holzkörpers

1

Ausprä-gung 8

Ausprä-gung 7

Ausprä-gung 6

Ausprä-gung 5

Ausprä-gung 4

Ausprä-gung 3

Ausprä-gung 2

Ausprä-gung 1

Merkmals-bezeichnung

Nr

8,5 cm8,0 cm7,5 cm7,0 cm6,5 cm6,0 cm5,5 cm5,0 cmLänge der Borsten**

8

7,5 mm7,0 mm6,5 mm6,0 mm5,5 mm5,0 mm4,5 mm4,0 mmBündel-stärke*

7

25°16°8°0°Borstennei-gung quer

6

25°16°8°0°Borstennei-gung längs

5

PP-Copo

BasinePoly-mex

A-E-Mi-schung

Natur-haar

ArengaKokosElastonMaterial-sorte

4

45°35°30°0°Winkelnei-gung Stiel

3

8765Anzahl der Lochreihen

2

60 cm50 cm40 cm34 cmLänge des Holzkörpers

1

Ausprä-gung 8

Ausprä-gung 7

Ausprä-gung 6

Ausprä-gung 5

Ausprä-gung 4

Ausprä-gung 3

Ausprä-gung 2

Ausprä-gung 1

Merkmals-bezeichnung

Nr

* Lochdurchmesser ** Sichtbare Länge

1 2 3 4 5 6 7 8 9 10Ausgangspopulation:

Page 343: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 321

men, um zum einen den F&E-Aufwand zu Beginn des Verbesserungszyklus mög-lichst gering zu halten. Zum anderen bestand ein vorrangiges Interesse des Teams darin, zunächst die aktuellen Modelle hinsichtlich ihrer Kehreigenschaften zu testen und daraus ein (internes) Ranking zu bestimmen.61

(g) Codieren der Lösungen

Im Rahmen des IESRM-Zyklus werden die Lösungen nicht nur auf der Phänotyp-ebene, sondern auch auf der Genotypebene dargestellt (vgl. Abschnitt 5.2.2). Dazu sind die Lösungskandidaten zu codieren. Um eine Besenvariante als Lösung ein-deutig auf der Genotypebene abzubilden, ist bei gegebener Suchraumgröße eine Chromosomengröße (BITS) von 19 = ln 524.288 / ln 2 erforderlich. Die Zuord-nung von Merkmalswerten auf der Phänotypebene zu Codierwerten auf der Geno-typebene erfolgt vorzugsweise mithilfe eines Codier-Tableaus (siehe Abb. 5-40). Jeder Merkmalsausprägung wird hier genau ein Bit-String zugeordnet, dessen Länge sich nach der max. Anzahl möglicher Ausprägungen richtet. Mit der Dar-stellung der Lösungskandidaten der Ausgangspopulation auf der Geno- und Phä-notypebene ist die erste Phase des IESRM-Zyklus abgeschlossen.

Abb. 5-40: Codier-Tableau zur Lösungsrepräsentation auf der Genotypebene (Ausschnitt)

Evaluierungs-Phase

In dieser Phase geht es darum, die Kehreigenschaften der Besentypen, die sich in der Population befinden, (a) einzeln zu bestimmen und auf dieser Grundlage (b) einen Fitnesswert der Gesamtpopulation zu ermitteln.

61 Wie eingangs erwähnt, lässt sich daraus ein wichtiges Verkaufsargument gegenüber

dem Handel generieren. Gleichzeitig wird über ein objektiviertes Messverfahren die Voraussetzung für ein systematisches Benchmarking geschaffen.

MerkmalBezeichnung

AuflösungTypAusprägung Wert Code Wert Code Wert Code Wert Code

1 34 00 5 00 0 00 Elaston 0002 40 01 6 01 30 01 Kokos 0013 50 10 7 10 35 10 A-E-Mischung 0104 60 11 8 11 45 11 Naturhaar 0115 Arenga 1006 Polymex 1017 Basine 1108 PP-Copo 111

EinheitMinimumMaximum

M1 M2 M3 M4Länge des Holzkörpers

Anzahl der Lochreihen

Winkelneigung des Stiels

Materialsorte

2 2 2 3Metrisch Ordinal Metrisch Nominal

cm - ° -34 5 0 -60 8 45 -

Page 344: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

322 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

(a) Bestimmen der Fitnesswerte der einzelnen Besen

Im Zusammenhang mit der Messsystemanalyse wurde der Korrelationskoeffizient b der logarithmierten Regressionsgleichung als wichtiger Indikator zur Beschrei-bung des Kehrverhaltens identifiziert. Dieser lässt sich jedoch nicht direkt als Fitnesswert verwenden, da sein Wertebereich kleiner gleich Null ist. Aus diesem Grund ist eine Transformation bzw. Standardisierung vorzunehmen. Im einfachs-ten Fall besteht diese in der Ermittlung des Absolutwertes des Koeffizienten.

Die Fitnesswerte, die sich entsprechend fiti(y) = ⏐bi⏐ für die Besen i ∈ [1, 10] der Ausgangspopulation ergeben, sind in Abb. 5-41 tabelliert. Wie leicht nachvoll-ziehbar ist, sind die Unterschiede in den Fitnesswerten relativ groß, so dass auf die Anwendung einer Skalierungsfunktion verzichtet werden kann (vgl. Abschnitt 5.2.2). Ausgehend von den Fitnesswerten sind den Besen Ränge zugeordnet wor-den. Sie geben einen Hinweis auf die Selektionswahrscheinlichkeit.

Abb. 5-41: Daten zur Ermittlung der Fitnesswerte für die Besen der Ausgangspopulation

Als bester Straßenbesen erwies sich in der 1. Optimierungsrunde der Besen mit der Nr. 5 (Elaston, 40 cm, 7 Reihen). Ihm wird der Rang 1 zugeordnet. Aus sei-nem Korrelationskoeffizienten b ergibt sich eine Degressionsrate L von 23,9%.62 Gegenüber dem besten Besen mit einem Fitnesswert von 2,07 besitzt der schlech-teste Besen eine Fitness von „nur“ 0,46; seine Degressionsrate beträgt über 70%. Es handelt sich dabei um den Besen mit der Nr. 8 (Naturhaar, 50 cm, 7 Reihen). Maßgebend für die weitere Optimierung ist die durchschnittliche Fitness über alle Besen; sie beträgt 1,07. Ziel ist es, dass sich dieser Wert infolge des mehrmaligen Durchlaufens der letzten vier Phasen des IESRM-Zyklus sukzessive erhöht.

62 Diese besagt, wie eingangs erwähnt, dass im Durchschnitt bei einer Verdopplung der

kumulierten Anzahl von Kehrvorgängen (x) die Restschmutzmenge (y) auf den vor-stehend angegebenen Prozentsatz des jeweiligen Ausgangsniveaus fällt, also hier z.B. von Punkt (2. Zug, 1,75 kg) auf Punkt (4. Zug, 0,42 kg).

Besen-Nr. Bezeichnung Korrelations-koeffizient

Degressions-rate

Fitnesswert Rang

1 Kokos-40 -0,86 55,2% 0,86 82 Elaston-50 -1,51 35,1% 1,51 33 A-E-Mischung-60 -1,80 28,7% 1,80 24 Kokos-60 -1,44 36,8% 1,44 45 Elaston-40 -2,07 23,9% 2,07 16 A-E-Mischung-40 -1,19 43,8% 1,19 57 Polymex-40 -0,48 71,9% 0,48 98 Naturhaar-50 -0,46 72,6% 0,46 109 Arenga-40 -1,08 47,2% 1,08 610 PP-Copo-34 -1,02 49,2% 1,02 7

Page 345: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 323

(b) Berechnen der durchschnittlichen Fitness der Population

Für die Berechnung der durchschnittlichen Fitness der Population wird die Formel für den geometrischen Mittelwert zugrunde gelegt (vgl. Abschnitt 5.2.1). Diese hat den Vorteil, dass neben dem Erwartungswert die Varianz der Fitnesswerte inner-halb der Population Berücksichtigung finden. Üblicherweise werden die Lösungs-kandidaten mit zunehmender Iterationszahl immer ähnlicher, so dass die Varianz minimiert und gleichzeitig der geometrische Mittelwert für die Gesamtfitness maximiert wird. Die Varianz beträgt in der Ausgangspopulation σ2 = 0,28. Im Durchschnitt schwanken die Fitnesswerte also um σ1 = 0,53 um den (arithmeti-schen) Mittelwert i.H.v. μ1 = 1,19. Aus beiden Werten ergibt sich nach Gleichung (5.1) eine geometrische mittlere Fitness von⎯fit1 = 1,07. Die Differenz zwischen arithmetischen und geometrischen Mittel von 0,12 liegt in der relativ großen Streuung der Fitnesswerte begründet. Nach Fisher´s Fundamentaltheorem ist dies im Hinblick auf eine effektive Selektion positiv zu bewerten.

Selektions-Phase

Die Selektion der Besen für die jeweils nächste Runde wird nach dem Roulette-Wheel-Verfahren durchgeführt. Dazu sind die relativen Fitnesswerte der einzelnen Lösungskandidaten zu bestimmen (vgl. Abschnitt 5.2.1). Sie sind in Abb. 5-42 in Form eines Kuchendiagramms dargestellt. Der Besen mit der höchsten relativen Fitness erhält das größte „Kuchenstück“, c.p. Der prozentuale Anteil am Kuchen ist gleichbedeutend mit der Wahrscheinlichkeit, dass ein Besen im Rahmen der Selektion ausgewählt wird und in den Fortpflanzungspool gelangt.

Die Auswahl der Besen erfolgt per gewichtetem Zufallsprinzip, d.h. es werden 10 Zufallszahlen im Bereich [0, 1] erzeugt und den Werten, die sich nach der Bildung der kumulierten relativen Fitnessfunktion (CDF) ergeben, gegenübergestellt (vgl. Abschnitt 5.2.2). Durch dieses Vorgehen wird eine fitnessproportionale Selektion erreicht. Für die Fortpflanzung (Rekombination) wurden die folgenden sechs Besen ausgewählt: 3, 4, 5, und 6 je 2-mal sowie 7 und 9 je 1-mal.

Rekombinations-Phase

Die selektierten Besen bilden die Elterngeneration; sie werden auf der Genotyp-ebene rekombiniert. Dazu sind die Genome von jeweils zwei Besen an einer zufäl-lig gewählten Stelle des Bit-Codes im Bereich [1, 19] zu kreuzen.

In Abb. 5-43 sind die fünf Elternpaare mit den zugehörigen Crossover-points dargestellt. Die Besen, deren Bit-Strings gekreuzt werden, sind per Zufallsprinzip bestimmt worden. Bei der Programmierung des Zufallsgenerators wurde darauf geachtet, dass die Wahrscheinlichkeit, zwei gleiche Elternteile auszuwählen und damit Klone zu bekommen, in jeder Runde minimiert wird. Im konkreten Fall gehen aus den 5 Paarungen mit der Nummerierung [A, E] 10 Kinder hervor, die sich in ihrem Gen-Code in jeweils mind. einer Bit-Stelle von ihren Eltern unter-

Page 346: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

324 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

scheiden. Dadurch wird sichergestellt, dass eine möglichst hohe Variation der Merkmale/ Merkmalsausprägungen in der nachfolgenden Runde eintritt.

Abb. 5-42: Selektion der Besen nach dem Roulette-Wheel-Verfahren

Abb. 5-43: Rekombination der Besen der 1. Elterngeneration per Zufallsprinzip

Mutations-Phase

Die Mutations-Phase umfasst das manuelle und/ oder automatisierte Erzeugen zufälliger Änderungen im Bit-Code. Anschließend wird kurz auf die weitere Ent-wicklung der Fitness der Besen-Population sowie die Generierung von Produktin-novationen mit TRIZ eingegangen.

Nr. Elternteil 1 Elternteil 2 Kinder CrossoverpointA 5 x 3 = a+b 14B 6 x 4 = a+b 18C 3 x 7 = a+b 7D 5 x 9 = a+b 7E 6 x 4 = a+b 11

517%

610%

74%

84%

315%

213%

17%

109%

99%

412%

20,13

0,202

0,13

0,20

30,15

0,353

0,15

0,35

10,07

0,071

0,07

0,07

40,12

0,474

0,12

0,4750,17

0,645

0,17

0,64

60,10

0,746

0,10

0,74

70,04

0,787

0,04

0,78

80,04

0,828

0,04

0,82

90,09

0,919

0,09

0,91

100,09

1,0010

0,09

1,00

Besen-Nr.

Kum. rel. Fitness

Rel. Fitness

Zufallszahl 0,52 0,67 0,21 0,52 0,68 0,42 0,87 0,77 0,41 0,29Selektierte Lösung 5 6 3 5 6 4 9 7 4 3

Page 347: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 325

(a) Erzeugen zufälliger Änderungen im Bit-Code

Die Merkmalsausprägungen der Besen sind in der Anfangspopulation in einigen Dimensionen zu einem hohen Grad deckungsgleich (siehe Abb. 5-39). Aus diesem Grund wurde die Mutationswahrscheinlichkeit (MUTPROB) zu Beginn des Ver-besserungsprojektes vergleichsweise hoch gewählt; sie beträgt in der ersten Runde 10%. Die zufälligen Veränderungen des Bit-Codes werden per Flip-Mutation erzeugt (vgl. Abschnitt 4.3.3). Konkret bedeutet dies, dass sich bezogen auf ein Chromosom der Kindergeneration der Bit-Code an einer beliebigen Stelle mit einer Wahrscheinlichkeit von 10% verändert, d.h. von „0“ auf „1“ springt oder umgekehrt. Auf diese Weise treten in der ersten Kindergeneration genau zwei Mutationen im Chromosomensatz auf: (1) Besen mit der Nr. 4 (Kind D1) an der Bit-Stelle 15 und (2) Besen mit der Nr. 8 (Kinde C2) an der Bit-Stelle 18. Von den Mutationen sind auf der Phänotypebene das Merkmal M7 (Bündelstärke) bei Be-sen-Nr. 4 und M8 (Länge der Borsten) bei Besen-Nr. 8 betroffen.

In Abb. 5-44 ist die Besen-Population für die zweite Runde in dekadischer und binärer Form dargestellt. Die Mutationen sind im Binär-Code durch entsprechende Markierungen hervorgehoben. Wie leicht nachvollziehbar ist, wurden bzgl. der genannten Merkmale zusätzlich zwei Mutationen „per Hand“ eingefügt. Sie be-ziehen sich auf die Besen mit der Nr. 2 (Kind B1) und der Nr. 9 (Kind D2). Auf-grund der Ergebnisse der ersten Mess- bzw. Evaluations-Phase versprach sich das Projektteam hiervon einen weiterführenden Erkenntnisgewinn, und zwar in Bezug auf die optimale Gestaltung von Borstenlänge und -stärke.

Abb. 5-44: Population für 2. Optimierungsrunde in dekadischer und binärer Darstellung

Bit-Stelle 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

Länge deAnzahl deWinkelneMaterialsorte BorstennBorstennBündelstärke*Länge der Bor1 Elaston-40 0 1 1 0 1 0 0 0 0 1 0 1 0 1 0 0 1 0 12 A-E-Mischung-40 0 1 0 1 1 0 0 1 0 0 1 0 1 0 0 0 1 0 13 Polymex-60 1 1 0 1 1 0 1 0 1 1 0 1 0 0 0 0 0 1 04 Arenga-40 0 1 1 0 1 0 1 0 0 0 1 0 1 1 1 0 1 0 15 A-E-Mischung-40 0 1 0 1 1 0 0 1 0 0 1 0 1 1 0 0 1 0 16 A-E-Mischung-60 1 1 0 1 1 0 0 1 0 0 1 0 1 1 0 0 1 0 17 Kokos-60 1 1 0 1 1 0 0 0 1 0 1 0 1 1 0 0 1 0 18 A-E-Mischung-40 0 1 1 1 1 0 0 1 0 0 1 0 1 1 0 0 1 1 19 Elaston-40 0 1 0 1 1 0 0 0 0 1 0 1 0 1 0 0 1 1 1

10 Kokos-60 1 1 0 1 1 0 0 0 1 0 1 0 1 1 0 0 1 0 1

M7 M8Besen-Nr. Bezeichnung M5 M6M1 M2 M3 M4

Runde 2M1 M2 M3 M4 M5 M6 M7 M8

Länge desAnzahl de Winkelne Materialsorte BorstenneBorstenneBündelstä Länge der1 Elaston-40 40 7 35 Elaston 16 16 6,0 7,52 A-E-Mischung-40 40 6 35 A-E-Mischung 8 8 4,0 7,53 Polymex-60 60 6 35 Polymex 16 16 4,0 6,04 Arenga-40 40 7 35 Arenga 8 8 7,0 7,55 A-E-Mischung-40 40 6 35 A-E-Mischung 8 8 6,0 7,56 A-E-Mischung-60 60 6 35 A-E-Mischung 8 8 6,0 7,57 Kokos-60 60 6 35 Kokos 8 8 6,0 7,58 A-E-Mischung-40 40 8 35 A-E-Mischung 8 8 6,0 8,59 Elaston-40 40 6 35 Elaston 16 16 6,0 8,510 Kokos-60 60 6 35 Kokos 8 8 6,0 7,5

Besen-Nr. Bezeichnung

Page 348: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

326 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Trotz der „klonfreien“ Rekombination und der zahlreichen Mutationen ist die mittlere Übereinstimmung des Genoms zwischen Eltern- und Kindergeneration relativ hoch; sie beträgt 89% und ergibt sich aus einem Vergleich der kumulierten Anzahl von „0“ und „1“ je Bit-Stelle in der Matrix der Eltern- und Kindergenera-tion. Im weiteren Verlauf nimmt die Rate der Übereinstimmung tendenziell zu. Auf der Phänotypebene führt dies dazu, dass die Lösungskandidaten von Runde zu Runde immer ähnlicher werden; sie konvergieren in Richtung globales Optimum (vgl. Abschnitt 4.3.4). Letzteres ist nach 5 Runden erreicht, so dass der IESRM-Zyklus – entgegen der ursprünglichen Initialisierung – bereits nach der Hälfte der geplanten Rundenzahl abgebrochen wird (MAXITER). Die wesentlichen Ergeb-nisse sind im Folgenden zusammengefasst.

(b) Zusammenfassung der Projektergebnisse

Analog zum Papier-Rotor entwickelt sich die mittlere geometrische Fitness der Population in Form einer S-Kurve (vgl. Abschnitt 5.4.1). Der Wert steigt inner-halb von 5 Optimierungsrunden von ca. 1,0 auf über 2,0. Der beste Besen in Run-de 5 besitzt eine Fitness von fit* = 2,23. Dabei zeigt die Selektion bereits nach zwei Runden ihre (volle) Wirkung – die Fitness der Population steigt in Runde 3 schlagartig an und verbleibt im Folgenden auf einem etwa gleich hohen Niveau. Zu diesem Zeitpunkt sind insgesamt 30 unterschiedliche Besenmodelle produziert und getestet worden. Ca. die Hälfte der angegebenen Modelle konnte auf der Grundlage von Modellen in Vorgängerrunden erstellt werden. Dadurch hielt sich der Aufwand für die Erstellung der Muster in Grenzen. Der angestrebte Net Bene-fit konnte in der in Abb. 5-33 ausgewiesenen Höhe generiert werden.

In Abb. 5-45 ist die Steigerung der mittleren Fitness der Population innerhalb von 5 Optimierungsrunden (Generationen) nachvollziehbar. Ergänzend hierzu ist die geschätzte Fitnessfunktion63 über 10 Runden angegeben. Mit ihrer Hilfe lässt sich das verbleibende Optimierungspotenzial schätzen. Dieses ergibt sich als Differenz zwischen der angestrebten mittleren Fitness in Runde 10⎯fit10 = 2,22 und der tat-sächlich erreichten mittleren Fitness in Runde 5⎯fit5 = 2,08; das Potenzial beträgt im vorliegenden Fall Δfit5, 10 = 0,14. Im Verhältnis zum insgesamt vorhandenen Optimierungspotenzial sind dies nicht mehr als 12%. Um in Zukunft einen weite-ren signifikanten Anstieg der Fitness zu erreichen, sind Basisinnovationen erfor-derlich, die zu einem Technologiesprung führen (vgl. Abschnitt 3.1.2).

63 Die geschätzte Fitnessfunktion basiert auf folgenden Parametereinstellungen: (a) Der-

zeitige mittlere Fitness fit1 = 1,0; (b) Sigma-Skalierungsfaktor σS = 0,64; (c) Sigma-skalierte derzeitige mittlere Fitness fit1 – σS = 0,36; (d) Angestrebte mittlere Fitness fit10 = 2,22; (e) Sigma-skalierte angestrebte mittlere Fitness fit10 – σS = 1,58; (f) Form-parameter Lambda λ = 1,02. Diese Einstellungen führen zu einem mittleren quadra-tischen Fehler bei der Schätzung i.H.v. MSEB = 0,005.

Page 349: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 327

Abb. 5-45: Entwicklung der Fitness der Besen-Population

Das Design des optimalen Besens in der Endpopulation unterscheidet sich vom besten Besen (Nr. 5) in der Ausgangspopulation in 2 von 8 Merkmalen (siehe Abb. 5-46). Gegenüber letztgenannten konnte die Fitness bis zum Abschluss der 5. Runde um ca. 8% gesteigert werden. Die Erklärung für diesen eher geringen Un-terschied geht zum einen dahin, dass das produktbezogene Know-how bereits sehr hoch ist. Besen dieser Art werden bereits seit mehr als 50 Jahren im Unternehmen produziert. Zum anderen wurde bei der Initialisierung des Entwicklungsprozesses vom bestehenden Produktportfolio ausgegangen. Dieses enthält Besenmodelle, deren Kehreigenschaften im Hinblick auf unterschiedliche Anwendungsbedingun-gen seit Jahrzehnten „optimiert“ worden sind. Damit war die Wahrscheinlichkeit hoch, gleich zu Beginn des IESRM-Zyklus einen Besen aufzunehmen, der die Anforderungen des o.g. Messsystems „sehr gut“ erfüllt.

Im Umkehrschluss bedeutet das Ergebnis des F&E-Projektes aber auch, dass der IESRM-Zyklus ein effektives Vorgehensmodell beinhaltet, das bei systematischer Anwendung zu optimalen Lösungen führt. Ausgehend von einer Population mit Besen, die z.T. für ganz unterschiedliche Anwendungsbereiche konzipiert sind, werden nach und nach die auf die Messanordnung am besten „passenden“ Besen selektiert. Diese werden gleichzeitig über die Rekombination und Mutation ihres Bit-Codes kontinuierlich weiterentwickelt. Am Ende des Problemlösungszyklus liegt ein fitnessmaximaler Besen vor, der sich mit seinen spezifischen Merk-malsausprägungen noch nicht im Portfolio des Unternehmens befindet.

0,0

0,5

1,0

1,5

2,0

2,5

1 2 3 4 5 6 7 8 9 10

Generation

Fitn

ess

(Geo

-Mitt

el)

Tatsächliche Fitness Geschätzte Fitness

64,0

36,036,058,1

58,1)(

)1(02,1

)1(02,1

++

−⋅

=−⋅

−⋅

ee

g

g

Pop gfit

ΔΔΔΔfit5,10

Page 350: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

328 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Abb. 5-46: Morphologischer Kasten mit Profillinien für beste Besen

Vor diesem Hintergrund hat sich aus Unternehmenssicht die Anwendung des IESRM-Zyklus zur Entwicklung eines Straßenbesens mit optimierten Kehreigen-schaften prinzipiell gelohnt. Die formulierten Ziele in der Projektcharter wurden in weiten Teilen erreicht. Als einziges Manko bleibt festzuhalten: Aufgrund des gewählten Lösungsraums, der sich primär auf traditionelle Vorstellungen über die zu optimierenden Merkmale bei einem Straßenbesen stützt, blieb das Auffinden eines wirklich innovativen Produktdesigns ohne Erfolg. Hierzu sind weiterführen-de Aktivitäten mit einem veränderten Fokus notwendig. Zu diesem Zweck wurde am Ende des Projektes ein halbtägiger Innovationsworkshop durchgeführt.

(c) Generieren von Produktinnovationen mit TRIZ

Das Ziel des Workshops bestand darin, unter Anwendung von einfachen intuitv-kreativen Techniken aus dem Bereich TRIZ konkrete Produktinnovationen zu generieren. Nach einer kurzen Einführung zur widerspruchsorientierten Problem-lösungstechnik wurde die Antizipierende Fehlererkennung (AFE) als zielführen-des Werkzeug ausgewählt. Es bezieht sich auf drei von vier TRIZ-Säulen: Syste-matik, Analogie und Wissen (siehe Abb. Abb. 5-2).

Auf der Basis von AFE soll ein kreativer Verständnis- und Lern-Prozess in Gang gesetzt werden (vgl. Herb 2003, S. 1ff.), bei dem die folgende Frage im Mittel-punkt steht: „Was muss getan werden, um das System/ Produkt zum Versagen zu bringen?“. Um System-/ Produktinnovationen zu generieren, wird – entsprechend der TRIZ-Philosophie – der Konflikt bewusst erzeugt und soweit wie möglich verstärkt (vgl. Abschnitt 5.1.2), d.h. man legt die Konstruktion so aus, dass eine

Bester Besen 5. RundeFitness: 2,23

Bester Besen 1. RundeFitness: 2,07

8,5 cm8,0 cm7,5 cm7,0 cm6,5 cm6,0 cm5,5 cm5,0 cmLänge der Borsten**

8

7,5 mm7,0 mm6,5 mm6,0 mm5,5 mm5,0 mm4,5 mm4,0 mmBündel-stärke*

7

25°16°8°0°Borstennei-gung quer

6

25°16°8°0°Borstennei-gung längs

5

PP-Copo

BasinePoly-mex

A-E-Mi-schung

Natur-haar

ArengaKokosElastonMaterial-sorte

4

45°35°30°0°Winkelnei-gung Stiel

3

8765Anzahl der Lochreihen

2

60 cm50 cm40 cm34 cmLänge des Holzkörpers

1

Ausprä-gung 8

Ausprä-gung 7

Ausprä-gung 6

Ausprä-gung 5

Ausprä-gung 4

Ausprä-gung 3

Ausprä-gung 2

Ausprä-gung 1

Merkmals-bezeichnung

Nr.

8,5 cm8,0 cm7,5 cm7,0 cm6,5 cm6,0 cm5,5 cm5,0 cmLänge der Borsten**

8

7,5 mm7,0 mm6,5 mm6,0 mm5,5 mm5,0 mm4,5 mm4,0 mmBündel-stärke*

7

25°16°8°0°Borstennei-gung quer

6

25°16°8°0°Borstennei-gung längs

5

PP-Copo

BasinePoly-mex

A-E-Mi-schung

Natur-haar

ArengaKokosElastonMaterial-sorte

4

45°35°30°0°Winkelnei-gung Stiel

3

8765Anzahl der Lochreihen

2

60 cm50 cm40 cm34 cmLänge des Holzkörpers

1

Ausprä-gung 8

Ausprä-gung 7

Ausprä-gung 6

Ausprä-gung 5

Ausprä-gung 4

Ausprä-gung 3

Ausprä-gung 2

Ausprä-gung 1

Merkmals-bezeichnung

Nr.

* Lochdurchmesser ** Sichtbare Länge

Page 351: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 329

Fehlfunktion unausweichlich wird. Die Lösung des Ausgangsproblems/ -konflikts erfolgt nicht auf direktem Weg, sondern zunächst über die Lösung des invertierten Problems. Der Prozess läuft in sechs Schritten ab, die wie folgt am Beispiel Stra-ßenbesen nachvollzogen werden können:

(1) Problem beschreiben: Straßen- und Gehwegflächen, die rund ums Haus zu kehren sind, sind i.d.R. unterschiedlich stark verschmutzt. An manchen Stel-len befindet sich viel Dreck, an anderen nur wenig. Außerdem weichen Korn-größe und -beschaffenheit stark voneinander ab, so dass mehrere Kehrvor-gänge notwendig sind, um alle Abschnitte gründlich zu reinigen.

(2) Problem umkehren: Der Straßendreck/ -schmutz ist nach Korngröße und -be-schaffenheit sortiert und jeweils gleichmäßig auf der zu reinigenden Fläche verteilt. Die Kehrfläche kann in mehrere Abschnitte unterteilt werden, auf der sich jeweils nur eine bestimmte Art und Menge von Dreck befindet.

(3) Problemumkehrung verstärken: Der Dreck, der sich auf den einzelnen Flächenabschnitten befindet, ist hinsichtlich Art und Größe standardisiert und normiert. Die „Verschmutzung“ lässt sich bei Bedarf genau in der vorgegebe-nen Weise wiederherstellen. Zu diesem Zweck wird das Kehrgut in abgepack-ten Mengen – nach gewünschter Spezifika – zur Verfügung gestellt.

(4) Umgekehrtes Problem lösen: In Abhängigkeit von Korngröße und -beschaf-fenheit des Straßendrecks wird jeder Abschnitt mit einem „passenden“ Besen gereinigt. „Passend“ bezieht sich in diesem Zusammenhang vor allem auf die gewählte Materialsorte, z.B. Elaston zum Beseitigen von Grobschmutz und Naturhaar zum Beseitigen von Feinschmutz. Allgemein gilt: Das verwendete Material sollte umso stärker sein, je grobkörniger der Dreck ist.

(5) Lösung wieder umkehren: Es werden mehrere Besen mit unterschiedlichem Besteckmaterial (Borstenbündel und -stärke) aneinander gereiht. Durch die Kombination ist es möglich, Flächenabschnitte, die mit unterschiedlich grob-körnigem Material verschmutzt sind, mit einem Besenzug zu reinigen.

(6) Endgültige Lösung finden: Die Innovation besteht darin, einen Besen zu kon-struieren, der mit unterschiedlichem Material (z.B. Elaston und Naturhaar) bestückt ist. Die Anordnung der Materialien ist reihenweise, und zwar begin-nend mit dem gröbsten Material an der Vorderseite des Holzkörpers. An der Rückseite befindet sich das Material mit den feinsten Haaren.

Im Ergebnis dieser Analyse wurde ein erster Prototyp mit zwei Materialsorten – Elaston und Kokos – entwickelt. Beim Test der Kehreigenschaften stellte sich heraus, dass der hybride Besen eine höhere Fitness besitzt als die beiden originä-ren Besenvarianten mit nur einer Materialsorte. Für den Besen (Elaston-Kokos, 50 cm, 6 Reihen), der auf den Besen mit der Nr. 2 und Nr. 4 in der Ausgangspopula-tion basiert, ergibt sich ein Degressionsfaktor b von -1,64 bzw. ein Fitnesswert von 1,64. Letzterer liegt um 7% bzw. 13% höher als der Wert, der bei den vorste-hend genannten Varianten ermittelt wurde (siehe Abb. 5-41).

Page 352: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

330 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

Für den Kunden resultieren aus der Kombination von zwei Materialsorten gleich zwei Vorteile: Zum einen erfährt er einen höheren Produktnutzen aufgrund der besseren Kehrwirkung des Besens. Zum anderen kommt er in den „Genuss“ eines Preisvorteils, wenn – wie im Fall des Besens mit der Nr. 2 – ein Teil des höher-wertigen Materials (Elaston) durch ein geringwertigeres Material (Kokos) substi-tuierbar ist und die Kosteneinsparungen für das Unternehmen – zumindest teilwei-se – an den Kunden weitergegeben werden.

Die Verwendung von mehr als zwei Materialsorten in einem Besen ist aufgrund von technologischen Beschränkungen zum gegenwärtigen Zeitpunkt nicht mög-lich. Als Alternative bietet sich die Verwendung von Mischungen an, wie es z.B. bei den Besen mit der Nr. 3 und Nr. 6 in der Ausgangspopulation der Fall ist. Hier werden die Sorten Arenga (relativ dünn und flexibel) und Elaston (relativ dick und starr) als Mischung in den Holz-/ Plastekörper eingebracht.64

Der hybride Besen stellt sozusagen eine Produktinnovation dar, die im Weiteren zu optimieren ist. Analog zum Papier-Rotor in Abschnitt 5.3.1 lässt sich ein 2. Verbesserungszyklus65 mit einem leicht veränderten Lösungsraum unmittelbar anschließen. Für die Einbeziehung von zwei Materialsorten – mit jeweils 8 Merk-malsausprägungen – ist der bis dato verwendete Bit-Code um 3 Stellen zu erwei-tern. Die Chromosomengröße erhöht sich damit auf insgesamt 22 Bit-Stellen. Dabei wird davon ausgegangen, dass das Mengenverhältnis der zwei Materialsor-ten bei allen Besenvarianten konstant ist. Soll dies nicht der Fall sein, dann ist eine zusätzliche Merkmalsvariable einzuführen, in der das Verhältnis festgelegt wird, z.B. auf der Basis der Anzahl von Bündeln je Sorte. Die Größe des Bit-Codes steigt entsprechend der gewählten Auflösung in diesem Merkmal.

Zwischenfazit: Die hohe Effektivität der deduktiv abgeleiteten Vorgehensmodelle – DMAIDV- und IESRM-Zyklus – kann auch anhand des zweiten Anwendungs-beispiels gut belegt werden. Ihre Wirksamkeit äußert sich in den Dimensionen Qualität und Innovation, die vor allem im Rahmen des Produktentstehungsprozes-ses (PEP) relevant sind. Im Hinblick auf die Beurteilung der Effizienz der abgelei-teten Vorgehensmodelle ist das Ergebnis differenzierter zu bewerten. Hierzu wird abschließend, anhand der explorativen Untersuchungen, eine Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus vorgenommen; sie basiert auf der Grundlage von monetären und nicht-monetären Kriterien (siehe Abb. 5-47), deren Ausprägungen gleichzeitig die Anwendungsvoraussetzungen für den wirkungsvol-len Einsatz der drei Problemlösungszyklen beschreiben.

64 Besen dieser Art werden z.B. von der Berliner Stadtreinigung genutzt. Nach Auskunft

des Unternehmens EBF erfreuen sie sich immer größerer Beliebtheit, vor allem im ge-werblichen Bereich.

65 Ein 2. Verbesserungszyklus, bei dem insgesamt 10 Merkmale berücksichtigt werden, befand sich zum Ende dieses Projektes in Planung. Im Hinblick auf die Entwicklung der Fitness wird erwartet, dass die S-Kurve deutlich oberhalb der Kurve aus dem 1. Zyklus zum Liegen kommt.

Page 353: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

5.3 Empirische Überprüfung der Effektivität der entwickelten Vorgehensmodelle 331

Abb. 5-47: Gegenüberstellung von DMADV-, DMAIDV- und IESRM-Zyklus

Für die monetäre Bewertung der Vorteilhaftigkeit von DMADV-, DMAIDV- und IESRM-Zyklus ist eine Kostenvergleichrechnung66 durchgeführt worden. Dabei wird von folgendem Szenario ausgegangen: Ein Mitarbeiter, der bereits eine 2-wöchige Green Belt-Ausbildung absolviert hat und über verschiedene Projekter-fahrungen verfügt, soll ein Six Sigma-Projekt im F&E-Bereich durchführen. Pro-zessablauf und Methodeneinsatz sind nach einem der o.g. Problemlösungszyklen zu gestalten. Die notwendige Trainingsmaßnahme erfolgt im Zuge der Projektbe-arbeitung, wobei ein Coaching durch einen erfahrenen (Master) Black Belt statt-findet. Bei der Ermittlung der Schulungskosten wird von einem qualifizierenden Black Belt-Training von 2 Wochen ausgegangen; die Teilnahmegebühr hierfür beläuft sich auf ca. 5.000 €, d.h. 500 € pro Tag und Teilnehmer.

Für die Schulung des DMADV-Zyklus sind – je nach Kenntnisstand der Teilneh-mer – mind. 5 Tage zu veranschlagen. Für eine fundierte TRIZ-Ausbildung im Rahmen des erweiterten DMAIDV-Zyklus sind zusätzlich mind. 2 Tage einzupla-nen. Die praxisnahe Vermittlung der Inhalte des IESRM-Zyklus erfordert ca. 3 Tage. Pro Phase wird üblicherweise ein 1-tägiger Workshop (WS) durchgeführt, bei dem die phasenspezifischen Ergebnisse sowie das weitere Vorgehen gemein-

66 Für die Ermittlung der Vorteilhaftigkeit wird hier davon ausgegangen, dass die Anwen-

dung der Problemlösungszyklen ergebnisneutral ist, d.h. die drei Vorgehensmodelle führen jeweils zum gleichen Produkt-/ Prozessergebnis mit demselben Gewinn.

Bei den verwendeten Kostensätzen handelt es sich um Durchschnittswerte von ein-schlägigen Six Sigma-Beratungsunternehmen, z.B. M+M Consulting GmbH, Kassel, und Vorest AG, Pforzheim.

Nicht-monetäre Kriterien

Monetäre Kriterien

Hochn Generationen

GeringExcel

MittelEA, GA

9.000 € / MA

7.500 € (5 WS-Tage)

1.500 € (3 Tage)

IESRM

Prototypen-Erstellung

Software-Anwendung

Methoden-Know-how

Kosten für Schu-lung mit Projekt

Projektkosten (1.500 € / Tag)

Schulungskosten(500 € / Tag)

PM-Zyklus

Mittel2k-q-Designs

Mittelz.B. Minitab, Excel

MittelQFD, DOE

10.000 € / MA

7.500 €(5 WS-Tage)

2.500 €(5 Tage)

DMADV

Hoch QFD, DOE, TRIZ

HochMinitab, Excel, I-TRIZ

Mittel2k-q-Designs

3.500 €(7 Tage)9.000 €

(6 WS-Tage)

12.500 € / MA

DMAIDV

Nicht-monetäre Kriterien

Monetäre Kriterien

Hochn Generationen

GeringExcel

MittelEA, GA

9.000 € / MA

7.500 € (5 WS-Tage)

1.500 € (3 Tage)

IESRM

Prototypen-Erstellung

Software-Anwendung

Methoden-Know-how

Kosten für Schu-lung mit Projekt

Projektkosten (1.500 € / Tag)

Schulungskosten(500 € / Tag)

PM-Zyklus

Mittel2k-q-Designs

Mittelz.B. Minitab, Excel

MittelQFD, DOE

10.000 € / MA

7.500 €(5 WS-Tage)

2.500 €(5 Tage)

DMADV

Hoch QFD, DOE, TRIZ

HochMinitab, Excel, I-TRIZ

Mittel2k-q-Designs

3.500 €(7 Tage)9.000 €

(6 WS-Tage)

12.500 € / MA

DMAIDV

Quelle: Eigene Darstellung

Page 354: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

332 5 Theorie-Praxis-Transformation: Vom abstrakten zum konkreten Vorgehensmodell

sam mit dem Coach (als Moderator) geplant und durchgesprochen werden. Der Tagessatz für einen Six Sigma-Coach liegt bei mind. 1.500 €.67

Unter diesen Voraussetzungen belaufen sich die Kosten für Schulung mit integ-riertem Projekt von max. 6-monatiger Dauer auf 10.000 € pro Mitarbeiter bei einem „klassischen“ DFSS-Projekt, das nach dem DMADV-Zyklus durchgeführt wird. Aufgrund der zusätzlichen Phase „Innovate“ sind die Kosten pro Mitarbeiter bei der zweiten Variante auf Basis des DMAIDV-Zyklus etwas höher und liegen bei 12.500 €. Wie in Abb. 5-47 aufgeführt ist, zieht die Durchführung eines Pilot-projektes nach dem IESRM-Zyklus tendenziell weniger Kosten pro Mitarbeiter nach sich; sie betragen ca. 9.000 €. Sowohl beim DMAIDV- als auch IESRM-Zyklus handelt es sich um eine erste qualifizierte Schätzung, die im Rahmen von (umfangreicheren) empirischen Untersuchungen zu überprüfen ist.

Zur Festlegung der Ausprägungen bei den nicht-monetären Kriterien dient der DMADV-Zyklus als Vergleichsmaßstab. Die Kriterien umfassen zum einen das Methoden-Know-how, z.B. in Statistik, welches für die zielführende Umsetzung des jeweiligen Problemlösungszyklus erforderlich ist. Zum anderen stellt der Ein-satz von IT & Software ein wichtiges Effizienzkriterium dar. Bei beiden Kriterien ist das Anforderungsniveau, welches beim DMAIDV-Zyklus zugrunde gelegt wird, relativ hoch. Neben der Durchführung von statistischen Analysen, z.B. auf der Basis von Minitab und Excel, sind hier spezielle TRIZ-Applikationen mit/ ohne Software-Unterstützung notwendig, z.B. I-TRIZ. Darüber hinaus ist als drit-tes Kriterium der Aufwand zu berücksichtigen, der sich aus der Erstellung von Prototypen und der Durchführung von Versuchen ergibt. Dieser ist beim IESRM-Zyklus vergleichsweise hoch, da hier eine systematische Reduktion von Versuchs-anordnungen, wie sie z.B. bei DOE der Fall ist, nicht verfolgt wird.

67 Reisekosten und Spesen bleiben aufgrund ihrer individuellen Höhe bei der Kalkulation

der Projekt- sowie Schulungskosten unberücksichtigt. Auch werden – im Sinne der Net Benefit-Berechnung bei Six Sigma-Projekten (vgl. Abschnitt 2.2.3) – keine Opportuni-tätskosten berücksichtigt, z.B. Ausfallszeiten der Mitarbeiter im Tagesgeschäft auf-grund von Schulungsmaßnahmen oder Projektaktivitäten.

Page 355: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick Die Debatte, um den Aufwand und Nutzen von Six Sigma, hat sich in den vergan-genen Jahren deutlich zugespitzt. Verschiedene Experten kommen heute zu dem Schluss, dass Six Sigma nicht länger ausreicht, um die hohen Erwartungen der Anleger und Investoren zu erfüllen. Diese beziehen sich vor allem auf die zu er-wartenden Wachstumsraten eines Unternehmens. Eine kontinuierliche Gewinnzu-nahme über mehrere Jahre, die aus systematischen Prozessverbesserungen resul-tiert, ist häufig nicht genug. Aus diesem Grund sind die einschlägig bekannten Six Sigma-Unternehmen wie General Electric und Motorola unter Zugzwang. Zum einen geht es ihnen darum, die Effizienz ihrer Six Sigma-Aktivitäten zu erhöhen, z.B. durch eine stärkere Berücksichtigung des Lean-Gedankens. Zum anderen steht die Frage nach der Erhöhung der Effektivität von Six Sigma im F&E-Bereich im Raum. Um Umsatzsteigerungen zu erzielen, sind neue Produkte erforderlich, die in immer kürzeren Zeitabständen auf den Markt gebracht werden und die Be-dürfnisse/ Anforderungen der Kunden bestmöglich erfüllen.

Durch die Berücksichtigung der Six Sigma-Philosophie im Produktentstehungs-prozess (PEP) soll bereits von Produktionsstart an 6σ-Qualität, d.h. 99,99966% Fehlerfreiheit, erreicht werden.1 Um F&E-Projekte möglichst ergebnisorientiert steuern und durchführen zu können, wurden in der Vergangenheit eine Reihe von phasenorientierten Vorgehensmodellen entwickelt, z.B. DMADV, DMEDI und DCCDI (vgl. Simon 2002). Heute konkretisiert sich die projektorientierte Aus-richtung von Six Sigma in zwei standardisierten Problemlösungszyklen, nämlich dem DMAIC-Zyklus als prozessbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Improve (I) und Control (C) sowie dem DMADV-Zyklus als entwicklungsbezogenes Six Sigma mit den fünf Phasen Define (D), Measure (M), Analyse (A), Design (D) und Verify (V).

Die Anwendung des Managementkonzepts Six Sigma im F&E-Bereich ist unter dem Begriff Design for Six Sigma (DFSS) bekannt. Es stellt – bildlich gesprochen – einen „Blick durch die Frontscheibe“ dar, da hier zukünftig wichtige Kundenan-forderungen ermittelt und erfüllt werden (vgl. Töpfer/ Günther 2007a). Demge-genüber ermöglicht das prozessbezogene Six Sigma auf der Basis des DMAIC-Zyklus einen „Blick durch den Rückspiegel“. Ziel ist es, den aktuellen Wertschöp-fungsprozess im Hinblick auf eine höhere Kundenzufriedenheit/ -bindung sowie eine effizientere Aufbau-/ Ablauforganisation in kurzer Zeit signifikant zu verbes-sern. DMAIC-Projekte besitzen erfahrungsgemäß eine Dauer von 3 bis 6 Mona-ten; in diesem Zeitraum werden Netto-Einsparungen (Net Benefit) von mehr als 50.000 € erzielt. Aufgrund der Zurechnungs-/ Messproblematik liegen für die Durchführung von DMADV-Projekten keine entsprechenden Zahlen vor.

1 6σ ist eine statistische Kennzahl und steht für 3,4 Fehler pro 1 Mio. Fehlermöglich-

keiten (DPMO – Defects per Million Opportunities), welches auch als praktikables Niveau für Null-Fehler-Qualität bezeichnet wird (vgl. Töpfer/ Günther 2007a).

Page 356: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

334 6 Zusammenfassung, Schlussfolgerungen und Ausblick

Die Konzeption und Inhalte der Six Sigma-Problemlösungszyklen sind das Ergeb-nis von unternehmensbezogenen Forschungs- und Entwicklungsaktivitäten: So ist der DMAIC-Zyklus, basierend auf dem PDCA-Zyklus, bei Motorola Ende der 1980er Jahre entstanden; der DMADV-Zyklus geht maßgeblich auf General Elect-ric Mitte der 1990er Jahre zurück. Beide Unternehmen realisierten mit dem Ein-satz von Six Sigma zur Optimierung von bestehenden Produkten und Prozessen Netto-Einsparungen von mehreren 100 Mio. € p.a. Die strukturellen und prozessu-alen Veränderungen, die durch den Einsatz des DMADV-Zyklus erzielt werden, sind in Ausmaß und Reichweite i.d.R. deutlich größer als beim DMAIC-Zyklus. Jedoch zeigt sich gleichzeitig, dass die Umsetzung von DFSS häufig mit mehr Schwierigkeiten verbunden ist, als ursprünglich geplant, und zudem die Chancen eines erfolgreichen Projektabschlusses deutlich geringer sind.

Aus heutiger Sicht hat sich der DMADV-Zyklus gegenüber dem DMAIC-Zyklus nicht bewährt. Obwohl viele Unternehmen die Bedeutung von Null-Fehler-Qualität im F&E-Bereich erkannt haben, läuft die konkrete Umsetzung von DFSS häufig ins Leere (vgl. Hammer 2002). Das Realisationsverhältnis von DMAIC- zu DMADV-Projekten wird von Experten auf bis zu 20 zu 1 geschätzt, d.h. auf 1 durchgeführtes DFSS-Projekt kommen ca. 20 „klassische“ Six Sigma-Projekte nach dem DMAIC-Zyklus. Die Anzahl von Dokumentationen/ Berichten über er-folgreiche DMADV-Projektanwendungen ist entsprechend gering. Gleichzeitig werden für die Bereiche Konstruktion/ Entwicklung sowie Service/ Vertrieb Defi-zite in der Anwendung von (Design for) Six Sigma ausgemacht. Der Methoden-einsatz ist gegenüber dem DMAIC-Zyklus weniger stark standardisiert, so dass sich der Vergleich von DFSS-Projekten i.A. schwierig(er) gestaltet.

Zielverfehlungen im PEP äußern sich unmittelbar in Produktflops. Sie resultieren in erster Linie aus der Anforderung, alle zukünftigen wesentlichen Kundenanfor-derungen (CTQs) zu erkennen und durch die Umsetzung in wettbewerbsfähige Produkte/ Prozesse zu erfüllen. Vor diesem Hintergrund bedeutet 6σ als prakti-zierte Null-Fehler-Qualität im F&E-Bereich vor allem eins: „Die richtigen Dinge tun“. Dabei sind im Gegensatz zur Verbesserung von bestehenden Prozessen die CTQs als Zielwerte der Optimierung weniger klar vom Kunden kommuniziert und von Unternehmensseite generell schwieriger zu ermitteln. Hinzu kommt die An-forderung, möglichst viele Produkt- und Prozessinnovation zu generieren, um die Wettbewerbsfähigkeit in der Zukunft zu sichern. Der Qualitätssicherungsaspekt, Produkte nach vorgegeben Spezifikationen fehlerfrei zu fertigen, um Verluste zu minimieren, kommt erst an zweiter Stelle. Dies hat in jüngster Vergangenheit auch das „Six Sigma-Vorreiterunternehmen“ General Electric2 erkannt.

2 Unter dem CEO, Jeffrey Immelt, der seit 2000 bei GE im Amt ist, wurde das Ziel aus-

gegeben, 8% organisches Wachstum durch eigene, kundengetriebene Innovationen zu erreichen. Ein Ergebnis dieser Innovationsstrategie ist das Programm „Ecomagination“, im Rahmen dessen GE im Jahresrythmus neue, umweltfreundliche Technologien ent-wickeln und auf den Markt bringen will (vgl. Brady 2006, S. 60ff.).

Page 357: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 335

Effektive Vorgehensmodelle der Produktentwicklung zeichnen sich dadurch aus, dass sie Kreativität und Systematik optimal verbinden (vgl. Günther 2004). Im Fall des DMADV-Zyklus ist diese Optimalität noch nicht gefunden; die einzelnen Phasen sind – bis auf die Design-Phase – durch ein stark analytisches Vorgehen geprägt. Dieses wird i.d.R. durch einen gezielten Methodeneinsatz gefördert, z.B. unterstützt der Einsatz der Fehler-Möglichkeits- und Einfluss-Analyse (FMEA) das systematische Aufdecken von Fehlern im Prozess und/ oder am Produkt. Die phasenspezifische Anwendung von Instrumenten und Methoden entscheidet letzt-endlich darüber, wie effizient der PEP abläuft. Im Fall des DMADV-Zyklus sind einschlägig bekannte QM-Methoden den einzelnen Phasen fest zugeordnet, z.B. statistische Testverfahren in der Analyse-Phase, so dass alles in allem von einer relativ hohen Effizienz ausgegangen werden kann.

In der einschlägigen Literatur sind im Laufe der Zeit eine Reihe von Alternativ-/ Verbesserungsvorschlägen zum DMADV-Zyklus vorgestellt und analysiert worden. Sie sollen es erlauben, die übergeordneten Ziele im PEP – ein innovatives und gleichzeitig robustes Design zu erzeugen – besser zu erreichen. Die Vor-schläge gehen i.d.R. auf in Six Sigma spezialisierte Consulting-Unternehmen zurück, welche die prozess- und/ oder methodenbezogenen Veränderungen auf der Basis ihrer häufig mehrjährigen Anwendungserfahrungen begründen (vgl. George 2003). Aus Beratersicht handelt es sich um Best practice-Konzepte, mit denen sich i.A. ein breites Spektrum von Praxisproblemen effizient lösen lässt.

Ziel der vorliegenden Arbeit ist es, einen effektiveren DFSS-Problemlösungs-zyklus aus wissenschaftlicher Sicht zu entwickeln.3 Zu diesem Zweck werden fünf forschungsleitende Fragen in den Mittelpunkt der Analyse gestellt (vgl. Abschnitt 1.2.3). Auf diese beziehen sich die acht Hypothesen, die als vermutete Ursachen-Wirkungsbeziehungen das Kernelement des wissenschaftlichen Erklärungs- und Prognoserahmens (Theoriegebäude) bilden; sie sind in Abb. 6-1 aufgeführt.

Wie leicht nachvollziehbar ist, bauen die Hypothesen inhaltlich aufeinander auf und stehen insgesamt in einem logisch-deduktiven Verhältnis zueinander (siehe auch Abb. 1-9).4 Nach wissenschaftlichen Maßstäben sind sie im Erkenntnispro-zess nicht falsifiziert worden und geben damit einen vorläufig gesicherten Wis-sensbestand wider (vgl. Chalmers 1999, S. 59ff.). Dieser bezieht sich unmittelbar auf den Titel der vorliegenden Dissertation: „Kundenorientierte Produktentwick-lung mit evolutionären Algorithmen im Rahmen des DFSS-Zyklus“.

3 Der Beitrag der Wissenschaft zur Verbesserung/ Weiterentwicklung von Six Sigma und

DFSS bezog sich in der Vergangenheit vor allem auf organisationsbezogene Fragestel-lungen, z.B. Anwendung der Principal-Agent-Theorie bei der Auswahl von Six Sigma-Projekten und Analyse des Anreiz-Beitrags-Gleichgewichts (vgl. Töpfer 2007).

4 Ein deduktives System konstituiert sich aus einem Set von (a) bestimmten und/ oder unbestimmten Konzepten, (b) spekulativen Vermutungen und/ oder plausiblen Annah-men, (c) abgeleiteten Gesetzmäßigkeiten in Form falsifizierbarer Hypothesen sowie (d) unterstützenden empirischen Fakten (vgl. Ackoff et al. 1962, S. 22).

Page 358: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

336 6 Zusammenfassung, Schlussfolgerungen und Ausblick

Abb. 6-1: Übersicht der Hypothesen und empirische Belege

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

UWenn Unternehmen, welche DFSS im PEP anwenden, widerspru-chsorientierte Innovations-Methoden in den Standard-Problem-lösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitiv-krea-tiven Prozessen/ Arbeitsschritten erreicht und (b) ein höherer Ziel-erreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns.

H4

MittelJa- Inhaltsanalyse -

(Qualitativ, selektiv, Eigene Unter-

suchung)

WWenn Problemlösungszyklen, die im Rahmen des PEP zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewo-genes Verhältnis von systematisch-analytischen und intuitiv-krea-tiven Prozessen/ Arbeitsschritten besitzen, dann führt ihre struk-turierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns.

H3

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

UWenn der bei der mathematischen Optimierungsrechnung verwen-dete Evolutionäre Algorithmus (EA) in Form eines konkreten Pro-blemlösungszyklus mit eindeutigem Phasenablauf und strukturier-tem Methodeneinsatz operationalisiert wird, dann führt dessen An-wendung im Rahmen von DFSS zu Produkten/ Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder impli-zit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind.

H7

HochJa- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Feldstudien)

WWenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produk-ten“ die Generierung von Innovation als weitere Zielgröße hinzu-kommt, dann sind durch Unternehmen die wesentlichen zukünf-tigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln.

H1

MittelJa- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Feldstudien)

WWenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüch-licher/ konfliktärer Natur sind, dann führen die in praxi bisher ver-wendeten Vorgehensmodelle/ Problemlösungszyklen zur Generie-rung von Null-Fehler-Qualität, z.B. DMADV-Zyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robus-te und innovative Produkte/ Prozesse hervorzubringen.

H2

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

WWenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produk-te/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwick-elt sich die Zielgröße (a) endogen entsprechend der aus dem Tech-nologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was system-immanente (Technologie-)Sprünge nach sich zieht.

H8

HochJa- Meta-Analyse -(Qualitativ, explo-

rativ, Eigene Unter-suchung)

WWenn reale Vorgehensmodelle/ Problemlösungszyklen nach wis-senschaftlichen Effizienzkriterien zu beurteilen und – entsprech-end der Aufgabenstellung – zu verbessern sind, dann sind die Transformation und der Vergleich mit mathematischen Algorith-men zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung.

H6

Ja- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Fallstudien)

Empirische Belege

MittelWWenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert wer-den, dann führt die theoriebasierte Suche nach Modellverbesse-rungen zu radikalen Neuerungen, die wissenschaftlichen Effizienz-kriterien genügen.

H5

Plausi-bilitätArtHypotheseNr.

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

UWenn Unternehmen, welche DFSS im PEP anwenden, widerspru-chsorientierte Innovations-Methoden in den Standard-Problem-lösungszyklus integrieren, dann wird hierdurch (a) eine höhere Ausgewogenheit von systematisch-analytischen und intuitiv-krea-tiven Prozessen/ Arbeitsschritten erreicht und (b) ein höherer Ziel-erreichungsgrad von Projekten aufgrund der Erzeugung robuster und innovativer Produkt-/ Prozessdesigns.

H4

MittelJa- Inhaltsanalyse -

(Qualitativ, selektiv, Eigene Unter-

suchung)

WWenn Problemlösungszyklen, die im Rahmen des PEP zum Einsatz kommen, in der Weise modifiziert werden, dass sie ein ausgewo-genes Verhältnis von systematisch-analytischen und intuitiv-krea-tiven Prozessen/ Arbeitsschritten besitzen, dann führt ihre struk-turierte Anwendung zu robusten und innovativen Produkt-/ Prozessdesigns.

H3

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

UWenn der bei der mathematischen Optimierungsrechnung verwen-dete Evolutionäre Algorithmus (EA) in Form eines konkreten Pro-blemlösungszyklus mit eindeutigem Phasenablauf und strukturier-tem Methodeneinsatz operationalisiert wird, dann führt dessen An-wendung im Rahmen von DFSS zu Produkten/ Prozessen, die (a) eine maximale Übereinstimmung (Fit) mit den – explizit oder impli-zit – formulierten Kundenanforderungen aufweisen und (b) den mit dem Standard-Problemlösungszyklus (DMADV) gewonnenen Produkt-/ Prozessergebnissen klar überlegen sind.

H7

HochJa- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Feldstudien)

WWenn bei der Entwicklung von neuen Produkten/ Prozessen neben der Erzeugung von Null-Fehler-Qualität i.S.v. „robusten Produk-ten“ die Generierung von Innovation als weitere Zielgröße hinzu-kommt, dann sind durch Unternehmen die wesentlichen zukünf-tigen Kundenanforderungen (CTQs), die als Ausgangspunkt für die gezielte Ableitung von Produkt-/ Prozessmerkmalen dienen, überhaupt nicht oder nur unvollständig zu ermitteln.

H1

MittelJa- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Feldstudien)

WWenn die wesentlichen zukünftigen Kundenanforderungen als Zielwerte der Optimierung im Produktentstehungsprozesses (PEP) (a) nicht oder nur teilweise bekannt und/ oder (b) widersprüch-licher/ konfliktärer Natur sind, dann führen die in praxi bisher ver-wendeten Vorgehensmodelle/ Problemlösungszyklen zur Generie-rung von Null-Fehler-Qualität, z.B. DMADV-Zyklus von Design for Six Sigma (DFSS), nicht zum gewünschten Erfolg, nämlich robus-te und innovative Produkte/ Prozesse hervorzubringen.

H2

HochJa- Primärquellen -

(Quantitativ, explo-rativ, Eigene Unter-

suchung)

WWenn Unternehmen die Leistungsfähigkeit (Fitness) ihrer Produk-te/ Prozesse mithilfe von Vorgehensmodellen, die sich am Vorbild Evolutionärer Algorithmen orientieren, optimieren, dann entwick-elt sich die Zielgröße (a) endogen entsprechend der aus dem Tech-nologiemanagement bekannten „S-Kurve“, also erst steigende und dann fallende Innovationserträge, und (b) zufällig aufgrund des Auftretens von Mutationen auf der Merkmalsebene, was system-immanente (Technologie-)Sprünge nach sich zieht.

H8

HochJa- Meta-Analyse -(Qualitativ, explo-

rativ, Eigene Unter-suchung)

WWenn reale Vorgehensmodelle/ Problemlösungszyklen nach wis-senschaftlichen Effizienzkriterien zu beurteilen und – entsprech-end der Aufgabenstellung – zu verbessern sind, dann sind die Transformation und der Vergleich mit mathematischen Algorith-men zur Optimierung einer einfachen Zielfunktion ein probates Mittel zur Erkenntnisgewinnung.

H6

Ja- Sekundärquellen -(Abgeleitete Ergeb-nisse basierend auf

Fallstudien)

Empirische Belege

MittelWWenn Vorgehensmodelle/ Problemlösungszyklen als Realobjekte von Managementkonzepten – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte rekonstruiert wer-den, dann führt die theoriebasierte Suche nach Modellverbesse-rungen zu radikalen Neuerungen, die wissenschaftlichen Effizienz-kriterien genügen.

H5

Plausi-bilitätArtHypotheseNr.

Legende:

W ... WirkungshypotheseU ... Unterschiedshypothese

Legende:

W ... WirkungshypotheseU ... Unterschiedshypothese

Quelle: Eigene Darstellung

Page 359: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 337

Da der Forschungsansatz zu überwiegenden Teilen exploratorisch-instrumenteller Natur (EI-Design) ist, sind in der letzten Spalte der Tabelle Plausibilitätsein-stufungen zu den einzelnen Hypothesen vorgenommen worden. Sie sind ein Indi-kator für den Härtegrad bzw. die Belastbarkeit der Hypothesen im Hinblick auf ihren Aussagewert/ -gehalt und damit ihrem „Schutz“ vor Verwerfung bzw. Falsi-fikation. Für den Forschungsprozess bedeutet dies, dass – vor allem bei gering plausiblen Aussagen (Hypothesen) – weiterführende empirische Untersuchungen erforderlich sind, um den allgemeinen Geltungsanspruch in der Praxis zu bestäti-gen. Idealerweise knüpft hier ein konfirmatorisch-instrumentelles Forschungsde-sign (KI-Design) an, mit dem eine systematische Überprüfung der entwickelten Konzepte und Modelle durchgeführt wird (vgl. Töpfer 2009, S. 126).

Der Struktur nach sind alle Hypothesen positivistisch formuliert, d.h. das, was im Forschungsprozess bestätigt bzw. nicht falsifiziert werden soll, ist in der Wenn-dann-Aussage textlich verankert. Des Weiteren handelt es sich mehrheitlich um quasi-nomologische Wirkungshypothesen, also gerichtete Zusammenhangsaussa-gen mit räumlich und zeitlich begrenzter Gültigkeit. Wie in Abb. 6-1 gekenn-zeichnet, besitzen lediglich die Hypothesen 4 und 7 Unterschiedscharakter. Hier-bei geht es jeweils um das Herausstellen der ökonomischen Vorteile der neu ent-wickelten und theoretisch fundierten Vorgehensmodelle/ Problemlösungszyklen (DMAIDV, IESRM) im Rahmen von Design for Six Sigma.

Wie ist der Weg zu diesen konkreten Handlungs-/ Gestaltungsempfehlungen?

Der Forschungsprozess basiert im Wesentlichen auf einem induktiv-deduktiv-induktiven Wissenschaftsverständnis, wobei die o.g. Effizienz-/ Effektivitätsprob-leme des DMADV-Zyklus den praxisbezogenen Ausgangspunkt der Arbeit bilden. Im wissenschaftlichen Analyseprozess wird der Methodenlehre des Kritischen Rationalismus nach KARL R. POPPER (1969) gefolgt. Sie umfasst zum einen ein zweigeteiltes Erkenntnisziel, im Rahmen dessen Erklärungs- und Prognosemuster für die empirisch festgestellten Zielsetzungen in der Unternehmenspraxis auf der Basis von Ursachen-Wirkungsbeziehungen herausgearbeitet werden, sowie zum anderen ein Gestaltungsziel, welches konkrete Hilfestellungen zum zweckrationa-len Gestalten und Einsetzen von Mitteln/ Maßnahmen bereithält, um vorgegebene Zwecke/ Ziele zu erreichen (vgl. Töpfer 2007a, S. 40f.). Beide Zielsetzungen werden bei der Bearbeitung des Themas hinreichend berücksichtigt.

Nach Hypothese 6 in Abb. 6-1 besteht die wissenschaftliche Herangehensweise zum Auffinden eines verbesserten DFSS-Vorgehensmodells darin, die verwende-ten Problemlösungszyklen als Realobjekte – ausgehend von ihren Teilaufgaben/ -zielen – auf abstrakter Ebene als Denkobjekte zu rekonstruieren. Zu diesem Zweck sind die Mittel-Zweck-Relationen auf der Realitätsebene zu erkennen und in Ursachen-Wirkungsbeziehungen auf der Abstraktionsebene zu überführen. Durch diese induktiv begründete Praxis-Theorie-Transformation lassen sich neue Einblicke in die Wirkungsweise der Problemlösungszyklen generieren. Im vorlie-genden Fall wurde die Vorgehensweise der realen Vorgehensmodelle – DMAIC-

Page 360: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

338 6 Zusammenfassung, Schlussfolgerungen und Ausblick

und DMADV-Zyklus – auf die Lösung mathematischer Optimierungsprobleme übertragen und im Weiteren bzgl. ihrer Zielerreichung analysiert.

Bei der mathematischen Optimierungsrechnung geht es vordergründig um das Auffinden des globalen Optimums einer analytisch oder numerisch gegebenen Zielfunktion des Typs y = f(x). In Abhängigkeit von der Art der zu lösenden Prob-lemstellung (restringiert, unrestringiert) sowie den Eigenschaften der zu optimie-renden Zielfunktion (stetig, diskret) ergeben sich eine Vielzahl von infrage kom-menden Lösungsalgorithmen. Bei schwierig zu lösenden Optimierungsproblemen kommen heute verstärkt Heuristiken zum Einsatz. Sie zeichnen sich gegenüber exakten Lösungsverfahren durch eine schnelle Lösungsfindung aus, wobei jedoch die Optimalität der gefundenen Lösung i.d.R. nicht garantiert wird. Zur Program-mierung der Heuristiken werden nicht selten Anleihen aus der Natur genommen, z.B. evolutionäre Entwicklung von Pflanzen- und Tierarten.

Den Ausgangspunkt der Analyse bildete in der Dissertation die (Quasi)-Newton-Verfahren sowie die Lokalen Suchverfahren, welche beide den klassischen Ver-fahren der mathematischen Optimierung zugeordnet werden können. Ein Ver-gleich der prinzipiellen Vorgehensweisen dieser Algorithmen mit den o.g. Prob-lemlösungszyklen verdeutlicht zum einen die Defizite existierender DFSS-Vor-gehensmodelle. Hier ist vor allem das Fehlen von Prozessen/ Methoden zur sys-tematischen Generierung von Innovationen zu nennen. Zum anderen lassen sich auf direktem Weg Verbesserungsvorschläge bezogen auf den bestehenden DMADV-Zyklus ableiten; diese betreffen die verstärkte Einbindung von intuitiv-kreativen Methoden/ Techniken vor bzw. in der Design-Phase. Als zweite Gruppe von mathematischen Optimierungsverfahren werden die evolutionären Verfahren näher analysiert. Sie bilden die Grundlage für einen alternativen, dem Vorgehen nach neuen Problemlösungszyklus im Rahmen von Design for Six Sigma.

Aus der Theorie-Praxis-Transformation lassen sich – entsprechend einer deduktiv begründeten Vorgehensweise – zwei Vorgehensmodelle ableiten: Erstens wird der DMAIDV-Zyklus mit den sechs Phasen Define (D), Measure (M), Analyse (A), Innovate (I), Design (D) und Verify (V) abgeleitetet, bei dem die folgenden sechs Fragen nacheinander beantwortet werden:

• Define: Welche Produktlösung ist veraltet/ nicht mehr wettbewerbsfähig?

• Measure: Was sind die wesentlichen zukünftigen Kundenanforderungen?

• Analyse: Wie lassen sich die Kundenanforderungen bestmöglich erfüllen?

• Innovate: Welche (technischen) Konflikte bestehen und lassen sich mithilfe von einschlägigen Methoden/ Werkzeugen innovativ lösen?

• Design: Was sind die konkreten Gestaltungsmerkmale des Produktes?

• Verify: Wie gut erfüllt das Produkt die Kundenanforderungen in praxi?

Page 361: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 339

Der DMAIDV-Zyklus ist das Ergebnis eines Analogieschlusses von klassischen bzw. konventionellen mathematischen Optimierungsalgorithmen, z.B. Gradien-tenverfahren, auf praktische Problemlösungszyklen im Bereich des Qualitäts- und Innovationsmanagements. Grundlage ist das Vorhandensein einer Zielfunktion, in der (real) vorhandene und erkannte Ursachen-Wirkungsbeziehungen modelliert werden. Die klassischen Algorithmen bieten vor allem in wenig(er) komplexen Suchräumen die Möglichkeit einer schnellen Lösungsfindung. Diesem Vorteil steht der Nachteil gegenüber, dass die Exaktheit der Ergebnisse von der Art der Zielfunktion abhängig ist. So besteht bei Zielfunktionen, die über mehrere lokale Optima verfügen, die konkrete Gefahr, dass der Algorithmus auf einem subopti-malen Niveau „zum Liegen“ kommt. In der Mathematik sind zu diesem Zweck bestimmte Optimalitätsbedingungen, z.B. KKT-Bedingung, definiert.

Die Erkenntnis, dass zum Auffinden des globalen Optimums u.U. mehrere lokale Optima zu überwinden sind, fließt in die praktische Gestaltung des erweiterten DMADV-Zyklus wie folgt ein: Bevor mit der Ausarbeitung eines in der Analyse-Phase favorisierten Produktdesigns begonnen wird, ist die Optimalität der Lösung zu überprüfen. Dies geschieht in der Weise, dass in der Innovate-Phase gezielt nach Möglichkeiten für diskontinuierliche Verbesserungen gesucht wird. Den Ausgangspunkt hierfür bilden administrative, technische und/ oder physikalische Konflikte, deren Lösung i.d.R. zu Innovationen führt. Konkrete Hilfestellung zur Konfliktlösung bietet die TRIZ-Methodik, mit der es möglich ist, sprunghafte Veränderungen von Merkmalsausprägungen an bestehenden Produkten/ Prozessen hervorzurufen, die bis dahin für nicht realisierbar gehalten wurden.

Die prozess- und methodenbezogenen Änderungen, die sich aus der Erweiterung des DMADV-Zyklus um die Phase Innovate (I) ergeben, sind eher marginaler Natur. Das Vorgehen orientiert sich primär an ARIZ, welches ein anerkanntes Ablaufschema im Rahmen der widerspruchsorientierten Problemlösungstechnik TRIZ ist. Letztere stellt den Kern der Innovate-Phase dar.

Zweitens wird der IESRM-Zyklus mit den fünf Phasen Initialisierung (I), Evaluie-rung (E), Selektion (S), Rekombination (R) und Mutation (M) entwickelt. Die Konzeption und Inhalte der einzelnen Phasen lassen sich – auf aggregierter Ebene – durch die Beantwortung der folgenden Fragen kennzeichnen:

• Initialisierung: Was ist das Problem?/ Welche Produktlösungen existieren?

• Evaluierung: Wie gut erfüllen die Lösungen die geg. Kundenanforderungen?

• Selektion: An welchen Lösungsansätzen soll unbedingt festgehalten werden?

• Rekombination: Wie können noch bessere Produktlösungen generiert werden?

• Mutation: Welche zufälligen Merkmalsänderungen führen zum Optimum?

Mit dem IESRM-Zyklus ist eine prinzipiell andere Herangehensweise zur Lösung komplexer Probleme in der Unternehmenspraxis, speziell im Entwicklungsbe-reich, gegeben. Struktur und Ablauf des Problemlösungszyklus orientieren sich an

Page 362: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

340 6 Zusammenfassung, Schlussfolgerungen und Ausblick

Genetischen Algorithmen (GA), wie sie zur Lösung schwieriger mathematischer Optimierungsprobleme genutzt werden: Statt eine einzelne Lösung schrittweise in Richtung Optimum zu verbessern, werden viele verschiedene Lösungen in einer Population zusammengefasst und simultan optimiert. Diese Strategie erweist sich bei der Lösung komplexer Probleme als sehr effektiv (vgl. Michalewicz/ Fogel 2000; Gen/ Cheng 1997; Goldberg 1989). GAs gehören zur Gruppe der stochasti-schen Such- bzw. Optimierungsverfahren, welche gegenüber konventionellen Algorithmen keine Restriktionen an die Zielfunktion stellen. Aus diesem Grund eignet sich ihr Einsatz vor allem in Situationen, in denen

(a) das Problem nicht exakt (mathematisch) beschrieben werden kann,

(b) die Komplexität sehr hoch ist (hochdimensionaler Suchraum),

(c) die Umgebung dynamisch ist und wandernde Optima besitzt und

(d) die Lösungsbewertung stochastischen Einflüssen unterliegt.

Diese Problemlösungseigenschaften werden in dem 5-phasigen IESRM-Zyklus wie folgt konserviert: In der Initialisierungs-Phase geht es zunächst darum, das „richtige“ Kundenproblem zu fokussieren und durch z.T. mathematische Verfah-ren eindeutig zu beschreiben bzw. zu codieren. Ziel ist es im Weiteren, das nutzen-maximale Leistungsangebot aus Kundensicht durch mehrere Iterationen der fol-genden vier Phasen zu generieren. In der Evaluations-Phase wird sichergestellt, dass die (Weiter-)Entwicklung der Lösungsideen in die „richtige” Richtung läuft. Zu diesem Zweck ist die Fitness der in der Population befindlichen Ideen zu be-stimmen. Die durchschnittliche Fitness der Population, welche als Indikator für das erreichte Ziel-/ Nutzenniveau dient, wird durch das Durchlaufen der Phasen Selektion, Rekombination und Mutation schrittweise erhöht. Im Ergebnis liegt eine Population von Produktlösungen mit maximalen Fitnesswerten vor.

Die ersten beiden Phasen des IESRM-Zyklus sind maßgeblich für eine hohe Ef-fektivität des Problemlösungszyklus. Hier kommen zum überwiegenden Teil be-kannte Verfahren des Qualitäts- und Innovationsmanagements zum Einsatz, z.B. Ishikawa-Diagramm. Die Konzeption und Inhalte der sich anschließenden Phasen orientieren sich relativ stark an den Standard-Vorgehensweisen zur GA-Program-mierung. Die verwendeten Verfahren sind für den Anwendungsbereich (Design for) Six Sigma prinzipiell neu, z.B. Rangbasierte Selektion.

DMAIDV- und IESRM-Zyklus sind rational begründete Vorgehensmodelle mit einem stringenten Methoden/ -Instrumenteneinsatz. Sie zeichnen sich gegenüber dem DMADV-Zyklus durch einen stärkeren Innovationsfokus aus. Ihre Effizienz und Effektivität wurde im Rahmen von zwei Fallstudien empirisch überprüft. Zum einen konnte in einem Laborexperiment die Flugzeit eines Papier-Rotors maxi-miert werden. Dabei zeigten sich z.T. bessere Ergebnisse als bei der Anwendung von Statistischer Versuchsplanung (DOE), die zum Standard-Toolset von Six Sigma zählt. Zum anderen wurden in einem unternehmensbezogenen Anwen-dungsbeispiel die Kehreigenschaften eines Straßenbesens optimiert. Im Ergebnis

Page 363: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 341

konnte ein neues Besendesign entwickelt werden, welches die Anforderung eines Schüttgut-unabhängigen Einsatzes bestmöglich erfüllt. Die adaptierten Methoden aus dem GA-Toolset ließen sich leicht mit Standard-Software, z.B. Excel, realisie-ren und erwiesen sich alles in allem als sehr praktikabel.

Während der DMAIDV-Zyklus bei der „Suche nach dem globalen Optimum“ auf radikale Neuerungen (Basisinnovationen) abstellt, zielt der IESRM-Zyklus primär auf inkrementelle Veränderungen (Veränderungsinnovationen) bestehender Lö-sungen ab. Die Zielsicherheit des Problemlösungszyklus beruht dabei auf der impliziten Anwendung von zwei grundlegenden evolutionären Prinzipien: Nach dem Prinzip der Risikominimierung wird durch die allmähliche Konvergenz der Lösungen innerhalb der Population das Risiko minimiert, das „falsche“ Optimum zu finden. Nach dem Prinzip der Risikostreuung gleichen sich die Fitnesswerte von guten und weniger guten Lösungskandidaten innerhalb der Population aus. Dadurch ist es möglich, den vorgegebenen Lösungsraum möglichst großflächig nach dem optimalen Design bzw. der idealen Lösung abzusuchen. Die durch-schnittliche Fitness der Population entwickelt sich entsprechend einer S-Kurve. Wie die o.g. experimentellen Studien belegen, kommt es nach wenigen Iterationen zu einem sprunghaften Anstieg der geometrischen mittleren Fitness.

Das klassische Vorgehen im Entwicklungsprozess entspricht dem „Filter- bzw. Trichterprinzip“. Dabei werden zunächst möglichst viele Designkonzepte als potenzielle Lösungen für das Kundenproblem erzeugt. Im anschließenden Evalu-ierungsprozess werden diese dann systematisch überprüft und schrittweise auf die beste Lösungsvariante reduziert. Dies geschieht vor dem Hintergrund des persön-lichen, problemspezifischen Wissens der Projektbeteiligten. Der Grund, warum DFSS-Projekte immer wieder missglücken und nicht zum gewünschten Erfolg führen, liegt u.a. daran, dass der Vektor der psychologischen Trägheit nicht in Richtung der wahren, idealen Lösung zeigt und dadurch das Team von Anfang an in die falsche Richtung läuft (vgl. Löbmann 2003). Durch die Integration der In-novate-Phase in den DMADV-Zyklus wird dieses Phänomen insofern abgemil-dert, dass der Filter-/ Konzentrationsprozess noch einmal hinterfragt wird.

Mit dem IESRM-Zyklus wird eine prinzipiell andere Herangehensweise gewählt, um die psychologische Trägheit zu umgehen. Der evolutionäre Problemlösungs-zyklus basiert nicht auf dem „Filter- bzw. Trichterprinzip“, sondern – bildlich gesprochen – auf dem „Cluster- bzw. Gruppenprinzip“. Ziel ist es, nicht ein ein-zelnes Produkt/ Leistungsangebot zu optimieren und zur Marktreife zu führen, sondern eine gesamte Population von potenziellen Lösungskandidaten. Dies er-folgt durch die Anwendung evolutionärer Operatoren. Produktvarianten, die rela-tiv weit vom Optimum entfernt liegen, werden durch den Selektions-Operator herausgefiltert. Gleichzeitig werden Produktdesigns, die bereits eine relativ gute Anpassung an das angestrebte Endresultat aufweisen, zur Rekombination zugelas-sen. Die daraus hervorgehenden neuen Lösungskandidaten (Kindergeneration) besitzen im Mittel eine bessere Anpassung/ Annäherung an das Optimum als die der Ausgangspopulation (Elterngeneration). Durch den Mutations-Operator wird

Page 364: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

342 6 Zusammenfassung, Schlussfolgerungen und Ausblick

verhindert, dass die Population in einem bestimmten Bereich des Suchraums „hängen“ bleibt und das ideale Endresultat dadurch verfehlt wird.

Im Gegensatz zum DMAIDV-Zyklus liegen die Lösungen beim IESRM-Zyklus sowohl in codierter Form (Genotypebene) als auch in nicht-codierter Form (Phä-notypebene) vor. Während die Evaluation und Selektion der Lösungen auf der Phänotypebene stattfinden, werden Rekombination und Mutation auf der Geno-typebene durchgeführt. Durch diese Trennung lassen sich im Laufe des F&E-Prozesses völlig neue Lösungskandidaten erzeugen. Beim klassischen DFSS wird die Strategie der Lösungsrepräsentation auf unterschiedlichen Ebenen ebenfalls verfolgt. Das reale Produkt wird unter Anwendung von Computer Aided Design (CAD) im Computer zunächst modelliert. Anschließend werden Anwendungssitu-ationen beschriebenen, für die gezielte Simulationen in der virtuellen Umgebung durchgeführt werden. Die Auswertung der Daten erfolgt mithilfe einschlägiger DFSS-Methoden (vgl. Finn 1999). Auf diese Weise praktiziert Motorola seit eini-gen Jahren ein sog. Digital Six Sigma im Entwicklungsprozess.

Aus betriebswirtschaftlicher Sicht standen sowohl die Übertragung von evolutio-nären Prinzipien auf die Gestaltung von Unternehmensprozessen als auch die Anwendung von Genetischen Algorithmen zur Produktoptimierung bisher kaum im Interesse der Forschungsbemühungen. Vielmehr wurden theoretische Modelle zur Erklärung und Prognose von betriebs- und volkswirtschaftlichen Sachverhal-ten aufgestellt, z.B. auf der Basis populationsökologischer Überlegungen. Die Ableitung konkreter Gestaltungsempfehlungen als Technologien für die Unter-nehmenspraxis wurde allenfalls am Rande behandelt. Neben der Evolutorischen Ökonomik hat sich seit geraumer Zeit mit dem Evolutionären Management bzw. Evolutionsmanagement ein zweiter, eigenständige Forschungsansatz herauskristal-lisiert. Bei diesem tritt an die Stelle eines konstuktivistisch-technomorphen Ma-nagements ein systemisch-evolutionäres Management, welches sich insb. durch systemisches statt monokausales Denken auszeichnet (vgl. Malik 1986).

Das Evolutionsmanagement basiert auf der Annahme, dass das Management heute nicht mehr in der Lage ist, die Komplexität der Unternehmen zu beherrschen und insb. mit der Vielfalt der Beziehungen zwischen den Elementen des Systems an-gemessen umzugehen. Aus diesem Grund ist der Übergang zu einer systemorien-tierten Managementtheorie, welche die Gestaltung und Lenkung von Gesamtsys-temen (Institutionen) zum Gegenstand hat, unausweichlich. Im Lösungsansatz werden die Vorgänge in und zwischen Organisationen als Lebensprozesse be-trachtet, die – per definitionem – nach gleichen oder ähnlichen Prinzipien/ Ge-setzmäßigkeiten wie Prozesse in der Natur ablaufen (vgl. Otto et al. 2007). Bei dem Versuch, aus diesen vergleichbaren Naturprozessen Empfehlungen für die individuelle Handlungsebene des Managers und/ oder die organisationalen Abläu-fe/ Prozesse abzuleiten, treten z.T. gravierende Probleme auf. Sie liegen vor allem im gewählten Abstraktionsniveau des Forschungsprozesses begründet.

Der hier gewählte Forschungsprozess folgt insgesamt einem pragmatischem Wis-senschaftsverständnis (Pragmatic science). Nach diesem ist eine möglichst hohe

Page 365: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 343

Ausgewogenheit zwischen theoretischer Exaktheit (rigour) und praktischer Rele-vanz (relevance) anzustreben (vgl. Nicolai 2004). Die theoretische Exaktheit be-zieht sich auf den Prozess der Erkenntnisgewinnung, die in der Arbeit auf der Analyse mathematischer Optimierungsalgorithmen basiert. Über eine selbstent-wickelte Perspektive werden den Alltagstheorien der Praxis alternative Deutungen gegenüber gestellt, z.B. evolutionäre Weiterentwicklung anstelle analytischer Pro-blemzerlegung. Diese helfen in konkreten Beratungssituationen, neue Problemlö-sungen respektive Problemlösungszyklen zu finden. Die praktische Relevanz be-trifft vor allem die Konzeption bzw. Ausgestaltung der entwickelten Vorgehens-modelle mit eindeutigen Phasenbeschreibungen und darauf abgestimmtem Metho-den/ Instrumenteneinsatz. Da Wissenschaft nicht einfach durch Übersetzung in die Praxis „transferiert“ werden kann, sind sie durch ein geeignetes Rahmenkonzept bzw. übergeordnetes Managementkonzept zu ergänzen.

DMAIDV- und IESRM-Zyklus kennzeichnen den „harten Kern“ eines nachhalti-gen Managementkonzepts. Während im Fall des DMAIDV-Zyklus die Zuordnung zu DFSS als Derivat des Six Sigma-Konzeptes in F&E leicht nachvollziehbar ist, gestaltet sich die eindeutige Zuordnung des IESRM-Zyklus schwieriger. Prozess-ablauf und Methodeneinsatz unterscheiden sich z.T. deutlich vom traditionellen Six Sigma-Projektmanagement. Dies ist ein Resultat des gewählten Forschungsan-satzes, der sich am Vorgehen des Erfinderischen Problemlösens orientiert. Mit der Trennung von Realitäts- und Abstraktionsebene wird bewusst darauf abgezielt, innovative Lösungsansätze – auch außerhalb des ursprünglich anvisierten Such-raumes – zu finden. Ausgangspunkt der Suche war hier die Entwicklung und Kon-zeption eines effektiveren Vorgehensmodells im Bereich DFSS. Durch Abstrakti-on und Analogieschluss wurde ein Problemlösungszyklus spezifiziert, der sich ebenfalls unter dem Begriff „Evolutionary Design“ subsumieren lässt.5

Unabhängig von der Zuordnung ist um den „harten Kern“ des Managementkon-zeptes eine „weiche Hülle“ zu ziehen. Sie kennzeichnet das institutionalisierte Rahmenkonzept, welches dazu bestimmt ist, den harten Kern, also DMAIDV- und IESRM-Zyklus, vor der Falsifizierung zu schützen. Für eine erfolgreiche Imple-mentierung und Umsetzung der vorstehend genannten Vorgehensmodelle in Un-ternehmen sind deshalb die folgenden vier Punkte zu berücksichtigen:

• Einbindung der Unternehmensleitung und Commitment der Führungskräfte: Diese Forderung gilt uneingeschränkt für die Implementierung aller Mana-gementkonzepte und ist unabhängig von der Art des gewählten Vorgehens-modells. Für die effektive Umsetzung von DFSS ist zusätzlich zu beachten, dass ein neuer Typus von Manager benötigt wird, wie z.B. von GE gefordert. Dieser ist nicht nur auf Effizienzsteigerung „gepolt“, sondern erkennt Innova-tionen und Innovationspotenziale, die zu einer Steigerung des Kundennutzens

5 Die endgültige Zuordnung des IESRM-Zyklus soll der Praxis vorbehalten bleiben. Die

wesentlichen Verfahren/ Algorithmen, die bei der IT-gestützten Produktentwicklung i.S.v. Evolutionary Design zum Einsatz kommen, beschreibt Bentley (1999).

Page 366: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

344 6 Zusammenfassung, Schlussfolgerungen und Ausblick

führen. Entscheidend ist jeweils die Generierung von nachhaltigen Wettbe-werbsvorteilen. Als Vorbild dient der Handelskonzern Metro, der im Jahr 2004 ein international besetztes Global Leadership Council gegründet hat, in dem ca. 20 Nachwuchsführungskräfte Ideen sammeln, bündeln, bewerten und in einem geordneten Prozess umsetzen (vgl. Biskamp 2006, S. 88).

• Auswahl und Qualifizierung von Akteuren/ Aufbau einer geeigneten Organi-sation: Für die Anwendung des DMAIDV-Zyklus kann ohne Weiteres auf die Abläufe und Strukturen der bestehenden Six Sigma-Organisation zurück ge-griffen werden. Grundkenntnisse über das Vorgehen und die Methoden der Innovate-Phase lassen sich im Rahmen eines 1-Tages-Seminars den Black Belts vermitteln. Um Projekte nach dem erweiterten DMADV-Zyklus eigen-ständig bearbeiten zu können, ist ein Trainingsaufwand von mind. 3 Tagen er-forderlich. Die gleichen Voraussetzungen gelten für die Anwendung des IESRM-Zyklus. Dieser lässt sich auch unabhängig von einer bestehenden Six Sigma-Organisation in der in der Arbeit beschriebenen Weise schulen und umsetzen. Für eine wirkungsvolle Anbindung an die Unternehmensleitung ist ein geeignetes Nachwuchsführungskräftetraining zu installieren.

• Planung und Steuerung der Projekte/ Analyse der Ergebniswirkungen: Hierzu gehört zum einen die systematische Erfassung von Problemen inner- und au-ßerhalb des Unternehmens, die für die Bearbeitung mit dem DMAIDV- oder IESRM-Zyklus geeignet sind. Dabei sollte die Dauer eines Projektes 6 Mona-te nicht überschreiten. Zum anderen ist für alle Projekte eine Wirtschaftlich-keitsbetrachtung in Form einer Net Benefit-Berechnung vorzusehen, wobei für die Anwendung des IESRM-Zyklus ggf. ein zusätzliches Kostenbudget für den Prototypenbau einzuplanen ist. Um einen systematischen Verbesse-rungsprozess in Gang zu setzen, ist der Aufbau eines Wissensmanagement-Systems empfehlenswert. Vorbild in dieser Hinsicht ist das Softwareunter-nehmen SAP (vgl. Seiwert et al. 2006, S. 86), bei dem jeweils mehrere sog. kreative Teams gleichzeitig und gleichberechtigt in einem Netzwerk, über den gesamten Erdball verteilt, zusammen arbeiten.

• Konzeption eines Anreizsystems für die Durchführung von DFSS-Projekten: Damit Six Sigma-Projekte im F&E-Bereich in größerer Anzahl durchgeführt werden, ist ein adäquates Anreizsystem aufzubauen. Neben der Einhaltung vorgegebener Budgets sind in diesem vor allem neue, innovative Lösungsan-sätze, die im Rahmen der Projektbearbeitung generiert worden sind, zu prä-mieren. Darüber hinaus ist das System so zu gestalten, dass systematisch-analytisches Denken und Handeln von Mitarbeitern genauso gefördert werden wie intuitiv-kreative Verhaltensmuster und -ansätze. Dies deckt sich mit den Forschungsergebnissen von Burgelman (1991). Nach diesen sind zur Steige-rung der langfristigen Überlebensfähigkeit von Unternehmen prinzipiell zwei Arten von strategischen Prozessen notwendig, nämlich (a) Induzierte strategi-sche Prozesse und (b) Autonome strategische Prozesse. Letztgenannte führen zu einer Erhöhung des organisationalen Kompetenzfeldes.

Page 367: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 345

Die Probleme der Praxis bilden den Ausgangspunkt fruchtbarer wissenschaftlicher Diskurse über Sachverhalte, die von Praktikern so nicht mehr hinterfragt werden. D.h. neue Probleme werden durch den wissenschaftlichen Diskurs auf abstrahier-ter Ebene selbst konstatiert, ohne dass ein exogen gegebenes Problem der „realen Welt“ unmittelbar vorliegen muss (vgl. Nicolai 2004).

Vor diesem Hintergrund stellt sich bezogen auf den hier behandelten Untersu-chungsgegenstand zum einen die Frage, ob sich andere mathematische Optimie-rungsalgorithmen/ -heuristiken finden lassen, die als Vorbild für die Entwicklung und Konzeption von wirkungsvollen Vorgehensmodellen in der Praxis dienen können. Beispielhaft zu nennen sind die Verfahren Simulated Annealing und Ant Colony Optimization. Das Ziel besteht jeweils darin, leicht verständliche und schnell umsetzbare „Kochrezepte“ für die Unternehmenspraxis zu erstellen, an-hand derer Prozess-/ Produktoptimierungen realisiert werden können. Zum ande-ren ist der Frage nachzugehen, ob sich das gewählte Vorgehen (siehe Abb. 1-7) generell eignet, um die Effizienz und Effektivität von in der Praxis verwendeten Managementkonzepten, z.B. Lean Six Sigma, aus wissenschaftlicher Sicht zu überprüfen und ggf. Handlungsempfehlungen zu ihrer Verbesserung abzuleiten.

Neben der Ableitung und Überprüfung von generischen Vorgehensmodellen für die Unternehmenspraxis bestehen bezogen auf die hier entwickelten Problemlö-sungszyklen die folgenden weiterführenden Forschungsbedarfe:

• Um die Methoden, z.B. Flipmutation, (noch) besser auf die Belange von DFSS adaptieren zu können, ist das Sammeln weiterer Projekterfahrungen notwendig. In diesem Zusammenhang ist die Variation des Methodeneinsat-zes wünschenswert, um die Praktikabilität der Excel-Anwendungen zur Gene-rierung innovativer Lösungsansätze im Rahmen des IESRM-Zyklus zu über-prüfen. Gleichzeitig ist beim DMAIDV-Zyklus zu untersuchen, welche Me-thoden aus dem (umfangreichen) TRIZ-Toolset im Rahmen der Innovate-Phase „standardmäßig“ zum Einsatz kommen sollten. Eine Eingrenzung und Systematisierung der Methoden ist an dieser Stelle wünschenswert.

• In der Arbeit wurden am Fallbeispiel „Papier-Rotor“ die Konzeption und Inhalte der entwickelten Vorgehensmodelle praxisnah aufgezeigt. Dabei zeig-te sich, dass sich die Problemstellung relativ gut eignet, um die Effizienz und Effektivität einzelner Methoden/ Instrumente, aber auch ganzer Problemlö-sungszyklen, zu evaluieren. Als Forschungsobjekt im F&E-Bereich könnte deshalb das Papier-Rotor-Problem in Zukunft eine ähnlich bedeutsame Rolle übernehmen wie z.B. das Traveling Salesman-Problem (TSP) in Operation Research. TSP gilt als Standardproblem, um die Effektivität und Effizienz von (neuen) mathematischen Optimierungsverfahren zu testen.

• Das Six Sigma-Konzept wird seit mehreren Jahren auch erfolgreich in Servi-ce- und Dienstleistungsunternehmen praktiziert, z.B. Citibank. Die Projekt-anwendungen konzentrieren sich auf prozessbezogene Verbesserungen nach dem DMAIC-Zyklus. Inwieweit sich hier der Entwicklungsprozess nach

Page 368: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

346 6 Zusammenfassung, Schlussfolgerungen und Ausblick

DMAIDV- respektive IESRM-Zyklus gestalten lässt, ist noch offen. Die Bank of America, die seit 2000 Six Sigma anwendet, entwickelte z.B. ein Vorge-hensmodell mit fünf Phasen, um Service-Innovationen systematisch zu gene-rieren (vgl. Thomke 2003, S. 49). Wesentlicher Bestandteil der Planungs-, Entwurfs- und Testphase sind Experimente i.S.v. DOE.

• Neben Design for Six Sigma gilt Lean Six Sigma als aktuelle Weiterentwick-lung im Bereich Six Sigma. Im Kern geht es um eine Beschleunigung (Acce-leration) der Six Sigma-Initiative durch eine stärkere Verbindung der beiden Managementkonzepte Six Sigma und Lean Management. Die Übernahme der Lean-Philosophie in den F&E-Bereich ist ebenfalls seit langem Gegenstand der Diskussion. Der gezielte Einsatz des IESRM-Zyklus bietet hier die Mög-lichkeit, die beobachtete evolutionäre Entwicklung von technischen Systemen oder Teilen von selbigen „künstlich“ zu beschleunigen. Zu diesem Zweck sind die Projektaktivitäten nach evolutionärem Muster zu gestalten.

• Nach dem Erklärungsansatz der Evolutionären Ökonomik handelt es sich bei den bekannten Problemlösungszyklen um (organisationale) Routinen, welche als regelmäßige und vorhersehbare Verhaltensmuster die kurzfristige Hand-lungsfähigkeit der Organisation sicherstellen (vgl. Nelson/ Winter 1982). Wie das Beispiel Six Sigma zeigt, unterliegen die Routinen aufgrund der Markt-dynamik und des Verdrängungswettbewerbes einem kontinuierlichen Verän-derungs-/ Anpassungsprozess. Dabei wird die Suche nach überlegenen Routi-nen (Technologien) in vielen Unternehmen selbst zu einer Routine, z.B. in Form standardisierter F&E-Prozesse und/ oder strategischer Planungsproze-duren. In diesem Zusammenhang stellt sich die Frage, inwieweit sich GAs bei der Ausgestaltung dieser Suchroutinen verwenden lassen.

• In der Arbeit sind Ansatzpunkte für die Vernetzung mit anderen Konzepten/ Instrumenten im PEP aufgezeigt worden, die im Weiteren zu operationalisie-ren sind, z.B. Verbindung des IESRM-Zyklus mit dem Lead User-Konzept (vgl. von Hippel 1988), welches sich insb. für die Ermittlung und Bewertung von zukünftigen wesentlichen Kundenanforderungen eignet. Die Weiterent-wicklung des Konzeptes geht in Richtung Open Innovation bzw. User Innova-tion, nach der Innovationsprozesse von den Anwendern selbst angestoßen und teilweise bis zur Prototypenreife vorangetrieben werden. Voraussetzung hier-für ist eine leistungsfähige und vernetzte IT-Infrastruktur (Internet).

• Nicht nur beim IESRM-Zyklus stellt die Identifikation von Kundenbedürfnis-sen/ -anforderungen und die Bewertung von darauf ausgerichteten Produktan-geboten eine wesentliche Herausforderung an die Projektbeteiligten dar. Eine schnelle und kostengünstige Evaluierung von Produktideen ist in Zukunft un-ter Einsatz verschiedener IT-/ Software-Lösungen möglich. Sie helfen insb. bei der Reduzierung der Kosten für Muster- und Prototypenbau, z.B. Künstli-che Intelligenz bzw. Künstlich Neuronale Netze (vgl. z.B. Seiwert et al. 2006, S. 83), Closed Online Communities mit Endkunden (vgl. z.B. Lang 2006) und Open Online Communities im Web 2.0 (vgl. z.B. Martell 2007).

Page 369: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

6 Zusammenfassung, Schlussfolgerungen und Ausblick 347

• Die Bewertung von Prozess- und Produktverbesserungen basiert im Six Sig-ma-Konzept auf dem Sigma-Wert, der sich aus der Wahrscheinlichkeitsvertei-lung der Standard-Normalverteilung herleitet. Da es im F&E-Bereich nicht nur um die Erzeugung von Null-Fehler-Qualität geht, sondern auch um das Auffinden innovativer Produktdesigns, ist seine Anwendung als Top-Kenn-zahl in DFSS-Projekten eher fragwürdig. Die Entwicklung eines erweiterten Bewertungskonzeptes für den DMAIDV-Zyklus, welches den Innovationsas-pekt stärker berücksichtigt, ist wünschenswert. Die TRIZ-Methodik, welche in der Innovate-Phase des vorstehend genannten Problemlösungszyklus zur Anwendung kommt, stellt auf das Konzept der Idealität ab. Im IESRM-Zyklus werden anstelle von Sigma-Werten individuelle Fitnesswerte berech-net, welche den Erfüllungsgrad von Kundenanforderungen indizieren.6

• Neben einem geeigneten Bewertungskonzept stellt sich die Frage nach der wirkungsvollen Verknüpfung der betrieblichen Funktionsbereiche Qualitäts- und Innovationsmanagement. Hierbei ist das Spannungsfeld zu lösen, welches sich aus einer naturgemäß gegenläufigen Schwerpunktsetzung ergibt. Wäh-rend beim QM die Minimierung der Variation des Prozessoutputs im Vorder-grund steht, fokussiert das IM auf eine Maximierung der Variation der Lö-sungsansätze. Als Benchmark für interne Organisationsstrukturen, welches zu einer Auflösung dieses Spannungsfeldes führt, gilt der Automobilkonzern BMW, der auf die Dynamisierung organisationaler Kompetenzen im Ent-wicklungsprozess setzt (vgl. Schreyögg/ Kliesch 2006, S. 455ff.).

Bei der Spezifikation von Handlungskonzepten für die Unternehmenspraxis ist zu beachten, dass sich Wissenschaftler nicht (blind) darauf verlassen können, dass ihr Wissen aufgrund von „überlegenen“ Erkenntnissen von allein in die Praxis diffun-diert. Im Gegenteil: Die Differenzen/ Konflikte werden noch verstärkt, wenn Wis-senschaftler versuchen, aus ihrer Sicht überlegene Problemlösungstechniken der Praxis „überzustülpen“. Trotz der analysierten und experimentell nachgewiesenen Vorteile von DMAIDV- und IESRM-Zyklus gegenüber dem DMADV-Zyklus ist ihre Anwendung in der Unternehmenspraxis – aus heutiger Sicht – keineswegs gesichert. Dazu ist eine bestimmte soziale Infrastruktur notwendig, die formell oder informell organisiert, die Verwendung wissenschaftlicher Erkenntnisse in der Praxis befördert (vgl. Nicolai 2004, S. 111). Vor diesem Hintergrund bleibt zu wünschen, dass die Ergebnisse der vorliegenden Dissertationsschrift über eine „gut funktionierende“ bidirektionale Kommunikation zwischen Wissenschaft und Praxis schnell Einzug in die Six Sigma-Community finden.

6 Die Definition der Fitnessfunktion ermöglicht die Berücksichtigung mehrer Ziele bzw.

die Erfüllung mehrerer CTQs im Rahmen des Verbesserungsprozesses. Gleichzeitig wird über die Fitnessfunktion der Suchprozess so gesteuert, dass sich die Population zügig in Richtung des globalen Optimums bewegt sowie nach n Iterationen die „passende Lösung“ mit Sicherheit gefunden wird.

Page 370: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis

Aarts, E.H./ Korst, J./ van Laarhoven, P.J.M. (1997): Simulated Annealing, in: Aarts, E.H.L./ Lenstra, J.K. (Hrsg.): Local Search in Combinatorial Optimization, New York 1997.

Abernathy, W.J./ Utterback, P.L. (1975): A Dynamic Model of Process and Prod-uct Innovation, in: Omega, 3. Jg., H. 6, S. 639-656.

Accenture (2004) (Hrsg.): Was macht Innovationen erfolgreich?, im Internet un-ter: http://www.accenture.com/NR/rdonlyres/17C5FF31-9426-4030-B146-C8D EA756C6BB/0/innovationen_erfolgreich.pdf (Abruf: 18.03.2005).

Ackoff, R.L./ Gupta, S.K./ Minas, J.S. (1962): Scientific method-optimizing ap-plied research decisions, New York 1962.

Akao, Y. (1992): QFD – Quality Function Deployment, Landsberg/ L. 1992.

Aldrich, H.E. (1999): Organizations Evolving, London 1999.

Aldrich, H.E./ Müller, S. (1982): The Evolution of organizational Forms: Tech-nology, coordination, and control, in: Research in Organizational Behavior, 4. Jg., Greenwich 1982, S. 33-87.

Altschuller, G.S. (1984): Erfinden – Wege zur Lösung technischer Probleme, Verlag Technik: Berlin 1984.

Anderson, M.J. (2000): Software & Analysis: Success with DOE, in: Quality Magazine 04/2000: http://www.qualitymag.com/articles/2000/apr00/0400f2.bak (Abruf: 04.03.2002).

Anderson, N./ Herriot, P./ Hodgkinson, G.P. (2001): The practitioner-researcher divide in Industrial, Work and Organizational Psychology: Where are we now and where do we go from there?, in: Journal of Occupational and Organizational Psy-chology, 74. Jg., H. 4, S. 391-411.

Antony, J./ Bañuelas, R. (2002): Design for six sigma: A breakthrough improve-ment business strategy for achieving competitive advantage, in: Manufacturing Engineering, 81. Jg., H. 1, S. 24-26.

Arifovic, J. (1994): Genetic Algorithm Learning and the Cobweb–Model, in: Jour-nal of Economic Dynamics and Control, 18. Jg., H. 1, S. 3-28.

Armijo, L. (1966): Minimization of functions having Lipschitz continuous first partial derivatives, in: Pacific Journal of Mathematics, 16. Jg., H. 1, S. 1-3.

Armstrong, J.S. (1996): The Ombudsman: Management Folklore and Management Science – On portfolio Planning, Escalation Bias, and Such, in: Interfaces, 26. Jg., H. 4, S. 25-55.

Page 371: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

350 Literaturverzeichnis

Arpagaus, J. (2002): Evolutorische Ökonomik, Seminar: Evolution und Diffusion in den Sozialwissenschaften, Universität Bern, in: www.soz.unibe.ch/studium/ss02/evolution.asp (Abruf: 05.03.2004).

Arthur D. Little (Hrsg.) (2004): Innovation Excellence Studie 2004 – Mit Innova-tion gegen Stagnation, in: http://www.adlittle.ch/asp/artikel.asp (Abruf: 05.03.2006).

Austropapier (Hrsg.) (2007): Was ist Porosität? in: http://www.austropapier.at/ index.php?id=127&L=0 (Abruf: 20.03.2007).

Averboukh, E.A. (2004): Six Sigma Trends: Six Sigma Leadership and Innovation using TRIZ, in: http://www.isixsigma.com/library/content/c030908a.asp (Abruf: 04.03.2004).

Bäck, T./ Hoffmeister, F. (1990): Adaptive Search by Evolutionary Algorithms, Dortmund 1990.

Backerra, H./ Malorny, Ch./ Schwarz, W. (2002): Kreativitätstechniken (Pocket Power), 2. Aufl., München/ Wien 2002.

Backhaus, K./ Erichson, B./ Plinke, W./ Weiber, R. (2006): Multivariate Analyse-methoden: eine anwendungsorientierte Einführung, 11. Aufl., Berlin/ New York 2006.

Baetke, M./ Hammer, L./ Zalesky, S. (2002): The History of Six Sigma, im Internet unter: http://www.isixsigma.com/library/content/c020815a.asp (Abruf: 29.12.2004).

Bamberg, G./ Baur, F./ Krapp, M. (2007): Statistik, 13. Aufl., München 2007.

Bateman, T.S./ Zeithaml, C.P. (1990): Management: function and strategy, Irwin: Homewood/ Ill. 1990.

Bauer, H.H./ Sauer, N.E. (2004): Die Erfolgsfaktorenforschung als schwarzes Loch?, in: DBW, 64. Jg., H. 5, S. 621-625.

Baum, H.-G./ Coenenberg, A.G./ Günther, Th. (2004): Strategisches Controlling, 3. Aufl., Stuttgart 2004.

BCG (2006) (Hrsg.): Innovation 2006, im Internet unter: http://www.bcg.com/ publications/files/2006_Innovation_Survey_report.pdf (Abruf: 24.01.2007).

Bea, F.X./ Haas, J. (2005): Strategisches Management, 4. Aufl., Stuttgart 2005.

Becker, I.N.S. (2004): Führt die Verwendung eines Interdentalstimulators zusätz-lich zu Zahnbürste, Zahnpasta und Zahnseide zu einer Verringerung vorhandener Plaque?, Diss., Universität Freiburg 2004.

Benninghaus, H. (2005): Einführung in die sozialwissenschaftliche Datenanalyse, 7. Aufl., München 2005.

Page 372: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 351

Bentley, P.J. (1999): An Introduction to Evolutionary Design by Computers, in: Bentley, P.J. (Hrsg.): Evolutionary Design by Computers, Morgan Kaufmann: San Francisco/ CA 1999, S. 1-74.

Bentley, P.J. (1999): From Coffee Tables to Hsopitals: Generic Evolutionary De-sign, in: Bentley, P.J. (Hrsg.): Evolutionary Design by Computers, Morgan Kauf-mann: San Francisco/ CA 1999, S. 405-424.

Bentley, P.J./ Wakefield, J.P. (1996): The Evolution of Solid Object Designs using Genetic Algorithms, in: Rayward-Smith, V. (Hrsg.): Modern Heuristic Search Methods, John Wiley & Sons: Uxbridge 1996, S. 199-215.

Bergbauer, A. (2002/ 03): Six Sigma – Renaissance einer vergessenen Qualitäts-methode oder neuer Qualitätsstandard? (Teil 1-6), in: ZfP-Zeitung, o.Jg., H. 80-85.

Berger, C. et al. (1993): Kano’s methods for underAbrufing customer-defined quality, in: Center for Quality of Management Journal, 2. Jg., H. 4, S. 3-36.

Berger, U./ Bernhard-Mehlich, I. (2002): Die Verhaltenswissenschaftliche Ent-scheidungstheorie, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 133-168.

Bernoulli, D. (1954): Exposition of a new theory on the measurment of risk, in: Econometrica, 22. Jg., H. 1, S. 23-36 (Erstveröffentlichung: 1738).

Bertsche, B./ Lechner, G. (2004): Zuverlässigkeit im Fahrzeug- und Maschinen-bau: Ermittlung von Bauteil- und System-Zuverlässigkeiten, 3. Aufl., Berlin et al. 2004.

Beyer, H.-G. (2001): Evolutionäre Algorithmen – Begriffe und Definitionen, Dortmund 2001.

Bhatti, M.A. (2000): Practical Optimization Methods: With Mathematica Applica-tions, New York 2000.

Bierfelder, W.H. (1994): Innovationsmanagement, 3. Aufl., München 1994.

Birchenhall, C. (1995): Modular Technical Change and Genetic Algorithms, in: Computational Economics, 8. Jg., H. 3, S. 233-253.

Biskamp, S. (2006): Offene Grenzen, in: WiWo, 02.10.2006, o.Jg., H. 40, S. 88.

Bloomfield, B.P./ Danieli, A. (1995): The role of Management Consultants and the development of Information Technology: The indissoluble nature of social-political and technical skills, in: Journal of Management Studies, 32. Jg., H. 1, S. 23-46.

Bonabeau, E./ Meyer, C. (2001): Schwarm-Intelligenz: Unternehmen lernen von Bienen und Ameisen, in: HBm, 23. Jg., H. 6, S. 38-48.

Page 373: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

352 Literaturverzeichnis

Bonanno, G./ Haworth, B. (1998): Intensity of competiton and the choice between product and process innovation, in: International Journal of Industrial Organiza-tion, 16. Jg., H. 4, S. 495-510.

Börsch, A./ Simon, P. (1986): Abhandlungen zur Methode der kleinsten Quadrate von Carl Friedrich Gauß, Nachdruck, Berlin 1986 (Erstveröffentlichung: 1887).

Box, G.E.P./ Draper, N.R. (1975): Das EVOP-Verfahren: Der industrielle Prozess, seine Kontrolle und mitlaufende Optimierung, München/ Wien 1975.

Box, G.E.P./ Hunter, W.G./ Hunter, J.S. (1978): Statistics for Experimenters, New York 1978.

Box, M.J. (1965): A new method of constrained optimization and a comparison with other methods, Computer Journal, 8. Jg., H. 1, S. 42-52.

Boysen, O./ Juretzka, J./ Kimms, A. (2002): Ameisen-Systeme zur kapitalwertma-ximierenden Projektplanung, in: Zeitschrift für Planung, 11. Jg., S. 289-305.

Brady, D. (2003): Will Jeff Immelt´s New Push Pay Off for GE?, in: Business Week, European Ed., o.Jg., Issue 3853, S. 94-98.

Breyfogle, W.F. (2003): Implementing Six Sigma – Smarter solutions using sta-tistical methods, 2. Aufl., Hoboken 2003.

Brockhoff, K. (1999): Forschung und Entwicklung: Planung und Kontrolle, 5. Aufl., München et al. 1999.

Bronstein, I./ Semendjajew, K. (1977): Taschenbuch der Mathematik: Für Ingeni-eure und Studenten der technischen Hochschulen, 17. Aufl., Leipzig 1977.

Brue, G./ Launsby, R.G. (2003): Design for Six Sigma, McGraw-Hill: New York et al. 2003.

Bruhn, M. (1998): Wirtschaftlichkeit des Qualitätsmanagements: Qualitätscontrol-ling für Dienstleistungen, Berlin 1998.

Bruhn, M./ Georgi, D. (1999): Kosten und Nutzen des Qualitätsmanagements, München/ Wien 1999.

Bruhn, M./ Homburg, C. (Hrsg.) (2004): Gabler Lexikon Marketing, 2. Aufl., Wiesbaden 2004.

Bulk. G./ Faulhaber, N. (2007): Six Sigma – The Way We Run Our Business – Umsetzungserfahrungen bei GE CompuNet, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 397-414.

Bültel, D./ Wiese, H. (1996): Bernoulli-Prinzip und Nutzenaxiomatik, in: WISU, 25. Jg., H. 12/96, S. 781-787.

Page 374: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 353

Burell, G./ Morgan, G. (1979): Sociological Paradigms and Organizational The-ory, London 1979.

Burgelman, R.A. (1991): Intraorganizational ecology of strategy making and or-ganizational adaptation – Theory and field research, in: Organization Science, 2. Jg., H. 3, S. 239-262.

Burns, T/ Stalker, G.M. (1961): The management of innovation, London: Tavis-tock 1961.

Burton, T.T./ Sams, J.L. (2005): Six Sigma for Small and Mid-Sized Organiza-tions: Success Through Scaleable Deployment, J. Ross Publ.: Boca Raton/ Florida 2005.

Bußmann, H. (1990): Lexikon der Sprachwissenschaft, 2. Aufl., Stuttgart 1990.

Cantner, U./ Hanusch, H. (1997): Evolutorische Ökonomik – Konzeption und Analytik, in: WISU, 26. Jg., H. 8-9/97, S. 776-785.

Carlson, S. (1951): Executive Behaviour, Stockholm 1951.

Chalmers, A.F. (1999): What is this thing called Science?, 3. Aufl., Buckingham 1999.

China, R. (2003): Totgesagte leben länger, in: Personalwirtschaft, 30. Jg., H. 12/2003, S. 45-47.

Chmielewicz, K. (1979): Forschungskonzeptionen der Wirtschaftswissenschaft, 2. Aufl., Stuttgart 1979.

Churchill, G.A./ Surprenant C. (1982): An Investigation into the Determinants of Customer Satisfaction, in: Journal of Marketing Research, 14 Jg., H. 4, S. 491-504.

Chvátal, V. (1983): Linear Programming, New York 1983.

Clemens, C./ Riechmann, Th. (1996): Evolutionäre Optimierungsverfahren und ihr Einsatz in der ökonomischen Forschung, Diskussionspapier H. 195, Universität Hannover, Fachbereich Wirtschaftswissenschaften 1996.

Coase, R. (1937): The Nature of the Firm, in: Economica, 4 Jg., H. 16, November 1937, S. 386-405.

Cohen, D. (1966): Optimizing reproduction in a randomly varyiing environment, in: Journal of Theoretical Biology, 12. Jg., H. 1, S. 119-129.

Cooper, R.G. (1983): A process model for industrial new product development, in: IEEE Transactions on Engineering Management, 30. Jg., S. 2-11.

Cooper, R.G./ Kleinschmidt, E.J. (1990): New Products: The Key Factors in Suc-cess, Chicago 1990.

Page 375: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

354 Literaturverzeichnis

Cornell, J.A. (1990): Experiments with mixtures: Designs, models, and the analy-sis of mixture data, 2. Aufl., New York 1990.

Creveling, C.M./ Slutsky, J.L./ Antis jr., D. (2003): Design for Six Sigma in Tech-nology and Product, New York 2003.

Crosby, P.B. (1979): Quality Is Free, New York 1979.

Dantzig, G.B./ Thapa, M.N. (1997): Linear Programming, Berlin et al. 1997.

Davenport, T.H. (1993): Process Innovation – Reengineering work through infor-mation technology, Boston 1993.

Dawkins, R. (1986): The Blind Watchmaker, Longman Scientific & Technical Publ.: Harlow 1986.

Dawkins, R. (1989): The Evolution of Evolvability. Artificial Life, in: Langton, C. G. (Hrsg.): The Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, 6. Jg., H. 09/ 1987, Addison-Wesley Pub.: Los Alamos/ New Mexico, S. 201-220.

Deisenhofer, T. (1993): Marktorientierte Kostenplanung auf Basis von Erkennt-nissen der Marktforschung bei der Audi AG, in: Horváth, P. (Hrsg.): Target Costing – Marktorientierte Zielkosten in der deutschen Praxis, Stuttgart 1993, S. 93-118.

Deming, E. (1986): The Deming Management Method, Perigree 1986.

Deming, W.E. (1982): Out of the Crisis, Cambridge/ Mass. 1982.

Deshpande, P.B. (2004): Interview: Six Sigma enlightenment, im Internet unter: http://www.businessworld.in/oct0404/web_exclusive03.asp (Abruf: 05.03.2005).

Deutsch, C. (2000): New economy, old-school rigor, in: The New York Times, 12.06.2000, o.Jg., S. C1.

DGQ (Hrsg.) (2001a): FMEA – Fehlermöglichkeits- und Einflussanalyse, DGQ-Band 13-11, 2. Aufl., Berlin/ Wien 2001.

DGQ (Hrsg.) (2001b): QFD – Quality Function Deployment, DGQ-Band 13-21, Berlin/ Wien 2001.

Diller, H. (1977): Der Preis als Qualitätsindikator, in: DB, 37. Jg., S. 219-234.

DiMaggio, P.J./ Powell, W.W. (1991): The iron cage revisited: Institutional iso-morphism and collective rationality in organizational fields, in: Powell, W.W./ DiMaggio, P.J. (Hrsg.): The New Institutionalism in Organizational Analysis. Chicago 1991, S. 63-82.

DIN EN ISO 8402 (Hrsg.) (1995): Qualitätsmanagement und Qualitätssicherung – Begriffe, Berlin 1995.

Page 376: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 355

Domschke, W. (1990): Logistik – Rundreisen und Touren, 3. Aufl., München/ Wien 1990.

Dorff, E./ Töpfer, A. (2007): Positive Erfahrungen bei der Six Sigma Einführung und Projektumsetzung bei Whirlpool Europe, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 522-530.

Dorigo, M./ Gambardella, L.M. (1997): Ant Colony System: A Cooperative Learning Approach to the Traveling Salesman Problem, in: IEEE Transactions on Evolutionary Computation, 1. Jg., H. 1, S. 53-66.

Dorigo, M./ Maniezzo, V./ Colorni, A. (1991): Ant System: An autocatalytic opti-mizing process, Working Paper No. 91-016 Revised, Politecnico di Milano/ Italy 1991.

Dosi, G. (1982): Technological paradigms and technological trajectories, in: Re-search Policy, 11. Jg., H. 3, S. 147-162.

Dosi, G. (1991): The economics of technical change and international trade, 2. Aufl., New York 1991.

Douma, S./ Schreuder, H. (2002): Economic Approaches to Organizations – Evo-lutionary approaches to organizations, 3. Aufl., London 2002.

Downsland, K.A. (1993): Simulated Annealing, in: Reeves, C.R. (Hrsg.): Modern Heuristic Techniques for Combinatorial Problems, London et al. 1993, S. 20-69.

Drucker, P.F. (1974): Management: tasks, responsibilities, practices. New York 1974.

Durth, R. (2001): Die Diffusion von Innovationen, in: WISU, 30. Jg., H. 12/01, S. 1625-1629.

DynCorp (Hrsg.) (2003): Six Sigma Benchmark Survey Results, in: http://www.dyncorp.com (Abruf: 09.01.2003).

Ebel, B. (2002): Die Umsetzung der Normenreihe ISO 9000:2000, in: Töpfer, A. (Hrsg.): Business Excellence, Frankfurt/ M. 2002, S. 69-82.

Eberhard, K. (1999): Einführung in die Erkenntnis- und Wissenschaftstheorie: Geschichte und Praxis der konkurrierenden Erkenntniswege, 2. Aufl., Stuttgart/ Berlin/ Köln: Kohlhammer 1999.

Eby, D. et al. (1997): An Injection Island GA for Flywheel Design Optimization, in: 5th European Congress on Intelligent Techniques and Soft Computing EUFIT '97, 1. Jg., S. 687-691.

Eckstein, P.P. (2000): Angewandte Statistik mit SPSS: Praktische Einführung für Wirtschaftswissenschaftler, 3. Aufl., Wiesbaden 2000.

Page 377: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

356 Literaturverzeichnis

Edson, J./ Zoyhofski, A. (1999): Testing needs change for Six Sigma Processes, in: http://www.qualitymag.com/Common/print_article.asp (Abruf: 01.11.1999).

Effinger, A./Layne, R. (2002): Immelt´s Way, in: http://www.bloomberg.com/marketsmagazine/cv_0208.pdf, August 2002.

EFQM (Hrsg.) (2006): Die Grundkonzepte der Excellence, Brüssel 2006.

Engelmann, T. (1995): Business Process Reengineering: Grundlagen – Gestal-tungsempfehlungen – Vorgehensmodell, Wiesbaden 1995.

Evered, R./ Louis, M.R. (1981): Alternative perspectives in the organizational science. “Inquiry from the inside” and “Inquiry from the outside”, in: AMR, 6. Jg., H. 3, 385-395.

Fähnrich, K.-P./ Opitz, M. (2006): Service Engineering – Entwicklungspfad und Bild einer jungen Disziplin, in: Bullinger, H.-J./ Scheer, A.-W. (Hrsg.): Service Engineering, 2. Aufl., Berlin et al. 2006, S. 85-112.

Fayol, H. (1916): Administration industrielle et générale, Paris 1916.

Feigenbaum, A.V. (2006): The Importance of Consistent Management Innovation, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 1-5.

Feltl, H. (2003): Ein Genetischer Algorithmus für das Generalized Assignment Problem, Diss., Wien 2003.

Fink, D. (2003): A Life Cycle Approach to Management Fashion: An investiga-tion of management concepts in the context of competitive strategy, in: SBR, 55. Jg., H. 1, S. 46-59.

Finn, G.A. (1999): Six Sigma in the Engineering Design Process, in: Prescient Technologies (Hrsg.): www.prescienttech.com, April 1999 (Abruf: 24.03.2004).

Fisher, R.A. (1930): The Genetical Theory of Natural Selection – A Complete Variorum Edition, Oxford University Press: Oxford 1999 (Erstveröffentlichung: 1930).

Fisher, R.A. (1948): Statistical Methods for Research Workers, London 1948 (Erstveröffentlichung: 1925).

Fisher, R.A. (1951): The Design of Experiments, 6. Aufl., Edinburgh/ London 1951 (Erstveröffentlichung: 1935).

Flaherty, M. (2004): Lifting the Lid: Six Sigma is no longer enough, im Internet unter: http://www.forbes.com/business/newswire/2004/05/13/rtr1371201.html (13.05.2004).

Fletcher, R. (1987): Practical Methods of Optimization, 2. Aufl., John Wiley & Sons: Chichester 1987.

Page 378: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 357

Fletcher, R./ Powell, M.J.D. (1963): A rapidly convergent descent method for minimization, in: Computer Journal, 6. Jg., S. 163-168.

Fogel, D.B. (1992): An analysis of evolutionary programming, in: Fogel, D.B./ Atmar, W. (Hrsg.): Proceedings of the First Annual Conference on Evolutionary Programming, Evolutionary Programming Society, San Diego/ CA, S.43-51.

Fogel, L.J./ Owens, A.J./ Walsh, M.J. (1966): Articial Intelligence through Simu-lated Evolution, John Wiley & Sons: New York/ NY 1966.

Foster, R.N. (1986): Innovation – The attacker's advantage, New York 1986.

Frank, S.A./ Slatkin, M. (1992): Fisher's fundamental theorem of natural selection, in: Trends in Ecology and Evolution, 7. Jg., H. 3, S. 92-95.

Freitag, M. (2004): Formel Toyota, in: MM, 34. Jg., H. 12/ 2004, S. 72-83.

Frerichs, S. (2002): Nachhaltige Entwicklung als Forschungsziel – Fragen an die Soziologie der Wissenschaft, in: Schriftenreihe des Zentrums für europäische Studien (Hrsg.), Universität Trier 2002.

Fritz, W. (1995): Marketing-Management und Unternehmenserfolg – Grundlagen und Ergebnisse einer empirischen Untersuchung, 2. Aufl., Stuttgart 1995.

Fuchs, W. (2006): Kreativität und Innovationen, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 143-152.

Funke, J. (2000): Psychologie der Kreativität, in: Universitätsgesellschaft Heidel-berg (Hrsg.): Heidelberger Jahrbücher 44.2000, Heidelberg 2000.

Gack, G. (2003): DFSS and DMAIC – Similarities and Distinctions, in: http://www.sei.cmu.edu/sema/pdf/sdc/gack.pdf (Abruf: 05.06.2006).

Garthe, E. (2002): Das Six Sigma Dogma bei General Electric, in: Töpfer, A. (Hrsg.): Business Excellence – Wie Sie Wettbewerbsvorteile und Wertsteigerung erzielen, Frankfurt/ M. 2002.

Garvin, D.A. (1984): What does „Product Quality” realy mean?, in: Sloan Ma-nagement Review, 26. Jg., H. 1, S. 25-43.

Garvin, D.A. (1987): Competing on the Eight Dimensions of Quality, in: Harvard Business Review, 65. Jg., H. 6, S. 101-109.

Gavin, A.F. (1999): Six Sigma in the Engineering Process, in: Prescient Tech-nologies (Hrsg.): http://www.prescienttech.com (Abruf: 17.02.2000).

Geiger, W. (2003): Der Begriff Qualität im Qualitätsmanagement, in: Masing, W./ Ketting, M./ König, W./ Wessel, K.-F. (Hrsg.): Qualitätsmanagement – Tradition und Zukunft: Festschrift zum 50-jährigen Bestehen der Deutschen Gesellschaft für Qualität e.V., München/ Wien 2003, S. 19-48.

Page 379: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

358 Literaturverzeichnis

Gelbmann, U. et al. (2003): Innovationsleitfaden: Der Weg zu neuen Produkten, in: Projektteam Innovital (Hrsg.): Innovital, Eigenverlag, Graz 2003.

Gen, M./ Cheng, R. (1997): Genetic Algorithms and Engineering Design, John Wiley & Sons: New York 1997.

George, M.L. (2003): Lean Six Sigma for Service: How to Use Lean Speed and Six Sigma Quality to Improve Services, McGraw-Hill: New York et al. 2003.

Gero, J.S. (1996): Computers and Creative Design, in: Tan, M./ The, R. (Hrsg.): The Global Design Studio, National University of Singapore 1996, S. 11-19.

Gero, J.S./ Kazakov, V. (1996): An exploration-based evolutionary model of gen-erative design process. Microcomputers, in: Civil Engineering, 66. Jg., H. 11, S. 209-216.

Gerpott, T.J. (2005): Strategisches Technologie- und Innovationsmanagement, 2. Aufl., Stuttgart 2005.

Geschka, H. (1986): Kreativitätstechniken, in: Staudt, E. (Hrsg.): Das Manage-ment von Innovationen, Frankfurt/ M., S. 147-160.

Geschka, H./ Lantelme, G. (2005): Kreativitätstechniken, in: Albers, S./ Gass-mann, O. (Hrsg.): Handbuch Technologie- und Innovationsmanagement, Wiesba-den 2005, S. 285-304.

Gibbons, M./ Limoges, H./ Nowotny, S./ Schwartzman, P./ Scott, P./ Trow, M. (1994): The new production of knowledge – The dynamics of science and research in contemporary societies, London 1994.

Gill, P.E./ Murray, W./ Wright, M.H. (1997): Practical Optimization, 11. Aufl., Academic Press: San Diego 1997.

Gioia, D.A./ Pitre, E. (1990): Multiparadigm perspectives on theory building, in: AMR, 15. Jg., H. 1, 584-602.

Gitlow, H.S./ Levine, D.M./ Popovich, E.A. (2006): Design for Six Sigma for Green Belts and Champions, New York 2006.

Göggelmann, U. (2004): Strikte Optimierung, in: Capital, o.Jg., H. 12/ 2004, S. 96-99.

Göhler, W. (1996): Formelsammlung: Höhere Mathematik, 13. Aufl., Thun/ Frankfurt/ M. 1996.

Goldberg, D.E. (1989): Genetic algorithms in search, optimization and machine learning, Addison Wesley: Reading/ MA 1989.

Goldstein, A.A. (1965): On steepest descent, in: SIAM J. Control, 3. Jg., H. 1, S. 147-151.

Page 380: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 359

Gonzalez, B./ Martinez, A./ Dale, B.G. (1999): Business process re-engineering to total quality management: An examination of the issues, in: Business Process Management Journal, 5. Jg., H. 4, S. 345-358.

Gopinath, C./ Hoffman, R.C. (1995): A comment on the relevance of Strategy Research, in: Advances in Strategic Management, 12. Jg. (B), S. 93-110.

Gordon, S. (1989): Darwin and Political Economy: The Connection Reconsidered, Journal of the History of Biology, 22. Jg., S. 473-459.

Gordon, W.J.J. (1961): Synectics, New York 1961.

Grabowski, B. (2003): Mathematische Statistik und Wahrscheinlichkeitsrechnung, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 217-225.

Graebig, K. (2006): ISO 9000:2005 Terminologie, in: QZ, 51. Jg., H. 1, S. 28-30.

Grafen, A. (1999): Formal Darwinism, the individual-as-maximizing-agent anal-ogy and bet-hedging, in: The Royal Society, 266. Jg., H. 1421, S. 799-803.

Graumann, M. (2004): Die Managementkonzepte von Ferdinand Piech und Jack Welch – Ein Rekonstruktionsansatz, in: ZfbF, 56. Jg., H. 5, S. 282-298.

Greb, Th./ Erkens, E./ Kopfer, H. (1998): Naturadaptive Ansätze zur Lösung be-trieblicher Optimierungsprobleme, in: WISU, 27. Jg, H. 04/98, S. 444-454.

Green, P.E./ Krieger, A.M. (1985): Models and heuristics for product line selec-tion, in: Marketing Science, 4. Jg., Nr. 1, S. 1-19.

Groys, B. (1999): Über das Neue: Versuch einer Kulturökonomie, 3. Aufl., Frank-furt/ M. 1999.

Guilford, J.P. (1967): The nature of human intelligence, New York 1967.

Gumpp, G.B./ Wallisch, F. (1995): ISO 9000 entschlüsselt, Landsberg/ L. 1995.

Günther, H. (2004): Methoden und Verfahren zur Erschließung von Optimie-rungspotenzial im Innovationsprozess, in: http://www.triz-online.de/triz_magazin/ ausgabe02_04/artikel_1.htm (Abruf: 10.06.2005).

Günther, S. (2003): Von der Statistik zur Qualität, in: QZ, 48. Jg., H. 6, S. 1.

Günther, S./ Jäckel, A. (2007): Entwicklung eines systematischen Messansatzes zur Bestimmung der Kehreigenschaften von Besen, in: BrossaPress, 81. Jg., Nr. 2/2007, S. 6-17.

Günther, Th. (1997): Unternehmenswertorientiertes Controlling, München 1997.

Gupta, P. (2004): Six Sigma Business Scorecard: Creating a Comprehensive Cor-porate Performance Measurement System, New York 2004.

Page 381: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

360 Literaturverzeichnis

Gupta, P. (2005): Innovation for Six Sigma, in: Quality Digest über: http://www.accelper.com/pdfs/Innovation%20for%20Six%20Sigma.pdf (Abruf: 04.01.2006).

Habermas, J. (1973): Wahrheitstheorien, in: Fahrenbach, H. (Hrsg.): Wirklichkeit und Reflexion, Festschrift für Walter Schulz zum 60. Geburtstag, Pfullingen 1973, S. 211-266.

Hahn, D./ Buske, A./ Mayer, A./ Willms, K. (1999): Moderne Managementkonzep-te – unter besonderer Berücksichtigung des Produktionsbereichs, in: Hahn, D./ Krüger, W. (Hrsg.): Schriftenreihe des Instituts für Unternehmungsplanung, Gie-ßen/ Berlin 1999.

Hall, G./ Rosenthal, J./ Wade, J. (1994): Reengineering: Es braucht kein Flop zu werden, in: HBm, 16. Jg., H. 4, S. 82-93.

Haller, S. (2004): Gewinnen durch TQM?, in: DBW, 64. Jg., H. 1., S. 1-27.

Hamel, G. (2000): Das revolutionäre Unternehmen, München 2000.

Hammer, M. (2002): Process Management and the Future of Six Sigma, in: MIT Sloan Management Review, 43. Jg., H. 2, S. 26-31.

Hammer, M./ Champy, J. (1994): Reengineering the corporation – A manifesto for business revolution, New York 1994.

Hannan, M.T./ Freeman, J.H. (1984): Structural inertia and organizational change, in: American Sociological Review, 49. Jg., S. 149-164.

Hannan, M.T./ Freeman, J.H. (1989): Organizational Ecology, Cambridge 1989.

Hansen, U./ Emmerich, A. (1998): Sind zufriedene Kunden wirklich zufrieden? Eine Differenzierung des Kundenzufriedenheitskonstruktes auf der Grundlage organisationspsychologischer Erkenntnisse, in: Jahrbuch der Absatz- und Verbrauchsforschung, 44. Jg., H. 4, S. 220-238.

Harmon, P. (2003): Business Process Change – A Manager´s Guide to Improving, Redesigning, and Automating Processes, San Francisco 2003.

Harry, M./ Schroeder, R. (2005): Six Sigma – Prozesse optimieren, Null-Fehler-Qualität schaffen, Rendite radikal steigern, 3. Aufl., Frankfurt/ M. 2005.

Hartmann, N. (1964): Der Aufbau der realen Welt, 3. Aufl., Berlin 1964.

Harvey, I. (1997): Cognition is not Computation: Evolution is not Optimisation, in: Gerstner, W. et al. (Hrsg.): Artificial Neural Networks – ICANN97, Proc. of 7th International Conference on Artificial Neural Networks, 7-10.10.1997, Lausanne, Switzerland, Springer-Verlag LNCS 1327, S. 685-690.

Hauschildt, J. (2004): Innovationsmanagement, 3. Aufl., München 2004.

Page 382: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 361

Hauschildt, J. (2005): Dimensionen der Innovation, in: Albers, S./ Gassmann, O. (Hrsg.): Handbuch Technologie- und Innovationsmanagement, Wiesbaden 2005, S. 23-39.

Hauser, J.R./ Clausing, D.P. (1988): The House of Quality, in: HBR, 66. Jg., H. 3, S. 63-73.

Hellriegel, D./ Slocum, J.W. (1996): Management, 7. Aufl., Cincinnati/ Ohio 1996.

Hempel, C.G./ Oppenheim, P. (1948): Studies in the logic of explanation, in: Phi-losophy of Science, 15. Jg., 135-175.

Herb, R. (2003): TRIZ und FUN: Antizipierende Fehlererkennung im Zusammen-spiel mit TRIZ und FMEA, in: http://www.triz-online.de/triz_magazin/ausgabe 05_03/ artikel_3.htm (Abruf: 11.12.2006).

Herb, R./ Herb, T./ Kohnhauser, V. (2000): TRIZ – Der systematische Weg zur Innovation, Augsburg 2000.

Herold, H./ Lurz, B./ Wohlrab, J. (2006): Grundlagen der Informatik: praktisch – technisch – theoretisch, München 2006.

Heyde, W. et al. (1991): Innovationen in Industrieunternehmen: Prozesse, Ent-scheidungen und Methoden, Wiesbaden 1991.

Higgins, J.M. (1994): 101 Creative Problem Solving Techniques, Winter Park/ Florida 1994.

Hodgkinson, G.P./ Herriot, P./ Anderson, N. (2001): Re-aligning the Stakeholders in Management Research: Lessons from Industrial, Work and Organizational Psychology, in: British Journal of Management, 12. Jg., 12/ 2001 (Special Issue), S. S41-S48.

Hodgson, G. (1993): Economics and Evolution – Bringing Life Back into Eco-nomics, University of Michigan Press: Cambridge 1993.

Hofbauer, J./ Sigmund, K. (1998): Evolutionary Games and Population Dynamics, Cambridge University Press: Cambridge 1998.

Holland, J.H. (1975): Adaptation in natural and articial systems, The University of Michigan Press: Ann Arbor MI 1975.

Holtmann, F. (1963): Mathematik (Bd. 1): Arithmetik, 7. Aufl., Leipzig 1963.

Homburg, C./ Giering A./ Hentschel F. (1999): Der Zusammenhang zwischen Kundenzufriedenheit und Kundenbindung, in: DBW, 59 Jg., H. 99/02, S. 174-195.

Hornung, A. (1996): Kreativitätstechniken, Köln 1996.

Huczynski, A.A. (1993a): Explaining the succession of management fads, in: The International Journal of Human Resource Management, 4. Jg., H. 2, S. 443-463.

Page 383: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

362 Literaturverzeichnis

Huczynski, A.A. (1993b): Management Gurus: What makes them and how to be-come one, London 1993.

Huff, A.S. (2000): Citigroup´s John Reed and Stanford´s James March on man-agement research and practice, by: A.S. Huff, in: Academy of Management Ex-ecutive, 14. Jg., H. 1, S. 52-64.

Hughes, G.D./ Chafin, D.C. (1996): Turning New Product Development into a Continuous Learning Process, in: Journal of Product Innovation Management, 13. Jg., H. 2, S. 89-104.

Hunt, V.D. (1996): Process Mapping: How to reengineer your business process, New York 1996.

Husbands, P./ Jermy, G./ McIlhagga, M./ Ives, R. (1996): Two Applications of Genetic Algorithms to Component Design, in: Fogarty, T. (Hrsg.): Selected Pa-pers from AISB Workshop on Evolutionary Computing, Lecture Notes in Com-puter Science 1996, S. 50-61.

IBM (Hrsg.) (2006): Global CEO Study 2006: Expanding the Innovation Horizon, in: http://www-5.ibm.com/e-business/at/ceostudy/index.html (Abruf: 05.02.2007).

Imai, M. (1986): Kaizen (Ky´zen), New York/ Toronto 1986.

Islam, K.A. (2003): Developing E-Learning The Six Sigma Way, in: http://healthcare.isixsigma.com/library/content/c030407a.asp (Abruf: 14.05.2003).

ISO (Hrsg.) (2004): The ISO Survey – 2004, in: http://www.iso.org/iso/en/prods-services/otherpubs/pdf/survey2004.pdf (Abruf: 05.10.2005).

Jancke, G. (2004): Reinigung und Entschichtung von Metalloberflächen, in: Son-derabfallgesellschaft Brandenburg/ Berlin mbH (Hrsg.): Informationen zur Ab-fallvermeidung in Brandenburg und Berlin, VV-06, Juni 2004.

Jarre, F./ Stoer, J. (2004): Optimierung, Berlin/ Heidelberg 2004.

Jongen, H.Th./ Jonker, P./ Twilt, F. (1986): Nonlinear Optimization in Rn – II. Transversality, Flows, Parametric Aspects, Frankfurt/ M. et al. 1986.

Jongen, H.Th./ Meer, K. (2003): Optimierung, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 211-216.

Juran, J.M. (1993): Der neue Juran – Qualität von Anfang an, Landsberg/ L. 1993.

Kaiser, B./ Nowack, M.W. (1999): Nur scheinbar stabil: Neue Gesichtpunkte zur Prozessbeurteilung und Qualitätsregelkartentechnik, in: QZ, 44. Jg., S. 761-765.

Kallen, H.M. (1973): Innovation, in: Etzioni-Halevy, E./ Etzioni, A. (Hrsg.): So-cial Change: Sources, Patterns, and Consequences, 2. Aufl., New York 1973.

Kamiske, G.F. (Hrsg.) (2000): Der Weg zur Spitze, 2. Aufl., München 2000.

Page 384: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 363

Kamiske, G.F./ Brauer, J.-P. (2006): Qualitätsmanagement von A – Z: Erläute-rungen moderner Begriffe des Qualitätsmanagements, 5. Aufl., München 2006.

Kamiske, G.F./ Malorny, C. (1997): Führen – Bewußtsein entwickeln, Verhalten verändern, in: Kamiske, G.F./ Ehrhart, K.J./ Jacobi, H.-J. (Hrsg.): Bausteine des innovativen Qualitätsmanagements, München/ Wien 1997, S. 27-246.

Kano, N./ Seraku, N./ Takashi, F./ Tsuji, S. (1994): Attractive Quality and Must-Be-Quality, in: Hinshitsu, 14. Jg., H. 2, S. 39-48.

Karmarkar, N. (1984): A new polynomial-time algorithm for linear programming, in: Combinatorica, 4. Jg., H. 4, S. 373-395.

Katzensteiner, Th./ Leendertse, J. (2003): Blick in die Glaskugel, in: WiWo, 26.06.2003, o.Jg., H. 27, S. 60-65.

Kestler, H.A. (1996): Kybernetik (Stichwort), in: Strube, G. (Hrsg.): Wörterbuch der Kognitionswissenschaft, Stuttgart 1996, S. 352f.

Keuper, F. (2001): Strategisches Management, München/ Wien 2001.

Keuper, F. (2004): Systemkomplexität (Stichwort), in: DBW, 64. Jg., H. 5, S. 637-641.

Keuper, F./ Brösel, G. (2005): Zum Effektivitäts-Effizienz-Dilemma des öffentli-chen Rundfunks, in: Zeitschrift für öffentliche und gemeinwirtschaftliche Unter-nehmen, Bd. 28, H. 1, S. 1-18.

Khachiyan, L.G. (1979): A polynomial algorithm in linear programming, in: So-viet Mathematics Doklady, 20. Jg., S. 191-194.

Kieser, A. (1996a): Moden und Mythen des Organisierens, in: DBW, 56. Jg., H. 1, S. 21-40.

Kieser, A. (1996b): Business Process Reengineering – Neue Kleider für den Kai-ser?, in: zfo, 65. Jg., H. 3, S. 179-185.

Kieser, A./ Walgenbach, P. (2003): Organisation, 4. Aufl., Stuttgart 2003.

Kieser, A./ Woywode, M. (2002): Evolutionstheoretische Ansätze, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 309-352.

Kilian, I. et al. (2006): Großes Buch der Biologie, München 2006.

Kirner, E./ Armbruster, H./ Kinkel, S. (2007): Mit kleinen Schritten nach vorn, in: QZ, 52. Jg., H. 4, S. 25-29.

Kirzner, M.I. (1973): Competition and Entrepreneurship, The University of Chi-cago Press: Chicago/ London 1973.

Kleppmann, W. (2006): Taschenbuch Versuchsplanung, 4. Aufl., München 2006.

Page 385: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

364 Literaturverzeichnis

Klockgether, J./ Schwefel, H.-P. (1970): Two-phase nozzle and hollow core jet experiments, in: Elliott, D.G. (Hrsg.): Proc. 11th Symp, Engineering Aspects of Magnetohydrodynamics, 24.-26.03.1970, California Institute of Technology, Pasadena/ CA, S.141-148.

Koch, M./ Schlichter, J. (2002): Einführung in die Informatik, Vorlesungsskript, TU München, in: http://www11.in.tum.de/lehre/vorlesungen/ws2002-03/einfinfo/ (Abruf: 18.03.2005).

Koons, G.F. (1992): Indices of Capability – Classical and Six Sigma Tools, Mo-torola University Press: Reading/ Mass. 1992.

Korhonen, P./ Moskowitz, H./ Wallenius, J. (1992): Multiple Criteria Decision Support – A Review, in: European Journal of Operational Research, 63. Jg., H. 3, S. 361-375.

Kotler, P./ Bliemel, F.W. (1992): Marketing-Management: Analyse, Planung, Umsetzung und Steuerung, 7. Aufl., Stuttgart 1992.

Krafft, M. (1999): Der Kunde im Fokus: Kundennähe, Kundenzufriedenheit, Kun-denbindung – und Kundenwert?, in: DBW, 59. Jg., H. 4, S. 511-530.

Kramer, H.E. (1975): The philosophical foundation of management rediscovered, in: Management International Review, 15. Jg., H. 2/3, S. 47-54.

Kriegesmann, B./ Kerka, F./ Kley, Th. (2006): Fehlerkulturen und Innovationser-folg: Eine vergleichende empirische Analyse, in: ZfP, 20. Jg., H. 2, S. 141-159.

Kromrey, H. (2002): Empirische Sozialforschung, 10. Aufl., Opladen 2002.

Kryssanov, V.V./ Tamaki, H./ Kitamura, S. (2005): Evolutionary Design: Philoso-phy, Theory, and Application Tactics, in: CIRP Journal of Manufacturing Sys-tems, 34. Jg., H. 2, in: http://arxiv.org/abs/cs/0606039.

Kuhn, T.S. (1962): The Structure of Scientific Revolutions, Chicago 1962.

Külpe, O. (1909): Outlines of psychology, Translated by E. B. Titchener, London 1909 (Erstveröffentlichung: 1883).

Kumar, U.D./ Crocker, J./ Chitra, T./ Sranga, H. (2006): Reliability and Six Sigma, New York 2006.

Lakatos, I./ Musgrave, A. (Hrsg.) (1970): Criticism and the Growth of Knowledge, London 1970.

Lang, A. (2006): „Closed Online Communities“: Innovation durch Austausch, in: IT, New Media & Software PR Agentur (Pressemitteilung von Communication Presse und PR) unter: www.openPR.de, 04.12.2006 (Abruf: 23.03.2007).

Lang, G./ Reemtsema, K.-D. (2003): Konzept und Management des Verände-rungsprozesses: Die Qualitätsinitiative Six Sigma der DB AG, in: ETR, 52. Jg., H. 1/2, S. 12-24.

Page 386: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 365

Lange, O. (1968): Optimale Entscheidungen: Grundriß der Optimierungsrech-nung, Berlin/ Warschau 1968.

Lee, R. (2004): ISSSP Session: Innovation and Six Sigma Go Hand in Hand, im Internet unter: http://www.isixsigma.com/library/content/c040617a.asp (Abruf: 01.06.2004).

Leifeld, J. (2002): Methoden im Produktentstehungsprozess, in: Kooperationsbör-se TU Dresden – BSH (Fachtagung), Präsentation mit Projektvorstellung an der TU Dresden am 02.12.2002.

Lentrodt, A. (1997): Blind- und Fehlleistungsermittlung in Gemeinkostenberei-chen, in: Hansen, W./ Kamiske, G.F. (Hrsg.): Grundlagen, Methoden und Werk-zeuge (Praxisbeispiele), 14. Aufl., Berlin/ Heidelberg, Loseblattsammlung, Stand: 1998.

Leupold, W. et al. (1971): Analysis für Ingenieure, 7. Aufl., Leipzig 1971.

Levy, A./ Merry, U. (1986): Organizational transformation, New York 1986.

Leyendecker, B. (2007): Ableitung von Six Sigma Projekten aus den Unterneh-menszielen, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 490-502.

Liker, J. (2003): The Toyota Way – 14 Management Principles From The World's Greatest Manufacturer, New York 2003.

Lindblom, C.E. (1975): Inkrementalismus: die Lehre vom „Sich-Durchwursteln“, in: Narr, W.-D./ Offe, C. (Hrsg.): Wohlfahrtsstaat und Massenloyalität, Köln 1975, S. 161-177.

Lingscheid, A. (1997): Prozeßmanagement Stufe 2: Prozesse bewerten, in: Horváth & Partner (Hrsg.): Qualitätscontrolling: Ein Leitfaden zur betrieblichen Navigation auf dem Weg zum Total Quality Management, Stuttgart 1997, S. 173-196.

Lippe, W.-M. (2004): Evolutionäre Algorithmen und ihre Anwendung (Ausarbei-tung im Rahmen des Seminars Neuroinformatik), in: www.uni-muenster.de/ Soft-Computing/lehre/seminar/ss2004/vortraege/listess04 (Abruf: 05.03.2005).

Little, J.D.C./ Murty, K.G./ Sweeney, D.W./ Karel, C. (1963): An Algorithm for the Traveling Salesman Problem, in: Operations Research, 11. Jg., H. 6, S. 972-989.

Liu, L.C./ Wu, Q. (2006): Six Sigma and its application in SCM, in: Technology & Economy in Areas of Communication, 35. Jg., H. 3, S. 119-121.

Löbmann, A. (2003): Die TRIZ-Methode – ein immer währender Innovations-Kreislauf, in: www.triz-online-magazin.de/ausgabe02_01/artikel_3.htm (Abruf: 02.03.2004).

Page 387: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

366 Literaturverzeichnis

Lohn, J./ Reggia, J. (1995): Discovery of Self-Replicating Structures Using a Genetic Algorithm, in: 1995 IEEE Int. Conf. on Evolutionary Computation (ICEC '95), 1. Jg., Perth/ Western Australia, S. 678-683.

Luhman, N. (1994): Die Wissenschaft der Gesellschaft, 2. Aufl., Frankfurt/ M. 1994.

Lunau, S. (Hrsg.) (2006): Six Sigma + Lean Toolset – Verbesserungsprojekte erfolgreich durchführen, Berlin/ Heidelberg 2006.

Magnusson, K./ Kroslid, D./ Bergman, B. (2004): Six Sigma umsetzen, 2. Aufl., München 2004.

Malik, F. (1986): Strategie des Managements komplexer Systeme: Ein Beitrag zur Management-Kybernetik evolutionärer Systeme, 2. Aufl., Bern/ Stuttgart 1986.

Malorny, C. (1999): TQM umsetzen, 2. Aufl., Stuttgart 1999.

Mandl, Ch. (1999): Innovationsfähiger werden, in: io Management Zeitschrift Zürich, 69. Jg., H. 5, S. 52-57.

March, J.G./ Sutton, R.I. (1997): Organizational performance as a dependent vari-able, in: Organization Science, 6. Jg., H. 6, S. 698-706.

Marcus, A.A/ Goodman, R.S./ Grazman, D.N. (1995): The diffusion of strategic management frameworks, in: Advances in Strategic Management, 12. Jg. (B), S. 115-145.

Marimon, R. (1993): Adaptive Learning, Evolutionary Dynamics and Equilibri-um Selection in Games, in: European Economic Review, 37. Jg., H. 2-3, S. 603-611.

Marks, P. (2007): Darwin and the generation game, in: NewScientist, 195. Jg., H. 2614, 28.07.2007, S. 26-27.

Martell, M. (2007): Deutsche Unternehmen entdecken Second Life, in: http://www.stern.de/computer-technik/internet/:Onlinewelten-Deutsche-Firmen-Second-Life/583766.html (Abruf: 04.03.2007).

Masing, W. (1994): Einführung in die Qualitätslehre, 8. Aufl., Berlin 1994.

Masing, W. (1999): Das Unternehmen im Wettbewerb, in: Masing, W. (Hrsg.): Handbuch Qualitätsmanagement, 4. Aufl., München/ Wien 1999, S. 3-16.

Masing, W. (2004): Geleitwort, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Hei-delberg 2007, S. 1-2.

Masing, W. (Hrsg.) (1999): Handbuch Qualitätsmanagement, 4. Aufl., München 1999.

Maslow, A.H. (1954): Motivation and Personality, New York et al. 1954.

Page 388: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 367

Mayo, D. (1996): Error and the Growth of Experimental Knowledge, Chicago 1996.

Mazur, G. (1995): Theory of Inventive Problem Solving (TRIZ), in: http://www.mazur.net/triz/ (Abruf: 11.03.2004).

McCaskey, M.B. (1982): The Executive Challenge, Boston 1982.

McFarland, A.S. (1969): Power and Leadership in Pluralists Systems, Stanford 1969.

McKelvey, B./ Aldrich, H.E. (1983): Populations, Natural Selection, and Applied Organizational Science, in: Administrative Science Quarterly, 28. Jg., S. 101-128.

Meffert, H. (2000): Marketing – Grundlagen marktorientierter Unternehmens-führung, Konzepte, Instrumente, Praxisbeispiele, 9. Aufl., Wiesbaden 2000.

Meinardus, G. (2003): Approximationstheorie, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 168-173.

Messer J./ Töpfer, A. (2002): Drei harmonische Instrumente: Exzellente Ergebnis-se mit Balanced Scorecard, Six Sigma und EFQM-Modell, in: QZ, 47. Jg., 2002, S. 1268-1271.

Metzen, H. (1994): Zauberformel Reengineering – Was wirklich dahintersteckt, in: MM, o.Jg., H. 11/ 1994, S. 279-282.

Michalewicz, Z. (1995): A survey of constraint handling techniques in Evolution-ary computation methods, in McDonnell, J./ Reynolds, R./ Fogel, D. (Hrsg.): Evo-lutionary Programming IV, MIT Press: Cambridge/ MA 1995, S. 135-155.

Michalewicz, Z. (1996): Genetic Algortihms Data Structures = Evolution Pro-grams, 3. Aufl., Berlin et al. 1996.

Michalewicz, Z./ Deb, K./ Schmidt, M./ Stidsen, T. (2000): Test-Case Generator for Nonlinear Continuous Parameter Optimization Techniques. IEEE Transactions on Evolutionary Computation, 4. Jg., H. 3, S. 197-215.

Michalewicz, Z./ Fogel, D.B. (2000): How to Solve It: Modern Heuristics, Berlin/ Heidelberg/ New York 2000.

Miller, D. (1982): Evolution and Revolution: A quantum view of structural change in organizations, in: J. Mgmt. Studies, 19. Jg., H. 2, S. 131-151.

Miller, D./ Friesen, P.H. (1984): Organizations – A Quantum View, Englewood Cliffs, NJ 1984.

Miller, D./ Hartwick, J. (2003): Schein oder Sein?, in: HBm, 25. Jg., H. 2, S. 18-19.

Mintzberg, H. (1979): The Structuring of Organizations: A Synthesis of the Re-search, Englewood Cliffs, New York 1979.

Page 389: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

368 Literaturverzeichnis

Mitchell, W.F./ Kowalik, Th.F. (1999): Creative Problem Solving, 3. Aufl., in: http://ceo.binghamton.edu/kowalik/docs/CreativeProblemSolving.pdf (Abruf: 10.01.2007).

Montgomery, D.C. (2000): Design and Analysis of Experiments, 5. Aufl., New York 2000.

Müller-Stewens, G./ Lechner, Ch. (2003): Strategisches Management – Wie stra-tegische Initiativen zum Wandel führen, 2. Aufl., Stuttgart 2003.

Nakayama, M. (1988): Creative Thinking course Training, Text 4, Creative Engi-neering Institute, Tokyo 1988.

Nelder, J.A./ Mead, R. (1965): A Simplex method for function minimization, in: Computer Journal, 7. Jg., S. 308-313.

Nelson, R.R./ Winter S.G. (1982): An Evolutionary Theory of Economic Change, Cambridge (Mass.)/ London 1982.

Neumann, R. (2000): Die Organisation als Ordnung des Wissens, Wiesbaden 2000.

Nicolai, A.T. (2004): Der „trade-off” zwischen „rigour” und „relevance” und seine Konsequenzen für die Managementwissenschaften, in: ZfB, 74. Jg., H. 2, S. 99-118.

Nicolai, A.T./ Kieser, A. (2002): Trotz eklatanter Erfolglosigkeit: Die Erfolgsfak-torenforscher weiter auf Erfolgskurs, in: DBW, 62. Jg., H. 6, S. 513-540.

Nissen, V. (1997): Einführung in Evolutionäre Algorithmen – Optimierung nach dem Vorbild der Evolution, Braunschweig/ Wiesbaden 1997.

Nollau, V. (1993): Mathematik für Wirtschaftswissenschaftler, Leipzig 1993.

Nürnberger, G./ Walz, G./ Zeilfelder, F. (2003): Splinefunktionen, in: Walz, G. (Hrsg.): Faszination Mathematik, Heidelberg/ Berlin 2003, S. 325-334.

o.V. (2005): Abrufard-Methodenbeschreibung: Paarweiser Vergleich, in: archiv. tu-chemnitz.de/pub/2005/0025/data/Paar.pdf (Abruf: 18.06.2006).

Ohno, T. (1993): Das Toyota-Produktionssystem, Frankfurt/ M. 1993.

Ophey, L. (2005): Entwicklungsmanagement: Methoden in der Produktentwick-lung, Berlin/ Heidelberg 2005.

Orloff, M.A. (2002): Grundlagen der klassischen TRIZ: Ein praktisches Lehrbuch des erfinderischen Denkens für Ingenieure, Berlin/ Heidelberg 2002.

Orvosh, D./ Davis, L. (1994): Using a Genetic Algorithm to optimize problems with feasability constraints, in: Fogel, D. (Hrsg.): Proceedings of the First Annual Conference on Evolutionary Computation, IEEE Press: Orlando/ FL 1994, S. 548-552.

Page 390: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 369

Osborn, A.F. (1993): Applied imagination: Principles and procedures of creative problem-solving, 3. Aufl., Buffalo/ NY 1993 (Erstveröffentlichung: 1953).

Ose, G. (1973): Ausgewählte Kapitel der Mathematik, 7.Aufl., Leipzig 1973.

Osterloh, M./ Frost, J. (1994): Business Reengineering – Modeerscheinung oder „Business Revolution“?, in: zfo, 63. Jg., H. 6, S. 356-363.

Otto, B. (2007): Liebesheirat Qualität und Innovation?, in: Quality Engineering, o.Jg., H. 7-8/2007, S. 10-11.

Otto, K.-S./ Nolting, U./ Bässler, Ch. (2007): Evolutionsmanagement – Von der Natur lernen: Unternehmen entwickeln und langfristig steuern, München/ Wien 2007.

Pande, P.S./ Neuman, R.P./ Cavanagh, R.R. (2000): The Six Sigma Way – How GE, Motorola, and other top companies are honing their performance, New York 2000.

Panny, W. (1978): Verfahren zur Lösung des Traveling-Salesman-Problems unter besonderer Berücksichtigung der Methode „Branch-and-Bound“, Diss., Wien 1978.

Parnes, S.J. (Hrsg.) (1992): Source book for creative problem-solving: A fifty year digest of proven innovation processes, Buffalo/ NY 1992.

Peters, D./ Gorges-Schleuter, M./ Parodat, S. (1999): Modellbasierte Optimierung mit mathematischen Methoden – ein Vergleich von klassischen und evolutionären Verfahren, in: 7. GMM-WS „Methoden und Werkzeuge zum Entwurf von Mikro-systemen“, Paderborn, 21.-22. Jan. 1999, S. 127-136.

Peters, T.J./ Waterman, R.H. (1982): In Search of Excellence – Lessons from America’s Best-run Companies, New York et al. 1982.

Pfeifer, T. (2001): Qualitätsmanagement: Strategien, Methoden, Techniken, 3. Aufl., München/ Wien 2001.

Pfeifer, T. (2002): Quality Management, München 2002.

Pham, D.T./ Karaboga, D. (2000): Intelligent Optimization Techniques – Genetic Algorithms, Tabu Search, Simulated Annealing and Neural Networks, London 2000.

Plackett, R.L./ Burman, J.P. (1946): The design of optimum multifactorial ex-periments, Biometrica, 33. Jg., S. 305-325.

Pleschak, F./ Sabisch, H. (1996): Innovationsmanagement, Stuttgart 1996.

Popper, K.R. (1969): Conjectures and refutations – The growth of scientific knowledge, London 1969.

Page 391: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

370 Literaturverzeichnis

Popper, K.R. (1971): Logik der Forschung – Zur Erkenntnistheorie der modernen Naturwissenschaft, Tübingen 1971 (Erstveröffentlichung: 1935).

Porter, M.E. (1988): Wettbewerbsstrategie, 5. Aufl., Frankfurt/ M. 1988.

Price, G.M. (1970): The Practice of Creativity, New York 1970.

Prisching, M. (2005): Irrtümer über Innovationen, in: zfo, 74. Jg., H. 4/2005, S. 238-239.

ProcessTeam (Hrsg.) (2006): An Overview of DFSS and its application in CMMI programs, 19.11.2006, im Internet unter: http://processteam.org/?p=5, (Abruf: 25.06.2007).

Pyzdek, Th. (2003a): The Six Sigma Handbook: The Complete Guide for Green-belts, Blackbelts, and Managers at All Levels, 2. Aufl., McGraw-Hill: New York et al. 2003, S. 665-704.

Pyzdek, Th. (2003b): DMAIC and DMADV, in: http://www.pyzdek.com/DMAICDMADV.htm (Abruf: 15.09.2005).

Q-DAS (Hrsg.) (2002): Informationen zu Six Sigma, in: http://www.q-das.de/6-sigma_ausbildung.htm (Abruf: 26.11.2002).

Quality Digest (Hrsg.) (2003): Six Sigma Survey, im Internet unter: http://www.qualitydigest.com/feb03/articles/01_article.shtml (Abruf: 10.05.2005)

Real, L.A. (1980): Fitness uncertainty and the role of diversification in evolution and behavior, in: American Naturalist, 115. Jg., H. 5, S. 623-638.

Rechenberg, I. (1965): Cybernetic solution path o an experimental problem, Royal Aircraft Establishment, Library translation H. 1122, Farnborough/ Hants. 1965.

Rechenberg, I. (1973): Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipien der biologischen Evolution, Stuttgart 1973.

Reeves, C. (1993): Diversity and Diversification in Algorithms: Some connections with Tabu Search, in: Albrecht, R./ Reeves, C./ Steele, N. (Hrsg.): Artificial Neu-tral Nets and Genetic Algorithms, Springer-Verlag: New York 1993, S. 344-351.

Rehbehn, R./ Yurdakul, Z.B. (2005): Mit Six Sigma zu Business Excellence: Stra-tegien, Methoden, Praxisbeispiele, 2. Aufl., München/ Erlangen 2005.

Reinelt, G. (1994): The Traveling Salesman: Computational Solutions for TSP Applications, Vol. 840 of Lecture Notes in Computer Science, Berlin 1994.

Rigby, D. (2003): Management Tools 2003, in: http://www.bain.com/management_tools/strategy_brief.pdf (Abruf: 12.01.2005).

Role, P.G. (2002): Design For Six Sigma (DFSS): Example for Pump Design and Tolerance, in: http://www.isixsigma.com/library/content/c020320a.asp (Abruf: 25.03.2002).

Page 392: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 371

Rommel, G. et al. (1995): Qualität gewinnt: Mit Hochleistungskultur und Kun-dennutzen an die Weltspitze, Stuttgart 1995.

Rosenbrock, H.H. (1960): An Automatic Method for finding the Greatest or Least Value of a Function, Computer Journal, 3. Jg., H. 3, S. 175-184.

Rosenman, M. (1997): The Generation of form Using an Evolutionary Approach, in: Dasgupta, D./ Michalewicz (Hrsg.): Evolutionary Algorithms in Engineering Applications, Berlin et al. 1997, S. 69-86.

Rosenthal, R.E. (1985): Concepts, Theory and Techniques, Principles of Multiob-jective Optimization, in: Decision Sciences, 16. Jg., H. 2, S. 133-152.

Rynes, S.L./ Bartunek, J.M./ Daft, R.D. (2001): Across the Great Divide: Knowl-edge creation and transfer between practioners and academics, in: Academy of Management Executive, 44. Jg., H. 2, S. 340-355.

Saatweber, J. (1997): Kundenorientierung durch Quality Function Deployment, München/ Wien 1997.

Sauerwein, E./ Bailom, F./ Matzler, K./ Hinterhuber, H.H. (1996): The Kano Model: How to delight your customers, in: Preprints Volume I of the IX. Interna-tional Working Seminar on Production Economics, Innsbruck/ Igls, Austria, Feb-ruary 19-23 1996, S. 313-327.

Scherer, A.G. (2002): Kritik der Organisation oder Organisation der Kritik? – Wissenschaftstheoretische Bemerkungen zum kritischen Umgang mit Organisati-onstheorien, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 1-38.

Scherer, A.G./ Dowling, M.J. (1995): Towards a reconciliation of the theory plu-ralism in strategic management: Incommensurability and the constructivist ap-proach of the Erlangen School, in: Shrivasta, P./ Stubbart, Ch.I. (Hrsg.): Advances in Strategic Management II, Greenwich 1995.

Scheuch, F. (2007): Marketing, 6. Aufl., München 2007.

Schierenbeck, H. (2003): Grundzüge der Betriebswirtschaftslehre, 16. Aufl., Mün-chen 2003.

Schipp, B./ Töpfer, A. (2007): Statistische Anforderungen des Six Sigma Kon-zepts, in: Töpfer, A. (Hrsg.): Six Sigma: Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 196-204.

Schittkowski K./ Zillober C./ Zotemantel R. (1994): Numerical Comparison of Nonlinear Programming Algorithms for Structural Optimization Structural Opti-mization, 7. Jg., H. 1, S. 1-28.

Schittkowski, K. (1999): Mathematische Grundlagen von Optimierungsverfahren (Vorlesungsskript), Universität Bayreuth (1999), in: http://www.uni-bayreuth.de/ departments/math/~kschittkowski/skript.pdf (Abruf: 03.02.2007).

Page 393: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

372 Literaturverzeichnis

Schlicksupp, H. (2004): Innovation, Kreativität und Ideenfindung, 6. Aufl., Würz-burg 2004.

Schmelzer, H.J./ Sesselmann, W. (2004): Geschäftsprozessmanagement in der Praxis – Produktivität steigern, Wert erhöhen, Kunden zufrieden stellen, 4. Aufl., München/ Wien 2004.

Schmieder, M. (2003): Vorsichtige Annäherung – Studie: Anwendung von Six Sigma in Deutschland, in: QZ, Jg. 48, H. 7, S. 698-700.

Schmieder, M. (2005): 100.000-mal gespart (Interview), in: CIO – IT-Strategie für Manager, 22.03.2005, im Internet unter: http://www.six-sigma-deutschland.de/ docs/Presse/CIO%20Artikel.pdf (Stand: 23.04.2007).

Schmieder, M. (2005): Six Sigma in Deutschland – Eine aktuelle empirische Un-tersuchung, in: Moormann et al. (Hrsg.): Six Sigma in der Finanzbranche (Konfe-renzband), Frankfurt/ M., 10.02.2005.

Schmitting, W. (1999): Das Traveling-Salesman-Problem – Anwendungen und heuristische Nutzung von Voronoi-/ Delaunay-Strukturen zur Lösung euklidi-scher, zweidimensionaler Traveling-Salesman-Probleme, Diss., Universität Düs-seldorf 1999, in: http://www.ulb.uni-duesseldorf.de/diss/wiwi/1999/schmit-ting.html (Abruf: 08.07.2006).

Schöning, U. (2006): Ideen der Informatik – Grundlegende Modelle und Konzep-te, 2. Aufl., München/ Wien 2006.

Schreyögg, G./ Geiger, D. (2003): Wenn alles Wissen ist, ist Wissen am Ende nichts?!, in: DBW, 63. Jg., H. 1, S. 7-22.

Schreyögg, G./ Kliesch, M. (2006): Zur Dynamisierung Organisationaler Kompe-tenzen – „Dynamic Capabilities“ als Lösungsansatz?, in: ZfbF, 58. Jg., H. 6, S. 455-476.

Schröder, H.-H. (2002): Paradigmen für das Management von Innovationen – Eine kritische Analyse, in: Strebel, H. (Hrsg.): Innovation und Umwelt, Graz/ Wien 2002, S. 23-76.

Schumpeter, J.A. (1997): Theorie der wirtschaftlichen Entwicklung, 9. Aufl., Ber-lin 1997 (Erstveröffentlichung: 1912).

Schurr, S. (2002): Magische 3,4 und mehr – Design for Six Sigma verwirklicht den integrierten Methodeneinsatz, in: QZ, 47. Jg., H. 3, S. 246-248.

Schwefel, H.-P. (1981): Numerical Optimization of Computer Models, John Wiley & Sons: Chichester 1981.

Schweitzer, P. (1999): Systematisch Lösungen finden, Zürich 1999.

Page 394: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 373

Seghezzi, H.D. (2006): Innovation als erstrangiger Erfolgsfaktor exzellenter Orga-nisationen, in: Schnauber, H. (Hrsg.): Kreativ und konsequent: Walter Masing, ein Leben für die Qualität, München/ Wien 2006, S. 153-160.

Seghezzi, H.D./ Fahrni,F./ Herrman, F. (1996): Integriertes Qualitätsmanagement – Das St. Galler Konzept, 2. Aufl., München 1996.

Seiffge-Krenke, I. (1974): Probleme und Ergebnisse der Kreativitätsforschung, Bern 1974.

Seiwert, M./ Bergemann, M./ Pecher, U. (2006): Es werde Licht!, in: WiWo, 02.10.2006, o.Jg., H. 40, S. 76-90.

Seufferlein, R./ Kaps, M. (2004): Wie Six Sigma-Projekte sicher scheitern – oder gelingen (Teil 1-6), in: QZ, 49. Jg., H. 5-9.

Seyffert, W. (2003): Lehrbuch der Genetik, 2. Aufl., Heidelberg/ Berlin 2003.

Shenhar, A.J. (1998): From Theory to Practice: Towards a Typology of Project-Management Styles, in: IEEE-Transactions on Engineering Management, 45. Jg., H. 1, S. 33-48.

Shingo, S. (1993): Das Erfolgsgeheimnis der Toyota-Produktion. Eine Studie über das Toyota-Produktionssystem – genannt die „Schlanke Produktion“, 2. Aufl., Landsberg/ Lech 1993.

Shrivastava, P. (1987): Rigor and practical usefulness of research in Strategic Management, in: Strategic Management Journal, 8. Jg., H. 1, S. 77-92.

Shub, L. (2007): Rote Karte für die Matrix, in: QZ, 52. Jg., H. 1, S. 20-21.

Simon, H./ Dahlhoff, D. (1998): Target Pricing und Target Costing mit Conjoint Measurement – Wege zum Preiskonsens zwischen Controlling und Marketing, in: Controlling, 10. Jg., H. 2, S. 92-96.

Simon, H.A. (1976): Administrative Behaviour – A study of decision-making processes in administrative organizations, 3. Aufl., New York 1976 (Erstveröf-fentlichung: 1945).

Simon, K. (2002): What is DFSS, im Internet unter: http://www.isixsigma.com/library/content/c020722a.asp (Abruf: 12.12.2002).

Simon, W./ Piroh, S. (2002): Moderne Managementkonzepte von A-Z – Strate-giemodelle, Führungsinstrumente, Managementtools, Offenbach 2002.

Simonton, D.K. (2000): Creativity – Cognitive, personal, developmental, and so-cial aspects, in: American Psychologist, 55. Jg., H. 1, S. 151 –158.

Sims, K. (1994): Evolving 3D Morphology and Behaviour by Competition, in: Brooks, R./ Maes, P. (Hrsg.): Artificial Life IV Proceedings, Cambridge 1994, S. 28-39.

Page 395: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

374 Literaturverzeichnis

Sobottka, S./ Günther, S./ Großekatthöfer, J. (2007): Praktizierte Null-Fehler-Qualität im Krankenhaus durch Six Sigma, in: Klinikmanagement – Der Weg zum wirtschaftlichen wettbewerbsorientierten Unternehmen, Schriftlicher Manage-ment-Lehrgang, Euroforum-Verlag 2007, Lektion 8, S. 1-97.

Sommerhoff, B./ Kaerkes, W. (2006): ExBa 2005 Spezial: Qualitätsmanagement in Deutschland – Den Spiegel vorhalten, in: QZ, 51. Jg., H. 2, S. 16-22.

Spiegel-Online (Hrsg.) (2007): Neuer Auto-Weltmarktführer: Toyota ganz oben, ganz vorn, 24.04.2007, in: http://www.spiegel.de/wirtschaft/0,1518,479007,00. html (Abruf: 24.04.2007).

Sponner, B./ Hoffmann, J./ Garba, M. (2000): Fehler erkannt – Kosten gebannt: Ganzheitliche System-FMEA unter Moderation senkt Kosten, in: QZ, 45. Jg., H. 10, S. 1279-1284.

Sprave, J. (1999): Ein einheitliches Modell für Populationsstrukturen in Evolutio-nären Algorithmen, Diss., Universität Dortmund 1999, in: https://eldorado.uni-dortmund.de/dspace/bitstream/2003/2740/2/spravesig.pdf (Abruf: 06.03.2006).

Staehle, W.H. (1999): Management: Eine verhaltenswissenschaftliche Perspektive, 8. Aufl., München 1999.

Stahlberg, D./ Frey, D. (1996): Einstellungen: Struktur, Messung und Funktion, in: Stroebe, W./ Hewstone, M./ Stephenson, G.M. (Hrsg.): Sozialpsychologie: Eine Einführung, 3. Aufl., Berlin 1996, S. 219-252.

Stearns, S.C. (2000): Daniel Bernoulli (1738): Evolution and Economics under Risk, in: Journal of Bioscience, 3. Jg., H. 25, S. 221-228.

Steinbach, R.F. (1997): Integratives Qualitäts-, Zeit- und Kostenmanagement – Entwicklung und Implementierung eines ganzheitlichen Management-Konzepts, Frankfurt/ M. et al. 1997.

Steiner, W./ Hruschka, H. (2003): Genetic Algorithms for product design: how well do they really work?, in: International Journal of Market Research, 45. Jg., Nr. 2, S. 229-240.

Steiner, W.J./ Baumgartner, B. (2004): Conjoint-Analyse und Marktsegmen-tierung, in: ZfB, 74. Jg., H. 6, S. 611-635.

Steinmann, H./ Scherer, A.G. (1994): Lernen durch Argumentieren: Theoretische Probleme konsensorientierten Handelns, in: Albach, H. (Hrsg.): Globale Soziale Marktwirtschaft. Festschrift für Santiago Garcia Echevaria, Wiesbaden 1994, S. 263-285.

Stoner, J./ Freeman, R.E. (1989): Management, 4. Aufl., Englewood Cliffs: New York 1989.

Straub, W./ Forchhammer, L. (1995): Berater können erfolgreicher werden, in: HBm, 17. Jg., H. 3, S. 9-12.

Page 396: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 375

Streim, H. (1975): Heuristische Lösungsverfahren – Versuch einer Begriffsklä-rung, in: Zeitschrift für Operations Research, Bd. 19 (1975), S. 143-162.

Sturm, R. (2005): Entscheidungen und Entscheidungsmodelle, in: WISU, 34. Jg., H. 01/05, S. 56-59.

Taguchi, G. (1989): Introduction to quality engineering, 7. Aufl., Hong Kong 1989.

Takeda, H. (1995): Das synchrone Produktionssystem – Just-in-time für das ganze Unternehmen, Landsberg/ L. 1995.

Teichert, T./ Talaulicar, T. (2002): Managementkonzepte im betriebswirtschaftli-chen Diskurs: Eine bibliometrische Klassifizierung, in: DBW, 62. Jg., H. 4, S. 409-426.

Tennant, G. (2002): Design For Six Sigma – Launching New Products and Ser-vices Without Failure, Gower Publishing: Aldershof 2002.

Teufelsdorfer, H./ Conrad A. (1998): Kreatives Entwickeln und innovatives Prob-lemlösen mit TRIZ/ TIPS, Erlangen/ München 1998.

The Co-Creativity Institute (Hrsg.) (1995): Creative Problem Solving, in: http://www.stuart.iit.edu/courses/mgt581/filespdf/cps.pdf (Abruf: 18.03.2006).

Thelen, E./ Koll, O./ Mühlbacher, H. (2000): Prozessorientiertes Management von Kundenzufriedenheit, in: Hinterhuber, H./ Matzler K. (Hrsg.): Kundenorientierte Unternehmensführung: Kundenorientierung – Kundenzufriedenheit – Kundenbin-dung, 2. Aufl., Wiesbaden 2000, S. 230-247.

Thiemer, A. (2005): Genetischer Algorithmus, Ökonomik interaktiv, in: WISU, 34. Jg., 02/05 (Elektronisches Dokument: MathCad 8).

Thom, N. (1980): Grundlagen des betrieblichen Innovationsmanagements, 2. Aufl., Königstein/ Ts. 1980.

Thom, N./ Etienne, M. (2001): Business Reengineering, in: Zollondz, H.D. (Hrsg.): Lexikon Qualitätsmanagement: Handbuch des modernen Managements auf Basis des Qualitätsmanagements, München/ Oldenbourg 2001.

Thomke, S. (2003): Innovationen für den Service, in HBm, 25. Jg., H. 7, S. 45-59.

Thurstone, U. (1927): A law of comparative judgement, Psychol.Review, 34. Jg., S. 273-286.

Todd, S./ Latham, W. (1992): Evolutionary Art and Computers, Academic Press: London 1992.

Tomys, A.K. (1995): Kostenorientiertes Qualitätsmanagement – Qualitätscontrol-ling zur ständigen Verbesserung der Unternehmensprozesse, München/ Wien 1995.

Page 397: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

376 Literaturverzeichnis

Töpfer, A. (1995): New Products – Cutting the Time to Market, in: Long Range Planning, 28. Jg., H. 2, S. 61-78.

Töpfer, A. (1996): Das neue Denken in Geschäftsprozessen, in: Töpfer, A. (Hrsg.): Geschäftsprozesse: analysiert & optimiert, Neuwied/ Kriftel/ Berlin 1996, S. 1-22.

Töpfer, A. (2000): TQM und BSC: Zwei sich ergänzende Managementkonzepte, in: Töpfer, A. (Hrsg.): Das Management der Werttreiber – Die Balanced Score Card für die Wertorientierte Unternehmenssteuerung, Frankfurt/ M. 2000, S. 311-332.

Töpfer, A. (2002): Entwicklungsstufen, Ergebnisse und Erfolge umgesetzter Busi-ness Excellence, in: Töpfer, A. (Hrsg.): Business Excellence – Wie Sie Wettbe-werbsvorteile und Wertsteigerung erzielen, Frankfurt/ M. 2002, S. 27-65.

Töpfer, A. (2006): Wertsteigerung durch Business Excellence und praktizierte Null-Fehler-Qualität, in: Schweickart, N./ Töpfer, A. (Hrsg.): Wertorientiertes Management, Berlin/ Heidelberg 2006, S. 411-420.

Töpfer, A. (2007) (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für prak-tizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007.

Töpfer, A. (2007a): Betriebswirtschaftslehre – Anwendungs- und prozessorien-tierte Grundlagen, 2. Aufl., Berlin/ Heidelberg 2007.

Töpfer, A. (2007b): Der Einführungsprozess von Six Sigma, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 207-238.

Töpfer, A. (Hrsg.) (2008): Handbuch Kundenmanagement – Anforderungen, Pro-zesse, Zufriedenheit, Bindung und Wert von Kunden, 3. Aufl., Berlin/ Heidelberg 2008.

Töpfer, A. (2009): Erfolgreich Forschen – Ein Leitfaden für Bachelor-, Master-Studierende und Doktoranden, Berlin/ Heidelberg 2009.

Töpfer, A./ Günther, S. (2007a): Steigerung des Unternehmenswertes durch Null-Fehler-Qualität als strategisches Ziel: Überblick und Einordnung der Beiträge, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 3-40.

Töpfer, A./ Günther, S. (2007b): Six Sigma im Entwicklungsprozess – Design for Six Sigma, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 100-171.

Töpfer, A./ Günther, S. (2007c): Six Sigma im Wirkungsverbund mit ISO 9000: 2000, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 335-351.

Page 398: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 377

Töpfer, A./ Günther, S./ Garzinsky, B. (2007): Konzeption und Umsetzung von Six Sigma Trainings in einem mehrstufigen Einführungsprozess, in: Töpfer, A. (Hrsg.): Six Sigma – Konzeption und Erfolgsbeispiele für praktizierte Null-Fehler-Qualität, 4. Aufl., Berlin/ Heidelberg 2007, S. 250-277.

Vahs, D./ Burmester, R. (2005): Innovationsmanagement, 3. Aufl., Stuttgart 2005.

Voelpel, S./ Leibold, M. (2006): Mehr ist nicht gleich besser, in: Personalwirt-schaft, 33. Jg., H. 12, S. 12-16.

von der Oelsnitz, D. (1999): Marktorientierte Organisationsgestaltung – Eine Ein-führung, Stuttgart 1999.

von Hippel, E. (1988): The sources of Innovation, Oxford: Oxford University Press: Oxford 1988.

von Lanzenauer, C. H./ Huesmann, M. (2004): Gestern, heute und kein Morgen: Der schnelle Aufstieg und rasante Niedergang von TQM, in: zfo, 73. Jg., H. 5/ 2004, S. 253-259.

von Regius, B. (2006): Qualität in der Produktentwicklung: Vom Kundenwunsch bis zum fehlerfreien Produkt, München/ Wien 2006.

Voß, S./ Fiedler, C./ Greistorfer, P. (2000): Meta-Heuristiken als moderne Lö-sungskonzepte für komplexe Optimierungsprobleme, in: WISU, 29. Jg., 04/00, S. 552-566.

Voß, W. et al. (Hrsg.) (2004): Taschenbuch der Statistik, 2. Aufl., München/ Wien 2004.

Vriend, N.J. (1995): Self-Organization of Markets: An Example of a Com-putational Approach, in: Computational Economics, 8. Jg., H. 3, S. 205-231.

Walgenbach, P. (2002): Institutionalistische Ansätze in der Organisationstheorie, in: Kieser, A. (Hrsg.): Organisationstheorien, 5. Aufl., Stuttgart 2002, S. 353-402.

Walgenbach, P./ Beck, N. (2003): Effizienz und Anpassung. Das Erklärungspo-tenzial der neoinstitutionalistischen Organisationstheorie am Beispiel ISO 9000, in: DBW, 63. Jg., H. 5, S. 497-515.

Wäscher, G. (1998): Local Search, in: WISU, 27. Jg., H. 11/98, S. 1299-1305.

Watson, T.J. (1994): Management „flavours of the month“: Their role in manag-ers´ lives, in: The International Journal of Management, 5. Jg., H. 4, S. 893-909.

Waxer, Ch. (2002): Process Capability (Cp, Cpk) and Process Performance (Pp, Ppk) – What´s the Difference?, in: http://www.isixsigma.com/library/content/c010806a.asp (Abruf: 14.01.2002).

Weckenmann, A./ Brenner, P.-F./ Geiger, D. (2006): Qualitätsbewertung von In-novationen – Neu! Aber auch gut?, in: QZ, 51. Jg., H. 4, S. 80-81.

Page 399: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

378 Literaturverzeichnis

Weibull, W. (1951): A statistical distribution function of wide applicability, in: J. Appl. Mech., 18. Jg., H. 3, S. 293-297.

Weicker, K. (2002): Evolutionäre Algorithmen, 2. Aufl., Stuttgart 2002.

Wessel, G. (2002a): How Motorola managed the Change Process after ist massive Quality Problems in the early 80s, in: www.six-sigma-quality.de (Abruf: 18.06.2002).

Wessel, G. (2002b): A Comparision of Traditional TQM Methodologies with the Six Sigma Approach for Quality Management, in: www.six-sigma-quality.de (Abruf: 18.06.2002).

Wessel, K.-F. (2003): Qualität – ein Kulturbegriff in Geschichte und Gegenwart, in: Masing, W./ Ketting, M./ König, W./ Wessel, K.-F. (Hrsg.): Qualitätsmanage-ment – Tradition und Zukunft: Festschrift zum 50-jährigen Bestehen der Deut-schen Gesellschaft für Qualität e.V., München/ Wien 2003, S. 1-18.

Whitley, R. (1995): Academic Knowledge and Work Jurisdiction Management, in: Organization Studies, 16. Jg., S. 81-105.

Wiese, H. (2002): Kooperative Spieltheorie und Koalitionsbildung, Berlin/ Hei-delberg/ New York 2002.

Wigand, K./ Schnopp, R. (2000): Schritte auf dem Weg zur Einführung der BSC bei Siemens, in: Töpfer, A. (Hrsg.): Das Management der Werttreiber – Die Ba-lanced Score Card für die Wertorientierte Unternehmenssteuerung, Frankfurt/ M. 2000, S. 266-278.

Wildemann, H. (1992): Kosten- und Leistungsbeurteilung von Qualitätssiche-rungssystemen, in: ZfB, 62. Jg., H. 7, S. 767-782.

Wildemann, H. (1998): Entwicklungsstrategien zur Marktführerschaft, in: Wilde-mann, H. (Hrsg.): Strategien zur Marktführerschaft, Frankfurt/ M. 1998, S. 17-39.

Williamson, O.E. (1975): Markets and Hierarchies. Analysis and Antitrust Impli-cations, New York/ London 1975.

Wimmer, D.A./ Chattergy, R. (1978): Introduction to Non-linear Optimization: A Problem Solving Approach, New York et al. 1978.

Winter, S.G. (2003): Understanding Dynamic Capabilities, in: Strategic Manage-ment Journal 2003, 24. Jg., H. 10, S. 991-995.

Wöhe, G./ Döring, U. (2005): Einführung in die Allgemeine Betriebswirtschafts-lehre, 22. Aufl., München 2005.

Womack, J.P./ Jones, D.T. (2003): Lean Thinking: Banish Waste and Create Wealth in Your Corporation, 2. Aufl., New York 2003.

Womack, J.P./ Jones, D.T./ Roos, D. (1994): Die zweite Revolution in der Auto-mobilindustrie, 8. Aufl., Frankfurt/ M. 1994.

Page 400: Swen Günther Design for Six Sigma3A978-3-8349...Swen Günther Design for Six Sigma Konzeption und Operationalisierung von alternativen Problemlösungszyklen auf Basis evolutionärer

Literaturverzeichnis 379

Wüst, C. (2008): Vom Feind gelernt, in: Der Spiegel, 3/ 2008, S. 116-117.

Yang, K./ El-Haik, B. (2003): Design for Six Sigma: A Roadmap for Product De-velopment, McGraw-Hill: New York et al. 2003.

Young, W.E./ Trent, R.H. (1969): Geometric mean approximation of individual security and portfolio performance, in: Journal of Finance Quant. Anal., 4. Jg., H. 2, S. 179-199.

Zahn, E./ Weidler, A. (1995): Integriertes Innovationsmanagement, in: Zahn, E. (Hrsg.): Handbuch Technologiemanagement, Stuttgart 1995, S. 351-376.

Zetterberg, H.L. (1973): Theorie, Forschung und Praxis in der Soziologie, in: König, R. (Hrsg.): Handbuch der empirischen Sozialforschung, Bd. 1, 3. Aufl., Stuttgart 1973, S. 103-160.

Zobel, D. (2002): Kreativität braucht ein System, in http://www.triz-online-maga zin.de/ausgabe02_02/artikel_3.htm (Abruf: 02.03.2004).

Zollondz, H.-D. (2006): Grundlagen Qualitätsmanagement, 2. Aufl., München 2006.

Zollondz, H.D. (Hrsg.) (2001): Lexikon Qualitätsmanagement: Handbuch des modernen Managements auf Basis des Qualitätsmanagements, München/ Olden-bourg 2001.

Zucker, L.G. (1987): Institutional Theories of Organizations, in: Annual Review of Sociology, 13. Jg., S. 443-464.

Zwicky, F. (1966): Entdecken, Erfinden, Forschen im Morphologischen Weltbild, München/ Zürich 1966.