Abstrakte Begrifflichkeit
Der Begriff „Prozessmanagement“ ist seit Frederick W. Taylor bekannt, also seit dem 19. Jahrhundert. Obschon die Definition des Prozessmanagements in den vergangenen Jahren immer weiter fortgeschrieben wurde, ist die Disziplin erstaunlich unausgereift. Prozessmanagement verspricht eine Steigerung der Unternehmensleistung, indem es die Wertschöpfungskette gestaltet. Damit soll es zur kontinuierlichen Steigerung der Qualität beitragen.
Nachholbedarf
In vielen Unternehmen kommt gleich eine Mehrzahl von Managementmethoden zum Einsatz: Six Sigma, Balanced Scorecard, Benchmarking usw. Das ist so lange kein Problem, wie diese Methoden zu einem einheitlichen Ganzen zusammengefügt werden. Und genau das sicherzustellen, ist heute die eigentliche Herausforderung des Prozessmanagements. Die Frage, wer dafür verantwortlich ist, wird unterschiedlich beantwortet. Der Chief Process Officer auf Vorstands- oder Geschäftsführerebene ist jedenfalls weiterhin Mangelware. Klarer Nachholbedarf besteht darüber hinaus bei jenen Funktionen, die die Prozessverbesserungen begleiten sollen, etwa bei Prozessauditoren oder -controllern.
Vertrauen ist gut – Prozesskontrolle ist besser
Auch eine systematische Prozesskostenrechnung ist noch längst nicht selbstverständlich. Die Prozesssteuerung kann aber ohne eine Messung der Prozessleistung nicht wirklich einen Beitrag zur Unternehmensleistung liefern. Des Weiteren zeigen sich erhebliche Defizite in der Unterstützung durch geeignete IT-Systeme. Die Anforderungen des Prozessmanagements werden unterbewertet, und es dominieren IT-Eigenentwicklungen. So verwundert es nicht, dass gemäß einer aktuellen Umfrage nur wenige Unternehmen Risikokennzahlen zur Steuerung von Prozessrisiken angemessen handhaben. Für kapitalmarktorientierte Unternehmen sind Risikomanagementsysteme zwar vorgeschrieben – was aber nichts daran ändert, dass die Ergebnisse weiterhin unbefriedigend sind.
Smith, Marx, Taylor
Schon Adam Smith wusste, dass sich Arbeitsteilung und die damit einhergehende Spezialisierung auf die Produktivität und die Qualität von Produkten und Dienstleistungen auswirken. Der Widerspruch zwischen dem Gesamtnutzen der Firma und der Motivation des einzelnen Arbeiters wurde dann aber einige Jahre später von Karl Marx in seiner Theorie der Ausbeutung aufgezeigt. Dies wiederum griff der Begründer der modernen Arbeitswissenschaften, Frederick W. Taylor, auf. Der Taylorismus war zugleich die Geburtsstunde der Akkordarbeit und der Bewegungs- und Zeitstudien von Einzelaktivitäten.
Wege minimieren und optimieren
Die „verstandesgemäßen“ Anteile der Produktion wurden allmählich in die Hände der Geschäftsführung gelegt, während sich der einzelne Arbeiter nur noch auf die körperliche Tätigkeit an seiner Produktionsstätte konzentrieren musste. Damit avancierte Taylor zum Erfinder des Prozessmanagements. Eine weitere Reduzierung der geistigen Ansprüche an die Arbeiter brachte die Fließbandarbeit – die Konsequenz der Weiterentwicklung ebenjener Taylor’schen Ideen, wie sie alsbald von Automobil-Mogul Henry Ford in die Praxis eingeführt wurde.
„Prozessmanagement gibt es bereits seit Frederick Winslow Taylor und dennoch ist der Reifegrad in manchen Bereichen stark verbesserungswürdig.“
Die immer weiter fortschreitende Fragmentierung des Arbeitsprozesses zerstörte aber die Effektivität des Gesamtablaufs. Ein Kurswechsel war nötig, um Fragen wie „Was will der Kunde überhaupt?“ oder „Was wäre die preiswerteste Produktrealisierung?“ zu beantworten. Business-Reengineering, ein Konzept von Hammer und Champy, wurde plötzlich überlebenswichtig – doch 200 Jahre gegenläufige Entwicklung in das Endstadium industrieller Massenfertigung sind offenbar so leicht nicht wettzumachen.
Einfache Formel, schwierige Umsetzung
Die heutige Prozessanalyse beschränkt sich nicht mehr darauf, einzelne Aufgaben zu optimieren und die Produktivität lokal zu messen, vielmehr gibt sie Auskunft über das Resultat des Gesamtprozesses. Die Variablen sind Umsatz, Bestände und Betriebskosten. Das Ganze lässt sich auf eine griffige Formel bringen: Das Ziel ist der Gewinn, und dieser steigt mit höherem Umsatz oder geringeren Beständen und niedrigeren Betriebskosten. Der langsamste Arbeitsschritt bestimmt die Taktgeschwindigkeit des gesamten Prozesses. Diese Erkenntnis scheint so einfach und naheliegend, dass man sich wundern muss, warum sich in vielen Produktionshallen immer wieder Material staut oder in der Endmontage Teile fehlen. Häufig ist eine Auslagerung eines Fertigungsschritts, der einen Engpass darstellt, die einzige brauchbare Alternative. Schließlich schlagen Opportunitätskosten durch entgangene Produktion immer wieder schmerzvoller zu Buche als die Kosten eines Outsourcings.
Zerlegung, Verknüpfung, Optimierung
Einzelne Fertigungsschritte können nur dann optimal verknüpft werden, wenn Produktionssteuerungssysteme relevante Daten auswerten und den Materialfluss der Produktionsgeschwindigkeit identifizierter Engpasseinheiten anpassen. Nur das minimiert Bestände und erhöht den Umsatz, also mithin den Gewinn. Natürlich lassen sich auch die Bestände von Nicht-Engpasseinheiten immer weiter reduzieren, jedenfalls solange diese nicht selbst irgendwann zum Nadelöhr mutieren.
„Nicht die Optimierung einzelner Fertigungsschritte ist die Aufgabe, sondern die optimale Abstimmung der Geschwindigkeiten der Fertigungsschritte untereinander.“
Es brauchte einen weiteren Betriebswissenschaftler, Erich Gutenberg, um herauszufinden, dass die Optimierung vieler Einzelproduktionsschritte in der Summe nicht zwangsläufig das Gesamtoptimum ergeben muss. Die mathematische Zerlegung der Produktion war einmal mehr grandios gescheitert. Eine neue Theorie musste her und Gutenberg lieferte sie: die Netzplantechnik. Sie erfasst die komplette Terminkette von der Auftragserteilung, über die Konstruktion und Produktion bis hin zum Absatz. Die gesamtheitliche Messmethode für den Prozessablauf besteht nun darin, dass Key Performance Indicators (KPIs) in einer Balanced Scorecard eingetragen und mit den Unternehmenszielen verknüpft werden.
Eine Scorecard muss balanced sein
Was Sie nicht messen können, können Sie auch nicht steuern – das ist der alte Fundamentalsatz des Controllings. Doch nicht nur Rüst- und Durchlaufzeiten, Lagerbestände oder Beschäftigungsgrad lassen sich in Zahlen ausdrücken. Wie steht es mit der Kundenzufriedenheit oder der Mitarbeitermotivation in Ihrem Unternehmen? Eine Ausgewogenheit zwischen harten und weichen Kriterien ist das Maß der Dinge im Rahmen der von Kaplan und Norton entwickelten Balanced Scorecard. Ausgangspunkte sind die Mission, die Grundwerte, die Vision und die Strategie des Unternehmens. Im Zentrum steht natürlich das monetäre Kapital, dessen Verwertung für Sie als Unternehmenslenker höchste Priorität genießt. Die Finanzperspektive befindet sich darum auf der obersten Stufe der hierarchisch gegliederten Scorecard. Weitere Aspekte sind die Kunden- und die Prozessperspektive sowie die Lern- bzw. Entwicklungsperspektive.
Keine weichgespülten Messgrößen
Die Ermittlung der harten und weichen Faktoren erfolgt mithilfe von Kennzahlen. Das Ergebnis eines Prozesses kann auf zwei Weisen betrachtet werden: Entspricht es den zuvor definierten Anforderungen? Oder aber: Dient es der Erfüllung der Kundenanforderungen? Messgrößen bilden die wichtigste Analysegrundlage im Unternehmen, seien es prozessorientierte, extrinsische (von außen betrachtende) oder intrinsische (nur intern bekannte) Kennzahlen. Fast durchweg lassen sie sich in die Bereiche Qualität, Zeit, Kosten und Prozessleistung einordnen. Mehrere Prinzipien haben sich in der Praxis etabliert:
- Würde es jemanden stören, wenn es diese Kennzahl nicht mehr gäbe? Die Messgröße muss wichtig sein.
- Kann die Messgröße eine positive oder negative Tendenz aufzeigen? Sie sollte verständlich sein und die Mitarbeiter müssen etwas damit anfangen können.
- Weist die Messgröße auf Fehler oder Störungen im Prozessablauf hin? Falls nicht, hat sie nicht die richtige Empfindlichkeit.
- Ist die Aufmerksamkeit auf die Verbesserung der Prozesse gerichtet? Die Messgröße muss Analysen und nachfolgende Aktionen unterstützen.
- Ist der Zeitaufwand zur Erhebung der Messgröße vertretbar? Falls nicht, sollten Sie sich auf Messgrößen konzentrieren, die sich gut erfassen lassen.
Fallbeispiel: Siemens
Ein lehrreiches Beispiel für eine erfolgreiche Qualitätsmanagementoffensive bot die Siemens Österreich. Bestehende qualitätstechnische Lücken wurden durch die Definition von Schlüsselelementen zu eliminieren versucht: Kundenzufriedenheit, Qualifikation und Motivation der Mitarbeiter sowie die erreichte Kostenposition. Um die Kundenzufriedenheit zu ermitteln, war es erforderlich, professionelles und ehrliches Kundenfeedback einzuholen. Dazu gehörten u. a. regelmäßige Interaktionen und der Aufbau eines Beschwerdemanagements. Die Lieferantenqualität ermittelte das Unternehmen durch systematische Bewertungs- und Ausleseverfahren, verbunden mit der Zielsetzung, Lieferanten so früh wie möglich in den Produktionsprozess einzubeziehen und bei der kontinuierlichen Qualitätsverbesserung quasi gemeinsame Sache zu machen. Ein turnusmäßiger Rückblick auf die Qualitätsberichte half, Lernprozesse in Gang zu setzen sowie Produkte und Prozesse zu optimieren.
Fallbeispiel: RGC Vienna
Dass selbst Beratungsunternehmen ihre Prozesse verbessern können, zeigt das Beispiel der Roland Gareis Consulting GmbH in Wien. Das auf Seminare, Lehrgänge, Coaching und Management-Consulting spezialisierte Unternehmen stand im Jahr 2006 vor der Herausforderung, neue Märkte zu erschließen und seine Dienstleistungsprozesse auszubauen. Einhergehend mit der höheren Komplexität, der das laufende Umsatzwachstum nicht geopfert werden durfte, mussten organisatorische Strukturen den neuen Gegebenheiten angepasst und weiterentwickelt bzw. neu aufgebaut werden. Die Lösung bestand aus folgenden Elementen: Verbreiterung der Managementverantwortung, Management by Objectives, organisatorisches Lernen sowie die Begleitung neuer Mitarbeiter bzw. alter Mitarbeiter in neuen Rollen. Die erarbeiteten Ergebnisse dienten der erfolgreichen Sicherung, Weiterentwicklung und Weitergabe von Wissen im Unternehmen.
Fallbeispiel: Softwarehouse
Prozessmessungen werden konterkariert, wenn Mitarbeiter bestehende Freiräume ausnutzen und standardisierte Prozesse modifizieren: Vergleichbarkeit ist dann nicht mehr möglich. Hilfe im konkreten Fall von Softwarehouse bot der Ansatz, nicht Prozessergebnisse zu messen, sondern sich strikt auf Kennzahlen zu konzentrieren. Diese gaben beispielsweise Auskunft über Termintreue, Prozesskosten oder Durchlaufzeit. Anders als die Prozessqualität ließen sich diese Größen direkt erheben und hatten keinen Interpretationsspielraum. Erst nach der Ermittlung der Kennzahlen ging man dazu über, Messgrößen zu aggregieren und qualitative Aussagen abzuleiten. Daraus resultierte schließlich die Bewertung der Prozesse und, im Endergebnis, die Implementierung von Verbesserungen. Die Mitarbeiter hatten fortan klare Regeln zur Hand, um die vorgegebenen Prozesse einhalten zu können.