Praxisbuch Prozessoptimierung

Buch Praxisbuch Prozessoptimierung

Management- und Kennzahlensysteme als Basis für den Geschäftserfolg

Publicis,


Rezension

Effektives Prozess­man­age­ment ist so ziemlich das Gegenteil von Versuch und Irrtum. Wer wirklich das Maximum aus den Un­ternehmens­abläufen herausholen will, kommt um die einschlägige Fach­lit­er­atur nicht herum. Der mit diesem Buch vorgelegte Baukasten aus Op­ti­mierungsideen und Mess­werkzeu­gen wird für sich allein nicht genügen: Er lässt In­ter­pre­ta­tion­sspielräume, die man nur im Alltag ausloten kann. Die Best Practices anderer Führungskräfte nachzulesen, mag hilfreich und in­spiri­erend sein, aber was man in dem von Anglizismen und Rat­ge­ber-Pos­i­tivis­men durch­set­zten Werk schmerzlich vermisst, sind die „Don’ts“. Eine kritischere Au­seinan­der­set­zung mit der abstrakten Materie wäre auf jeden Fall angebracht gewesen. Dass es sich bei dem Buch um eine Sammlung ver­schiedener Gastbeiträge handelt, trägt nicht zur Gesamtkohärenz bei. Einige wertvolle Anstöße zur Prozes­sop­ti­mierung finden sich darin aber allemal, meint BooksInShort und empfiehlt das Buch Projekt-, Qualitäts- und Hu­man-Re­sources-Man­agern.

Take-aways

  • Gemessen an seiner langen Geschichte ist das heutige Prozess­man­age­ment erstaunlich wenig ausgefeilt.
  • Prozess­man­age­ment bedeutet im Kern Ar­beit­steilung.
  • Ziel ist es, Abläufe zu optimieren und Lern­prozesse in Gang zu setzen.
  • In vielen Firmen kommen ver­schiedene Man­age­ment­mod­elle gle­ichzeitig zum Einsatz, wodurch die sys­tem­a­tis­che Prozes­sop­ti­mierung erschwert wird.
  • Für kap­i­tal­mark­to­ri­en­tierte Unternehmen sind Risiko­man­age­mentsys­teme vorgeschrieben.
  • Oft ist die Auslagerung eines Fer­ti­gungss­chritts, der einen Engpass darstellt, die einzige Möglichkeit, einen Prozess zu verbessern.
  • Moderne Ansätze wie die Net­z­plantech­nik erfassen die komplette Terminkette von der Auf­tragserteilung über die Produktion bis hin zum Absatz.
  • Was Sie nicht messen können, können Sie auch nicht steuern.
  • Kennzahlen müssen wichtig, verständlich, hinreichend empfindlich, unterstützend und mit vertret­barem Aufwand zu erheben sein.
  • Verlieren Sie bei Einzel­prozessen nicht die Gesamt­ef­fek­tivität aus den Augen.
 

Zusammenfassung

Abstrakte Be­grif­flichkeit

Der Begriff „Prozess­man­age­ment“ ist seit Frederick W. Taylor bekannt, also seit dem 19. Jahrhundert. Obschon die Definition des Prozess­man­age­ments in den vergangenen Jahren immer weiter fort­geschrieben wurde, ist die Disziplin erstaunlich unaus­gereift. Prozess­man­age­ment verspricht eine Steigerung der Un­ternehmensleis­tung, indem es die Wertschöpfungskette gestaltet. Damit soll es zur kon­tinuier­lichen Steigerung der Qualität beitragen.

Nach­holbe­darf

In vielen Unternehmen kommt gleich eine Mehrzahl von Man­age­ment­meth­o­den zum Einsatz: Six Sigma, Balanced Scorecard, Bench­mark­ing usw. Das ist so lange kein Problem, wie diese Methoden zu einem ein­heitlichen Ganzen zusammengefügt werden. Und genau das sicherzustellen, ist heute die eigentliche Her­aus­forderung des Prozess­man­age­ments. Die Frage, wer dafür ve­r­ant­wortlich ist, wird un­ter­schiedlich beantwortet. Der Chief Process Officer auf Vorstands- oder Geschäftsführerebene ist jedenfalls weiterhin Mangelware. Klarer Nach­holbe­darf besteht darüber hinaus bei jenen Funktionen, die die Prozessverbesserun­gen begleiten sollen, etwa bei Prozes­sau­di­toren oder -con­trollern.

Vertrauen ist gut – Prozesskon­trolle ist besser

Auch eine sys­tem­a­tis­che Prozesskosten­rech­nung ist noch längst nicht selbstverständlich. Die Prozesss­teuerung kann aber ohne eine Messung der Prozessleis­tung nicht wirklich einen Beitrag zur Un­ternehmensleis­tung liefern. Des Weiteren zeigen sich erhebliche Defizite in der Unterstützung durch geeignete IT-Systeme. Die An­forderun­gen des Prozess­man­age­ments werden un­ter­be­w­ertet, und es dominieren IT-Eige­nen­twick­lun­gen. So verwundert es nicht, dass gemäß einer aktuellen Umfrage nur wenige Unternehmen Risiko­kenn­zahlen zur Steuerung von Prozess­risiken angemessen handhaben. Für kap­i­tal­mark­to­ri­en­tierte Unternehmen sind Risiko­man­age­mentsys­teme zwar vorgeschrieben – was aber nichts daran ändert, dass die Ergebnisse weiterhin un­be­friedi­gend sind.

Smith, Marx, Taylor

Schon Adam Smith wusste, dass sich Ar­beit­steilung und die damit ein­herge­hende Spezial­isierung auf die Produktivität und die Qualität von Produkten und Di­en­stleis­tun­gen auswirken. Der Widerspruch zwischen dem Gesamt­nutzen der Firma und der Motivation des einzelnen Arbeiters wurde dann aber einige Jahre später von Karl Marx in seiner Theorie der Ausbeutung aufgezeigt. Dies wiederum griff der Begründer der modernen Ar­beitswis­senschaften, Frederick W. Taylor, auf. Der Taylorismus war zugleich die Geburtsstunde der Akko­r­dar­beit und der Bewegungs- und Zeitstudien von Einze­lak­tivitäten.

Wege minimieren und optimieren

Die „ver­standes­gemäßen“ Anteile der Produktion wurden allmählich in die Hände der Geschäftsführung gelegt, während sich der einzelne Arbeiter nur noch auf die körperliche Tätigkeit an seiner Pro­duk­tion­sstätte konzen­tri­eren musste. Damit avancierte Taylor zum Erfinder des Prozess­man­age­ments. Eine weitere Reduzierung der geistigen Ansprüche an die Arbeiter brachte die Fließbandarbeit – die Konsequenz der Weit­er­en­twick­lung ebenjener Taylor’schen Ideen, wie sie alsbald von Au­to­mo­bil-Mogul Henry Ford in die Praxis eingeführt wurde.

„Prozess­man­age­ment gibt es bereits seit Frederick Winslow Taylor und dennoch ist der Reifegrad in manchen Bereichen stark verbesserungswürdig.“

Die immer weiter fortschre­i­t­ende Frag­men­tierung des Ar­beit­sprozesses zerstörte aber die Effektivität des Gesamtablaufs. Ein Kurswechsel war nötig, um Fragen wie „Was will der Kunde überhaupt?“ oder „Was wäre die preiswerteste Pro­duk­tre­al­isierung?“ zu beantworten. Busi­ness-Reengi­neer­ing, ein Konzept von Hammer und Champy, wurde plötzlich überlebenswichtig – doch 200 Jahre gegenläufige Entwicklung in das Endstadium in­dus­trieller Massen­fer­ti­gung sind offenbar so leicht nicht wettzu­machen.

Einfache Formel, schwierige Umsetzung

Die heutige Prozes­s­analyse beschränkt sich nicht mehr darauf, einzelne Aufgaben zu optimieren und die Produktivität lokal zu messen, vielmehr gibt sie Auskunft über das Resultat des Gesamt­prozesses. Die Variablen sind Umsatz, Bestände und Be­trieb­skosten. Das Ganze lässt sich auf eine griffige Formel bringen: Das Ziel ist der Gewinn, und dieser steigt mit höherem Umsatz oder geringeren Beständen und niedrigeren Be­trieb­skosten. Der langsamste Ar­beitss­chritt bestimmt die Tak­t­geschwindigkeit des gesamten Prozesses. Diese Erkenntnis scheint so einfach und naheliegend, dass man sich wundern muss, warum sich in vielen Pro­duk­tion­shallen immer wieder Material staut oder in der Endmontage Teile fehlen. Häufig ist eine Auslagerung eines Fer­ti­gungss­chritts, der einen Engpass darstellt, die einzige brauchbare Alternative. Schließlich schlagen Opportunitätskosten durch entgangene Produktion immer wieder schmerzvoller zu Buche als die Kosten eines Out­sourcings.

Zerlegung, Verknüpfung, Optimierung

Einzelne Fer­ti­gungss­chritte können nur dann optimal verknüpft werden, wenn Pro­duk­tion­ss­teuerungssys­teme relevante Daten auswerten und den Ma­te­ri­alfluss der Pro­duk­tion­s­geschwindigkeit iden­ti­fizierter En­g­pas­sein­heiten anpassen. Nur das minimiert Bestände und erhöht den Umsatz, also mithin den Gewinn. Natürlich lassen sich auch die Bestände von Nicht-En­g­pas­sein­heiten immer weiter reduzieren, jedenfalls solange diese nicht selbst irgendwann zum Nadelöhr mutieren.

„Nicht die Optimierung einzelner Fer­ti­gungss­chritte ist die Aufgabe, sondern die optimale Abstimmung der Geschwindigkeiten der Fer­ti­gungss­chritte un­tere­inan­der.“

Es brauchte einen weiteren Be­trieb­swis­senschaftler, Erich Gutenberg, um her­auszufinden, dass die Optimierung vieler Einzel­pro­duk­tion­ss­chritte in der Summe nicht zwangsläufig das Gesam­top­ti­mum ergeben muss. Die math­e­ma­tis­che Zerlegung der Produktion war einmal mehr grandios gescheitert. Eine neue Theorie musste her und Gutenberg lieferte sie: die Net­z­plantech­nik. Sie erfasst die komplette Terminkette von der Auf­tragserteilung, über die Kon­struk­tion und Produktion bis hin zum Absatz. Die gesamtheitliche Messmethode für den Prozess­ablauf besteht nun darin, dass Key Performance Indicators (KPIs) in einer Balanced Scorecard eingetragen und mit den Un­ternehmen­szie­len verknüpft werden.

Eine Scorecard muss balanced sein

Was Sie nicht messen können, können Sie auch nicht steuern – das ist der alte Fun­da­men­tal­satz des Con­trol­lings. Doch nicht nur Rüst- und Durch­laufzeiten, Lagerbestände oder Beschäfti­gungs­grad lassen sich in Zahlen ausdrücken. Wie steht es mit der Kun­den­zufrieden­heit oder der Mi­tar­beit­er­mo­ti­va­tion in Ihrem Unternehmen? Eine Aus­ge­wogen­heit zwischen harten und weichen Kriterien ist das Maß der Dinge im Rahmen der von Kaplan und Norton en­twick­el­ten Balanced Scorecard. Aus­gangspunkte sind die Mission, die Grundwerte, die Vision und die Strategie des Un­ternehmens. Im Zentrum steht natürlich das monetäre Kapital, dessen Verwertung für Sie als Un­ternehmenslenker höchste Priorität genießt. Die Fi­nanzper­spek­tive befindet sich darum auf der obersten Stufe der hi­er­ar­chisch gegliederten Scorecard. Weitere Aspekte sind die Kunden- und die Prozessper­spek­tive sowie die Lern- bzw. En­twick­lungsper­spek­tive.

Keine weichgespülten Messgrößen

Die Ermittlung der harten und weichen Faktoren erfolgt mithilfe von Kennzahlen. Das Ergebnis eines Prozesses kann auf zwei Weisen betrachtet werden: Entspricht es den zuvor definierten An­forderun­gen? Oder aber: Dient es der Erfüllung der Kun­de­nan­forderun­gen? Messgrößen bilden die wichtigste Analy­seg­rund­lage im Unternehmen, seien es prozes­sori­en­tierte, ex­trin­sis­che (von außen be­tra­ch­t­ende) oder in­trin­sis­che (nur intern bekannte) Kennzahlen. Fast durchweg lassen sie sich in die Bereiche Qualität, Zeit, Kosten und Prozessleis­tung einordnen. Mehrere Prinzipien haben sich in der Praxis etabliert:

  • Würde es jemanden stören, wenn es diese Kennzahl nicht mehr gäbe? Die Messgröße muss wichtig sein.
  • Kann die Messgröße eine positive oder negative Tendenz aufzeigen? Sie sollte verständlich sein und die Mitarbeiter müssen etwas damit anfangen können.
  • Weist die Messgröße auf Fehler oder Störungen im Prozess­ablauf hin? Falls nicht, hat sie nicht die richtige Empfind­lichkeit.
  • Ist die Aufmerk­samkeit auf die Verbesserung der Prozesse gerichtet? Die Messgröße muss Analysen und nach­fol­gende Aktionen unterstützen.
  • Ist der Zeitaufwand zur Erhebung der Messgröße vertretbar? Falls nicht, sollten Sie sich auf Messgrößen konzen­tri­eren, die sich gut erfassen lassen.

Fall­beispiel: Siemens

Ein lehrreiches Beispiel für eine er­fol­gre­iche Qualitäts­man­age­mentof­fen­sive bot die Siemens Österreich. Bestehende qualitätstech­nis­che Lücken wurden durch die Definition von Schlüsse­lele­menten zu eliminieren versucht: Kun­den­zufrieden­heit, Qual­i­fika­tion und Motivation der Mitarbeiter sowie die erreichte Kosten­po­si­tion. Um die Kun­den­zufrieden­heit zu ermitteln, war es er­forder­lich, pro­fes­sionelles und ehrliches Kun­den­feed­back einzuholen. Dazu gehörten u. a. regelmäßige In­ter­ak­tio­nen und der Aufbau eines Beschw­erde­m­an­age­ments. Die Liefer­an­ten­qualität ermittelte das Unternehmen durch sys­tem­a­tis­che Bewertungs- und Ausle­sev­er­fahren, verbunden mit der Zielsetzung, Lieferanten so früh wie möglich in den Pro­duk­tion­sprozess einzubeziehen und bei der kon­tinuier­lichen Qualitätsverbesserung quasi gemeinsame Sache zu machen. Ein turnusmäßiger Rückblick auf die Qualitätsberichte half, Lern­prozesse in Gang zu setzen sowie Produkte und Prozesse zu optimieren.

Fall­beispiel: RGC Vienna

Dass selbst Be­ratung­sun­ternehmen ihre Prozesse verbessern können, zeigt das Beispiel der Roland Gareis Consulting GmbH in Wien. Das auf Seminare, Lehrgänge, Coaching und Man­age­ment-Con­sult­ing spezial­isierte Unternehmen stand im Jahr 2006 vor der Her­aus­forderung, neue Märkte zu erschließen und seine Di­en­stleis­tung­sprozesse auszubauen. Ein­herge­hend mit der höheren Komplexität, der das laufende Um­satzwach­s­tum nicht geopfert werden durfte, mussten or­gan­isatorische Strukturen den neuen Gegeben­heiten angepasst und weit­er­en­twick­elt bzw. neu aufgebaut werden. Die Lösung bestand aus folgenden Elementen: Ver­bre­iterung der Man­age­mentver­ant­wor­tung, Management by Objectives, or­gan­isatorisches Lernen sowie die Begleitung neuer Mitarbeiter bzw. alter Mitarbeiter in neuen Rollen. Die er­ar­beit­eten Ergebnisse dienten der er­fol­gre­ichen Sicherung, Weit­er­en­twick­lung und Weitergabe von Wissen im Unternehmen.

Fall­beispiel: Soft­ware­house

Prozessmes­sun­gen werden kon­terkari­ert, wenn Mitarbeiter bestehende Freiräume ausnutzen und stan­dar­d­isierte Prozesse mod­i­fizieren: Ver­gle­ich­barkeit ist dann nicht mehr möglich. Hilfe im konkreten Fall von Soft­ware­house bot der Ansatz, nicht Prozessergeb­nisse zu messen, sondern sich strikt auf Kennzahlen zu konzen­tri­eren. Diese gaben beispiel­sweise Auskunft über Termintreue, Prozesskosten oder Durch­laufzeit. Anders als die Prozessqualität ließen sich diese Größen direkt erheben und hatten keinen In­ter­pre­ta­tion­sspiel­raum. Erst nach der Ermittlung der Kennzahlen ging man dazu über, Messgrößen zu aggregieren und qualitative Aussagen abzuleiten. Daraus resultierte schließlich die Bewertung der Prozesse und, im Endergebnis, die Im­ple­men­tierung von Verbesserun­gen. Die Mitarbeiter hatten fortan klare Regeln zur Hand, um die vorgegebe­nen Prozesse einhalten zu können.

Über die Autoren

Ernst Jankulik ist Business Unit Manager für Healthcare Project Development bei der rumänischen Siemens. Roland Piff ist Leiter Revision und Sys­te­mop­ti­mierung sowie Ve­r­ant­wortlicher für das integrierte Man­age­mentsys­tem bei MCE.