Prof. Scheer: „Die Innovationskraft liegt in den Prozessen!“

Für die Vorbereitung des neuen Wintersemesters stolpert man hin und wieder über die eine oder andere Perle. Eine dieser Perlen ist ein sehr empfehlenswertes Interview mit Prof. Scheer aus dem Jahre 2013 (!!!) über Trends im Geschäftsprozessmanagement. Es wurde auf YouTube unter https://www.youtube.com/watch?v=XU69q7pZh0Y veröffentlicht. Ich fand die Aussagen des Interviews so interessant und vor allem zeitlos, dass ich den Link auch hier in meinem Blog mit Ihnen teilen möchte.

Die für mich wesentlichen Aussagen des Videos lassen sich wie folgt zusammenfassen:

  1. Prozessinnovationen bewegen ganze Branchen (z.B. Industrie 4.0, Handel mit neuen Logistikprozessen, Banken); Dienstleister bieten jetzt auch Produkte an und umgekehrt.
  2. Viele Technologieänderungen finden gleichzeitig statt (z.B. KI, Big Data, Analytics, Mobile, Cloud, 3D-Druck, Blockchain, IoT,…). Daraus resultieren neue Geschäftsmodelle, die entweder durch Prozesse begleitet werden oder bei denen Prozesse selbst Bestandteile der Lösungen bzw. Produkte sind!
  3. Wir können einen Paradigmenwechsel im Geschäftsprozessmanagement beobachten: Weg von der Standardisierung/Optimierung von Prozessen sowie der Effizienzsteigerung durch Prozesse, hin zur Individualisierung/ Flexibilisierung/Vereinfachung von Prozessen. Weg von der unterstützenden Funktion von Prozessen, stattdessen das Eingehen von Prozesse in die Produkte –> Prozesse werden wettbewerbsentscheidend! Die Innovationskraft liegt in den Prozessen!
  4. Folgerung 1: Produkt- bzw. Dienstleistungsinnovationen und Prozessinnovationen gehen Hand in Hand! Prozessmanagement wird Teil der Produktentwicklung!
  5. Folgerung 2: Prozessmanagement muss kontinuierlich und in allen Bereichen eines Unternehmens betrieben werden, da Prozesse Bestandteile des Geschäftsmodells geworden sind.

Ich bin mir ziemlich sicher: Viele Unternehmen verstehen diese Trends noch immer nicht, sind sich weder der Konsequenzen diese Aussagen bewusst noch wissen sie, wie sie damit umzugehen haben! Umso wertvoller wird dadurch der „Prozessgesteuerte Ansatz“, der die angesprochene Innovationskraft der Prozesse effizient auf die Straße bringt!

Ankündigung: Workshop zum „Prozessgesteuerten Ansatz“

Am 16.10.2020 findet im Mövenpick Konferenz Center am Nürnberger Airport die Premiere meines neuen Workshops zum „Prozessgesteuerten Ansatz“ statt! In dem Workshop erfahren Sie…

  • … worauf es bei der Digitalisierung wirklich ankommt
  • … warum Prozesse der Schlüssel zur Digitalisierung sind
  • … was der prozessgesteuerte Ansatz ist
  • … wie der prozessgesteuerte Ansatz zur neuen Waffe bei der Umsetzung Ihrer Digitalisierungsstrategie wird
  • … warum der prozessgesteuerte Ansatz dem sanften Einstieg in die individuelle Softwareentwicklung dient
  • … wie sich der prozessgesteuerte Ansatz in der Praxis bewährt hat
  • … mit welch vielfältigen Vorteilen Sie beim Einsatz des prozessgesteuerten Ansatzes rechnen können
  • … wie der Einstieg in den prozessgesteuerten Ansatz gelingt – und zwar sofort

Die Anmeldung erfolgt hier

Ich freue mich auf Ihre Teilnahme!

The Innovator’s Dilemma und der „Prozessgesteuerte Ansatz“

Manche Bücher kann man nicht oft genug lesen. Eines dieser inspirierenden Bücher ist „The Innovator’s Dilemma – Warum etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen verlieren“ von Clayton M. Christensen [1]. Neben der Einführung der verschiedenen Arten von Innovation (evolutionäre und disruptive Innovation), so wie ich sie auch schon in meinem Motivations-Artikel zum „Prozessgesteuerten Ansatz“ verwendet habe, legt Christensen dar, wie erfolgsverwöhnte Unternehmen, die managementseitig alles vollkommen richtig machen, bei disruptiven Veränderungen trotz allem oftmals keine Chance gegen die Disruptoren haben. Ich möchte an dieser Stelle nicht auf alle Details eingehen, warum dies der Fall ist. Das können Sie viel besser in besagtem Buch nachlesen. Es lohnt sich in jedem Fall.

Stattdessen möchte ich viel mehr auf ein ganz bestimmtes Kapitel des Buches eingehen, das meiner Meinung nach von jedem Manager gelesen werden sollte. In Kapitel 8 kommt Christensen nämlich auf den Einklang der Begriffe Ressourcen, Prozesse und Werte zu sprechen (S. 183-211). Laut Christensen bestimmen Ressourcen (also Mitarbeiter, Anlagen, Technologien, finanzielle Mittel, S. 184), Prozesse (Interaktion, Koordination, Kommunikation, Entscheidungsfindung, S. 185) und Werte (Kriterien, die Entscheidungen und Prioritäten beeinflussen, S. 186), was ein Unternehmen tun oder auch nicht tun kann (S. 184). Anhand des Ressourcen-Prozesse-Werte-Modells erklärt Christensen eine wesentliche Ursache für das Scheitern etablierter Unternehmen bei disruptiven Innovationen: es sind die Prozesse und Werte!

Verdeutlicht wird dies anhand einer beeindruckenden Studie über die Entwicklung von Computerlaufwerken (S. 188). In dieser Studie wurden 116 neue Technologien analysiert. 111 Technologien gehören der Kategorie „evolutionär“ an, während die restlichen 5 Technologien der Kategorie „disruptiv“ zuzuordnen sind. Und nun das erstaunliche Ergebnis:

  • S. 188: „In allen 111 Fällen der evolutionären technologischen Innovationen waren die anführenden Unternehmen gleichzeitig auch diejenigen, die vorher schon die Branche anführten. Die Erfolgsrate der etablierten Unternehmen in der Entwicklung und Einführung von evolutionären Technologien war 100 Prozent.“
  • Nun zu den disruptiven Innovationen (S. 189): „[Es schaffte] kein einziges der in der Branche führenden Unternehmen nach der Einführung einer disruptiven Technologie an der Spitze zu bleiben. Die Erfolgsquote war gleich Null.“
  • Resümee (S. 189): „Die führenden Hersteller von Computerlaufwerken hatten alle Ressourcen – Mitarbeiter, Geld und Technologien –, um mit evolutionären und disruptiven Innovationen erfolgreich zu sein. Aber die Prozesse und Werte waren die größten Hindernisse.“ Dazu seine naheliegende Schlussfolgerung (S. 196): „Nicht in den Ressourcen, sondern in den Prozessen und Werten liegen die fundamentalen Fähigkeiten eines Unternehmens.“

Die Begründung dafür ist einleuchtend: Disruptive Innovationen adressieren in der Regel neue Märkte mit neuen Werten und entsprechend neuen Prozessen. Die in den führenden Unternehmen etablierten Prozesse passten wunderbar zu den jeweils existierenden und nur evolutionär weiterentwickelten Produkten und Dienstleistungen. Doch Disruptionen verlangen aufgrund des neuen Marktes, die diese Lösungen adressieren, auch fundamental andere Prozesse – und genau daran scheitern die etablierten Unternehmen. Sie können sich dem Wandel nicht in adäquater Geschwindigkeit anpassen. Einmal mehr unterstreicht diese Analyse die enorme Bedeutung von Prozessen und – offensichtlich noch wesentlich bedeutender – deren schnelle Erstellung bzw. Anpassbarkeit an gänzlich neue Marktgegebenheiten. Viele Unternehmen sind dazu augenscheinlich nicht in der Lage. Allerdings liegt heute mit dem „Prozessgesteuerten Ansatz“ eine Methodik vor, die genau diese Unzulänglichkeiten adressiert und löst!

Christensen belegt seine These mit weiteren eindrucksvollen Beispielen: So gelang es DEC (Digital Equipment Corporation) nicht, nach dem Erfolg im Minicomputer-Markt auch im PC-Markt Fuß zu fassen (S. 191-193). Die Prozesse, die für den Minicomputer-Markt über Jahre entwickelt und optimiert wurden, passten einfach nicht mehr zur PC-Produktion.

Oder die Entwicklung von MP3 (S. 202-210): „Das gesamte Kauf- und Konsumverhalten wurde revolutioniert.“ (S. 206): Prozesse zum Verkauf von Tonträgern wie Kassetten, Schallplatten oder CDs passten nicht mehr zum Download und Streamen von Audio-Inhalten. Ähnliches gilt für die Filmbranche (das Ende der Videotheken liegt noch nicht allzu lange zurück), für die digitale Fotografie oder ganz aktuell für die Automobilindustrie, die gleich eine ganze Reihe an Disruptionen zu verkraften hat (neben der Elektromobilität und dem autonomen Fahren der Wandel vom Autoverkauf zum Mobilitätsdienstleister).

Christensen empfiehlt etablierten Unternehmen, gar nicht erst zu versuchen, Disruptionen in der bestehenden Organisation zu adressieren, sondern stattdessen neue autonome Organisationseinheiten aufzubauen, damit sich dort eigene Prozesse und Werte losgelöst vom Mutterkonzern und passend zur disruptiven Herausforderung entwickeln können (S. 210).

Sein Fazit (S. 211): „Stehen Unternehmen vor einem strategischen Wandel, müssen Führungskräfte zunächst sicherstellen, dass sie über die für den Wandel nötigen Ressourcen verfügen. Danach gilt es, eine zweite Frage zu beantworten: Hat das Unternehmen die erforderlichen Prozesse und Werte? Die Bedeutung dieser zweiten Frage ist den meisten Managern nicht bewusst, denn in aller Regel haben ja die bisherigen Prozesse und Werte im Unternehmen gut funktioniert.“

Diese Feststellung ist für Unternehmen tatsächlich eine große Herausforderung, denn vordergründig scheinen sie ja alles richtig zu machen. Es läuft doch alles wunderbar, das Geschäft brummt – so what? Warum also Veränderungen durchführen? Die Antwort liegt in den bei einer Disruption entstehenden neuen Märkten und Werten, zu denen die existierenden Prozesse nicht mehr passen. Es ist für Unternehmen also extrem wichtig, die eigenen Prozesse im Detail zu kennen. Auch wenn sich für manche Branchen derzeit keine Disruptionen erkennen lassen, sind Unternehmen generell gut beraten, sich um ihre Prozesse zu kümmern, sie in Modellen zu erfassen und sie ständig zu hinterfragen. Auf diese Weise können sie sich zumindest prozessseitig für die Zukunft wappnen!

Christensen empfiehlt gegen Ende von Kapitel 8 (S. 211): „Eine sorgfältige Beantwortung der folgenden kritischen Fragen wird sich für jede Führungskraft bezahlt machen: Sind die Prozesse unseres Geschäftsmodells auch tatsächlich für die neue Herausforderung geeignet? Priorisieren die Werte des Unternehmens die disruptiven Innovationen oder verleiten sie eher dazu, das Projekt zu ignorieren bzw. nicht ernst genug zu nehmen?“

Zur Beantwortung dieser Fragen ist selbstverständlich die Kenntnis der eigenen Prozesse eine wichtige Voraussetzung. Sollte dies in Ihrem Unternehmen noch nicht der Fall sein, so begeben Sie sich an die Arbeit. Der „Prozessgesteuerte Ansatz“ unterstützt Sie dabei!

[1] Christensen, Clayton M.: The Innovator’s Dilemma – Warum etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen verlieren. München: Verlag Franz Vahlen, 2013, ISBN-13: 978-3800637911

Ankündigung: Online-Seminar zum „Prozessgesteuerten Ansatz“

Am 09.09.2020 um 10:00 Uhr findet ein Online-Seminar zum „Prozessgesteuerten Ansatz“ für den Mittelstand statt. Veranstaltet wird das Online-Seminar vom „Bundesverband mittelständische Wirtschaft Unternehmerverband Deutschlands e.V.“ (BVMW). Der Titel meines Vortrags lautet: „Innovative digitale Geschäftsmodelle im Mittelstand – Mit dem prozessgesteuerten Ansatz zu mehr Effizienz, Transparenz und Flexibilität„.

Anmeldung über die Webseite des BVMW unter https://www.bvmw.de/event/10414/innovative-digitale-geschaeftsmodelle-im-mittelstand/

Corona-Panne in Bayern – Mit dem „Prozessgesteuerten Ansatz“ wäre das vielleicht nicht passiert!

Liebe Leser,

ich weiß nicht, wie schnell Sie morgens wach werden. Bei mir ging es heute Morgen (13.08.2020, 6:00 Uhr) jedenfalls ganz schnell, denn eine Nachricht weckte sofort mein Interesse. Es ging in der Meldung um die Corona-Panne in Bayern, die ja mittlerweile große Kreise zieht, und der Begründung, wie es dazu kommen konnte. Doch zunächst ein Zitat eines Artikels auf der Online-Plattform des Bayerischen Rundfunks versehen mit dem Titel „Corona-Test-Panne: Kritik an Staatsregierung wächst“ zur eigentlichen Panne. Was war passiert?

„Die Staatsregierung hatte am Mittwoch eingestehen müssen, dass die Verzögerungen bei der Übermittlung von Corona-Testergebnissen in Bayern deutlich dramatischere Ausmaße haben als bisher bekannt: 44.000 Reiserückkehrer, die im Ausland im Urlaub waren, warteten nach Tests an bayerischen Autobahnen noch auf ihre Ergebnisse, darunter auch 900 nachweislich positiv getestete.“

Soweit in Kürze das Problem. Interessant an der Meldung heute Morgen war jedoch, wie diese Panne mal wieder begründet wurde. Auch dazu ein Zitat aus einem anderen Artikel auf der BR-Plattform, diesmal veröffentlicht unter dem Titel „‘In negatives Licht gerückt‘: BRK übt Kritik nach Test-Panne“.

„Da das LGL [Landesamt für Gesundheit und Lebensmittelsicherheit – Anmerkung des Autors] sich nicht in der Lage gesehen hat, in dieser kurzen Zeit eine entsprechende Software zur Verfügung zu stellen, mussten die Reisenden händisch mit Formularen erfasst werden. Diese Formulare wurden vom LGL zur Verfügung gestellt.“

Als ich diese Zeilen also heute Morgen hörte, konnte ich mir ein ungläubiges Kopfschütteln nicht verkneifen. Ja, sie machten mich regelrecht wütend! Jetzt ist also mal wieder die Software schuld und wieder einmal konnte sie nicht rechtzeitig bereitgestellt werden. Unfassbar!

Interessant dazu auch die Äußerungen der bayerischen Gesundheitsministerin Melanie Huml in den gestrigen Tagesthemen, die mit der Aussage „Diese Dimension war mir nicht bekannt“ zitiert wird. Unter anderem sagt Sie dort:

„Ein solch neuaufgelegter Prozess dauert eine Zeit, bis er sich einspielt.“

Es geht also genau um das Thema neuer Prozessimplementierungen, für das es mit dem „Prozessgesteuerten Ansatz“ eine elegante Lösung gibt. Wäre das Fiasko also mit dem „Prozessgesteuerten Ansatz“ zu verhindern gewesen? Das kann ich natürlich nicht mit Sicherheit sagen, da viel zu wenig über die Hintergründe bekannt ist. Es ist beispielsweise völlig unbekannt, von welchem Prozess genau die Rede ist. Ist es nur ein Prozess oder sind es mehrere Prozesse, die miteinander verzahnt sind? Wie läuft der Prozess konkret ab? Sind die Prozesse selbst falsch oder sind es nur die Implementierungen einzelner Schritte? Warum werden die Prozesse nicht transparent veröffentlicht (z.B. in Form von BPMN-Modellen) und erklärt, damit ggf. auch geholfen werden kann? Wie kann es sein, dass ständig von der Digitalisierung gesprochen wird, aber trotzdem wieder mit Papierformularen hantiert wird? Selbst da hätte es dem letzten Verantwortlichen klar sein müssen, dass der gewählte Ansatz bei diesen Massen an Tests nicht funktionieren kann. Ohne eine digitale Erfassung und Weiterverarbeitung in Form von digitalisierten Prozessen hätte die ganze Aktion niemals gestartet werden dürfen! Fragen über Fragen also. Ausbügeln dürfen das jetzt wieder unzählige fleißige Kräfte, die den Karren aus dem Dreck ziehen müssen!

Wie gesagt, ich kann nicht mit Bestimmtheit sagen, ob der „Prozessgesteuerte Ansatz“ geholfen hätte, so ehrlich muss ich sein. Wir wissen aber vom „Prozessgesteuerten Ansatz“, dass er genau für solche Situationen konzipiert wurde: Automatisierung von Abläufen jeglicher Art innerhalb kürzester Zeit. Ich vermute also, dass der „Prozessgesteuerte Ansatz“ zur Vermeidung dieses Chaos hätte beitragen können. Allerdings hat sich niemand an mich gewandt und um Unterstützung gebeten, obwohl ich der bayerischen Staatsregierung in Person des bayerischen Ministerpräsidenten Markus Söder bereits am 20.04.2020 meine Hilfe zur Prozessautomatisierung angeboten habe!

Denn es war doch schon damals abzusehen, dass sich durch Corona eine Vielzahl von Prozessen ändern würde. Wo zuvor viel über persönlichen Kontakt lief, muss nun auf kontaktlos umgestellt werden. Und genau hier setzt auch meine Kritik an: Ich sage nicht, dass mit dem „Prozessgesteuerten Ansatz“ alles besser gelaufen wäre. Ich kann aber sagen, dass im Vorfeld nicht alles unternommen wurde, um dieses Fiasko zu vermeiden! Denn dann hätte man mir wenigstens mal das Wort gönnen können. So muss sich die bayerische Staatsregierung schon die Frage gefallen lassen, warum sie dem „Prozessgesteuerten Ansatz“ keine Chance gegeben hat, obwohl sie davon hätte wissen müssen? Natürlich schließt sich zwangsläufig die Folgefrage an, ob die jetzt im Einsatz befindlichen Kräfte nach dem „Prozessgesteuerten Ansatz“ vorgehen? Auf die Antwort wäre ich jedenfalls sehr gespannt!

Dennoch sollte zukünftig ein ähnliches Desaster vermieden werden. Von daher steht meine Türe selbstverständlich weiterhin offen, denn ich sehe es als meine Pflicht an, zu helfen und zu unterstützen. Und wenn der „Prozessgesteuerte Ansatz“ dazu beitragen kann, dann sehr gerne!

Digitalisierung und der „Prozessgesteuerte Ansatz“

Eigentlich sollte es nur ein kurzer Blog über die Digitalisierung und dessen Auswirkungen auf Unternehmen werden. Konkret sollte die Notwendigkeit für Unternehmen herausgearbeitet werden, den Schritt hin zur individuellen Softwareentwicklung zu wagen, um mit Produkten und Dienstleistungen noch erfolgreicher zu werden. Doch dann wurde der Blog immer länger, so dass ich mich schließlich dazu entschloss, ihn in Form eines Artikels auf meiner Webseite zu veröffentlichen.

So ist also ein neuer Artikel entstanden, den ich heute unter dem Titel Systematische/strukturierte Digitalisierung mit dem „Prozessgesteuerten Ansatz“: Ein Plädoyer für die Individualentwicklung im Zeitalter der Digitalisierung veröffentlicht habe. Die wesentlichen Kernbotschaften fasse ich für ganz Ungeduldigen hier gerne zusammen:

  • Digitalisierung bedeutet für Unternehmen den gezielten Einsatz von IT im Kerngeschäft, um im scharfen Wettbewerb besser zu sein als die Konkurrenz und um somit zu gewinnen.
  • Um besser zu sein, müssen Unternehmen neben Innovationen im Kerngeschäft (Produkte, Dienstleistungen) im Zuge der Digitalisierung zunehmend auch im IT-Bereich innovativ sein. Das ist eine der wichtigsten Lehren, die Unternehmen aus der Digitalisierung ziehen müssen.
  • Die bisher erfolgreich eingesetzte Strategie, anfallende Herausforderungen im IT-Bereich durch den Kauf von Standardsoftware zu lösen, fällt für die Individualisierung im Kerngeschäft aus. Standardsoftware wickelt nun mal nur Standardprozesse ab, die sich bereits über Jahre in der jeweiligen Industrie etabliert und bewährt haben. Innovationen für das Kerngeschäft eines Unternehmens sind hier nicht zu erzielen.
  • Wenn Unternehmen im Kerngeschäft durch IT-Einsatz innovativ sein müssen, um Wettbewerbsvorteile zu erzielen, so gelingt dies folglich nur über Individualentwicklung.
  • Unternehmen müssen sich dabei für die Individualentwicklung auf ihre Kernprozesse fokussieren und verstehen, wie sie sich diese von Standardprozessen unterscheiden.
  • Der Einsatz des „Prozessgesteuerten Ansatzes“ nimmt den Unternehmen Berührungsängste mit der individuellen Softwareentwicklung ab. Der Ansatz hilft auf Basis von Prozessmodellen bei der zielgerichteten Identifikation der Bereiche im Unternehmen, wo eine Digitalisierung lohnt und erlaubt gleichzeitig den sanften Einstieg in die Individualentwicklung aufgrund einer stringent fachlich motivierten Vorgehensweise!

Neugierig geworden? Dann schauen Sie vielleicht doch mal schnell hier vorbei. Ich wünsche jedenfalls viel Spaß bei der Lektüre 🙂

IT-/Prozess-Fiasko bei der Deutschen Bank

Es war die Schlagzeile des gestrigen Tages (07.07.2020) auf boerse.ard.de: „Deutsche Bank und Google werden Partner“. Was hat die Deutsche Bank nicht schon alles versucht, um aus ihrem IT-Schlamassel herauszukommen? Die folgenden Zitate aus dem oben verlinkten Online-Artikel geben einen Einblick in das Drama:

  • „Bei der größten deutschen Bank ist die IT schon seit langer Zeit eine Großbaustelle.“
  • „So hatte der frühere Konzernchef John Cryan die IT der Bank kurz nach seinem Amtsantritt 2015 öffentlich als ‚lausig‘ bezeichnet.“
  • „Die Ex-IT-Chefin Kim Hammond, die eigentlich die Probleme lösen sollte, musste Anfang 2018 nach nur kurzer Zeit im Amt wieder gehen. Zuvor hatte sie die Bank bei einer internen Tagung als das „dysfunktionalste Unternehmen„, für das sie je gearbeitet habe, bezeichnet.“
  • „Das größte Problem der Deutschen-Bank-IT sind nach wie vor die vielen verschiedenen Systeme.“
    Anmerkung: So ist das nun mal. Damit hat jedes Unternehmen zu kämpfen, nicht nur die Deutsche Bank. Aber offensichtlich ist die Deutsche Bank selbst nicht in der Lage, das Problem zu lösen. Wieder ein Unternehmen, das die eigenen Prozesse nicht beherrscht!
  • „2012 hatte die größte deutsche börsennotierte Bank SAP damit beauftragt, die Plattformen zu harmonisieren. Das unter dem Namen Magellan bekannte Großprojekt scheiterte jedoch.“
    Anmerkung: Kein Ruhmesblatt für das ansonsten erfolgsverwöhnte deutsche IT-Vorzeigeunternehmen. Daher jetzt vielleicht der Wechsel zu den vermeintlich überlegenen Amerikanern?
  • „Der frühere SAP-Manager Bernd Leukert, der bei der Deutschen Bank inzwischen im Vorstand für Technologie, Daten und Innovation verantwortlich ist, sieht in der Zusammenarbeit mit Google einen bedeutenden Schritt für die Technologiestrategie der Bank.“
    Anmerkung: Dieses Zitat (v)erschreckt mich zutiefst! Ein ehemaliger hochrangiger SAP-Manager gibt indirekt das Versagen seines ehemaligen Brötchengebers in dieser Angelegenheit zu. Auch er sieht augenscheinlich nur noch das Heil in der Flucht in die Fänge eines möglichen Heilsbringers. Offensichtlich bietet SAP keine konkurrenzfähige Technologie für die Cloud an, sonst wäre ja ein solcher Schritt nicht notwendig – und als ehemaliger SAP-Entwicklungsvorstand, der bei der SAP für die Cloud-Technologie verantwortlich war (!!!), muss er es wissen. Ich frage mich nur, warum andere SAP-Kunden auf die Cloud-Technologie des Walldorfer Unternehmens zurückgreifen sollen, wenn selbst ein ausgesprochener Kenner der Szene und der SAP-Cloud-Lösung ihr nicht vertraut? Das ist schon starker Tobak.
    Tatsächlich halte ich diese Aussage Bernd Leukerts für die SAP für brandgefährlich!

Das ist eine Liste des Schreckens, ein Desaster! Nun also Google. Verbunden damit ist wohl die Hoffnung, von Googles Cloud-Angebot und den Erfahrungen im Big Data-Bereich zu profitieren. Bei mir schwingen dagegen eher Zweifel mit. Für mich ist es tatsächlich eine Bankrotterklärung, eine Verzweiflungstat. Nachdem alles nicht funktioniert hat (die obige Liste ist beeindruckend und erschreckend zugleich), greift man nun nach dem wohl allerletzten Strohhalm: Einem (ohne Zweifel) IT-erfahrenen Anbieter mit klingendem amerikanischen Namen. Da muss es doch jetzt endlich klappen. Ich bezweifele das, weil meiner Meinung nach Abhängigkeiten geschaffen werden, die nicht zu einer vernünftigen Digitalisierungsstrategie passen. Wenn wir doch eins aus der Digitalisierung gelernt haben, dann ist es doch der Wandel von Unternehmen hin zu IT-Unternehmen. Digitalisierung bedeutet ein Mehr an IT, ein Mehr an Software. In einem Artikel auf der Online-Plattform CIO wird dieser Sachverhalt beeindruckend thematisiert: Softwareentwickler: die neuen Königsmacher.

Wer diese Entwicklung nicht versteht, versteht die Digitalisierung nicht. Folglich müssen Unternehmen diese Kernkompetenz in ihren eigenen Reihen aufbauen und eben nicht, wie es die Deutsche Bank gerade plant, auslagern. Die Deutsche Bank begeht meiner Auffassung nach einen doppelten Fehler: Sie lagern ihre Kernprozesse aus und sie lassen ihre Software extern betreiben. Damit begeben sie sich in eine doppelte Abhängigkeit, wo doch die Unabhängigkeit in den Kernkompetenzen oberstes Gebot der Stunde sein sollte. Auch das hat uns doch die Corona-Pandemie gelehrt: In einer Krise ist Unabhängigkeit Trumpf!

Dabei bietet gerade der „Prozessgesteuerte Ansatz“ genau die Lösung, wonach die Deutsche Bank so händeringend sucht. Der Ansatz erlaubt aufgrund ihrer flexiblen Architektur Innovationen voranzutreiben und gleichzeitig in der existierenden IT-Landschaft aufzuräumen – eine Operation am offenen Herzen also. Außerdem verbleibt die Kernkompetenz (die Prozesse des Bankengeschäfts) im eigenen Hause. Vielleicht sollte die Deutsche Bank es einmal damit versuchen, statt sich im Akt der Verzweifelung einem amerikanischen Großunternehmen auszuliefern!

DPE statt KI

In einem meiner früheren Blog-Beiträge bin ich schon einmal auf das Interview der Nürnberger Nachrichten mit dem Datev-Chef Dr. Robert Mayr eingegangen. Das Interview von F. Holzschuh mit Hrn. Dr. Mayr ist tatsächlich in zweierlei Hinsicht bemerkenswert: Zum einen stehen bei Hrn. Dr. Mayr ganz offensichtlich Prozesse im Zentrum der Digitalisierung. Zum anderen entmystifiziert er die Künstliche Intelligenz. Beide Standpunkte kann ich aus eigener Erfahrung nur unterstreichen! KI ist sicherlich wichtig, darüber müssen wir nicht diskutieren. Der Hype um KI ist aber nahezu schon fast unerträglich. Allein in Bayern wurden kürzlich 50 (!) neue KI-Professuren angekündigt (siehe z.B. hier die Meldung darüber in der Süddeutschen Zeitung). Auf der anderen Seite vernachlässigen wir sträflich die für Unternehmen viel naheliegenderen Möglichkeiten der Prozessautomatisierung. Hr. Dr. Mayr rückt mit seiner Aussage die Verhältnisse wieder zurecht und das ist gut so! Ob wir den Rückstand in der KI aufholen können, wag ich nicht zu prognostizieren. Aber Prozesse waren von jeher eine unserer Stärken und der Vorsprung, den wir hier noch haben, könnte durch den „Prozessgesteuerten Ansatz“, dem innovativen auf Prozessmodellen basierenden Automatisierungsverfahren, weiter ausgebaut werden! Es ist tatsächlich eines der wenigen technologischen Gebiete, auf denen wir noch führend sind. Wir sollten diesen Vorsprung durch eine ausschließliche Fokussierung auf KI nicht wieder leichtfertig verspielen!

Daher mein Vorschlag: DPE statt KI! Statt also das „Me too“-Spiel zu spielen (ganz nach dem Motto: Schaut her, wir können auch KI), sollten wir innovativ sein und etwas völlig Neues anbieten, das es so meines Wissens nach weltweit nicht gibt: Digital Process Engineering (DPE)! Damit meine ich neue Lehrstühle, Studiengänge und Forschungseinrichtungen, die ein Ziel verfolgen: Dem zielgerichteten Einsatz von Technologien im Verbund zur Digitalisierung sämtlicher Prozesse (Fachprozesse (nicht nur betriebswirtschaftlich), technische Prozesse, Integrationsprozesse, Produktionsprozesse…) und damit der Förderung digitaler Geschäftsmodelle bei gleichzeitiger Kontrolle über die dabei entstehende Komplexität!

Der Hintergrund zu diesem Vorschlag ist der Folgende: Digitalisierung bedeutet doch letztendlich die effektive und effiziente Umsetzung innovativer Prozesse durch Einsatz von Technologie. Es wird aber nirgends gelehrt, wie das konkret zu erreichen ist und wie die einzelnen Bausteine/Technologien sinnvoll zusammenspielen, um dieses Ziel zu erreichen! Genau das möchte mein Vorschlag erreichen! Beispielsweise müssten folgende Inhalte adressiert werden:

  • Ganz fundamental: Das Denken in Prozessen, Process Engines und dem „Prozessgesteuerten Ansatz“! Dies beinhaltet zwangsläufig die qualitativ hochwertige Erstellung von Prozessmodellen als Dreh und Angelpunkt des prozessgesteuerten Denkens.
  • Methodische Herangehensweise an Digitalisierungsprojekte
  • Kollaborationsmodell zwischen Fachlichkeit und IT (wie wird diese Kollaboration konkret gelebt?)
  • Kommunikation von Prozessen (wie sieht eine übergreifende einheitliche und dabei präzise Kommunikation von Prozessen zwischen Fachlichkeit und IT konkret aus?)
  • Technologien zur Umsetzung digitaler Abläufe wie z.B. Process Engines, Internet of Things-Werkzeuge, analytische Anwendungen, natürlich auch KI, Big Data-Lösungen, Entscheidungsmanagement, Systemintegrationslösungen, SOAP-/REST-Webservices, Microservices, Webtechnologien, mobile Anwendungen, Tools zur Ereignisverarbeitung, Einbindung von Datenbanken usw. Wichtig ist dabei deren zielgerichteter sachdienlicher Einsatz zur Unterstützung der fachlichen Innovationsprozesse. Technologien sind in den Dienst der Sache zu stellen, sie sind lediglich Mittel zum Zweck!
  • Nachhaltige Architekturen für prozessgesteuerte Digitalisierungsprojekte, die sowohl eine effiziente erstmalige Implementierung (Development) als auch Wartung (Operations) und Weiterentwicklung ermöglichen.
  • Prozessgesteuerte Implementierungsrichtlinien (Beantwortung der Frage, wie final Prozesse konkret zur Ausführung gebracht werden)
  • Beherrschung von Komplexität in großen Digitalisierungsprojekten („Managing Complexity“)

Absolventen einer solchen Ausbildung sind es gewohnt, vernetzt in komplexen Umgebungen zu denken und sind in der Lage, konkrete Digitalisierungsprojekte von der Planung bis zur Umsetzung zu begleiten. Sie werden dadurch zu wertvollen, attraktiven Mitarbeitern, die von der Industrie händeringend gesucht werden!

Dr. Robert Mayr (Datev) Interview in den Nürnberger Nachrichten über digitale Prozesse

Am 16. Juni 2020 veröffentlichten die Nürnberger Nachrichten ein bemerkenswertes Interview mit dem Datev-Chef Dr. Robert Mayr. Bereits in der Einleitung zu diesem Interview schreibt F. Holzschuh, Autor des Artikels:

Es hat nicht erst ein neuartiges Coronavirus gebraucht, um die Vorteile von digitalen Arbeitsprozessen zu demonstrieren. Aber spätestens jetzt zeigt sich, wie wichtig etwa automatisierte Prozessketten sind.

F. Holzschuh in „Nürnberger Nachrichten“ vom 16.06.2020, S. 19.

Neben kritischen Äußerungen zur Künstlichen Intelligenz (KI), die ich uneingeschränkt teile und die einen eigenen Blog-Beitrag wert sind, möchte ich hier nun die Antwort zitieren, die Dr. Robert Mayr auf die Frage „Wo sehen Sie die Chancen der Digitalisierung?“ gab. Ich zitiere wörtlich:

Die Coronakrise hat uns diese Chancen gerade sehr deutlich vor Augen geführt. Unternehmen, die digital und flexibel aufgestellt sind, taten sich sehr viel leichter, in den Krisenmodus zu wechseln, ohne an Schlagkraft zu verlieren. Ich hege die starke Hoffnung, dass viele Betriebe diese Erfahrungen auch in den zukünftigen „neuen“ Alltag mit hinübernehmen, etwa, was virtuelle Zusammenarbeit und durchgängige digitale Prozesse angeht. In Zeiten einer zunehmenden Vernetzung kann eine ganze Reihe von Abläufen automatisiert werden. Das betrifft natürlich auch die kaufmännischen Prozesse in Unternehmen. Sie eignen sich – mit relativ überschaubarem Aufwand – ganz hervorragend für den Einstieg in die Digitalisierung. Wenn ich die Daten einmal digital erfasst habe, am Beispiel der kaufmännischen Prozesse notfalls durch das Einscannen von Eingangsbelegen, können ganze Prozessketten damit automatisiert ablaufen. Das geht vom Angebot über die Rechnung bis zur Zahlungsauslösung. Ist dieser Prozess einmal aufgesetzt, bietet er einen riesigen Vorteil im Vergleich zur klassischen analogen Herangehensweise.

Dr. Robert Mayr in „Nürnberger Nachrichten“ vom 16.06.2020, S. 19.

Dem ist, so glaube ich, nichts mehr hinzuzufügen. Besser kann man die Digitalisierung durch Prozesse in so wenigen Worten kaum auf den Punkt bringen! Ob die Datev den „Prozessgesteuerten Ansatz“ einsetzt? Wahrscheinlich nicht. Aber ich frag mal nach. Vielleicht lässt sich ja auch bei der Datev noch etwas optimieren… 😉