Es ergeht wahrscheinlich vielen Menschen wie mir: Man sucht etwas im Haus und stolpert dabei über Dinge, an die man schon lange nicht mehr gedacht hat, über die man sich beim Auffinden aber wieder richtig freut. So ist es mir unlängst bei einer Recherche zu Prozessen im Internet ergangen. Fand ich dabei doch ein längst in Vergessenheit geratenes Interview, dass ich anlässlich der Veröffentlichung meines Buches Prozessgesteuerte Anwendungen mit BPMN der Computerwoche gab. Das Interview fand bereits 2014 (!!!) statt, allerdings war ich selbst erstaunt darüber, wie zeitlos doch die damals gemachten Aussagen auch heute noch sind. Schauen Sie doch selbst einmal vorbei. Die Computerwoche veröffentlichte das Interview unter der Überschrift Der Fachprozess bestimmt die Applikationsentwicklung. Ich wünsche viel Spaß bei der Lektüre!
DPE statt KI
In einem meiner früheren Blog-Beiträge bin ich schon einmal auf das Interview der Nürnberger Nachrichten mit dem Datev-Chef Dr. Robert Mayr eingegangen. Das Interview von F. Holzschuh mit Hrn. Dr. Mayr ist tatsächlich in zweierlei Hinsicht bemerkenswert: Zum einen stehen bei Hrn. Dr. Mayr ganz offensichtlich Prozesse im Zentrum der Digitalisierung. Zum anderen entmystifiziert er die Künstliche Intelligenz. Beide Standpunkte kann ich aus eigener Erfahrung nur unterstreichen! KI ist sicherlich wichtig, darüber müssen wir nicht diskutieren. Der Hype um KI ist aber nahezu schon fast unerträglich. Allein in Bayern wurden kürzlich 50 (!) neue KI-Professuren angekündigt (siehe z.B. hier die Meldung darüber in der Süddeutschen Zeitung). Auf der anderen Seite vernachlässigen wir sträflich die für Unternehmen viel naheliegenderen Möglichkeiten der Prozessautomatisierung. Hr. Dr. Mayr rückt mit seiner Aussage die Verhältnisse wieder zurecht und das ist gut so! Ob wir den Rückstand in der KI aufholen können, wag ich nicht zu prognostizieren. Aber Prozesse waren von jeher eine unserer Stärken und der Vorsprung, den wir hier noch haben, könnte durch den „Prozessgesteuerten Ansatz“, dem innovativen auf Prozessmodellen basierenden Automatisierungsverfahren, weiter ausgebaut werden! Es ist tatsächlich eines der wenigen technologischen Gebiete, auf denen wir noch führend sind. Wir sollten diesen Vorsprung durch eine ausschließliche Fokussierung auf KI nicht wieder leichtfertig verspielen!
Daher mein Vorschlag: DPE statt KI! Statt also das „Me too“-Spiel zu spielen (ganz nach dem Motto: Schaut her, wir können auch KI), sollten wir innovativ sein und etwas völlig Neues anbieten, das es so meines Wissens nach weltweit nicht gibt: Digital Process Engineering (DPE)! Damit meine ich neue Lehrstühle, Studiengänge und Forschungseinrichtungen, die ein Ziel verfolgen: Dem zielgerichteten Einsatz von Technologien im Verbund zur Digitalisierung sämtlicher Prozesse (Fachprozesse (nicht nur betriebswirtschaftlich), technische Prozesse, Integrationsprozesse, Produktionsprozesse…) und damit der Förderung digitaler Geschäftsmodelle bei gleichzeitiger Kontrolle über die dabei entstehende Komplexität!
Der Hintergrund zu diesem Vorschlag ist der Folgende: Digitalisierung bedeutet doch letztendlich die effektive und effiziente Umsetzung innovativer Prozesse durch Einsatz von Technologie. Es wird aber nirgends gelehrt, wie das konkret zu erreichen ist und wie die einzelnen Bausteine/Technologien sinnvoll zusammenspielen, um dieses Ziel zu erreichen! Genau das möchte mein Vorschlag erreichen! Beispielsweise müssten folgende Inhalte adressiert werden:
- Ganz fundamental: Das Denken in Prozessen, Process Engines und dem „Prozessgesteuerten Ansatz“! Dies beinhaltet zwangsläufig die qualitativ hochwertige Erstellung von Prozessmodellen als Dreh und Angelpunkt des prozessgesteuerten Denkens.
- Methodische Herangehensweise an Digitalisierungsprojekte
- Kollaborationsmodell zwischen Fachlichkeit und IT (wie wird diese Kollaboration konkret gelebt?)
- Kommunikation von Prozessen (wie sieht eine übergreifende einheitliche und dabei präzise Kommunikation von Prozessen zwischen Fachlichkeit und IT konkret aus?)
- Technologien zur Umsetzung digitaler Abläufe wie z.B. Process Engines, Internet of Things-Werkzeuge, analytische Anwendungen, natürlich auch KI, Big Data-Lösungen, Entscheidungsmanagement, Systemintegrationslösungen, SOAP-/REST-Webservices, Microservices, Webtechnologien, mobile Anwendungen, Tools zur Ereignisverarbeitung, Einbindung von Datenbanken usw. Wichtig ist dabei deren zielgerichteter sachdienlicher Einsatz zur Unterstützung der fachlichen Innovationsprozesse. Technologien sind in den Dienst der Sache zu stellen, sie sind lediglich Mittel zum Zweck!
- Nachhaltige Architekturen für prozessgesteuerte Digitalisierungsprojekte, die sowohl eine effiziente erstmalige Implementierung (Development) als auch Wartung (Operations) und Weiterentwicklung ermöglichen.
- Prozessgesteuerte Implementierungsrichtlinien (Beantwortung der Frage, wie final Prozesse konkret zur Ausführung gebracht werden)
- Beherrschung von Komplexität in großen Digitalisierungsprojekten („Managing Complexity“)
Absolventen einer solchen Ausbildung sind es gewohnt, vernetzt in komplexen Umgebungen zu denken und sind in der Lage, konkrete Digitalisierungsprojekte von der Planung bis zur Umsetzung zu begleiten. Sie werden dadurch zu wertvollen, attraktiven Mitarbeitern, die von der Industrie händeringend gesucht werden!
Dr. Robert Mayr (Datev) Interview in den Nürnberger Nachrichten über digitale Prozesse
Am 16. Juni 2020 veröffentlichten die Nürnberger Nachrichten ein bemerkenswertes Interview mit dem Datev-Chef Dr. Robert Mayr. Bereits in der Einleitung zu diesem Interview schreibt F. Holzschuh, Autor des Artikels:
Es hat nicht erst ein neuartiges Coronavirus gebraucht, um die Vorteile von digitalen Arbeitsprozessen zu demonstrieren. Aber spätestens jetzt zeigt sich, wie wichtig etwa automatisierte Prozessketten sind.
F. Holzschuh in „Nürnberger Nachrichten“ vom 16.06.2020, S. 19.
Neben kritischen Äußerungen zur Künstlichen Intelligenz (KI), die ich uneingeschränkt teile und die einen eigenen Blog-Beitrag wert sind, möchte ich hier nun die Antwort zitieren, die Dr. Robert Mayr auf die Frage „Wo sehen Sie die Chancen der Digitalisierung?“ gab. Ich zitiere wörtlich:
Die Coronakrise hat uns diese Chancen gerade sehr deutlich vor Augen geführt. Unternehmen, die digital und flexibel aufgestellt sind, taten sich sehr viel leichter, in den Krisenmodus zu wechseln, ohne an Schlagkraft zu verlieren. Ich hege die starke Hoffnung, dass viele Betriebe diese Erfahrungen auch in den zukünftigen „neuen“ Alltag mit hinübernehmen, etwa, was virtuelle Zusammenarbeit und durchgängige digitale Prozesse angeht. In Zeiten einer zunehmenden Vernetzung kann eine ganze Reihe von Abläufen automatisiert werden. Das betrifft natürlich auch die kaufmännischen Prozesse in Unternehmen. Sie eignen sich – mit relativ überschaubarem Aufwand – ganz hervorragend für den Einstieg in die Digitalisierung. Wenn ich die Daten einmal digital erfasst habe, am Beispiel der kaufmännischen Prozesse notfalls durch das Einscannen von Eingangsbelegen, können ganze Prozessketten damit automatisiert ablaufen. Das geht vom Angebot über die Rechnung bis zur Zahlungsauslösung. Ist dieser Prozess einmal aufgesetzt, bietet er einen riesigen Vorteil im Vergleich zur klassischen analogen Herangehensweise.
Dr. Robert Mayr in „Nürnberger Nachrichten“ vom 16.06.2020, S. 19.
Dem ist, so glaube ich, nichts mehr hinzuzufügen. Besser kann man die Digitalisierung durch Prozesse in so wenigen Worten kaum auf den Punkt bringen! Ob die Datev den „Prozessgesteuerten Ansatz“ einsetzt? Wahrscheinlich nicht. Aber ich frag mal nach. Vielleicht lässt sich ja auch bei der Datev noch etwas optimieren… 😉
Der „Prozessgesteuerte Ansatz“ in jedem Unternehmen?
Nach Veröffentlichung meines Gastbeitrags auf der Webseite des Ökonomen Dr. Daniel Stelter zum Thema „Produktivitätssteigerung durch Prozessdigitalisierung“ erhielt ich folgende Leserfrage:
Lieber Herr Professor Stiehl, vielleicht mögen Sie erklären, wie die Unternehmen im Kampf um Kunden, Märkte und Rendite Vorteile erzielen (können), wenn es, wie Ihrerseits gewünscht, alle Unternehmen parallel umsetzen?
Ähnliche Anfragen bekomme ich auch hinsichtlich meiner Vision, in der ja der Wunsch zum Ausdruck gebracht wird, zukünftig sämtliche Prozessanwendungen nach dem „Prozessgesteuerten Ansatz“ zu erstellen. Von daher ist die Frage natürlich berechtigt! Meine Antwort darauf war wie folgt (die im Text verwendete Abkürzung „PDA“ steht dabei für „Process-Driven Approach“, also die englische Bezeichnung für „Prozessgesteuerter Ansatz“):
Zunächst müssen wir verstehen, dass PDA wie ein neues Werkzeug zu sehen ist. Um also Vorteile erzielen zu können, kommt es primär auf die Idee an, was Sie konkret mit dem Werkzeug umsetzen wollen. PDA ist ja nicht die Lösung selbst. PDA hilft der Unternehmung lediglich dabei, diese Ideen dann effizienter umzusetzen. Und auf eine effizientere Lösung (nämlich PDA) zu verzichten, nur weil die Gefahr besteht, dass andere es auch nutzen, ergibt doch keinen Sinn. Ein Unternehmen kann es sich einfach nicht leisten, ineffizienter zu arbeiten als die Konkurrenz. Und wenn das am Ende des Tages bedeutet, dass alle PDA einsetzen, was ist so schlimm daran? Wichtig ist aus meiner Sicht lediglich, dass wir die Ersten sein sollten!
Denn natürlich profitieren Unternehmen am meisten, wenn sie jetzt auf PDA setzen, denn dann profitieren sei vom FMA (First Mover Advantage). Da gerade der deutschsprachige Raum aufgrund seiner Historie (ich erinnere hier an die herausragende Leistung von Prof. Scheer) prozessafiner als die restliche Welt ist, könnte die hiesige Wirtschaft als First Mover den Vorsprung anderer Länder bei der Produktivität verringern. Gebrauchen könnten wir es.
Der First Mover hat einen weiteren wichtigen Vorteil: Er sammelt Erfahrung beim Umgang mit diesem neuen Werkzeug und kann seinen Vorsprung stetig ausbauen. Deshalb ist es mir im Hinblick auf unsere Wirtschaft auch so wichtig, dass wir JETZT beginnen – jetzt ist die Zeit reif. Schließlich stehen wir in einem scharfen internationalen Wettbewerb.
Bedenken Sie auch einmal den Vorteil einer einzelnen Unternehmung, wenn sie morgen auf PDA umsteigen würde: Woher sollte die Konkurrenz überhaupt mitbekommen, wie die Prozesse, die ja im Hintergrund arbeiten, konkret umgesetzt wurden? Nach Außen werden Sie eine Anwendung, die mit PDA erstellt wurde, von einer herkömmlich programmierten Lösung nicht unterscheiden können. Dies ist ein weiterer wichtiger positiver Nebeneffekt! Unternehmen werben mit ihren Produkten und Dienstleistungen – Neuerungen in den Angeboten sind für die Konkurrenz leicht zu erkennen und ggf. zu kopieren. Ich erinnere an dieser Stelle immer gerne an Steve Jobs‘ grandiose Präsentation des iPhones aus dem Jahre 2007 (unbedingt ansehen – Gänsehautgarantie). Er glaubte an einen Vorsprung von 5 Jahren gegenüber der Konkurrenz. Wie schnell dieser technologische Vorsprung zusammenschmolz, wissen wir alle nur zu gut. Sie haben aber bestimmt noch kein Unternehmen gesehen, das mit tollen Prozessen wirbt. Mit anderen Worten: Ein differenzierender Vorteil, den eine Unternehmung in seiner Prozesswelt erarbeitet, ist nachhaltiger als ein differenzierender Aspekt in seinen Produkten und Dienstleistungen, eben weil er von der Konkurrenz extrem schwer zu erkennen und zu kopieren ist! Diesen Trumpf sollten Unternehmen ausspielen!
Soweit also meine damalige Antwort. Ich möchte sie noch wie folgt ergänzen:
- Ich bin bei meiner Antwort weniger auf den Aspekt der „parallelen Umsetzung“ eingegangen, da dies schlicht utopisch ist. Der Aspekt ist von daher unrealistisch, da die Voraussetzungen für den Einsatz des prozessgesteuerten Ansatzes in den Unternehmen nicht gegeben bzw. in unterschiedlicher Qualität vorhanden sind. Sie lassen sich schon gar nicht parallel erreichen. Diesbezüglich muss man einfach realistisch sein. Ich konzentriere mich in meiner obigen Antwort daher primär auf die Frage, was wäre, wenn irgendwann in ferner Zukunft alle Unternehmen PDA einsetzen würden.
- Ich vergleiche den Einsatz von PDA gerne mit technologischen Weiterentwicklungen in anderen Bereichen. Durch die Dampfmaschine konnten viele manuelle Schritte automatisiert und letztendlich die Produktivität deutlich gesteigert werden. Niemand käme heute mehr auf den Gedanken, in der Massenproduktion auf Maschinen zu verzichten. Jedes Unternehmen setzt auf Maschinen.
Das Auto ersetzt die Pferdekutschen. Niemand käme heute auf den Gedanken, auf LKWs zu verzichten und in der Logistik wieder auf Pferdekutschen zu setzen. Alle Unternehmen setzen LKWs für den Transport ein.
In diesem Sinne ist der „Prozessgesteuerte Ansatz“ eine technologische Weiterentwicklung bei der Implementierung von Prozessen. Natürlich verbinde ich damit die Hoffnung, dass durch dessen Einsatz die Effizienz- und Produktivitätssteigerungen so signifikant sind, dass irgendwann niemand mehr auf den Gedanken kommt, Prozesse noch zu programmieren 🙂
Aber das muss die Zeit zeigen. - Den Punkt „Sammeln von Erfahrungen mit dem ‚Prozessgesteuerten Ansatz'“ möchte ich nochmals betonen, weil er mir tatsächlich sehr am Herzen liegt. Als Beispiel möchte ich Tesla heranziehen. Tesla kann durch ihre real im Straßenverkehr eingesetzten Autos so viele Erfahrungen in den Bereichen „Elektromobilität“ und „Autonomes Fahren“ sammeln, dass es der hiesigen Automobilindustrie sehr schwer fallen wird, diesen Vorsprung jemals wieder aufzuholen. Jeder gefahrene Kilometer in realen Verkehrssituationen steigert Teslas Erfahrungsschatz! Genau einen solchen Vorsprung sollten wir uns im Bereich der Prozessautomatisierung erarbeiten. Er kann unsere Unternehmen im internationalen Wettbewerb stärken!
Meine Motivation zur Entwicklung des „Prozessgesteuerten Ansatzes“
Dieser Blog-Beitrag wird sehr kurz, denn er verweist lediglich auf eine neuen Artikel, den ich kürzlich fertigstellte. Der Hintergrund ist recht einfach: Ich werde immer wieder gefragt, warum ich den „Prozessgesteuerten Ansatz“ überhaupt entwickelt habe und wie ich darauf gekommen bin. Antworten auf diese Fragen habe ich in einem einleitenden Artikel auf meiner persönlichen Seite zusammengetragen. Wenn auch Sie an der Beantwortung dieser Frage interessiert sind, dann wünsche ich Ihnen viel Freude beim Lesen des Artikels.
Process Mining und der „Prozessgesteuerte Ansatz“
In der aktuellen Ausgabe des Magazins €uro (€uro 06/20, S. 16-19) findet sich ein interessanter Artikel überschrieben mit dem Titel „Digitale Krisenhelfer“ über den Einsatz digitaler Lösungen zur Bewältigung der Corona-Pandemie. Darin wird u.a. auch das Thema Process Mining aufgegriffen. Process Mining erlaubt die Rekonstruktion von Prozessen aufgrund digitaler Spuren, die während der Prozessausführung entstehen, wie z.B. der Anlagezeitpunkt eines Auftrags, der Korrekturzeitpunkt eines Auftrags, der Produktionszeitpunkt eines Artikels zu diesem Auftrag, der Auslieferungszeitpunkt des Artikels an den Kunden usw.). Auf Basis dieser Zeitpunkte, die in unterschiedlichsten Systemen entstehen und mitprotokolliert werden, kann eine Process Mining-Software durch Zusammentragen und zeitlicher Sortierung eine Ausführungsreihenfolge ermitteln und diese im Anschluss grafisch darstellen, idealerweise in Form eines Prozessmodells.
Natürlich ist in dem Artikel mal wieder von der Bedeutung effizient ablaufender Prozesse und der Forderung nach mehr Transparenz die Rede. Process Mining wird einmal mehr als Heilsbringer des Prozessmanagements dargestellt, da durch den Einsatz von Process Mining Schwachstellen in Unternehmensabläufen sichtbar gemacht und entsprechende Optimierungen durchgeführt werden können.
Zunächst einmal ist es grundsätzlich richtig: Process Mining-Software kann Unzulänglichkeiten in Abläufen aufdecken. Sie liefert (allerdings mit Einschränkungen, wie noch zu sehen sein wird) die geforderte Transparenz. Dafür wurde sie ja letztendlich auch entwickelt.
ABER: Unternehmen, die zu solchen Lösungen greifen, senden eine fatale Nachricht nach außen, denn sie geben unterschwellig zu, dass sie keine Ahnung darüber haben, was in ihrem Unternehmen eigentlich abläuft. Das ist doch eigentlich ein Skandal! In den Unternehmen werden Millionen in Software zur Abwicklung des Geschäfts investiert, um dann weitere Millionen in Process Mining-Software zu stecken, nur um zu sehen, was die Software zur Geschäftsabwicklung eigentlich macht und wie im Unternehmen gearbeitet wird.
Aber nicht genug damit: Im Artikel werden diese Unternehmen auch noch als Vorbilder für die Digitalisierung angeführt. Genannt werden beispielsweise AkzoNobel, BMW, Cisco, Lufthansa, Siemens, Uber und ABB (S. 17). Muss man das verstehen? Ich würde mich als Verantwortlicher dieser Unternehmen jedenfalls schämen, bedeutet dies doch, dass ich „meinen Laden“ nicht im Griff habe!
Process Mining wurde also nur deshalb hoffähig, weil Unternehmen nicht mehr nachvollziehen können, wie ihre Prozesse letztendlich ablaufen. Dies wird u.a. durch die Historie der entwickelten und gekauften Lösungen, aber auch über die Art und Weise, wie die Prozesse letztendlich umgesetzt wurden, gefördert. Denn schlussendlich verlieren sich die Prozesse in der programmierten Software, sie sind für externe Teilnehmer nicht sichtbar. Und Programme zur Prozessausführung, so gut sie auch programmiert sein mögen, visualisieren nun mal keine Prozessabläufe. Dazu braucht es dann spezielle Software, um die Abläufe im Anschluss sichtbar zu machen. Eben Process Mining-Software.
Meine grundsätzliche Kritik an Process Mining ändert auch dieser Artikel natürlich nicht, denn am Ende des Tages trägt Process Mining Software lediglich zum Erkenntnisgewinn bei. Ähnlich wie ich dies bereits in meinem Artikel zur Motivation des „Prozessgesteuerten Ansatzes“ für die künstliche Intelligenz ausgeführt habe, muss dem Erkenntnisgewinn eine entsprechende Handlung folgen, z.B. durch Anpassung der Prozesse an neue Gegebenheiten, umbeispielsweise die Produktivität zu steigern. Dazu liefert Process Mining jedoch keinerlei Beitrag. Wahrscheinlich wird zur Lösung der aufgedeckten Unzulänglichkeiten wieder nur „rumprogrammiert“, um damit die Komplexität (und damit Unübersichtlichkeit) nur noch weiter zu steigern. Es wird also an den Symptomen herumgedoktert, statt das Übel an der Wurzel zu packen!
Ein weiteres Problem: Process Mining kann nur das visualisieren, was zuvor auch mitprotokolliert wurde, denn nur auf Basis existierender digitaler Spuren ist eine Rekonstruktion umsetzbar. Es wird aber nun mal nicht alles mitprotokolliert. Folglich bleiben noch viele Bereiche im Dunkeln und resultieren in einem unvollständigen Gesamtbild!
Zur Lösung bietet sich auch hier der „Prozessgesteuerte Ansatz“ an. Er löst alle genannten Probleme: Unternehmen erhalten effiziente Prozesse und dabei gleichzeitig die so dringend benötigte Transparenz. Denn diese ist durch ausführbare Prozessmodelle sofort gegeben! Die Vollständigkeit der Informationen wird durch die explizite Modellierung jedes einzelnen Prozessschrittes gewährleistet und ist somit qualitativ hochwertiger als die durch Process Mining-Software ermittelten Daten. Wären also Anwendungen nach dem „Prozessgesteuerten Ansatz“ entwickelt worden, gäbe es überhaupt keine Notwendigkeit für Process Mining-Lösungen! Von daher können Hersteller von Process Mining-Software nur hoffen, dass sich der „Prozessgesteuerte Ansatz“ nicht zu schnell durchsetzt. 😉