Blick in die Wissenschaft: Beiträge der BPM-Konferenz 2012

9. September 2012

Vergangene Woche traf sich die wissenschaftliche BPM-Community in der estnischen Hauptstadt Tallin zur mittlerweile zehnten BPM-Tagung. Einige Berichte darüber findet man in den Blogs von Sandy Kemsley und Keith Swenson. Welche Themen bei den Forschern in diesem Jahr auf der Agenda standen, kann man außerdem im englischsprachigen Tagungsband nachlesen, der bei Springer erschienen ist.

Weitere Bücher zum Thema BPM

Einen sehr guten Überblick über BPM als Forschungsgegenstand bietet der einführende Beitrag von Wil van der Aalst (TU Eindhoven), der zu den Begründern der Tagung gehört. In seiner Rückschau auf zehn Konferenzen entwickelt er ein Schema um die verschiedenen Forschungsansätze zu klassifizieren und miteinander in Beziehung zu setzen. Er konnte insgesamt zwanzig verschiedene Muster identifizieren. Die meisten bisher erschienenen Tagungsbeiträge befassten sich mit den grundlegenden Mustern „Entwickle ein Modell“, „Führe ein Modell aus“ und „Verifiziere ein Modell“, wohingegen etwa nur wenige Beiträge dem Muster „Repariere ein Modell“ (aufgrund von Compliance-Überprüfungen) zuzuordnen sind. Künftig könnten Veröffentlichungen die adressierten Muster nennen, was die Einordnung erleichtern würde.

Insgesamt lassen sich kaum klare Entwicklungstrends zugunsten bestimmter Themen erkennen, lediglich das Thema Process Mining hat über die zehn Jahre ständig an Bedeutung gewonnen. Letzteres mag nicht zuletzt daran liegen, dass van der Aalst selbst und seine Arbeitsgruppe sehr fleißig zu diesem Thema publizieren. Insgesamt sieht van der Aalst BPM als eine über die letzten Jahre gereifte Wissenschaftsdisziplin an. Er sieht jedoch auch eine Reihe von Defiziten in vielen Forschungsbeiträgen. So würden öfters Fragestellungen behandelt und Fallstudien präsentiert, die recht künstlich wirken. Manchen Forschern scheine die Originalität ihrer Arbeit wichtiger zu sein als ihre Relevanz. Im Gegensatz zu anderen Bereichen leidet BPM etwas darunter, dass es nur wenige durch die Industrie geförderte Forschungsprojekte gibt. Häufig werden interessante Ansätze in Form von Software-Prototypen umgesetzt, die leider nach Projektabschluss nicht sinnvoll weiter genutzt werden. Eine mögliche Alternative zu solchen Wegwerfprototypen ist die Entwicklung von Open Source-Plattformsystemen, die von vielen Forschungsprojekten gemeinsam genutzt und erweitert werden können.

Der zweite Hauptbeitrag stammt von einer Gruppe um Alejandro Buchmann von der TU Darmstadt. Er beschäftigt sich damit, wie sich BPM-Systeme (BPMS) weiterentwickeln müssen, um Ereignisse besser verarbeiten zu können. Die meisten BPMS arbeiten nach dem Pull-Prinzip: Prozessinstanzen werden von einer Process Engine ausgeführt und rufen die gewünschten Funktionalitäten aktiv in der vordefinierten Reihenfolge auf. Hat man es aber mit Ereignis-Strömen zu tun, die z. B. von einer Vielzahl von Sensoren oder durch Nutzeraktivitäten in Web-Communities erzeugt werden, eignen sich eher Event Driven Architectures (EDA). Sie arbeiten nach dem Push-Prinzip, d. h. wann immer ein relevantes Ereignis auftritt, löst es eine geeignete Verarbeitung aus. Die Komponenten einer EDA sind lose gekoppelt. So ist die Reaktion auf ein bestimmtes Ereignis nicht in einem übergreifenden Modell fest verdrahtet. Stattdessen entscheidet jede Komponente gemäß eines Publish/Subcribe-Verfahrens selbst, ob sie auf ein bestimmtes Ereignis hin aktiv wird.

Die beiden Ansätze lassen sich miteinander verknüpfen, z. B. indem als Reaktion auf ein Ereignis ein Geschäftsprozess angestoßen oder benachrichtigt wird, oder indem Prozesse Ereignisse produzieren, die wiederum über die EDA weiterverarbeitet werden können. In großen, verteilten EDA-Systemen kann die lose Kopplung zu Problemen führen, wenn z. B. Ereignisse verzögert werden oder in umgekehrter Reihenfolge eintreffen. Der Beitrag erläutert, welche Herausforderungen und Lösungsansätze existieren, um eine hohe Service-Qualität zu erreichen.

Ein Überblick über die weiteren Beiträge des Tagungsbandes:

  • Prozessqualität
    Es wurde beispielsweise untersucht, wie das Vorgehen und Verhalten während des Modellierungsprozesses mit der Qualität des erstellten Modells zusammenhängt. Daraus lassen sich Rückschlüsse ziehen, was einen guten Modellierer ausmacht und worauf man bei der Ausbildung achten sollte.
    Für schwach strukturierte Prozesse werden Case Management-Systeme eingesetzt. Ein Team der Fachhochschule Luzern verglich die Anforderungen von Case Managern aus dem Sozial- und Gesundheitswesen sowie der Versicherungsbranche mit den Funktionalitäten der angebotenen Case Management-Softwaresysteme. Sie entwickelten ein Reifegradmodell für Computer-unterstütztes Case Management. Die Ergebnisse sind u. a. für die Softwareauswahl nützlich.
    Da man es in einem Unternehmen nicht nur mit einem einzelnen Prozessmodell zu tun hat, sondern mit einer ganzen Sammlung von miteinander in Beziehung stehenden Modellen, hängt die Qualität der entstehenden Business Process Architecture ganz wesentlich davon ab, dass die verschiedenen Modelle zueinander passen und keine Lücken oder Widersprüche aufweisen. Ein Beitrag vom Hasso Plattner-Institut und der TU Eindhoven stellt hierfür geeignete Muster vor.
  • Conformance und Compliance
    Ebenfalls von der niederländischen TU Eindhoven stammen die Forscher, die Process Mining-Technologien einsetzen, um zu überprüfen, ob die tatsächlich von einem System ausgeführten Prozesse mit einem vorgegebenen Prozessmodell übereinstimmen, ob also alle Regeln eingehalten wurden. Hierbei betrachten sie flexible Prozesse mit vielen Variationsmöglichkeiten, die sich nicht so gut durch prozedurale Modelle  (wie z. B. BPMN-Modelle) darstellen lassen. Daher verwenden sie deklarative Modelle, die keine festen Reihenfolgen zwischen den Aktivitäten vorgeben, sondern nur eine Reihe einzuhaltender Regeln. Das entwickelte Plug-In für das Open Source Process Mining-Framework ProM informiert darüber, wie gut das Prozessmodell eingehalten wurde und wo Abweichungen aufgetreten sind.
    Und noch ein Process Mining-Projekt aus Eindhoven zum Thema Compliance: Es wird ein Ansatz vorgestellt, Kontextinformation in die automatisierte Überprüfung von Prozessen einzubeziehen. Möchte man beispielsweise die Regel überprüfen, dass der Gutachter eines Artikels noch nie mit dem Autor zusammen etwas veröffentlicht hat, so ist dies nicht innerhalb der einzelnen Prozessinstanz entscheidbar. Stattdessen muss der gesamte Kontext mit allen früheren Prozessinstanzen einbezogen werden.
    Es folgt ein Beitrag über die Einhaltung des Schutzes privater Daten. Um Datenschutzverletzungen zu entdecken werden Abweichungen von Standardprozessen entdeckt und überprüft. Mit Hilfe von Simulationen werden zunächst die im Rahmen der vorgesehenen Prozesse zu erwartenden Situationen hinsichtlich des Zugriffs auf persönliche Daten ermittelt. Weichen die im Betrieb tatsächlich festgestellten Situationen davon ab, deutet dies auf eventuelle Verletzungen der Datenschutzregeln hin.
  • BPM-Anwendungen
    Am Beispiel der Fertigungssteuerung demonstrieren zwei Autoren aus dem spanischen Castellón die Integration von BPM, Event-Driven Architecture (EDA) und Business Activity Monitoring (BAM). Das Interessante ihres EDBPM-Konzeptes (Event-Driven Business Process Management): Im Gegensatz zu anderen Konzepten, wo Prozessausführung, Ereignisverarbeitung und die Kennzahlenberechnung von getrennten Komponenten mit jeweils unterschiedlichen Beschreibungsmitteln übernommen werden, setzen die Autoren für all diese Aufgaben ein – etwas erweitertes – BPM-System ein und beschreiben auch die EDA- und BAM-Aufgaben, wie z. B. die Identifikation eines komplexen Ereignisses, komplett mit Hilfe von BPMN-Modellen (nicht jedoch die Definition der Kennzahlen oder Ereignisse selbst).
    Ein internationales Team aus Italien, Deutschland und Schweden beschäftigte sich mit der prozessbasierten Integration von drahtlosen Sensornetzwerken. Solche Netzwerke kommen z. B. in der Gebäudeautomatisierung oder Gesundheitsüberwachung aus der Ferne zum Einsatz. Heute erfordern die eingebetteten Systeme noch viel manuelle Programmierung, bevor sie in übergreifende Prozessanwendungen eingesetzt werden können. Die Autoren stellen eine Erweiterung der BPMN vor, die eine integrierte Modellierung von Prozessen erlaubt, die über drahtlose Sensornetzwerke und herkömmliche Process Engines verteilt sind.
    Nicht die Integration von Geräten, sondern die Menschen stehen im Mittelpunkt des nächsten Beitrags. Darin geht es um die Entwicklung von Belohnungs- und Anreizmechanismen für die Beteiligung an gemeinsamen Aktivitäten im Social BPM. Die Autoren entwickeln einen Ansatz zum systematischen Aufbau von Regeln zur Ermittlung der von den beteiligten Akteuren ausgeführten Aktivitäten, sowie zum Festlegen und Gewähren der jeweiligen Belohnung.
  • Prozessmodell-Analyse
    Aus dem Haus IBM Research stammt eine Arbeit über zusammenführende inklusive Gateways (OR-Gateways) in Prozessmodellen. Bei solchen inklusiven Zusammenführungen mehrerer Pfade muss je nach Fall auf unterschiedlich viele Eingänge gewartet werden. Es kann recht aufwändig sein, festzustellen, über wie viele eingehende Kanten noch eine Aktivierung erfolgen kann. Die Autoren haben einen Algorithmus entwickelt, um zusammenführende inklusive Gateways durch Kombinationen von exlusiven (XOR) und parallelen (AND) Gateways zu ersetzen. Dabei konnten sie beweisen, dass dies für manche Fälle prinzipiell nicht möglich ist. Dies erschwert etwa die automatische Überführung in andere Notationen zu Analysezwecken, z. B. in Petri-Netze.
    Zwei Freiburger Forscher haben einen neuen Algorithmus entwickelt und implementiert, mit dem komplexe Prozessmodelle auf Basis von Petri-Netzen binnen Millisekunden auf Erreichbarkeit überprüft werden können, d. h. es wird festgestellt, ob es Zweige in einem Modell gibt, die aufgrund der Bedingungen an den verschiedenen Verzweigungen überhaupt nicht durchlaufen werden können.
  • BPM und die Cloud
    Der erste Beitrag führt den den Begriff „Process Clouds“ im Titel. Da denkt man erst einmal an Cloud Computing. Allerdings haben die „Prozesswolken“ gar nichts damit zu tun. Es handelt sich vielmehr um eine Erweiterung der BPMN-Notation für das Case Management. Ein Wolkensymbol steht dort, wo keine genaue Reihenfolge von Aktivitäten mehr vordefiniert werden kann. Stattdessen enthält eine Prozesswolke eine Agenda mit den zu erledigenden Aufgaben sowie verwendete und zu erzeugende Artefakte. Zudem können Templates mit bewährten Vorgehensweisen verwendet werden, die aber nicht verbindlich sind.
    Der zweite  Beitrag dieses Themenblocks handelt tatsächlich von BPM in der Cloud. Ein französisches Forscherteam präsentiert einen Ansatz wie man Elastizität auf der Ebene von Service-basierten Prozessen (Service Based Business Processes, SBP) erreicht. Cloud computing-Angebote auf der Plattformebene (Platform as a Service, PaaS) sind meist elastisch, d. h. für den Nutzer je nach Ressourcenbedarf gut skalierbar. Auf der Ebene automatisierter Prozesse ist diese Skalierbarkeit so meist nicht gegeben. Diese ist auch nicht ganz einfach zu erreichen, da sich die entstehende Last und die Performance erst durch das Zusammenspiel zahlreicher Services ergeben. Die Autoren zeigen Skalierungs-Strategien auf Prozessebene auf und entwickeln ein Framework, das Anbieter als Grundlage für die Implementierung verwenden können.
  • Anforderungen und Performance
    Ein chinesisch-australisches Team untersuchte Abhängigkeiten zwischen verschiedenen, in Form von Prozessmodellen dokumentierten Anforderungen. Die Kenntnis solcher Abhängigkeiten ist nützlich, um die Auswirkungen von Änderungen abschätzen zu können. Das Team stellte fest, dass bestimmte Workflow Patterns mit bestimmten Arten von Abhängigkeiten zusammenhängen. Die Teilnehmer einer Fallstudie konnten solche Abhängigkeiten besser identifizieren, wenn Prozessmodelle vorlagen, als wenn sie nur Anforderungen in Form von Text zur Verfügung hatten.
    Bei wissensintensiven, wenig vorstrukturierbaren Prozessen spielt das implizite Wissen der Beteiligten eine wichtige Rolle. Eine Möglichkeit das implizite Wissen explizit zu machen, besteht darin, den Beteiligten nur ihre Ziele vorzugeben und dann aufzuzeichnen, was sie konkret tun. Zwei Forscher aus Lissabon entwickelten einen Empfehlungsalgorithmus, der diese Aufzeichnungen nutzt um den Beteiligten bei späteren Durchführungen desselben Prozesses Vorschläge zu machen.
    Der dritte Beitrag in diesem Themenblock behandelt die Definition von Prozesskennzahlen auf Basis von Vorlagen zur einheitlichen Beschreibung der Kennzahlen und ihrer Ermittlung. Die Formulierungen zum Ausfüllen dieser Vorlagen folgen bestimmten Satz-Schablonen, so dass eine einheitliche und eindeutige Spezifikation entsteht.
  • Process Mining
    Wie schon beim Thema Compliance und Conformance, wo auch häufig Process Mining-Technologien zum Einsatz kamen, stammen die meisten Artikel zu diesem Themenblock wieder von der TU Eindhoven. So wurde beispielsweise untersucht, wie man gegebene Prozessmodelle mit Hilfe von Process Mining reparieren kann. Das bedeutet, ein Modell wird so geändert, dass es den tatsächlich beobachteten Ablauf umfasst und gleichzeitig möglichst wenige Änderungen gegenüber dem Ausgangsmodell aufweist.
    Suchen und Abfragen in großen Prozessmodellsammlungen können ziemlich rechenaufwändig sein. Dies kann mit Hilfe sogenannter Feature-Nets verbessert werden. Hierbei werden Modellausschnitte, zu Features zusammengefasst, z. B. solche Ausschnitte, die ein bestimmtes Workflow Pattern repräsentieren.
    Ein weiterer Beitrag zum Thema Compliance-Überprüfungen stellt ein umfassendes Framework vor, das eine Vielzahl von formalisierten Regeln enthält, die auf die tatsächlich beobachteten Abläufe angewandt werden können und auch eine Quantifizierung der Compliance und die Diagnose von Abweichungen ermöglichen. Die Regeln, die erweitert werden können, beschränken sich nicht nur auf die reinen Abläufe. Sie können sich auch auf Daten und Ressourcen beziehen.
    Der letzte Beitrag dieses Themenblocks stammt nicht aus Eindhoven, sondern aus dem französischen Clermont-Ferrand. Darin wird ein neues Verfahren für die Korrelation von gemessenen Ereignissen für das Process Mining vorgestellt. Hierbei muss eine Vielzahl von gemessenen Einzelereignissen ausgewertet werden, um z. B. die zu einer Prozessinstanz gehörenden Ereignisse einander zuzuordnen. Das neue Verfahren ist besonders gut für sehr große Datenmengen geeignet.
  • Refaktorisierung und Optimierung
    Ein australisches Team untersuchte Möglichkeiten zur Spezialisierung von Prozessen. Um Prozesse und Prozessmodelle wiederverwenden zu können, können einander ähnliche Prozessmodelle als Spezialisierungen eines allgemeineren Modells aufgefasst werden. Die Autoren untersuchen wie man dies bei der Verwendung Artefakt-zentrierter Prozessmodelle erreichen kann. Im Gegensatz zu herkömmlichen Prozessmodellen, bei denen die Aktivitäten und ihre Reihenfolgen im Vordergrund stehen, werden hierbei die bearbeiteten Artefakte (wie z. B. Geschäftsobjekte) ins Zentrum gestellt. Es wird ein Framework vorgestellt, mit dessen Hilfe man ein spezialisiertes Modell aus einem allgemeineren Modell ableiten und die Konsistenz zwischen beiden sicherstellen kann.
    Es folgt ein Beitrag über das Auffinden von Duplikaten in großen Prozessmodellsammlungen. Zwar gibt es hierfür bereits Verfahren, doch beschränken sich diese meist darauf, exakte Kopien von Prozessmodellausschnitten zu finden. Der vorgestellte Ansatz findet Duplikate auch dann, wenn sie nur näherungsweise übereinstimmen.
    Der darauf folgende Beitrag löst ein ähnliches Problem, es geht um das Vergleichen von Modellen. Dabei sollen die einander entsprechenden Aktivitäten der verglichenen Modelle automatisch zugeordnet werden. Hierfür werden semantische Technologien und probabilistische Optimierung eingesetzt.
    Ein weiterer Beitrag zum Thema Modellvergleich beschäftigt sich damit, wann zwei modellierte Prozesse in ihrem Verhalten äquivalent sind. Das vorgestellte Verfahren basiert auf dem Nebenläufigkeits-Verhalten der verglichenen Prozesse.

Alistair Barros, Avigdor Gal, Ekkart Kindler (Hrsg.):
Business Process Management
10th International Conference, BPM 2012
Tallinn, Estonia, September 2012
Proceedings, Springer
Das Buch bei amazon

Kategorie: Allgemein, BPM, BPMN, Modellierung Ein Kommentar »

Vorheriger Beitrag: Aufruf zur Teilnahme an BPMN-Studie
Nächster Beitrag: BPMN 2012: Tools und Erweiterungen

Eine Reaktion zu “Blick in die Wissenschaft: Beiträge der BPM-Konferenz 2012”

  1. Martin Bartonitz

    Vielen Dank, Herr Allweyer, für diese schöne Zusammenfassung der aktuellen BPM-Forschungswelt.
    Zu Ihrem zwieten Punkt „Conformance und Compliance“ möchte ich noch kurz den Hinweis auf die kommende 4. Veranstaltung der BPM Offensive Rhein.Ruhr geben. Diese wird genau zu diesem Thema stattfinden:
    http://bpmrr.wordpress.com/2012/06/17/uberblick-uber-die-nachsten-veranstaltungen/
    VG Martin Bartonitz