Granularität als kognitiver Faktor in der adaptiven Wiederverwendung von Geschäftsprozessmodellen vorgelegt von Diplom-Ingenieur Oliver Holschke aus Berlin von der Fakultät IV – Elektrotechnik und Informatik der Technischen Universität Berlin zur Erlangung des akademischen Grades Doktor der Ingenieurwissenschaften - Dr.-Ing. - genehmigte Dissertation Promotionsausschuss: Vorsitz: Erstgutachter: Zweitgutachter: Prof. Dr. Volker Markl Prof. Dr. Hermann Krallmann Prof. Dr. Jan Mendling Tag der wissenschaftlichen Aussprache: 21. Oktober 2011 Berlin 2011 D 83 Inhaltsverzeichnis Abbildungsverzeichnis iv Tabellenverzeichnis vi Abkürzungsverzeichnis vii 1. Einleitung 1.1. Motivation . . . . . . 1.2. Forschungsfragen . . 1.3. Forschungsmethodik 1.4. Beitrag der Arbeit . 1.5. Struktur der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Geschäftsprozessmodellierung in der Informationssystemgestaltung 2.1. Gestaltung von Informationssystemen und Geschäftsprozessmanagement 2.1.1. Gestaltungsaktivitäten in Informationssystemen . . . . . . . . . . 2.1.2. Geschäftsprozessmanagement . . . . . . . . . . . . . . . . . . . . 2.2. Geschäftsprozessmodelle in der Informationssystemgestaltung . . . . . . 2.2.1. Modellbegriff und Geschäftsprozessmodellierung . . . . . . . . . . 2.2.2. Prozessmodellbasierte Systementwicklung . . . . . . . . . . . . . 2.2.3. Qualität von Geschäftsprozessmodellen . . . . . . . . . . . . . . . 2.3. Wiederverwendungsebenen der Prozessmodellierung . . . . . . . . . . . . 2.3.1. Wiederverwendung von Artefakten . . . . . . . . . . . . . . . . . 2.3.2. Konstruktebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3. Assistenzartefaktebene . . . . . . . . . . . . . . . . . . . . . . . . 2.3.4. Modellebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Wiederverwendung von Geschäftsprozessmodellen 3.1. Vorgänge der Geschäftsprozessmodellwiederverwendung . . . . . . 3.1.1. Wiederverwendungsprozess . . . . . . . . . . . . . . . . . . 3.1.2. Rollen und Repositories . . . . . . . . . . . . . . . . . . . . 3.1.3. Szenarien der Prozessmodellwiederverwendung . . . . . . . 3.2. Kognitive Bestimmungsgrößen der Prozessmodellwiederverwendung 3.2.1. Kognitionstheoretische Einordnung . . . . . . . . . . . . . . 3.2.2. Domänen- und Modellierungswissen . . . . . . . . . . . . . 3.2.3. Externe Aufgabenrepräsentation . . . . . . . . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . 1 . 1 . 6 . 8 . 11 . 14 . . . . . . . . . . . . 16 17 17 22 26 26 31 35 45 46 50 51 55 . . . . . . . . 60 62 62 67 72 75 76 82 86 3.2.4. Mentale Repräsentation der Prozessmodelladaption . . . . . . . . . 98 3.2.5. Entscheidungsprozesse in der Prozessmodellwiederverwendung . . . 104 3.3. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 4. Anpassungsheuristiken in der Prozessmodellwiederverwendung 4.1. Adaptive Prozessmodellwiederverwendung . . . . . . . . . . 4.2. Ankereffekte in der Prozessmodellwiederverwendung . . . . 4.3. Anker und Granularität . . . . . . . . . . . . . . . . . . . . 4.3.1. Adaption von Omission-Anchors . . . . . . . . . . . 4.3.2. Adaption von Extraneous-Anchors . . . . . . . . . . 4.4. Formalisierung der Prozessmodellgranularität . . . . . . . . 4.4.1. Granularitätsauffassungen . . . . . . . . . . . . . . . 4.4.2. Konzepte der Prozessmodellgranularität . . . . . . . 4.5. Hypothesen zu Wirkungen auf die Modellierungsperformanz 4.5.1. Wirkung auf Adaptionsperformanz . . . . . . . . . . 4.5.2. Wirkung auf semantische Qualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 113 116 119 122 123 124 125 126 137 137 144 5. Forschungsmodell und Untersuchung 5.1. Zieldefinition . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Untersuchungsplanung . . . . . . . . . . . . . . . . . . . . 5.2.1. Operationale Hypothesen . . . . . . . . . . . . . . 5.2.2. Unabhängige Variable: Granularität/Anchoringtyp 5.2.3. Unabhängige Variable: Anwendungsdomäne . . . . 5.2.4. Abhängige Variablen . . . . . . . . . . . . . . . . . 5.2.5. Kontrollierte Variablen . . . . . . . . . . . . . . . . 5.2.6. Experimentdesign . . . . . . . . . . . . . . . . . . . 5.3. Experimentdurchführung . . . . . . . . . . . . . . . . . . . 5.3.1. Vorbereitung . . . . . . . . . . . . . . . . . . . . . 5.3.2. Experimenteller Ablauf . . . . . . . . . . . . . . . 5.4. Ergebnisanalyse . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1. Deskriptive Statistik . . . . . . . . . . . . . . . . . 5.4.2. Test der Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 151 152 153 156 159 161 166 173 175 175 176 178 178 185 6. Diskussion 6.1. Ergebnisdiskussion . . . . . . . . . . . . . . . . . 6.2. Implikationen für die Wissenschaftsgemeinschaft 6.3. Implikationen für die betriebliche Praxis . . . . . 6.4. Gefährdung der Validität . . . . . . . . . . . . . 6.4.1. Diskussion der internen Validität . . . . . 6.4.2. Diskussion der externen Validität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 191 194 197 198 198 200 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Zusammenfassung und Ausblick 203 7.1. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 7.2. Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 ii Anhang 209 A. Modellierungsaufgaben 210 A.1. Prozessbeschreibung für „Supplier switch“ . . . . . . . . . . . . . . . . . . 210 A.2. Prozessbeschreibung für „SLA violation“ . . . . . . . . . . . . . . . . . . . 213 B. Wiederverwendungsmodelle 216 C. Lösungsbeispiele 221 Literaturverzeichnis 228 iii Abbildungsverzeichnis 1.1. 1.2. 1.3. 1.4. Adaptive Wiederverwendung eines Prozessmodells . . . . . . . . From-scratch-Modellierung vs. Prozessmodellwiederverwendung Information Systems Research Framework . . . . . . . . . . . . Aufbaustruktur der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . 5 . 9 . 15 2.1. Aktivitäten der organisatorischen und informationstechnischen Gestaltung 2.2. Business Process Management Life Cycle . . . . . . . . . . . . . . . . . . . 2.3. Workflow-Referenzmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. BDD-Lebenszyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Das SEQUAL-Framework . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Qualitätsmodell der aktiven Prozessmodellierung . . . . . . . . . . . . . . 2.7. Ebenen der Artefaktwiederverwendung . . . . . . . . . . . . . . . . . . . . 2.8. Wiederverwendungsphilosophien . . . . . . . . . . . . . . . . . . . . . . . 2.9. Nutzerinteraktion um passendes Prozessmodellfragement aufzufinden . . . 2.10. Modifikation von versus Orientierung an Wiederverwendungsmodell . . . . 2.11. Wiederverwendung eines Prozessmodells per Spezialisierung . . . . . . . . 3.1. Schematische Übersicht der wiederverwendungsbasierten Prozessmodellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Prozess der Geschäftsprozessmodellwiederverwendung . . . . . . . . . . . 3.3. Wiederverwendungstransaktionen des Shared Work Producer . . . . . . . 3.4. Wiederverwendungstransaktionen des Shared Work Practioner . . . . . . . 3.5. Wiederverwendungstransaktionen der sekundären adaptiven Prozessmodellnutzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. Komponenten der Prozessmodellwiederverwendung . . . . . . . . . . . . . 3.7. Erweitertes Cognitive-Fit-Modell . . . . . . . . . . . . . . . . . . . . . . . 3.8. CFT-Konstrukte und Komponenten der Prozessmodellwiederverwendung . 3.9. Spezialisierung des Cognitive-Fit-Modells im Kontext der Prozessmodellwiederverwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.10. Fokus auf externe Aufgabenrepräsentation . . . . . . . . . . . . . . . . . . 3.11. Forschungsmodell zum Einfluss der Modularität auf das Verständnis . . . 3.12. Experimentdesign mit zwei Faktoren Modularisierung und Anwendungsdomäne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.13. Theoretisches Modell der menschlichen Informationsverarbeitung . . . . . iv 20 24 33 34 39 40 47 48 54 56 58 63 68 73 73 74 76 77 79 81 82 95 95 99 4.1. Mengen der Anforderungen (A), nichtgeforderten Elemente (N) und des Lösungsmodells (L) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Wiederverwendungsmodell (W) und sechs Teilmengen der Adaption . . . . 4.3. Mengen der Anforderungen (A), nichtgeforderten Elemente (N) und des Lösungsmodells (L) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Dekomposition des Prozesses „Customer Interface Management“ in Prozesse der Ebene 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Anker im feingranularen (links) und grobgranularen (rechts) Wiederverwendungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Prozess des „Order-to-cash“ mit mehreren Pools . . . . . . . . . . . . . . . 4.7. Beispielhafte Adaption von Omission-Anchors . . . . . . . . . . . . . . . . 4.8. Beispielhafte Adaption von Extraneous-Anchors . . . . . . . . . . . . . . . 4.9. Zwei alternative Partitionen eines Universums 𝑈 . . . . . . . . . . . . . . 4.10. Zwei alternative Partitionierungen eines atomaren Prozessmodells . . . . . 114 115 117 120 121 123 124 125 132 133 5.1. Forschungsmodell der Untersuchung . . . . . . . . . . . . . . . . . . . . . 5.2. Forschungsmodell mit Hypothesen . . . . . . . . . . . . . . . . . . . . . . 5.3. Graphdarstellung des Übergangs von feingranularem Wiederverwendungsmodell zur Ideallösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4. Graphdarstellung des Übergangs von grobgranularem Wiederverwendungsmodell zur Ideallösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5. Zeitablauf der Experimentdurchführungen . . . . . . . . . . . . . . . . . . 5.6. Häufigkeitsverteilung der Adaptionsperformanz für Gfine und Gcoarse . . . 5.7. Häufigkeitsverteilung der Adaptionsperformanz für En und Tel . . . . . . 5.8. Häufigkeitsverteilung der semantischen Qualität für Gfine und Gcoarse . . . 5.9. Häufigkeitsverteilung der semantischen Qualität für En und Tel . . . . . . 5.10. Interaktionsdiagramme für Faktoren G und AD . . . . . . . . . . . . . . . 5.11. Interaktionsdiagramme für Faktoren G und AD . . . . . . . . . . . . . . . 153 156 B.1. B.2. B.3. B.4. Wiederverwendungsmodell Wiederverwendungsmodell Wiederverwendungsmodell Wiederverwendungsmodell C.1. C.2. C.3. C.4. C.5. C.6. Beispielergebnis Beispielergebnis Beispielergebnis Beispielergebnis Beispielergebnis Beispielergebnis Energie+grobgranular Energie+feingranular Telko+grobgranular . Telko+feingranular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 176 179 180 181 182 184 184 . . . . . . . . 217 218 219 220 En+grob, Teilnehmer C_SWI_06 . . . . . . . . . . . . En+fein, Teilnehmer F_SWI_11 . . . . . . . . . . . . . En+keine Wiederverwendung, Teilnehmer M_SWI_06 Tel+grob, Teilnehmer C_SLA_09 . . . . . . . . . . . . Tel+fein, Teilnehmer F_SLA_05 . . . . . . . . . . . . . Tel+keine Wiederverwendung, Teilnehmer M_SLA_04 . . . . . . 222 223 224 225 226 227 v . . . . 172 Tabellenverzeichnis 2.1. Prozessmodellbasierte Softwareentwicklungsansätze . . . . . . . . . . . . . 35 3.1. Anforderungen an ein Geschäftsprozessmodell-Repository . . . . . . . . . 71 3.2. Aufgabenkomplexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3.3. Suchstrategien in Abhängigkeit von der Problemstruktur . . . . . . . . . . 105 5.1. Kodierung des Anchorings . . . . . . . . . . . . . . . . . . . . . . . 5.2. Beispielhafte Anwendung der Anchoring-Maße . . . . . . . . . . . . 5.3. Untersuchungsschema des zweifaktoriellen Plans . . . . . . . . . . . 5.4. Daten aus den Modellierungsergebnissen . . . . . . . . . . . . . . . 5.5. Deskriptive Statistik Granularität vs. Adaptionsperformanz . . . . 5.6. Deskriptive Statistik Anwendungsdomäne vs. Adaptionsperformanz 5.7. Deskriptive Statistik Granularität vs. semantische Qualität . . . . . 5.8. Deskriptive Statistik Anwendungsdomäne vs. semantische Qualität 5.9. Datenschema für die Varianzanalyse . . . . . . . . . . . . . . . . . 5.10. Datenschema mit Zellenmittelwerten . . . . . . . . . . . . . . . . . 5.11. Levene-Test auf Gleichheit der Fehlervarianzen . . . . . . . . . . . 5.12. Tests der Zwischensubjekteffekte . . . . . . . . . . . . . . . . . . . 5.13. Levene-Test auf Gleichheit der Fehlervarianzen . . . . . . . . . . . 5.14. Tests der Zwischensubjekteffekte . . . . . . . . . . . . . . . . . . . 5.15. Mehrfachvergleiche innerhalb des Faktors G . . . . . . . . . . . . . 5.16. Zusammenfassung der Ergebnisse der Hypothesentests . . . . . . . vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 163 175 179 180 181 182 182 183 183 185 185 187 187 188 189 Abkürzungsverzeichnis AD . . . . . . . . . . . . . . . . . Anwendungsdomäne BDD . . . . . . . . . . . . . . . Business-Driven Development BPD . . . . . . . . . . . . . . . . Business Process Diagram BPDM . . . . . . . . . . . . . . Business Process Definition Metamodel BPEL . . . . . . . . . . . . . . Business Process Execution Language BPM . . . . . . . . . . . . . . . Business Process Management BPMA . . . . . . . . . . . . . . Business Process Model Abstraction BPMN . . . . . . . . . . . . . . Business Process Modeling Notation bspw. . . . . . . . . . . . . . . . beispielsweise bzgl. . . . . . . . . . . . . . . . . bezüglich bzw. . . . . . . . . . . . . . . . . beziehungsweise CFT . . . . . . . . . . . . . . . . Cognitive-Fit Theory CIM . . . . . . . . . . . . . . . . Computation Independent Model CLT . . . . . . . . . . . . . . . . Cognitive Load Theory CMR . . . . . . . . . . . . . . . Customer Model Repository DCT . . . . . . . . . . . . . . . . Dual Coding Theory EIP . . . . . . . . . . . . . . . . . Enterprise Integration Pattern En . . . . . . . . . . . . . . . . . . Energie EPC . . . . . . . . . . . . . . . . Event-driven Process Chain EPK . . . . . . . . . . . . . . . . Ereignisgesteuerte Prozesskette eTOM . . . . . . . . . . . . . . enhanced Telecom Operations Map G . . . . . . . . . . . . . . . . . . . Granularität IS . . . . . . . . . . . . . . . . . . Information Systems IT . . . . . . . . . . . . . . . . . . Informationstechnologie ITIL . . . . . . . . . . . . . . . . IT Infrastructure Library MBSE . . . . . . . . . . . . . . Model-based Software Engineering MDA . . . . . . . . . . . . . . . Model-Driven Architecture MDD . . . . . . . . . . . . . . . Model-Driven Development vii OMG . . . . . . . . . . . . . . . Object Management Group OSQ . . . . . . . . . . . . . . . . Overall Semantic Quality PAIS . . . . . . . . . . . . . . . Process-Aware Information Systems PCA . . . . . . . . . . . . . . . . Percentage Correct Adjustments PIM . . . . . . . . . . . . . . . . Platform Independent Model PSM . . . . . . . . . . . . . . . . Platform Specific Model PST . . . . . . . . . . . . . . . . Process Structure Tree RMR . . . . . . . . . . . . . . . Reference Model Repository SCOR . . . . . . . . . . . . . . Supply Chain Operations Reference Model Tel . . . . . . . . . . . . . . . . . Telekommunikation TMF . . . . . . . . . . . . . . . TeleManagement Forum UBL . . . . . . . . . . . . . . . . Universal Business Language usw. . . . . . . . . . . . . . . . . und so weiter vs. . . . . . . . . . . . . . . . . . . versus WfMS . . . . . . . . . . . . . . Workflow Management Systems z.B. . . . . . . . . . . . . . . . . . zum Beispiel viii 1. Einleitung 1.1. Motivation Die Abstraktion eines Prozesses im Sinne einer Abfolge von Aktivitäten ist ein lang bekanntes Konzept, doch erst Mitte der 1990er Jahre fand dieser Begriff verstärkten Einzug in die Managementliteratur und etablierte eine bestimmte Perspektive auf betriebliche Organisationen: die geschäftsprozessorientierte Sicht1 . Diese Sicht betrachtet Unternehmen in erster Linie als eine Menge von zeitlich und sachlogisch abgegrenzten Aktivitäten, die den Geschäftszielen dienliche Ergebnisse erstellen (z.B. Becker u. Kahn 2005; Krallmann u. a. 2007). Ein Modell, das diese Perspektive für eine Unternehmung konsequent einnimmt, ist das Wertkettenmodell von Porter (1985). Es stellt ein Unternehmen als Sammlung von Tätigkeiten dar (unterteilt in Primär - und Unterstützungsaktivitäten), welche Werte schaffen, Ressourcen verbrauchen und in Prozessen miteinander vernüpft sind. Der Unterschied zwischen den Erträgen der Produkte und den eingesetzten Ressourcen ist die vom Unternehmen erwirtschaftete Marge. Neben dieser stark abstrahierten Prozesssicht gibt es weitere differenzierte Externalisierungen des Prozesskonzepts, für die sprachliche Konstrukte entwickelt wurden, mit denen sich wiederum feinere Geschäftsprozessmodelle konstruieren lassen (Kettinger u. a. 1997; Davies u. a. 2006; Recker u. a. 2010). Beispielhafte Definitionen für Geschäftsprozessmodellierungssprachen sind die Event-driven Process Chain (EPC)2 und das Business Process Definition Metamodel (BPDM)3 mit den zugehörigen Notationen4 . Ihre Modelle werden in der Regel als graphische Diagramme visualisiert. Aufgrund der Verbreitung der Geschäftsprozessorientierung in betrieblichen Organisationen ist die Erstellung und Nutzung von Geschäftsprozessmodellen zu einem wichtigen Teil der betrieblichen Kommunikation geworden und hat sich als effektives Mittel der Analyse, Steuerung und Verbesserung von unternehmensinternen sowie -übergreifenden Abläufen erwiesen (Recker u. a. 2010). Die Durchdringung der prozessorientierten Wahrnehmung in Unternehmen spiegelt sich beispielsweise in der großen Abdeckung dokumentierter Geschäftsprozesse5 , in der Institutionalisierung von geschäftsprozessmanagementbezogenen Aufgaben in der organisatorischen Führung6 und in detaillierten, normativen Geschäftsprozessmodellsammlungen wieder, welche erprobte 1 Vgl. z.B. Hammer (1990); Davenport (1993); Earl (1994); Davenport (1995). Ein Metamodell der EPC findet sich bspw. in Becker u. a. (2004). 3 OMG (2008). 4 Übersichten über verschiedene Prozessmodellierungssprachen finden sich bspw. in Aguilar-Savén (2004); Workflow Patterns Initiative (2010); Recker u. a. (2010). 5 Vgl. z.B. OASIS Universal Business Language (UBL) TC (2006). 6 Vgl. z.B. van der Aalst u. van Hee (2004); Schaffhauser (2010). 2 1 Prozessmodelle für spezifische Kontexte, z.B. bestimmte Wirtschaftszweige oder organisatorische Funktionsbereiche, konsolidieren und am Markt verfügbar machen und die von den entsprechenden Unternehmen regelmäßig angewandt werden7 . Immer stärker stellt die prozessorientierte Sicht auch in der Softwareentwicklung eine wichtige Ausgangsperspektive dar, um die adäquate informationstechnische Unterstützung von betrieblichen Abläufen zu realisieren (Koehler u. a. 2006; Kindler 2009). Durch die zunehmende Anzahl von erstellten Prozessmodellen und durch das reifende Verständnis in Bezug auf ihre Konstruktion und effektive Nutzung erwächst dieses externalisierte Prozesswissen zu einer wichtigen Ressource der Organisation, deren Pflege und Management zu einer unternehmenskritischen Aufgabe wird. Der wissensbasierten Sicht auf die Unternehmung8 zufolge bilden wissensbasierte Ressourcen – dies schließt Geschäftsprozessmodelle explizit mit ein – und entsprechende Fähigkeiten, diese Ressourcen zu nutzen und weiterzuentwickeln die entscheidende Basis für nachhaltige Vorteile im Wettbewerb und überdurchschnittliche unternehmerische Performanz (siehe auch Cyert u. March (1963)). Eine zentrale Fähigkeit der Wissensverwendung und -weiterentwicklung stellt die Wiederverwendung von aufbereitetem Wissen im allgemeinen und Geschäftsprozessmodellen im besonderen dar. Die Möglichkeit ein Artefakt in einem anderen als dem ursprünglichen Kontext wiederzuverwenden kann substanzielle Einsparungen von Zeit und Aufwand in Entwicklungsprojekten verschiedenster Art bedeuten (z.B. Boehm 1999). Neben einer erhöhten Konstruktionsgeschwindigkeit, welche die time-to-market bei Produkt- bzw. Prozessumstellungen verringert, kann darüber hinaus auch eine höhere Modellqualität erzielt werden (durch Vermeidung von Fehlern) (Frank 2007, S. 127). Diese Vorteile werden mindestens seit der Wiederverwendung von Konstruktionsplänen im Pyramidenbau des alten Ägyptens ausgenutzt und stellen einen entscheidenden Faktor in der Begünstigung zivilisatorischen Fortschritts im Allgemeinen dar (Verner 2001; Sutcliffe 2002). Dieser attraktive Vorteil ist jedoch nicht garantiert, da individuelle Anwendungsszenarien eigene spezielle Anforderungen aufweisen, die nicht alle in generalisierter Form von einem wiederverwendbaren Modell aufgenommen werden können. Die Wiederverwendung würde daher spezifische Modifikationen oder Adaptionen erfordern, welche mit Aufwand verbunden sind. In Abbildung 1.1 ist eine Wiederverwendung unter Durchführung spezifischer Modifikationen am wiederverwendeten Prozessmodell für einen Lagerentnahmeund Lieferprozess einer produzierenden Arbeitsorganisation beispielhaft illustriert (vgl. Pant u. Juric 2008, S. 78-80). Hier erkennt man, dass bestimmte Aktivitäten zu grobgranular – d.h. zu viele Details verbergend – für die gegebenen Zwecke sind (oberes Diagramm) und deshalb durch Einfügungen detaillierterer Aktivitäten verfeinert werden (unteres Diagramm). Dies erfolgt beispielsweise bei der Anpassung der Aktivität „Goods Packaging“ hin zu feineren Aktivitäten „Acquire package“ und „Pack“. Weitere Beispiele für andere Anpassungen sind ableitbar, z.B. wenn ein Wiederverwendungsmodell zwar eine zum betrachteten betrieblichen Ausschnitt passende Ganularität aufweist, aber ei7 8 z.B. TM Forum (2008); Holten u. Melchert (2002). Vgl. hierzu die Knowledge-based Theory of the Firm (Nonaka u. Takeuchi 1995). 2 Warehouse Quality manager Goods acquisition Goods packing No Delivery service selection Yes Quality OK? Delivery services Production organization Order request Goods shipment Order request Goods acquisition Delivery services Warehouse Reservation confirmation Acquire goods from warehouse Refresh stock Delivery notification Goods packing Acquire package Pack No Quality manager Production organization Reserve goods Check quality Delivery service selection Yes Form Delivery service request Send Delivery service request Quality OK? Goods shipment Deliver Analyze delivery service offers Send package through selected Delivery service Delivery notification Notify sender Abbildung 1.1.: Adaptive Wiederverwendung eines Prozessmodells (vgl. Pant u. Juric 2008, S. 78-80) nige darüber hinausgehende, irrelevante Informationselemente enthält, die im Zuge der Anpassung gelöscht werden müssen. 3 Der im Zuge der Modifikation entstehende Anpassungsaufwand kann potenziell jegliche initiale Einsparung durch die Wiederverwendung wieder nivellieren und sogar überkompensieren. Würde das Wiederverwendungsmodell alternativ die vielen sehr speziellen Anforderungen aufnehmen, könnten nur noch wenige Anwendungskontexte adressiert werden, was der Grundidee einer breiten Wiederverwendung am „Markt“ zuwiderläuft. Das Dilemma der Wiederverwendung von Artefakten wie Konstruktionsplänen, SoftwareDesigns und auch Geschäftsprozessmodellen ist, dass Flexibilitätsanforderungen und breite Einsatzmöglichkeiten einerseits den Anforderungen einer ergonomischen Nutzung (d.h. ohne aufwändige Anpassungen bzw. Weiterentwicklungen) andererseits entgegenstehen. Das große Ziel von wiederverwendungsorientierten Systemgestaltungsansätzen ist es daher, einen ökonomisch stabilen Kompromiss zwischen diesen gegenläufigen Anforderungen zu finden (Sutcliffe 2002, S. 6). Kognitive Aspekte spielen bei der Wiederverwendung von visuellen Diagrammen im allgemeinen und Geschäftsprozessmodellen im besonderen eine tragende Rolle (Green u. Petre 1996; Gruhn u. Laue 2006; Siau u. Rossi 2007). Wenn sich Modellierer einer Prozessgestaltungsaufgabe gegenübersehen, sind sowohl der Wahrnehmungsapparat, als auch das Gedächtnis involviert. Die Gedächtnisfunktionen sind im Kontext der Modellwiederverwendung notwendig, um sich überhaupt an die Existenz und den Ort eines wiederverwendbaren Modells erinnern zu können. Nach der Auswahl eines geeignet erscheinenden Modells muss beurteilt werden, inwieweit das Wiederverwendungsmodell die Anforderungen der Gestaltungsaufgabe abdeckt. Dies erfordert Wiedererkennungsfähigkeiten für korrespondierende Inhalte und Anpassungsmaßnahmen im Falle von irrelevanten bzw. zu modifizierenden Modellelementen. Insbesondere in diesem Schritt des Vergleichens und der Adaption stellt sich die Frage, welche kognitiven Mechanismen menschliche Modellierer einsetzen und welche kognitiven Aufwände dabei entstehen. Letztere sind bestimmend für die Vorteilhaftigkeit des konkreten Wiederverwendungsszenarios. Eine hervorzuhebende Eigenschaft kognitiver Mechanismen ist, dass die menschliche Rationalität bei der Entscheidungsfindung gewissen Beschränkungen unterliegt. Diese Beobachtung, dass menschliches Entscheidungsverhalten durch kognitive Bias beeinflusst wird, geht u.a. auf Arbeiten von Tversky u. Kahneman (1974) zurück, wobei in verschiedenen Experimenten Verzerrungen beispielsweise auf Basis von Anchoring, Priming, falschen Prioritäten u.a. gezeigt werden konnten9 . Kognitive Bias in der Informationssystemgestaltung werden erst seit wenigen Jahren tiefergehender untersucht. Es kann angenommen werden, dass kognitive Bias auch bei der Wiederverwendung von visuellen Modellen bestehen, welche die Qualität der Lösungen beeinträchtigen können. Ein wichtiger kognitiver Bias ist der Anker- und Anpassungseffekt (engl. Anchoring and Adjustment Bias). Es bestehen Hinweise darauf, dass es auf die Art der Anker ankommt, ob die resultierenden Ankereffekte schwach oder stark ausgeprägt sind (Allen u. Parsons 2010). Die Ankerart steht im Zusammenhang mit der Granularität von Prozessmodellen, da bestimmte Granularitäten typischerweise spezifische Anpassungsaktivitäten erfordern (z.B. Elemente einfügen im Gegensatz zu Elemente löschen). Ein besseres Verständnis 9 Vgl. auch Kahneman u. Tversky (1979). 4 New Task: Design a process model for the business process in the present domain 1. Business process domain Created process model Performance aspects Mental representations  2. Efficiency and effectiveness improvements Reusable process models Abbildung 1.2.: From-scratch-Modellierung vs. Prozessmodellwiederverwendung dieser kognitiven Aspekte kann dazu beitragen, die Aufbereitung und Repräsentation von Geschäftsprozessmodellen für den Zweck der effektiven und effizienten Wiederverwendung mit konkreten Designvorgaben zu gestalten. Die vorliegende Arbeit geht daher der Frage nach, wie sich repräsentative Eigenschaften von Geschäftsprozessmodellen, insbesondere die der Granularität, vor dem Hintergrund begrenzter kognitiver Fähigkeiten von Modellierern auf den adaptiven Wiederverwendungsprozess bei der Geschäftsprozessmodellkonstruktion auswirken. Die Ergebnisse sollen einen Beitrag dazu leisten, die Rolle der Granularität von wiederverwendeten Prozessmodellen in Prozessmodellierungsaufgaben im Sinne eines Cognitive Fit 10 (der „Fit“ zwischen mental gebildeten Repräsentationen von wiederverwendetem Modell und Konstruktionsaufgabe) näher zu charakterisieren. Diese Arbeit konzentriert sich auf die Phasen des konzeptuellen Designs und der Konstruktion von Prozessmodellen im Rahmen von Gestaltungsprozessen IT-gestützter Organisationen. Diese Phasen sind für Organisationen besonders entscheidend, wenn unternehmensweit Konzepte abgestimmt werden müssen, um steuerbare Geschäftsprozesse zu etablieren und die Interoperabilität der informationstechnischen Systeme zu gewährleisten. Diese Phasen erfordern das Erfassen von Benutzeranforderungen in einer Repräsentation, die zunächst unabhängig ist von der konkreten Implementierung. Dafür müssen Benutzeranforderungen verstanden und modelliert werden. Dies ist eine Aufgabe, die Expertenwissen erfordert, da Anforderungen oft unvollständig bleiben und sich schwer artikulieren lassen (Purao u. a. 2003). Weiterhin gibt es Konfliktpotential aufgrund von unterschiedlichen Interpretationen der einzelnen Stakeholder und andere Einflüsse wie politische Faktoren, soziale Faktoren, unterschiedliche Machtverteilungen, und nicht zuletzt fehlendes Verständnis aufgrund mangelnder Unterstützung durch pragmatische Ar10 Vgl. dazu Vessey u. Galletta (1991). 5 tefakte. All diese Faktoren stören den Aufbau eines gemeinsamen Verständnisses und die unternehmensweite Übernahme von prozessbezogenen Konzepten. Ansätze, welche die Phasen der konzeptuellen Gestaltung unterstützen haben somit das Potenzial, für betriebliche Organisationen sehr nützlich zu sein (Purao u. a. 2003). 1.2. Forschungsfragen Der Gegenstandsbereich des Erkenntnisinteresses wird näher expliziert, um die genauen Forschungsfragen darlegen zu können. Auf drei Ebenen ist der Untersuchungsfokus entsprechend einzugrenzen: 1) auf Ebene der betrachteten Modellierungsdomäne, 2) auf Ebene der Art des betrachteten Modellkonstruktionsprozesses und 3) auf Ebene der möglichen Einflussfaktoren auf die Modellergebnisqualität. Eine wichtige Eingrenzung erfolgt zunächst über die Ebene der betrachteten Modellierungsdomäne. Die Arbeit fokussiert primär die Modellierung von Phänomenen der Geschäftsprozessdomäne, also Prozessmodelle. Die Differenzierung dynamischer Modelle von anderen modellierbaren Phänomenen (z.B. statische Modelle wie Entity-Relationship-Diagramme) ist wichtig, da im Hinblick auf die Durchführung von Anpassungen im Zuge der adaptiven Wiederverwendung unterschiedliche Reaktionen bei Modellierern hervorgerufen werden könnten, die auf die verschiedenen Betrachtungsgegenstände zurückzuführen sind. Eine weitere Spezifität des Gegenstandsbereichs ist durch die Art des betrachteten Modellkonstruktionsprozesses gegeben. Diese ist durch die systematische Wiederverwendung von Prozessmodellen innerhalb des Modellkonstruktionsprozesses bestimmt. Diese Art der Konstruktion stellt eigene Anforderungen an kognitive Kapazitäten von Modellierern, auszuführende Aktivitäten und benötigte Softwaresysteme und ist klar von Modellierungsansätzen zu differenzieren, die explizit ohne verfügbare und wiederverwendbare Modelle angewandt werden (d.h. from-scratch11 ). Die dritte Eingrenzung wird auf Ebene der möglichen Einflussfaktoren auf die Modellergebnisqualität vorgenommen. Die vorliegende Arbeit nähert sich der Auffassung einer pragmatischen, unterstützenden Qualität von Wiederverwendungsmodellen in Entwicklungsprozessen. Neben vielen identifizierten, wahrnehmungsrelevanten Faktoren von Prozessmodellen wird hier eine spezielle Eigenschaft untersuchungstechnisch fokussiert, die Prozessmodellgranularität, da sie eng verknüpft ist mit der Vorstellung von mentalen Repräsentationen von Modellierern und deshalb Effekte als Reaktion auf Granularitätsvariationen zu erwarten sind. Zudem liegen diesbezüglich kaum belastbare Forschungsergebnisse vor, was einen explorativen Untersuchungsansatz nahelegt. Auf der Grundlage dieses stärker explizierten Gegenstandsbereichs können nun genauere Forschungsfragen formuliert werden. F1. Können wiederverwendungsorientierte Prozessmodellierungsansätze bei der Bearbeitung von Prozessgestaltungsaufgaben gegenüber From-scratch-Ansätzen, bei denen von Grund auf modelliert wird, überhaupt zu Effektivitäts- und Effizienzvorteilen führen? Falls dies möglich ist, wäre es interessant, die Bedingungen, die hierbei herrschen, 11 dt. von Grund auf, bei Null anfangen. 6 näher zu charakterisieren. F2. Im Fall realisierbarer Vorteile der Prozessmodellwiederverwendung bedeutet dies, dass verschiedene wiederverwendbare Prozessmodelle vermutlich auch unterschiedlich gute Unterstützung leisten. Darauf stützt sich die Frage nach der Auffassung von pragmatischer Qualität von wiederverwendbaren Prozessmodellen. Die besondere Vorgehensweise der Modellentwicklung durch Wiederverwendung verlangt vermutlich einen besonderen Begriff der „Unterstützungsqualität“ von wiederverwendbaren Prozessmodellen. Existierende Frameworks für Prozessmodellqualität müssten hierfür entsprechend neu interpretiert bzw. bei Bedarf erweitert werden. F3. Wie gehen Modellierer mit Wiederverwendungsmodellen in der Prozessmodellerstellung um? Wie ist das Adaptionsverhalten von Modellierern in Bezug auf das wiederverwendete Prozessmodell und die zu leistende Aufgabe zu charakterisieren? Welche konkreten Anpassungsoperationen werden in wiederverwendeten Prozessmodellen vorgenommen und welche nicht? F4. Im Kontext der Artefaktwiederverwendung in Systementwicklungsprozessen treten oft Anker- und Anpassungseffekte auf, die auf kognitiven Bias beruhen. Es ergibt sich die Frage, ob solche Effekte auch in der Prozessmodellwiederverwendung zu beobachten sind? Oder sind diese Effekte vernachlässigbar klein und spezifische kognitive Bias müssen in Aufgaben der Prozessmodellwiederverwendung nicht weiter berücksichtigt werden? F5. Welche Rolle nimmt die Granularität von wiederverwendeten Prozessmodellen ein in Bezug auf beobachtbares Adaptionsverhalten und die Ausprägung der Ergebnisqualität? Welche Effekte werden evtl. durch bestimmte Granularitätsniveaus hervorgerufen? Rufen bestimmte Granularitätsniveaus bzw. Verteilungen von Ankern in den wiederverwendeten Modellen evtl. unterschiedliche Verhaltensweisen bzgl. der notwendigen Anpassung des Prozessmodells hervor? Eine nähere Bestimmung von Zusammenhängen könnte zu einer weiteren Operationalisierung der Unterstützungsqualität von wiederverwendbaren Prozessmodellen beitragen. F6. Wie robust sind die beobachtbaren Effekte bzgl. Adaptionsverhalten und Prozessmodellqualität? Sind die Effekte auch in unterschiedlichen Anwendungskontexten mit ähnlicher Ausprägung zu beobachten oder kommt es zu zufällig erscheinenden Verteilungen? Die formulierten Forschungsfragen leiten den weiteren Untersuchungsprozess und dienen als Ausgangspunkt für die Aufstellung detaillierter hypothetischer Aussagen im Rahmen eines Forschungsmodells, die sich operationalisieren lassen und somit empirisch überprüft werden können. 7 1.3. Forschungsmethodik Als Ordnungsrahmen für die systematische Untersuchung der Forschungsfragen, die bzgl. der adaptiven Prozessmodellwiederverwendung formuliert werden, wird das Information Systems Research Framework (IS Research Framework) nach Hevner u. a. (2004) herangezogen. Das IS Research Framework soll im Folgenden kurz skizziert werden. Im Anschluss daran wird das forschungsmethodische Vorgehen dieser Arbeit unter Bezug auf das IS Research Framework erläutert, woraus die wesentlichen prozeduralen Schritte der systematischen Beantwortung der eingangs formulierten Forschungsfragen ersichtlich werden. Das IS Research Framework legt die Hauptbestandteile und wechselseitigen Beziehungen des Forschungsprozesses für die Informationssystemdomäne fest. Die wesentlichen Fragestellungen des IS Research ergeben sich aus den betrieblichen Anforderungen von Informationssystemen bzw. IT-gestützten Arbeitssystemen und deren Umwelt. Die Verknüpfung der Forschungsfragen mit diesen betrieblichen Anforderungen sorgt dafür, dass der Forschungsansatz immer ein ausreichendes Maß an praktischer Relevanz aufweist. Die betriebliche Umwelt wiederum lässt sich in die Dimensionen Mensch, Organisation und Technologie unterteilen. Durch betriebliche Anforderungen begründete Forschungsfragen stoßen dann einen Entwicklungsprozess an. Dieser Prozess kann zu Ergebnissen von stärker theoretischem Charakter führen, wie ganzen Theorien oder erklärenden Modellen 12 . Der Entwicklungsprozess umfasst aber auch die Konstruktion von praktischen Artefakten wie z.B. Methoden oder instanziierte Software bzw. Hardware. Beide Ergebnisfacetten stiften einen potenziellen Nutzen für Informationssysteme. Letztere kann durch ihre unmittelbare Einsetzbarkeit in den Arbeitsprozessen eine direkte Prozessverbesserung bewirken, während erstere Facette zunächst das tiefere Verständnis von Mechanismen in Informationssystemen ermöglicht, welches wiederum die neue Konstruktion und Gestaltung von operativ einsetzbaren Artefakten initiieren kann. Beiden Ergebnistypen ist jedoch gemein, dass ihnen ein konstruktiver Prozess zugrunde liegt. Die entwickelten Artefakte entstehen dabei nicht im leeren Raum, sondern stützen sich auf die aktuelle Wissensbasis der Wirtschaftsinformatik und knüpfen an akzeptierte Theorien, Modelle, Methoden usw. an. Diese Fundierung in der allgemeinen Wissensbasis gewährleistet die nötige wissenschaftliche Präzision und Form. Weiterhin sollten sich die konstruierten Theorien bzw. Artefakte einer analytischen Bewertung unterziehen. Erst dieser Schritt schafft die Grundlage für eine gründliche Evaluierung des Konstruierten und letztliche Einschätzung ihres Nutzens. Dies kann mit unterschiedlichen Untersuchungsmethoden erfolgen (z.B. Fallstudie, Experiment usw.), deren Auswahl durch den Kontext des Forschungsproblems mitbestimmt wird. Resultate aus diesem Untersuchungsprozess können dann zurückfließen in die Verfeinerung der konstruierten Artefakte. Die schließlich gewonnen Erkenntnisse aus der fortgeführten Konstruktion, Bewertung und anschließenden Verfeinerung tragen einerseits zum weiteren Aufbau der Wissensbasis für Informationssysteme bei und können andererseits ihre praktische Anwendung in den 12 Vgl. dazu Gregor (2006). 8 Umwelt Praktische Relevanz Menschen - Rollen - Fähigkeiten - Charakteristika Organisationen - Strategien - Struktur & Kultur - Prozesse IS Research Wissenschaftliche Strenge Entwicklung/Konstruktion - Theorien - Artefakte Betriebliche Anforderungen bewerten Technologien - Infrastruktur - Anwendungen - Kommunikationsarchitektur - Entwicklungsfähigkeiten verfeinern Untersuchung/Auswertung - Analyse - Fallstudie - Experiment - Feldstudie - Simulation Anwendung in der dazugehörigen Umwelt Anwendbares Wissen Wissensbasis Grundlagen - Theorien - Frameworks - Instruments - Modelle - Methoden - Instanziierung Methoden - Datenanalyse - Techniken - Formalismen - Maße - Validierungskriterien Erweiterungen der Wissensbasis Abbildung 1.3.: Information Systems Research Framework (aus dem Englischen, Hevner u. a. 2004, S. 80) relevanten betrieblichen Kontexten finden. Abbildung 1.3 zeigt die wesentlichen Elemente und Relationen des IS Research Framework. Unter Bezug auf das IS Research Framework verwendet die vorliegende Arbeit einen entsprechenden empirischen und methodischen Rahmen, der sich in drei wesentliche Phasen gliedern lässt: 1) die Feststellung der betrieblichen Anforderungen und Einbettung in die bestehenden Forschungsergebnisse im Kontext der Prozessmodellwiederverwendung, 2) die Herleitung und Aufstellung von Hypothesen auf Grundlage der Forschungsfragen zur Prozessmodellwiederverwendung und Rolle der Granularität13 und 3) die Auswertung der hypothetischen Aussagen mit forschungsdisziplinübergreifend bewährten Methoden der statistischen Analyse. Dabei werden in allen drei Komplexen die Wissensstände aus aktuellen anwendungsorientierten Ergebnissen und aus dem forschungsmethodischen Instrumentarium genutzt, um den Erkenntnisgewinn systematisch zu leiten und an bestehendes organisiertes Wissen zu knüpfen. Die Fragen nach den Bedingungen für eine erfolgreiche Wiederverwendung von Prozessmodellen in prozessgestalterischen Aktivitäten ergeben sich unmittelbar aus betrieblichen Anforderungen, da die Wiederverwendung von Artefakten generell eine Form der Res13 Die Entwicklung von Hypothesen wird hier als die Erstellung von vortheoretischen Aussagen, die noch zu überprüfen sind, verstanden. Das IS Research Framework ist für die Konstruktion solcher Artefakte offen, welche die Grundlage für eine spätere umfassendere Theoriebildung darstellen. 9 sourcenteilung darstellt, die ökonomische Einsparungen bzgl. des Entwicklungsaufwands und höhere Qualitätsstandards verspricht. Mittels der Analyse sowohl forschungsbezogener als auch anwendungsorientierter Literatur aus dem Bereich der Geschäftsprozessmodellierung und Modellwiederverwendung lässt sich die wiederverwendungsorientierte Prozessmodellerstellung direkt spezifischen betrieblichen Interessen, z.B. nach einer beschleunigten Informationssystementwicklung, zuordnen. Die bestehende Wissensbasis im Bereich der Geschäftsprozessmodellierung wird außerdem genutzt, um den Gegenstandsbereich der Prozessmodellwiederverwendung terminologisch vorzustrukturieren. Weitergehend werden Arbeiten analysiert, die sich mit Qualitätsbegriffen in der Prozessmodellierung auseinandersetzen und darüber hinaus Einflussfaktoren identifizieren, die eine wichtige Rolle im Modellkonstruktionsprozess spielen und auch für die wiederverwendungsorientierte Modellierung relevant sein können. Aktuelle Arbeiten zu modellbasierter Wiederverwendung werden ebenfalls strukturiert, um die verschiedenen Facetten (z.B. Konstrukt- vs. Modellwiederverwendung) zu klassifizieren und einen forschungsfragenbezogenen Fokus innerhalb des Gegenstandsbereichs zu setzen. Durch die vergleichende Analyse existierender Forschungsarbeiten zum prozeduralen Ablauf der Wiederverwendung von Modellen (bzw. im Rahmen des Entwicklungsprozesses nahestehenden Artefakten) werden die grundlegenden Aktivitäten, Rollen und Szenarien der Prozessmodellwiederverwendung zusammengestellt, die den Gegenstandsbereich weiter eingrenzen. Die Betrachtung von Untersuchungsansätzen zur Modellwiederverwendung aus benachbarten Forschungsbereichen eröffnet schließlich die Möglichkeit der Übertragung von Überlegungen zu spezifischen, kognitiv relevanten Einflussfaktoren, insbesondere der Prozessmodellgranularität, und ihrer Effekte auf Qualitätsdimensionen in der wiederverwendungsbasierten Prozessmodellierung. Die theoretische Vorbereitung durch die erste Phase bereitet die Grundlage für die anschließende zweite Phase der Hypothesenherleitung und -aufstellung. Das vortheoretische Stadium der einzelnen Begriffssysteme im Bereich der Prozessmodellwiederverwendung erfordert zunächst die Explikation des Prozesses der adaptiven Prozessmodellwiederverwendung und des Begriffs der Prozessmodellgranularität sowie die Detaillierung von Zusammenhängen zwischen diesen Entititäten und den kognitiven Prozessen der Ankerund Anpassungsheuristik – einem im Kontext der Artefaktwiederverwendung relevanten kognitionspsychologischen Effekt. In Verbindung mit kognitionsbasierten Theorien werden für den betrachteten Gegenstandsbereich der wiederverwendungsbasierten Modellkonstruktion mit Prozessmodellen unterschiedlicher Granularität spezifische erwartete Effekte argumentativ bestimmt. Auf Basis dieser begründeten Erwartungen werden schließlich qualifizierte Hypothesen abgeleitet und aufgestellt. Der zweiten Phase der Hypothesenformulierung schließt sich die dritte Phase der Auswertung der Hypothesen im Rahmen des aufgestellten Forschungsmodells direkt an. Zur Auswertung gehören drei wesentliche Schritte: a) die Untersuchungsplanung, b) die Experimentdurchführung und c) die anschließende Analyse der Ergebnisse zur Überprüfung der Hypothesen. Methodisch orientiert sich diese Arbeit hauptsächlich an den Forschungsplänen von Wohlin u. a. (2000) und Gemino u. Wand (2004) zur Durchführung 10 von experimentellen Untersuchungen im Bereich des Software Engineering und der konzeptuellen Modellierung. In der Untersuchungsplanung werden vor allem die unabhängigen, abhängigen und zu kontrollierenden Variablen des Forschungsmodells operationalisiert, d.h. es werden nähere Aussagen zu Prozessmodellgranularitätsniveaus, zu Prozessmodellqualität und Anpassungsperformanz und weiteren, nicht zu manipulierenden Einflussfaktoren (kontrollierte Variablen) getroffen. Ebenfalls Teil der Untersuchungsplanung ist die Strukturierung des experimentellen Designs, wobei detaillierte Angaben zum Experimentdesigntyp und den Einsatz adäquater statistischer Auswertungsmethoden gemacht werden. Die Experimentdurchführung macht genaue Angaben zu vorbereitenden Maßnahmen im Vorfeld der Experimenttermine und zur Systemumgebung, in der die wiederverwendungsbasierte Prozessmodellierung durchgeführt werden soll. Ebenso wird der genaue experimentelle Ablauf geschildert, d.h. wann Experimente durchgeführt werden, wie die Untersuchungsteilnehmer in die Modellierungsaufgaben eingeführt werden, wie das Datenmaterial erhoben wird und unter welchen zeitlichen und systembedingten Einschränkungen die Aufgabenbearbeitung zu erfolgen hat. In der Ergebnisanalyse wird das erhobene Datenmaterial mittels deskriptiver Statistiken ausführlich beschrieben. Die genaue Betrachtung des Rohdatenmaterials kann bereits erste Hinweise auf die Beantwortung der Forschungsfragen liefern. Auch die Bestimmung von außergewöhnlichen Wertausprägungen ist in diesem Schritt möglich. Die formale Überprüfung der Hypothesen erfolgt schließlich mittels eines adäquaten statistischen Tests. Der erfolgreiche Abschluss dieses letzten Schritts bestimmt im Kern die Aussagefähigkeit der gewonnenen Untersuchungsergebnisse zur Charakterisierung der Granularitätsrolle in der wiederverwendungsorientierten Prozessmodellierung (und Beantwortung der anderen Forschungsfragen). Um im Nachgang eine kritische Interpretation der Ergebnisse zu ermöglichen, erfolgt zusätzlich die Darstellung von möglichen Gefährdungspotenzialen für die interne und externe Validität der Ergebnisse. 1.4. Beitrag der Arbeit Die vorliegende Arbeit leistet Beiträge auf mehreren Ebenen im Rahmen der Bestrebung, eine detailliertere Charakterisierung der adaptiven Geschäftsprozessmodellwiederverwendung herauszuarbeiten. Diese Ebenen beziehen sich zum einen auf die Herausbildung einer Qualitätsauffassung, die sich speziell auf die Eignung von Prozessmodellen in einer wiederverwendungsbasierten Modellierungssituation richtet. Zum anderen erfolgt eine theoretische Einbettung der Geschäftsprozessmodellwiederverwendung, die eine analytische Basis ausgehend von allgemeinen problemlösenden Aufgaben (worunter auch die Konstruktion von Prozessmodellen zu fassen ist) ermöglicht. Weiter wird eine Übertragbarkeit eines spezifischen kognitiven Effekts in den Kontext der Geschäftsprozessmodellwiederverwendung angenommen, welcher bei der Wiederverwendung von anderen Artefakten in der Informationssystemgestaltung beobachtet werden konnte und welcher Implikationen für die Qualität von Endergebnissen und damit der Eignung bestimmter Wiederverwendungsansätze an sich bedeutet. Diese Arbeit konstruiert für die 11 empirische Untersuchung ein spezifisches Forschungsmodell, welches die Ausprägung einer spezifischen Eigenschaft des wiederverwendeten Prozessmodells, dessen Granularität, mit den kognitiven Prozessen des Modellierers, welche die Prozessmodelllösung herausbilden, in Beziehung setzt. Schließlich liefert die Arbeit empirische Ergebnisse darüber, welche Bedingungen der Geschäftsprozessmodellwiederverwendung (im Rahmen des Untersuchungsbereichs) mit welchen Ausgangsgrößenänderungen in Bezug auf das Prozessmodellierungsergebnis in Verbindung gebracht werden könnten. Adaptionsqualität Die erfolgreiche adaptive Wiederverwendung von Prozessmodellen stellt bestimmte Anforderungen an ihre repräsentierten Ausprägungen vor dem Hintergrund der begrenzten kognitiven Rationalität der Modellierer. Nicht alle Anpassungsoperationen stellen für die wiederverwendenden Prozessmodellierer gleiche Aufwände dar, sondern es wird von spezifischen Eigenschaften des extern repräsentierten Wiederverwendungsmodells ausgegangen (im Weiteren insbesondere die Granularität), welche die effektive und effiziente Anpassung des Prozessmodells eher begünstigen bzw. kognitive Hürden darstellen. Um diese Beziehung auszudrücken wird der Begriff der Adaptionsqualität eingeführt. Sie wird im Sinne einer unterstützenden, assistierenden Eigenschaft als Facette der pragmatischen Qualität (Lindland u. a. 1994; Krogstie u. a. 2006) von Prozessmodellen, welche wiederverwendet werden, aufgefasst. Diese Facette wird näher beleuchtet und der Begriff expliziert. Die Begriffsbildung ist ein Versuch, die Lücke aufgrund mangelnder Beobachtungen in Bezug auf das Adaptionsverhalten von Prozessmodellnutzern, zu füllen. Diese Arbeit ist demnach auch ein Beitrag, welcher der in betrieblichen Organisationen weit verbreiteten Neigung, Wiederverwendungsansätze als Universallösungen zu akzeptieren, eine differenziertere Sicht gegenüberstellt. Theoretische Einbettung Die spezifische Arbeitssituation der Geschäftsprozessmodellwiederverwendung kann als problemlösender Prozess unter Nutzung einer spezifischen externen Repräsentation (das wiederzuverwendende Prozessmodell) aufgefasst werden. Der Ausgang dieses Prozesses ist eine konstruierte Prozessmodelllösung, welche sich nach Gesichtspunkten der Effektivität und Effizienz beurteilen lässt. Für das Zusammenspiel dieser Komponenten im Kontext allgemeiner problemlösender Aufgaben wurde mit der Cognitive-Fit-Theorie (Vessey u. Galletta 1991; Zhang u. Norman 1994) eine theoretische Struktur vorgeschlagen, welche die essentiellen Entitäten und Relationen bestimmt. In dieser Arbeit wird die Geschäftsprozessmodellwiederverwendung in die Cognitive-FitTheorie eingebettet und als spezielle Ausprägung des theoretischen Modells aufgefasst. Dies erlaubt der vorliegenden und den zukünftigen Untersuchungen im Bereich der Geschäftsprozessmodellwiederverwendung, die akzeptierten Begriffe der theoretischen Basis zu nutzen, um schließlich das in ihr verankerte Aussagengerüst verfeinern zu können. Kognitiver Bias Der Diskurs der Prozessmodellwiederverwendung wird um eine kognitionsbasierte Perspektive erweitert, welche in zurückliegenden Forschungsbeiträgen nur 12 vereinzelt und in begrenztem Umfang eingenommen wird. Insbesondere wird der kognitive Bias des Anker- und Anpassungseffekts(engl. Anchoring and adjustment bias), der in anderen Aufgabenkontexten häufig zu beobachten ist, als mögliches Phänomen in der wiederverwendungsorientierten Prozessmodellerstellung angenommen, welches Auswirkungen auf die Qualität der Lösungsmodelle hat. Desweiteren wird der Prozess des Anchoring mit verschiedenen Niveaus der Granularität von Prozessmodellen in Beziehung gesetzt. Der Begriff der Granularität von Prozessmodellen, der bisher nur intuitiv artikuliert wurde, erfährt in diesem Zusammenhang eine stärker formale Annäherung, so dass eine einheitliche Anwendung in unterschiedlichen Kontexten der Prozessmodellierung besser ermöglicht werden kann. Forschungsmodell Auf Basis des Cognitive-Fit-Modells und der abgeleiteten Zusammenhänge zwischen verschieden granularen Wiederverwendungsprozessmodellen und kognitivem Anchoring wird ein Forschungsmodell 14 entwickelt, welches die Operationalisierung von Hypothesen und die Planung und Durchführung eines geeigneten Laborexperiments ermöglicht. Die Arbeit leistet zudem einen forschungsmethodischen Beitrag durch die Bereitstellung eines formal beschriebenen Untersuchungsdesigns, welches von Forschern für zukünftige Replikationen der Untersuchung genutzt werden kann. Empirisches Ergebnis Das empirische Vorgehen führt zu Resultaten, welche im Zusammenhang mit der Untersuchungsmethodik eine kritische Analyse der angenommenen Effekte im Kontext der Prozessmodellwiederverwendung erlauben. Der angenommene Ankereffekt bei der wiederverwendungsorientierten Prozessmodellkonstruktion ist im Rahmen der Untersuchung über die Stichprobengruppen hinweg deutlich zu beobachten. Die geforderten Anpassungen hinsichtlich einer vollständigen und validen Prozessmodelllösung werden im Mittel nicht im vollen Umfang durchgeführt. Differenzierter ist das Ergebnis bei der Betrachtung der Fälle, wenn einmal feingranulare und einmal grobgranulare Prozessmodelle zur Wiederverwendung eingesetzt werden. Der Ankereffekt ist bei Wiederverwendung der feingranularen Prozessmodelle signifikant stärker ausgeprägt, als bei der Wiederverwendung grobgranularer Prozessmodelle. Dies lässt sich vermutlich auf eine höhere externe kognitive Ladung im feingranularen Fall zurückführen, welche durch die höhere Zahl an wahrzunehmenden Entitäten entsteht. Die komplexen Operationen der Verfeinerung im grobgranularen Fall scheinen diesen Effekt im Vergleich nicht kompensieren zu können. Zusätzlich wird die semantische Qualität der Prozessmodelllösungen erhoben, wobei sich zeigt, dass die Kontrollgruppe ein niedrigeres Niveau erreicht im Vergleich mit den Wiederverwendungsgruppen. Zwischen den Wiederverwendungsgruppen lässt sich ebenfalls ein Qualitätsunterschied zugunsten der grobgranularen Wiederverwendung beobachten. Schließlich wird die Untersuchung für eine weitere Anwendungsdomäne repliziert, wobei sich in allen Gruppen ähnliche Effekte sowohl bezüglich geforderter Anpassungen, als auch semantischer Qualität der erstellten Prozessmodelle feststellen lassen. 14 Dieses Forschungsmodell ist ein Artefakt im Sinne von Hevner u. a. (2004). 13 1.5. Struktur der Arbeit Die vorliegende Arbeit zur Untersuchung der Rolle der Granularität von Wiederverwendungsmodellen in der adaptiven Prozessmodellierung ist wie folgt aufgebaut. In Kapitel 2 wird die Rolle der Geschäftsprozessmodellierung in der Informationssystemgestaltung beschrieben. Es wird das Geschäftsprozessmanagement als spezifische Perspektive auf betriebliche Organisationen charakterisiert und die Rolle von Geschäftsprozessmodellen als zentralem Artefakt in analytischen und spezifizierenden Aktivitäten dargestellt. Die potenzielle Wiederverwendbarkeit von Geschäftsprozessmodellen in konstruktiven Aufgaben wird in Kapitel 3 aufgegriffen. Die essentiellen Aktivitäten und beteiligten Entitäten im Prozessmodellwiederverwendungsprozess werden vorgestellt und in praktische betriebliche Szenarien eingeordnet. Daran anschließend erfolgt eine Darstellung von aktuellen Vorschlägen zur Umsetzung der Geschäftsprozessmodellwiederverwendung. Die Wiederverwendung von graphischen Modellen (wie Prozessmodellen) unterliegt dabei bestimmten kognitiven Mechanismen der menschlichen Prozessmodellierer. Die in der Modellwiederverwendung involvierten Entitäten wie Wiederverwendungsmodell und Prozessgestaltungsaufgabe, die darauf basierenden kognitiven Ausbildungen und schließlich resultierenden Effekte bzgl. der Modellierungsleistung werden vorgestellt und diskutiert. Den Rollen der Prozessmodellgranularität der wiederverwendbaren Prozessmodelle und kognitiven Bias gilt hierbei ein besonderes Untersuchungsinteresse. Kapitel 4 nimmt eine nähere Bestimmung der adaptiven Aktivität innerhalb des Prozessmodellwiederverwendungsprozesses vor. Die Prozessmodellgranularität wird formalisiert und ihre Rolle im Kontext des kognitiven Bias des Anchoring and Adjustment charakterisiert. Aus diesen Annahmen heraus werden im Hinblick auf das adaptive Verhalten von Modellierern und die Prozessmodellqualität von Lösungen konkrete Hypothesen entwickelt, die sich auf die zuvor diskutierten Theorien stützen. In Kapitel 5 wird das Forschungsmodell formuliert, das der Prüfung der operationalen Hypothesen dient. Das experimentelle Design und die Untersuchungsdurchführung werden erläutert. Im Anschluss erfolgt die Analyse der Untersuchungsergebnisse inklusive deskriptiver Statistiken und Hypothesentests. Kapitel 6 diskutiert basierend auf den gewonnenen Daten die Untersuchungsresultate vor dem Hintergrund der theoretischen Einbettung und erwägt alternative Erklärungsansätze. Weiterhin ergeben sich Implikationen sowohl für die Wissenschaftsgemeinschaft als auch für die betriebliche Praxis. Daran anknüpfend werden Einschätzungen bzgl. der Gefährdung für die interne und externe Validität vorgenommen. Kapitel 7 fasst abschließend die Untersuchung zusammen und gibt einen Ausblick auf zukünftige Forschungsarbeiten, die in Anknüpfung an die vorliegende Arbeit durchgeführt werden können, um ein präziseres Bild der hier vorgenommenen Exploration zu erhalten. In Abbildung 1.4 ist der Aufbau der vorliegenden Arbeit grafisch dargestellt, um einen Gesamtüberblick zu gewinnen. 14 Kapitel 1 Einleitung Motivation Forschungsfragen Forschungsmethodik Beitrag der Arbeit Struktur der Arbeit Kapitel 2 Geschäftsprozessmodellierung in der Informationssystemgestaltung Gestaltung von Informationssystemen und Geschäftsprozessmanagement Geschäftsprozessmodelle in der Informationssystemgestaltung Wiederverwendungsebenen der Prozessmodellierung Kapitel 3 Wiederverwendung von Geschäftsprozessmodellen Vorgänge der Geschäftsprozessmodellwiederverwendung Kognitive Bestimmungsgrößen der Prozessmodellwiederverwendung Zusammenfassung Kapitel 4 Anpassungsheuristiken in der Prozessmodellwiederverwendung Adaptive Prozessmodellwiederverwendung Ankereffekte in der Prozessmodellwiederverwendung Formalisierung der Prozessmodellgranularität Anker und Granularität Hypothesen zu Wirkungen auf die Modellierungsperformanz Kapitel 5 Forschungsmodell und Untersuchung Zieldefinition Untersuchungsplanung Experimentdurchführung Kapitel 6 Diskussion Ergebnisdiskussion Implikationen für die Wissenschaftsgemeinschaft Implikationen für die betriebliche Praxis Gefährdung der Validität Abbildung 1.4.: Aufbaustruktur der Arbeit 15 Ergebnisanalyse Kapitel 7 Zusammenfassung und Ausblick 2. Geschäftsprozessmodellierung in der Informationssystemgestaltung Das einleitende Kapitel hat die grundsätzliche Motivation dieser Arbeit, eine genauere Charakterisierung der Geschäftsprozessmodellwiederverwendung im Rahmen der Prozessmodellkonstruktion vorzunehmen, dargestellt. Die dabei erwachsenen Forschungsfragen richten sich im Kern auf die Rolle der Granularität von wiederverwendeten Prozessmodellen und wie sich diese auf Qualitätseigenschaften der Ergebnismodelle auswirkt. Besondere Beachtung findet vor diesem Hintergrund ein spezifischer wahrnehmungsbasierter Effekt, der sogenannte Anker- und Anpassungseffekt, welcher insbesondere bei der Vorlage von Lösungen (oder Teillösungen) für eine Aufgabenbearbeitung, wie dies auch bei der Prozessmodellwiederverwendung der Fall ist, zum Tragen kommt. Desweiteren wurden das forschungsmethodische Vorgehen und Beitrag und Struktur dieser Arbeit aufgezeigt. Im Folgenden wird zunächst eine terminologische Vorstrukturierung des Gegenstandsbereichs der Geschäftsprozessmodellierung vorgenommen und in den Kontext der Gestaltung von Informationssystemen (bzw. Information System Design) gestellt. Diese Vorstrukturierung wird benötigt, um die grundlegenden Begriffe der Geschäftsprozessmodellierung einzuführen, auf denen die anschließend vorgestellten Ansätze der Wiederverwendung von Prozessmodellen aufbauen. Dies beginnt mit grundsätzlichen begrifflichen Klärungen zu Gestaltungsaktivitäten in Informationssystemen und der Vorstellung des Geschäftsprozessmanagements (bzw. Business Process Management) als einem verbreiteten Ansatz mit einer spezifischen prozessorientierten Perspektive auf Informationssysteme. Geschäftsprozessmodelle präsentieren sich innerhalb dieses Geschäftsprozessmanagementansatzes als zentrales Artefakt, welches sowohl in den Phasen des Designs und der Implementierung, als auch der Ausführung von betrieblichen Abläufen eine wichtige Rolle spielt. In diesem Kontext sind daher auch wesentliche Auffassungen des Modellbegriffs darzulegen, die anschließend auf Geschäftsprozesse und deren Modellierung übertragen werden können. Geschäftsprozessmodelle stellen darüberhinaus konkrete Ausgangspunkte in verschiedenen Systementwicklungsansätzen dar. Die gesetzten Schwerpunkte und verwandten Strategien dieser Ansätze werden daher zur besseren Abgrenzung aufgezeigt. Ebenso ist ein Qualitätsbegriff für Geschäftsprozessmodelle zu beschreiben, welcher ausgehend von verschiedenen Prozessmodellnutzungen entsprechend differenzierte Auslegungen der Qualität erlaubt und die empirische Beurteilung ermöglicht. Gerade das Verständnis von Qualität im Kontext von wiederverwendeten Prozessmodellen ist mit Blick auf die Forschungsfragen von besonderem Interesse und wird im entsprechen- 16 den Abschnitt diskutiert. Die begriffliche Vorstrukturierung im Zusammenhang der Geschäftsprozessmodellierung bildet schließlich die Basis, auf der die Differenzierung von Ebenen der Wiederverwendung von Prozessmodellen erfolgt. Diese Differenzierung hilft dabei, die unterschiedlichen existierenden Ansätze im Diskursbereich der Prozessmodellierung nach ihren tatsächlich adressierten Wiederverwendungsartefakten zu klassifizieren und den Untersuchungsfokus auf die spezifische Klasse der Wiederverwendung vollständiger Prozessmodelle einzustellen. Diesen einführenden Erläuterungen folgend ergibt sich die Kapitelstruktur: 1) Gestaltung von Informationssystemen und Geschäftsprozessmanagement, 2) Geschäftsprozessmodelle in der Informationssystemgestaltung und 3) Wiederverwendungsebenen der Prozessmodellierung. 2.1. Gestaltung von Informationssystemen und Geschäftsprozessmanagement Um das zugrunde gelegte Begriffsverständnis von Informationssystemen, zugehörigen Gestaltungsprozessen und kontextbezogenen Konzepten festzuhalten, werden die Begriffe im folgenden näher erläutert. Der Abschnitt ist in 1) Gestaltungsaktivitäten in Informationssystemen und 2) Geschäftsprozessmanagement gegliedert. 2.1.1. Gestaltungsaktivitäten in Informationssystemen Geschäftsprozessmodelle werden in verschiedensten Bereichen für unterschiedliche Zwecke in betrieblichen Organisationen bzw. Informationssystemen eingesetzt. Ein gemeinsamer Wesenszug, den diese Zwecke in der Regel aufweisen, ist, dass das Informationssystem auf eine gewünschte Art und Weise verändert werden soll, d.h. dass der Zweck einen gestalterischen Charakter besitzt. Um die Geschäftsprozessmodellierung in diesem Bezugssystem von gestalterischen Aktivitäten zur Ausrichtung einer betrieblichen Organisation näher zu bestimmen, sind zunächst die Begriffe 1) Informationssystem, 2) Gestaltungsaktivitäten und 3) Ergebnisartefakte von Gestaltungsprozessen zu charakterisieren. Informationssystem Es wurde bisher eine Vielzahl an Definitionen für den Begriff „Informationssystem“ vorgeschlagen. In Abhängigkeit von den individuellen Perspektiven der Autoren wurden dabei unterschiedliche Aspekte jeweils stärker oder schwächer betont. In Wand u. Weber (1995) beispielsweise wird die Abbildung von realen Systemen als primärer Zweck eines Informationssystems in den Vordergrund gestellt. Andere Definitionen heben die Organisation von Menschen und Technologien, die Transformation von Ein- und Ausgaben und 17 das Erreichen eines Ziels hervor (z.B. Davis 2000; vom Brocke 2003; Huber u. a. 2007). Eine hilfreiche Perspektive wird von Alter (2008) eingenommen, der Informationssysteme als eine spezifische Form eines Arbeitssystems begreift. Die Arbeitssystemperspektive führt zu einer klaren, anwendungsbereichadäquaten und aussagekräftigen Definition von sowohl Informationssystemen als auch IT-gestützten Arbeitssystemen, die von Informationssystemen abzugrenzen sind. Dazu ist zunächst der Begriff des Arbeitssystems zu definieren. Ein Arbeitssystem ist ein System, in dem menschliche Teilnehmer bzw. Maschinen Arbeit (Prozesse und Aktivitäten) verrichten unter Verwendung von Informationen, Technologien und anderen Ressourcen, um ein spezifisches Produkt oder eine spezifische Dienstleistung für bestimmte interne oder externe Kunden herzustellen (Alter 2008, S. 451). Ein Arbeitssystem in diesem allgemeinen Sinne kann über die Art der Ausprägung des hergestellten Artefakts zu einem Informationssystem spezialisiert werden, welches wie folgt definiert wird. Ein Informationssystem ist ein Arbeitssystem, dessen Prozesse und Aktivitäten auf die Verarbeitung von Informationen ausgerichtet sind, d.h. auf die Erhebung, die Übertragung, die Speicherung, den Abruf, die Manipulation und die Anzeige von Informationen (Alter 2008, S. 451). Demzufolge ist ein Informationssystem also ein System, in dem menschliche Teilnehmer bzw. Maschinen Arbeit (Prozesse und Aktivitäten) verrichten unter Verwendung von Informationen, Technologien und anderen Ressourcen, um Informationsprodukte bzw. -dienste für interne oder externe Kunden herzustellen. Beispiele für Informationsysteme sind Arbeitssysteme, die ausgerichtet sind auf die Erstellung von Strategiepapieren, die Entwicklung von Computerprogrammen, die Aufstellung einer Bilanz, die Produktion digitaler Güter wie Software und Computerspiele, die Durchführung von ökonomischen Analysen und die Ermittlung von Preisen für Sitzplätze in Flugzeugen basierend auf komplexen Berechnungsgrundlagen im Rahmen des Ertragsmanagements (Alter 2008, S. 451). Auch die Erstellung von graphischen Modellen im Rahmen der Analyse und Spezifikation zur Weiterentwicklung von Unternehmensorganisationen stellt einen Informationsverarbeitungsprozess dar, der innnerhalb eines Informationssystems vollzogen wird. Graphische Modelle wie Geschäftsprozessmodelle stellen eine spezifische Menge von Informationsprodukten dar, deren Nutzung – und Wiederverwendung – durch menschliche Teilnehmer zur Umgestaltung und Weiterentwicklung der Organisation im Fokus dieser Arbeit steht. Von Informationssystemen sind IT-gestützte Arbeitssysteme zu differenzieren. Der umfassende Gebrauch von Informationstechnologien qualifiziert Arbeitssysteme nicht hinreichend als Informationssystem. Folgende beispielhafte Arbeitssysteme nutzen zwar intensiv Informationstechnologien, sind aber keine reinen Informationssysteme: Leistungserbringungssysteme für physische Güter, Paketlieferungssysteme, automatisierte Produktionsanlagen und intelligente Transportsysteme (Alter 2008, S. 451). Diese Arbeitssysteme werden demnach als IT-gestützte Arbeitssysteme verstanden. Informationssysteme können aber durchaus in größeren IT-gestützten Arbeitssystemen vorkommen, in denen sie informatorische Zwischenprodukte oder -dienste erzeugen bzw. erbringen, die für weitere Arbeitsprozesse – deren Produkte über die Verarbeitung von Informationen hinausge- 18 hen – wichtig sind. Aufgrund der weiten Verbreitung und zunehmenden Bedeutung von Rechnerunterstützung in Arbeitsorganisationen, ist die Verflechtung von Informationssystemen und anderen Arbeitssystemen inzwischen besonders stark ausgeprägt, weshalb eine strikte Unterscheidung im Einzelfall schwierig sein kann (Alter 2008, S. 453). Die Einordnung von Informationssystemkonzepten in die grundlegenden Begriffe von Arbeitssystemen ermöglicht eine arbeitssystemübergreifende Analyse, die sowohl den einzelnen Arbeitssystemen (wie Informationssystem oder Supply Chain (vgl. Alter 2008, S. 451)) mit ihren eigenen Terminologien als auch der Untersuchung des Zusammenspiels von unterschiedlichen Arbeitssystemen gerecht wird. Im weiteren Verlauf der Arbeit wird weitgehend der Begriff Informationssystem verwendet und schließt IT-gestützte Arbeitssysteme mit ein. Der ebenfalls verwendete Begriff „betriebliche Organisation“ bezieht sich im Kontext dieser Arbeit auf den Informationssystembegriff. Gestaltungsaktivitäten Geschäftsprozessmodelle werden neben anderen Artefakten in bestimmten Gestaltungsbzw. Designaktivitäten betrieblicher Organisationen benötigt, welche sich auf unternehmerische Abläufe beziehen. Designaktivitäten in Informationssystemen sind grundlegend von den Tätigkeiten „Intelligence“ und „Choice“ zu differenzieren, wobei sich ersteres auf das Erfassen und die Antizipation von Ereignissen bezieht, welche bestimme Handlungen erfordern und letzteres die Auswahl einer spezifischen zuvor gestalteten Alternative meint (Simon u. Hayes 1976; Boland 2002). Um die Bandbreite der systemweiten Gestaltungsaktivitäten in heutigen Informationssystemen zu erfassen und die Nutzung von Prozessmodellen entsprechend einzuordnen, sollen hier Auslöser, Charakter und Strategiebezug von Gestaltungsaktivitäten in Informationssystemen kurz dargestellt werden. Daran anknüpfend können Geschäftsprozessmodelle in den Kontext von Designtätigkeiten eingeordnet werden. Informationssysteme stehen in Beziehung mit anderen Arbeitssystemen und mit der Umwelt im allgemeinen und müssen auf Änderungen dieser Umwelt reagieren. Diese Umweltänderungen lösen Prozesse im Informationssystem aus, die auf die Anpassung an die geänderten Gegebenheiten ausgerichtet sind. Informationsysteme müssen entsprechend organisatorische Anpassungen effektiv und effizient durchführen können, um nachhaltige Wettbewerbsvorteile zu sichern (Cyert u. March 1963). Diese organisatorischen Anpassungen können sowohl durch berechnete und bewusst getroffene Gestaltungsentscheidungen, als auch durch Änderungen von routinierten Arbeitsprozessen auf Basis organisatorischer Informationssuche, Lernen und Verhandlungen implementiert werden (Augier u. March 2008). Die Gestaltung von betrieblichen Informationssystemen kann als ein Problemlösungsprozess verstanden werden, der durch „wickedness“ (i.S.v. Schwierigkeiten bereitend) gekennzeichnet ist, d.h. es ist in der Regel ein sehr komplexes Vorhaben, eine optimale Gestaltung für das Informationssystem festzulegen (Simon 1996; Mendling 2007). Darüber hinaus ist das Design von Informationssystemen und IT-gestützten Arbeitssystemen ein 19 Strategy Alignment Business Strategy Organizational Design Activities Organizational Infrastructure Information Technology Strategy Information Systems Design Activities Infrastructure Alignment Information Systems Infrastructure Abbildung 2.1.: Aktivitäten der organisatorischen und informationstechnischen Gestaltung (Hevner u. a. 2004, S. 79, adaptiert von Henderson u. Venkatraman (1993)) essentieller Prozess, welcher innovative Ideen und Produkte hervorbringt, mit denen sich Informationssysteme effektiver und effizienter analysieren, managen und nutzen lassen (Denning 1997)15 . Die organisatorische Struktur und die informationstechnische Infrastruktur von Informationssystemen stehen in Beziehung mit den strategischen Perspektiven für jeweils den betrieblichen Anwendungsbereich bzw. die Informationstechnologie. Die effektive Umsetzung der Strategien in die jeweiligen Infrastrukturen erfordert explizite Gestaltungsaktivitäten16 . Diese gilt sowohl für die rein betriebsorganisatorische Seite, als auch für die informationstechnische Seite (Hevner u. a. 2004, S. 78). Die Verhältnisse sind in Abbildung 2.1 illustriert17 . Die Erstellung und Verwendung von Geschäftsprozessmodellen kann entsprechend Abbildung 2.1 für beide Designaktivitätskomplexe erfolgen. Rein betriebsorganisatorische Gestaltungsaktivitäten wie das Design von fachlichen Prozessen für beispielsweise den Vertrieb, den Transport etc. können ebenso mit Geschäftsprozessmodellen unterstützt 15 In der englischsprachigen Wissenschaftsliteratur ist der Gestaltungsaspekt zentraler Bestandteil der Disziplinen Information Systems Design bzw. Information Systems Development (Walls u. a. 1992; Simon 1996). 16 Der Gestaltungsprozess wird auch im WSLC-Modell von Alter (2008) verdeutlicht, dessen Phasen der Initiierung, Entwicklung und Implementierung explizit gestalterische Aktivitäten beinhalten. Vgl. dazu auch die Implementierungsphasen in Zmud u. Cox (1979). 17 Der Informationssystembegriff wird in diesem Modell leicht einschränkend für die informationstechnischen Strukturen verwendet (vgl. Abschnitt 2.1.1). Das Modell basiert auf dem ursprünglich entwickelten Modell von Henderson u. Venkatraman (1993). Eine Erweiterung um die Dimension Informationsund Kommunikationsstrukturen (in Abgrenzung zur rein technischen Perspektive auf Informationssysteme) und die Ausdifferenzierung der Infrastrukturdimension in Strukturen und Operationen wurde in Maes u. a. (2000) vorgenommen. 20 werden, wie Designaktivitäten, die sich auf die Organisation der Informationstechnologie, z.B. IT-Governance, Systementwicklungmethodik etc. beziehen. Die Betrachtungsebene von Prozessmodellen ist in dieser Hinsicht nicht auf die eine oder andere Seite beschränkt. Ergebnisse der Informationssystemgestaltung Ergebnisse von Informationssystemgestaltungsprozessen sind IT-Artefakte (Orlikowski u. Iacono 2001) bzw. einfach Artefakte (Hevner u. a. 2004). Im folgenden werden Artefakte im Sinne von Hevner u. a. (2004) verstanden. Dieser Artefaktbegriff bezieht sich auf Instanziierungen (d.h. alle Formen von physisch implementierten unterstützenden Technologien, z.B. Hardware, Software etc.), schließt aber auch Konstrukte, Modelle und Methoden mit ein, die während der Entwicklung und Nutzung von Informationssystemen angewendet werden (Hevner u. a. 2004, S. 82). Enger gefasst ist der Artefaktbegriff in Bezug auf die menschlichen Teilnehmer in Informationssystemen. Sie sind hier keine Artefakte als Ergebnis von Informationssystemgestaltungsprozessen. Dass gegenseitige Abhängigkeiten zwischen Organisationsmitgliedern und Artefakten bestehen und dass die Wahrnehmung und Ergonomie von Artefakten kritisch für die erfolgreiche Implementierung von Informationssystemen sind, wird dagegen nicht bestritten. Der Artefaktbegriff beschränkt sich hier auf die Eigenständigkeit von Konstrukten, Modellen, Methoden und Instanziierungen (Hevner u. a. 2004, S. 82-83). Konstrukte stellen die Sprache dar, in der Probleme und Lösungen definiert und kommuniziert werden können. Modelle wiederum verwenden Konstrukte, um Probleme und den Lösungsraum darstellen zu können. Methoden definieren einen Prozess. Sie stellen eine Anleitung bereit, wie Probleme gelöst werden, d.h. wie der Lösungsraum durchsucht wird. Diese umfassen exakte Algorithmen aber auch informelle textuelle Beschreibungen von Best-Practice-Lösungen. Nach der Definition von Gutzwiller (1994, S. 11 ff.)) sind die konstituierenden Bestandteile einer Methode Aktivitäten, ein Vorgehen (Ablauf der Aktivitäten), Ergebnisse, Rollen (welche die Aktivitäten ausführen), Techniken, ein unterstützendes Werkzeug und ein Metamodell (um die Beziehungen zwischen Entitäten und die Entitäten an sich festzulegen). Instanziierungen zeigen schließlich, dass Konstrukte, Modelle oder Methoden in einem funktionierenden System umgesetzt werden können und demonstrieren dessen Machbarkeit (Hevner u. a. 2004, S. 78-79). In vielen Ansätzen der Informationssystemgestaltung, v.a. der Softwareentwicklung, entstehen Modelle als Zwischenprodukte eines fortlaufenden Spezifikationsprozesses. Die vorliegende Arbeit legt den Schwerpunkt auf die Nutzung von Geschäftsprozessmodellen in Informationsgestaltungsprozessen und rückt damit Modelle als Artefakte des Untersuchungsinteresses in den Fokus. Der Modellbegriff und die im Kontext der Modellierung benötigten Konzepte werden in Abschnitt 2.2 näher erläutert. 21 2.1.2. Geschäftsprozessmanagement Die gestalterische Perspektive auf Informationssysteme hat besonders in den 1990er Jahren eine verstärkte Orientierung an unternehmerischen Abläufen bzw. Geschäftsprozessen erfahren (Kettinger u. a. 1997). Nachdem in Abschnitt 2.1.1 Geschäftsprozessmodelle zunächst im Gesamtzusammenhang von Designaktivitäten in Informationssystemen verortet wurden, erfolgt nun die spezifische Einordnung in den Ansatz des Geschäftsprozessmanagements bzw. Business Process Management (BPM). Hierdurch wird erkennbar, welche zentrale Rolle der Geschäftsprozess als designrelevanter Betrachtungsgegenstand einnimmt und welche Managementaktivitäten ausgeführt werden müssen, um mittels dieses Ansatzes die Organisation erfolgreich auf die Anforderungen auszurichten. Bevor der Betrachtungsgegenstand des Geschäftsprozesses als Modell genauer qualifiziert wird (vgl. Abschnitt 2.2), werden hier zunächst 1) der Begriff des Geschäftsprozesses an sich und 2) die existierenden methodischen Vorgehensweisen des Geschäftsprozessmanagements (BPM-Methoden), wobei Geschäftsprozessmodelle ein wichtiges Artefakt darstellen, näher charakterisiert. Geschäftsprozess Bereits in den 1930er Jahren wurde u.a. von Nordsieck ein Geschäftsprozess beschrieben als eine Sequenz von Aktivitäten, die ein bestimmtes Ergebnis produziert. Nach dieser Definition ist eine Aktivität die kleinste separierbare Einheit an Arbeitstätigkeit, die von einem Arbeitssubjekt ausgeführt wird (Nordsieck 1934, S. 27-29). Eine pragmatische, in den betrieblichen Kontext eingebettete Definition von „Geschäftsprozess“ findet sich in Becker u. Kahn (2005, S. 6-7): Ein Prozess ist die inhaltlich abgeschlossene, zeitliche und sachlogische Folge von Aktivitäten, die zur Bearbeitung eines betriebswirtschaftlich relevanten Objekts notwendig sind. Ein solches Objekt wird aufgrund seiner zentralen Bedeutung für den Prozess als prozessprägendes Objekt bezeichnet [...] Ein Geschäftsprozess ist ein spezieller Prozess, der der Erfüllung der obersten Ziele der Unternehmung (Geschäftsziele) dient und das zentrale Geschäftsfeld beschreibt. Sprachlich leicht variiert beschreibt auch Davenport einen Geschäftsprozess als eine spezifische Anordnung von Arbeitsaktivitäten innerhalb von Zeit und Raum mit einem Anfang und einem Ende und klar identifizierten Eingaben und Ergebnissen, kurz: als eine Struktur für bestimmtes Handeln (engl. structure for action) (Davenport 1993, S. 5). van der Aalst u. van Hee ergänzen diese Beschreibung um den Gedanken, dass die Reihenfolge der Aktivitäten durch eine Menge von Bedingungen bestimmt wird (van der Aalst u. van Hee 2004). Eine wichtige begriffliche Unterscheidung, die vorgenommen werden muss, ist die zwischen einem Geschäftsprozess und einem Geschäftsfall (engl. case). Geschäftsprozesse sind fallbasiert, d.h. jede Einheit an Arbeit wird für einen spezifischen 22 Fall ausgeführt. Der Geschäftsprozess liefert die Beschreibung dafür welche Aktivitäten ausgeführt werden sollen und in welcher Reihenfolge. Es können daher mehrere Fälle für ein und denselben Geschäftsprozess abgearbeitet werden. Dies bedeutet auch, dass die gleiche Aktivität mehrmals durchgeführt wird, wenn es zu mehreren Geschäftsfällen kommt (van der Aalst 1998, S. 5). Für die Menge an bekannten Geschäftsprozessen, insbesondere in Verbindung mit unterstützenden Informationstechnologien, wurden verschiedene Klassifikationsschemata vorgeschlagen. Als Erweiterung des Wertschöpfungskettenmodells von Porter (1985) unterscheiden van der Aalst u. van Hee Produktions-, Unterstützungs- und Managementprozesse. Produktionsprozesse erstellen Güter und Dienstleistungen in einem Unternehmen und veräußern diese an Kunden. Diese Prozesse sind kritisch für Unternehmen, da sie die zentralen Werte generieren, mit denen sich Gewinne erwirtschaften lassen. Unterstützungsprozesse sind Prozesse, die zusätzlich zu den Produktionsprozessen benötigt werden, damit die Wertschöpfung von der Beschaffung bis hin zum Konsum durch den Kunden erfolgen kann. Dies schließt Wartungsarbeiten an Fertigungsmaschinen ebenso wie Marketing- und Vertriebsaktivitäten und Buchhaltungstätigkeiten mit ein. Managementprozesse steuern und koordinieren die Produktions- und Unterstützungsprozesse. Sie setzen vorwiegend die zu erstellenden Ergebnisse für die anderen Prozesse fest und formulieren Bedingungen, die während der Prozessdurchführung erfüllt werden müssen (diese können z.B. in Policies formuliert sein). Diese Unterteilung von Geschäftsprozessen wird in einer sehr ähnlichen Weise auch von APQC (2010) vorgenommen, die in ihrem Process Classification Framework operative, unterstützende und managementrelevante Prozesse voneinander abgrenzen. Weitere Klassifikationen von Geschäftsprozessen finden sich u.a. in Melao u. Pidd (2000); Lindsay u. a. (2003); Dumas u. a. (2005). BPM-Methoden Durch den klaren Fokus auf Geschäftsprozesse sind in der betrieblichen Praxis in Rückkopplung mit der handlungsorientierten Forschung Methoden und spezifische Vorgehensweisen entstanden, die in der Gesamtheit unter dem Begriff des Geschäftsprozessmanagements subsummiert werden. Geschäftsprozessmanagement kann allgemein definiert werden als die Menge aller Aktivitäten, die im Kontext von Geschäftsprozessen durchgeführt werden. Diese Aktivitäten können nach den wesentlichen Tätigkeiten in einem idealisierten Lebenszyklusmodell strukturiert werden. Derartige methodische Lebenszyklusmodelle werden beispielsweise von van der Aalst u. van Hee (2004); Dumas u. a. (2005) vorgeschlagen. Als Grundlage für die Untersuchung wird im Weiteren das Lebenszyklusmodell von zur Mühlen (2004, S. 85-86) betrachtet. Es konsolidiert mehrere bestehende Lebenszyklusvorschläge (u.a. Heilmann u. a. (1996); Neumann u. a. (2003)) und strukturiert die wichtigsten Aktivitäten und Artefakte in einem Modell. Die Kernaktivitäten der Analyse, des Designs und der Implementierung stimmen ebenfalls mit dem 23 Goals, Environmental & Organizational Analysis Requirements Process Models Process Design Simulation Process Evaluation Process Implementation Simulation models, Targets Process Enactment Implemented Process in Infrastructure Case Data Case Data Process Monitoring Abbildung 2.2.: Business Process Management Life Cycle (in Anlehnung an zur Mühlen 2004; Mendling 2007) generellen Verständnis des Vorgehens in der Informationssystementwicklung überein18 . Der Lebenszyklus besteht aus den Managementaktivitäten Analyse, Design, Implementierung, Ausführung, Monitoring, Evaluation und Simulation. Das Prozesslebenszyklusmodell ist in Abbildung 2.2 dargestellt. Die Aktivitäten der einzelnen Phasen werden im Folgenden erläutert (vgl. dazu zur Mühlen 2004, S. 85-87). In der Phase Goals, Environmental & Organizational Analysis werden die Projektziele definiert und es wird eine Anforderungsanalyse für den zukünftig informationstechnisch unterstützten Geschäftsprozess durchgeführt sowohl in Bezug auf Anforderungen der betrieblichen Umwelt, als auch auf Anforderungen, welche sich aus den internen organisatorischen Strukturen und Regeln ergeben. Während des Process Design wird die gesamte Geschäftsprozessstruktur mittels der Erstellung von Prozessmodellen gestaltet. Dies bezieht auch die Modellierung der benötigten Ressourcen zur Errreichung der jeweiligen Ergebnisse, die organisatorischen Verantwortlichkeiten und Mechanismen 18 Vgl. dazu beispielsweise das „Work System Life Cycle“-Modell von Alter (2008) und den Informationssystemgestaltungsprozess bestehend aus den fünf Phasen Konzeptgestaltung, Konstruktion der Architektur des Systems, Prototyping, Produktentwicklung und Technologietransfer (Nunamaker u. a. 1990). 24 der Konfliktauflösung (engl. exception handling) mit ein. Die konstruierten Prozessmodelle fließen als Input in die Phase der Process Implementation ein. Hier werden die informationstechnischen Strukturen, welche die Geschäftsprozesse unterstützen, designt und umgesetzt. In der Phase des Process Enactment werden individuelle Instanzen des Prozessmodells – Cases – abgeleitet und von der informationstechnischen Infrastruktur, die den Prozess steuert, koordiniert. Teilnehmende Rollen im Geschäftsprozess werden über durchzuführende Aufgaben benachrichtigt und weitere Ressourcen werden während der Prozessausführung genutzt. Während der Prozessausführung entstehen Daten – Case Data – die zur Überwachung des Prozesses verwendet werden können. Dies geschieht in der Phase des Process Monitoring. Es werden einerseits Daten analysiert, die Rückschlüsse auf die ordnungsgemäße Funktion des prozesssteuernden Informationssystems an sich ermöglichen. Andererseits werden Daten verfügbar, die managementrelevante Indikatoren des ausgeführten Prozesses darstellen, z.B. Warteschlangenlängen und Leerzeiten an Ressourcen, Dauer von Aufgabenbearbeitungen oder Gesamtdurchlaufzeiten. Die Phase Process Evaluation stellt die letzte Kernaktivität dar und vervollständigt den Business Process Management Lifcycle. Rückblickend auf die ausgeführten Prozessinstanzen können die einzelnen Cases auf Basis der Ausführungsprotokolle analysiert werden. Die Auswertungsergebnisse können wiederum neue Anforderungen zur Anpassung des Geschäftsprozesses ergeben, die rückkoppelnd in die Phase des Process Design eingehen. Bei Unsicherheit in Bezug auf die Effekte geplanter Prozessanpassungen können mit Hilfe von Simulationsmodellen, welche auf die erstellten Prozessmodelle aufsetzen, Tests durchgeführt werden. Dies erfolgt im Schritt Simulation. Dies kann bei weitreichenden Veränderungen angebracht sein, um das Risiko von Verlusten zu reduzieren. Aus dem Business Process Management Life Cycle geht hervor, dass Geschäftsprozessmodelle eine wichtige Rolle spielen vor allem in den Phasen des Designs, der Implementierung und der Ausführung von Geschäftsprozessen, insbesondere wenn informationstechnische Unterstützung in der Ausführung eingesetzt wird. Sie stellen demnach eine wertvolle Ressource in vielen Gestaltungbereichen von betrieblichen Organisationen dar, wie z.B. im Qualitätsmanagement, Compliance Management und in der Softwareentwicklung u.v.m. (z.B. Hammer 1990; Curtis u. a. 1992; Davenport 1993). Diese Ressource sollte deshalb nicht nur für einzelne Vorhaben entstehen und einmalig genutzt werden, sondern es sollten potenzielle Ansätze berücksichtigt werden, die Prozessmodelle nach Möglichkeit und gegebenem Kontext neuen Handlungsbedarfen erfolgreich zuführen können. Wie auch bei anderen Designartefakten in der Informationsystementwicklung, die in der Organisation verteilt und von Mitarbeitern erneut effektiv genutzt werden, könnte auch die Wiederverwendung von Geschäftsprozessmodellen im Rahmen von notwendigen BPM-Designaktivitäten ein nutzbringendes Vorgehen darstellen. 25 2.2. Geschäftsprozessmodelle in der Informationssystemgestaltung Durch die Vorstrukturierung der Designaktivitäten der betrieblichen Organisation und des Geschäftsprozessmanagements als dezidiertem Ansatz der Informationssystemsteuerung wurde dargelegt, dass Geschäftsprozessmodelle in diesem Zusammenhang elementare Designartefakte darstellen, die sowohl reflektiv-analytischen Aktivitäten, als auch explizit systementwicklungsorientierten Tätigkeiten zugrunde liegen. Da Geschäftsprozessmodelle sich in erster Linie unter den Begriff der Modellierung im Allgemeinen ordnen müssen, werden zunächst hierfür die wichtigsten terminologischen Grundlagen dargestellt. In welcher Weise die Konzepte für den Betrachtungsgegenstand Geschäftsprozesse genutzt werden, wird anknüpfend daran expliziert. Durch die Intensivierung der informationstechnischen Unterstützung in Arbeitsssystemen erstreckt sich der Fokus der Geschäftsprozessorientierung in der Regel besonders auf die Systementwicklung (insbesondere Softwaresystementwicklung). Es sind daher mehrere Ansätze entstanden, die Geschäftsprozessmodelle explizit als wichtigen Ausgangspunkt der Systementwicklungsaktivitäten betrachten. In diesen Ansätzen wird bereits erkennbar, dass die Wiederverwendung von Geschäftsprozessmodellen in neuen Systementwicklungsvorhaben interessante Vorteile hinsichtlich der Effektivität und Effizienz bedeuten kann. Die Charakterisierung dieser Vorteile erfordert dementsprechend differenzierte Begriffe der Qualität von Geschäftsprozessmodellen. Hierfür sind existierende Qualitätsframeworks heranzuziehen und für den speziellen Ansatz der Entwicklung unter Wiederverwendung zu diskutieren. Der Abschnitt ist im Weiteren folglich in drei Teile gegliedert: 1) Modellbegriff und Geschäftsprozessmodellierung, 2) Ansätze der prozessmodellbasierten Systementwicklung und 3) Qualität von Geschäftsprozessmodellen. 2.2.1. Modellbegriff und Geschäftsprozessmodellierung Nachdem in Abschnitt 2.1.2 im Rahmen des Business Process Management Life Cycle das Geschäftsprozessmodell (im Weiteren auch Prozessmodell) als zentrales Designartefakt identifiziert wurde, erfolgt hier die Einbettung in die allgemeine Modellierungsterminologie, wobei das Geschäftsprozessmodell eine spezifische Ausprägung eines Modells darstellt. Neben grundsätzlichen Verwendungszwecken von Modellen werden wesentliche Konzepte von Modellierungstechniken dargestellt und theoriebasierte Möglichkeiten der Auswertung von Modellierungssprachen erläutert. Hieran schließt sich die Konkretisierung der Modellierungskonzepte für den Betrachtungsgegenstand Geschäftsprozesse an. In einem Vorgriff auf die kognitiven Effekte innerhalb eines Wiederverwendungsansatzes, sollen abschließend kurz die möglichen Auswirkungen bei Prozessmodellen bzw. anderen wiederverwendeten Modellen differenziert werden. Der Abschnitt gliedert sich daher wie folgt: a) Modellbegriff, b) Einsatzwecke, c) Modellierungstechnik, d) Evaluierung von Modellierungssprachen, e) Geschäftsprozessmodellierung und f) dynamische vs. statische Modelle in der Wiederverwendung. 26 Modellbegriff Der Begriff „Modell“ ist in hohem Maße mehrdeutig und in den verschiedenen wissenschaftlichen Diszplinen wird keine einheitliche Terminologie verwendet (Koperski 2010). Für den Kontext der Informationssystemgestaltung wird ein Modell zunächst als eine Repräsentation eines Objekts, eines Verhaltens oder eines Informationssystems aufgefasst, welches man begreifen möchte. Aus einer Ingenieursperspektive werden diese Repräsentationen dann als präskriptive Vorgaben erstellt und eingesetzt, um Informationssysteme geplant zu konstruieren. Durch die Nutzung von Symbolen sind Modelle nicht nur in der Lage die natürliche Sprache zu ersetzen bzw. zu ergänzen, um komplexe Sachverhalte darzustellen, sondern in vielen Fällen wird es erst hierdurch möglich, die Kerngedanken eines Gegenstands umfassend zu repräsentieren (Nordsieck 1934). Stachowiak definiert ein Modell als das Resultat einer vereinfachenden Abbildung der Realität, welches einem bestimmten Zweck dient (Stachowiak 1973). Gemäß dieser Definition weisen Modelle drei wesentliche Merkmale auf: Abbildungsmerkmal – das Modell hat eine Beziehung zu einem „Original“ 19 , Reduktionsmerkmal – das Modell bildet nur eine Auswahl der Eigenschaften des Originals ab, pragmatisches Merkmal – das Modell sollte anstelle des Originals für einen bestimmten Zweck nutzbar sein (auch Kühne 2006, S. 3). Steinmüller (1993) konkretisiert den pragmatischen Aspekt von Modellen näher und bezieht zusätzlich den Ersteller (auch: Sender) und den Konsumenten (auch: Empfänger) eines Modells mit ein. Während der Modellbegriff in der Wirtschaftsinformatik bis Ende der 1990er Jahre überwiegend an der erkenntnistheoretischen Abbildtheorie orientiert war (vgl. Schütte 1998b, S. 40 ff.), gibt es mit Auslaufen des letzten und Beginn dieses Jahrtausends eine verstärkte Zuwendung zu konstruktivistischen Auffassungen (Schütte 1998a; vom Brocke 2003; Wyssusek 2004; Recker 2007; Mendling 2007). Hier wird einem soziopragmatisch-konstruktivistischen Modellverständnis gefolgt, das in Wyssusek (2004) umfassend hergeleitet wird (vgl. auch Recker 2007). Der semantische Raum im Sinne des soziopragmatischen Konstruktivismus beginnt auf der zweiten semantischen Stufe (Stachowiak 1973), mit der Ebene der Wahrnehmungen und Vorstellungen und mit der gesprochenen Sprache als bedeutendem Kommunikationssystem. Da die soziale symbolische Interaktion ein Kommunikationssystem voraussetzt, sind die untersten zwei Stachowiakschen Stufen für die Deutung von symbolischen Interaktionen irrelevant. Die unterste (nullte) verfügt über kein Kommunikationssystem und die erste verfügt über ein Kommunikationssystem, das nur die interne Kommunikation betrifft (Wyssusek 2004, S. 145-146). Diese Reduktion der Theorie der semantischen Stufen hat zur Folge, dass sowohl Original als auch Modell in der symbolischen Welt des Menschen verortet werden, womit die Gleichsetzung von „realen“ Dingen und sprachlichen Ausdrücken vermieden werden kann. Als Konsequenz ergibt sich, dass sowohl das wahrgenommene „Original“ als auch das zu konstruierende Modell Resultate symbolischer Interaktionen sind (Wyssusek 2004, S. 146). Dies bedeutet auch, dass der Gegenstand der Modellierung von einer zweifachen Interpretation geprägt ist: die modellbasierte Beschreibung ist sprachabhän19 Wenn Modelle zur Spezifikation (im präskriptiven Sinne) eines Systems erstellt werden, existiert (noch) kein wahrnehmbares Original, auf die sich beziehen können. Modelle können sich daher auch auf mögliche Systeme beziehen (vgl. hierzu Kühne 2006, S. 3). 27 gig, aber bereits vor seiner Beschreibung muss ein Gegenstand sprachlich strukturiert werden, um ihn überhaupt beschreiben zu können (vgl. auch Habermas 1995). Einsatzzwecke Bezüglich des Einsatzzwecks von Modellen lassen sich zwei grundlegende Verwendungsmöglichkeiten differenzieren. Deskriptive Modelle werden in erster Linie erstellt, um Nutzern das durch das Modell Beschriebene vermittelbar zu machen (Kühne 2006). Dies geschieht, indem die Modellnutzer mentale Repräsentationen entwickeln, die das Verstehen der modellierten Gegenstände auf eine effektivere Art und Weise ermöglichen. Präskriptive Modelle hingegen dienen als Vorgaben oder Spezifikationen, welche die Initiierung und Durchführung weiterer Aktivitäten genau beschreiben, deren Ziel es ist, ein bestimmtes Artefakt zu konstruieren (Kühne 2006). Diese Art der Verwendung von Modellen erfolgt vor allem in Systementwicklungsvorhaben, die in verschiedensten Kontexten angesiedelt sein können. Da diese Modelle als Spezifikationen immer auch von einem Konsumenten erfasst und vestanden werden müssen, um die erforderliche Arbeiten im Anschluss ausführen zu können, haben auch präskriptive Modelle immer ein deskriptives Element. Modellnutzer müssen hier in der Regel mindestens zwei kognitive Aufgaben bewältigen: 1. die Erfassung und das Verständnis des Modells; 2. die Umsetzung der Modellinhalte (in einem informationstechnischen System). Modellierungstechnik Für den praktischen Einsatz der Modellierung kann eine Modellierungstechnik genutzt werden. Eine Modellierungstechnik besteht aus zwei miteinander in Beziehung stehenden Konzepten: einer Modellierungssprache und einer Modellierungsmethode (Mendling 2007, S. 8-9). Eine Modellierungssprache umfasst die Bestandteile Syntax, Semantik und gegebenenfalls eine Notation. Die Syntax stellt eine Menge an Konstrukten und zusätzlich eine Menge an Regeln bereit, die bestimmen wie die Konstrukte zueinander in Beziehung gesetzt werden dürfen20 . Die Semantik legt Bedeutungen für die Konstrukte und ihre Kombinationen (welche die Syntax definiert) fest. Diese Festlegung kann beispielweise mit Hilfe einer ontologischen Systematik organisiert werden. Die Notation legt eine Menge an graphischen Symbolen fest, die für die Visualisierung der Modelle eingesetzt werden dürfen. Darüber hinaus lässt sich eine Modellierungssprache als Spezifikation festgelegt durch ein Metamodell verstehen21 . Eine Modellierungsmethode legt bestimmte Aktivitäten und insgesamt eine Vorgehensweise fest, die Modellierer bei der Anwendung der Modellierungssprache zur Konstruktion von Modellen22 unterstützen (Wand u. Weber 2002). Wenn die Modellierungsmethode befolgt wird, dann resultieren im Idealfall Modelle, die den Vorgaben der eingesetzten Modellierungssprache entsprechen. Evaluierung von Modellierungssprachen Es existieren verschiedene Ansätze zur Schaffung einer Evaluierungsgrundlage für unterschiedliche Modellierungssprachen (Siau u. 20 Vgl. den Begriff modeling grammar in Wand u. Weber (1995). Vgl. dazu die Ausführungen zu Metamodell und Modellierungssprache in Kühne (2006). 22 Vgl. den Begriff script in Wand u. Weber (1995) und Wand u. Weber (2002). 21 28 Rossi 2010). Diese können auch auf den Kontext der Geschäftsprozessmodellierung übertragen werden (Mendling 2007). Die Ansätze sind in unterschiedlichen Theorien verankert, wovon drei verbreitete Ansätze hier kurz erläutert werden. Es werden im Folgenden die ontologische Perspektive, die Speech-Act-Theorie und die Metamodellierung vorgestellt (vgl. die Strukturierung in Mendling 2007). Die ontologische Perspektive geht davon aus, dass Informationssysteme Gegenstände der realen Welt darstellen. Eine zugehörige Modellierungssprache sollte daher in der Lage sein, diese gegenständliche Welt zu repräsentieren. Das sogenannte Bunge-WandWeber-Modell (BWW), das von Wand u. Weber (1995) unter Verwendung von Bunges Ontologie (Bunge 1977) für die Repräsentation von Informationssystemen vorgeschlagen wurde, führt für eine solche Modellierungssprache eine Menge von Konstrukten ein, die als notwendig und ausreichend für die Repräsentation von Informationssystemen in der realen Welt erachtet werden. Beispiele für diese essentiellen Konstrukte sind Gegenstände, Ereignisse, Historien (dies sind Zustände, die Gegenstände mit der Zeit durchlaufen) und Transformationen23 . Aufgrund ihrer Wesentlichkeit sollten diese Konstrukte demnach in Modellierungssprachen berücksichtigt werden (Wand u. Weber 1995). Eine Übersicht über bisher erfolgte Anwendungen des BWW-Modells findet sich in Recker u. a. (2007). Die Speech-Act-Theorie (oder Sprechakttheorie) ist eine philosophische Theorie der Sprache und geht auf Arbeiten von Austin (1962) und Searle (1969) zurück. Nach ihr werden neben den reinen sprachlichen Äußerungen nicht nur Gegenstände der Welt beschrieben oder Aussagen getroffen, sondern auch selbst Handlungen vollzogen, wie sich dies vor allem in sogenannten illokutionären Akten äußert wie z.B. der Frage, der Bitte, dem Versprechen oder der Ernennung. Johannesson (1995) nutzt diese Fundierung der Sprechakte zur Formulierung einer Modellierungssprache zur Repräsentation von Informationssystemen, die im wesentlichen als aus Konversationen bestehend begriffen werden und somit mit Sprechakten verknüpft werden können. Daraus werden konsistente Modelle zur Beschreibung von Strukturen und Verhalten dieser Konversationen abgeleitet, welche wiederum als essentielle Konstrukte der Repräsentation angesehen werden. Den Auffassungen Johannesson folgend sollten diese in Modellierungssprachen vorhanden sein, um Informationssysteme ausreichend repräsentieren zu können. In der Metamodellierung wird im Gegensatz zu den beiden obigen Positionen keine real-gegenständliche Verankerung verlangt, auf die sich modellierungssprachliche Konstrukte ansonsten stützen würden. Diese Verankerung wird durch die Einführung eines Metamodells ersetzt. Das Metamodell definiert die abstrakten Entitäten, mit denen ein Modell zur Repräsentation irgendeines bestimmten Systems konstruiert werden darf. Das Metamodell legt damit die Modellierungssprache, mit der Modelle erstellt werden können, fest (Atkinson u. Kühne 2003; Kühne 2006). Durch diese Relativität kann der Metamodellierungsprozess fortgesetzt und auch für das Metamodell selbst angewendet werden – auf diese Weise entstehen Metametamodelle usw. Dies kann fortgeführt werden ohne jemals eine erkenntnistheoretische Grundlage im Sinne einer Abbildung der realen Welt 23 Für einen Überblick der Konstrukte des BWW-Modells siehe Wand u. Weber (1989, 1995). 29 zu erreichen. Dies ist aber mit dem in dieser Arbeit zugrunde gelegten soziopragmatischkonstruktivistischen Verständnis des Modellierungsbegriffs vereinbar (siehe Beginn dieses Abschnitts). Im Hinblick auf die Evaluierungsmöglichkeit mit Hilfe von Metamodellen kann im Allgemeinen von einer „guten“ Modellierungssprache gesprochen werden, wenn deren Metamodell jene Entitäten identifiziert hat, die zur Repräsentation der Dinge im Kontext von Informationssystemen, von denen sich Anwender mentale Repräsentationen aufbauen, geeignet sind, so dass spezifische Aufgaben wie z.B. das Verständnis oder das Lernen eines Gegenstandsbereichs oder die fortgeführte Durchführung von Konstruktionsmaßnahmen (z.B. in anderen Repräsentationsformen) unterstützt werden24 . Ein Beispiel für die Evaluierung eines Informationsssystems mit Hilfe eines Metamodells findet sich in zur Mühlen (1999). Geschäftsprozessmodellierung Die in den vorangestellten Abschnitten erfolgte Vorstrukturierung ermöglicht nun die Präzisierung der entsprechenden Begriffe im Zusammenhang der Geschäftsprozessmodellierung. Die Definitionen sind sinngemäß an die Darstellungen in Mendling (2007) angelehnt. Ein Geschäftsprozessmodell ist das Ergebnis eines Konstruktionsprozesses, in dessen Verlauf ein Prozessmodellersteller auf Basis seiner zuvor erstellten mentalen Repräsentationen von einem Geschäftsprozess eine externe Repräsentation, meist mit Hilfe einer festegelegten Prozessmodellierungssprache und einer -notation, erstellt. Die zuvor mental gebildeten Repräsentationen können aus der unmittelbaren Wahrnehmung eines vorliegenden betrieblichen Ablaufs (in der „Welt“ liegend oder bereits als konzeptuelles Modell repräsentiert), aus dem Abrufen von geschäftsprozessbezogenen Repräsentationen aus dem Gedächtnis oder aus einer Kombination beider Wege resultieren. Die Geschäftsprozessmodellierung ist dementsprechend der Vorgang der Konstruktion von Geschäftsprozessmodellen basierend auf menschlichen Handlungen, welche zur Erstellung der oben erläuterten externen Repräsentation führen. Sie ist zudem zweckgebunden und mit einem Verlust an Information aufgrund der Reduktion durch die zweifache Interpretation (siehe Absatz zu „Modellbegriff“) verbunden. Eine Geschäftsprozessmodellierungssprache stellt die Konstrukte und ihre möglichen Beziehungen zueinander bereit, mit denen das Geschäftsprozessmodell konstruiert werden darf. Sie kann typischerweise mit einem Metamodell spezifiziert werden. In Verbindung mit einer Geschäftsprozessmodellierungsmethode, welche die Anwendungsregeln der Modellierungssprache festlegt, manifestiert sich eine Geschäftsprozessmodellierungstechnik (zu Geschäftsprozessmodellierung siehe insbesondere Mendling 2007). Dynamisch vs. statische Modelle in der Wiederverwendung Zu diskutieren ist hier, inwieweit statische Modelle im Gegensatz zu dynamischen Modellen in Aufgaben unter Wiederverwendung unterschiedlich wahrgenommen und adaptiert werden. Statische Mo24 Vgl. dazu die Cognitive-Fit-Theorie (CFT) von Vessey u. Galletta (1991), welche die Passgenauigkeit bzw. Unterstützungsfähigkeit von externen Repräsentationen – hierzu lassen sich visualisierte Geschäftsprozessmodelle zählen – in Bezug auf Aufgabenbearbeitungen strukturiert. Die CFT wird in Abschnitt 3.2 aufgegriffen. 30 delle wie z.B. Klassendiagramme haben explizite Konzepte z.B. zur Vererbung (hierarchische Strukturen sind hier im Allgemeinen eher bekannt), daher sind Ankereffekte (siehe Abschnitt 4.2) hier vermutlich eher schwächer ausgeprägt, wenn die Granularität der wiederverwendeten Modelle variiert wird. Prozessmodelle haben zwar auch Repräsentationsmöglichkeiten der hierachischen Zusammenfassung (vgl. sub-processes der BPMN), der Kerngedanke, der im Vordergrund steht, ist aber die zeitliche Abfolge (von Aktivitäten). Die Verfeinerung bzw. Spezialisierung von Entitäten in einem Prozessmodell ist Modellierern daher als Transformationsoperation nicht so präsent wie dies z.B. bei Klassendiagrammen der Fall ist. Es kann daher schon an dieser Stelle die Vermutung geäußert werden, dass Ankereffekte in Bezug auf Granularitätsänderungen in den wiederverwendeten Modellen (diese Konzepte sind im Weiteren zu explizieren) bei Prozessmodellen ausgeprägter sein werden. 2.2.2. Prozessmodellbasierte Systementwicklung Der Business Process Management Life Cycle25 beschreibt die Erstellung von Prozessmodellen als Spezifikation und die anschließende Entwicklung der zur Ausführung der Prozesse benötigten informationstechnischen Infrastruktur. Neben der Vielzahl an Methoden der Systementwicklung gibt es Ansätze, die explizit Geschäftsprozessmodelle im präskriptiven Sinne als Ausgangspunkt der Anforderungsspezifikation nutzen. Die Menge dieser entwicklungsbezogenen Vorgehensweisen ist folglich zu adressieren, wenn Ansätze der Wiederverwendung von Prozessmodellen erwogen werden. Es erfolgt daher eine Beschreibung wichtiger prozessmodellbasierter Systementwicklungsansätze. Bereits in den 1980er Jahren gab es erste Instanziierungen von prozessautomatisierender Software, die wenig später zusammenfassend als Workflow Management Systems (WfMS) bezeichnet wurden. Um die Jahrtausendwende gab es einen übergreifenden Trend in der Systementwicklung, der Modelle besonders in den Fokus der Entwicklungsbemühungen stellte, was in Ansätze der modellbasierten Softwareentwicklung oder Model-Driven Development (MDD) mündete. Die Spezifikation von Geschäftsprozessmodellen stellt hierbei einen Spezialfall des allgemein modellbasierten Vorgehens dar. Der Geschäftsprozessfokus spielt auch in jüngeren Systementwicklungsansätzen eine tragende Rolle, welche explizit die Orientierung an Geschäftsprozessen als maßgeblich für die anschließende Entwicklung der informationstechnischen Unterstützung ansehen. Unter Beibehaltung von zentralen Konzepten des MDD bzw. der Model-Driven Architecture (MDA) fallen jene Ansätze unter das Business-Driven Development. Der Abschnitt gliedert sich entsprechend in 1) Workflow Management Systems, 2) Model-Driven Development und 3) Business-Driven Development. 25 Vgl. Abschnitt 2.1.2. 31 Workflow Management Systems In den 1990er Jahren haben Workflow Management Systems (WfMS)26 ein Konzept begründet, welches davon ausgeht, dass ein Informationssystem zur Unterstützung von Geschäftsprozessen auf Basis von Prozessmodellen realisiert werden kann (Kindler 2009, S. 27). Diese Prozessmodelle werden von einer Workflow-Engine ausgeführt bzw. gesteuert. Prozessmodelle sind geeignet, den wichtigen, ablauforientierten Ausschnitt der betrieblichen Realität abzubilden und sind dadurch nah an den Repräsentationen von betrieblichen Abläufen, die Anwender in Organisationen mental bilden – vermutlich näher als andere Modellierungsnotationen der klassischen Softwareentwicklung es vermögen (Kindler 2009). Die Anwendungen von Workflow Management Systems haben gezeigt, dass es möglich ist, Informationssysteme zu konstruieren auf Basis von Prozessmodellen, ohne dass ein erheblicher Programmieraufwand erforderlich wird. Die erfolgreiche Anwendung hat sich besonders bei bestimmten Informationssystemen gezeigt, bei denen Aspekte wie hohe strukturelle Sicherheit und beschränkte Anforderungsvariabilität ausgeprägt waren. Diese Informationssysteme werden auch als Process-Aware Information Systems (PAIS) bezeichnet (Dumas u. a. 2005). Die wesentlichen Komponenten und Aktivitäten der Nutzung eines WfMS sind im Referenzmodell der Workflow Management Coalition strukturiert (WFMC 1994). Abbildung 2.3 zeigt das Workflow-Referenzmodell. Model-Driven Development Seit der zweiten Hälfte der 1990er Jahre werden verstärkt Möglichkeiten vorgeschlagen und diskutiert, auf Basis von spezifizierten Modellen zu ausführbarer Software und entsprechender Unterstützung der zu erfüllenden Aufgaben zu gelangen. Dieser prinzipielle Ansatz wird übergeifend als Model-Driven Development (MDD) bezeichnet. Der Ansatz wurde von der OMG aufgegriffen und dessen prominenteste Ausprägung findet sich in der Model Driven Architecture (MDA) wieder, die im Jahr 2001 erstmalig veröffentlicht wurde27 . Ziel der MDA ist es, aus formal eindeutigen Modellen mit Hilfe von Generatoren automatisch Code zu erzeugen und dadurch die Entwicklungsgeschwindigkeit zu steigern. Die MDA stellt Modelle ins Zentrum der Systementwicklung und differenziert dabei spezifische Modelle, die sich auf verschiedene Sichten eines Informationsystems beziehen, welche in eine konsistente Struktur gebracht werden. Die wesentlichen Modelle sind dabei das Computation Independent Model (CIM), das Platform Independent Model (PIM), das Platform Specific Model (PSM) und schließlich das Codemodell. Das CIM besteht im wesentlichen aus natürlichsprachlichen Beschreibungen, das PIM repräsentiert konkretere Konzepte bezüglich des zu entwickelnden Informationssystems, bleibt dabei aber technologisch unspezifisch, und das PSM umfasst die Modelle des Informationssystems mit Bezügen zu spezifischen technologischen Lösungen. Neben der inhaltlichen Trennung der Modelle über die genannten Schichten definiert die MDA auch die Transformation 26 27 Vgl. Hollingsworth (1995). Für eine Übersicht der Kernkonzepte der MDA siehe Miller u. Mukerji (2001) und OMG (2003). 32 Definition Tool generates may reference Process Definition references interpreted by Organization/ Role Model Data maintain WfM Engine(s) Workflow Enactment Service invokes use (Supervisor) Application(s) manipulate Workflow Relevant Data Work List Administration & Control Workflow Control Data update Workflow Application Data interact via Work List Handler invokes Application(s) User Interface Abbildung 2.3.: Workflow-Referenzmodell (in Anlehnung an WFMC 1994) der Modelle und unterscheidet zwei Typen:die Modelltransformation von einem Modell in ein anderes Modell (vgl. die MOF QVT (OMG 2002)) und die Codetransformation von einem Modell in den Code. Als Ausgangspunkte in der MDA sind die verfügbaren Modelle der UML vorgesehen. Dies schließt Aktivitätsdiagramme als Möglichkeit der Repräsentation von betrieblichen prozeduralen Abläufen mit ein. Im Gegensatz zu den Workflow-Modellen der WfMS befinden sich die Modelle der MDA sehr viel dichter an den technischen Spezifikationen (zumindest jene des PSM), die in Programmcodes erforderlich sind. Umgekehrt bedeutet dies auch, dass die MDA Repräsentationen des Workflow-Management und anderer betriebsorientierter Sichten nicht explizit mit einschließt (Kindler 2009). Um den Grundgedanken der Ansätze WfMS und MDA, Modelle als zentralen Ausgangspunkt der Softwareentwicklung zu verwenden, zu vereinen, hat Kindler (2009) den Begriff Model-based Software Engineering (MBSE) eingeführt. Unter MBSE werden demnach alle Softwareentwicklungsansätze verstanden, die Modelle für die Spezifikation verwenden und deren formaler Spezifikationsgrad über einfache Illustrationen und Skizzen hinausgeht (Kindler 2009, S. 28). 33 Business Requirements Develop Ana & A lyze dap t Model IT Requirements ni Mo r to De y plo Abbildung 2.4.: BDD-Lebenszyklus (Koehler u. a. 2006) Business-Driven Development Die generelle Idee des Business-Driven Development (Mitra 2005; Koehler u. a. 2006) (BDD) ist, dass von visuellen Modellen ausgehend ein codiertes ausführbares Programm erstellt wird28 . Speziell hierbei ist, dass Geschäftsprozessmodelle den Ausgangspunkt der Modellierung darstellen. Die Geschäftsprozessmodelle werden verfeinert und mit weiteren Informationen angereichert, die schließlich ausreichen, um eine Orchestrierung bzw. Choreographie von Services im Rahmen einer serviceorientierten Architektur zu beschreiben. Die wesentlichen Phasen des BDD-Lebenszyklus sind in Abbildung 2.4 dargestellt. Dabei wird auf zwei wesentliche Herausforderungen auf der methodischen und technologischen Ebene hingewiesen, welche die Umsetzung solch einer Service-Orchestrierung erschweren. Ein Geschäftsprozessmodell, welches fachliche Anforderungen und unternehmerische Ziele repräsentiert, ist in der Regel nicht ausreichend, um das skalierbare, zuverlässige und performante Zusammenwirken von IT-Services auszudrücken. Zum zweiten ist die Integration einer von Geschäftsprozessmodellen abgeleiteten Service-Orchestrierung (oder -Choreographie) mit einer vorliegenden informationstechnischen Infrastruktur selten garantiert. Neben Ansätzen der Prozessmodell-zu-BPEL29 -Transformation, welche die Überführung von Geschäftsprozessmodellen in ausführbare Prozessmodellierungssprachen ermöglichen, wird eine Klassifiaktion von Prozessmodellen vorgenommen in Analysemodelle, Designmodelle, Referenzmodelle und Legacy-Modelle. Insbesondere das Konzept der Referenzmodelle, welche Best-Practices bestimmter Industriezweige umfassen sollen, adressiert den Gedanken der Wiederverwendung von Geschäftsprozessmodellen, welche über Verfeinerungsoperationen auf den Kontext des Kundengeschäftsprozesses angepasst werden können (vgl. hierzu die Wiederverwendungsansätze in Abschnitt 2.3.4). 28 29 Vgl. hierzu den Ansatz Model-Driven Architecture in Abschnitt 2.2.2. Business Process Execution Language. 34 Tabelle 2.1.: Prozessmodellbasierte Softwareentwicklungsansätze Fokus Modellierungsgegenstand Typ der Generierung Bezug zum Informationssystem Automatische Prozesssteuerung Entwicklung von WfMS Geschäftsprozesse automatisch ausführen Prozess Komposition; Konfiguration des Workflow-Modells WfMS als eine integrierte Applikation Kernmerkmal MDD, MDA Modelle in den Mittelpunkt der Systementwicklung rücken Verschieden (vgl. UML) Transformation (manuell und automatisiert) BDD An Prozessmodellen ausgerichtete Ausprägung des MDD Prozess Transformation und schließlich Komposition von Services Merkmal Ansatz Möglichst alle Steht nicht im Tools direkt mittels Mittelpunkt, wird Modellen steuern mit abgedeckt Ähnlich wie MDD Die Orchestrierung von Services ist erklärtes Ziel Eine Zusammenfassung der wesentlichen Merkmale der erläuterten prozessmodellorientierten Systementwicklungsansätze ist in Tabelle 2.1 gegeben. 2.2.3. Qualität von Geschäftsprozessmodellen Die Nutzung von Geschäftsprozessmodellen als Artefakte in der Informationssystemgestaltung, die ein besseres Verständnis vorliegender betrieblicher Realitäten ermöglichen oder als Handlungsanweisungen für Entwicklungsaktivitäten dienen sollen, wirft immer auch die Frage danach auf, ob bestimmte Ausprägungen dieser Prozessmodelle für die genannten Zwecke besser geeignet sein könnten als andere. Um dies besser verstehen zu können, ist eine genauere Auffassung der Qualität von Geschäftsprozessmodellen zu entwickeln (Bandara u. a. 2005). Ein konkret definierter Qualitätsbegriff (bzw. Qualitätsbegriffe) für Prozessmodelle, der auch eine Operationalisierung erlaubt, ist auch dann erforderlich, um Prozessmodelle im Sinne von Konstruktionsergebnissen vergleichend beurteilen zu können. Ohne explizite Qualitätsauffassungen wäre eine entsprechende Evaluierung nicht möglich. Da diese Arbeit die Auswirkungen von unterschiedlich granularen, wiederverwendeten Prozessmodellen auf die insgesamte Modellierungsperformanz untersucht, wovon die Qualität der Lösungsmodelle eine wichtige Komponente ist, ist auch hier ein festgelegter Qualitätsbegriff von Notwendigkeit. Mit Hilfe dieser festgelegten Variablen können schließlich Fragen erörtert werden wie: führt der Wiederverwendungsansatz zu qualitativ besseren Prozessmodellen oder wie beeinflusst ein grobgranulares Wiederverwendungsmodell die finale Prozessmodellqualität im Gegensatz zu einem feingranula- 35 ren? Im Weiteren sind Einflussfaktoren in Prozessmodellierungsaktivitäten von Interesse, da sie konsequentenreiche Effekte auf die Qualität dieser Modelle haben können. Überlegungen zu einem Verständnis von Qualität von Geschäftsprozessmodellen sind stark geprägt von existierenden Ansätzen zur theoretischen Fundierung des Qualitätsbegriffs von konzeptuellen Modellen im allgemeinen. Die Verfeinerung von Qualitätsauffassungen für Prozessmodelle erfolgen in der Regel auf der Grundlage von theoretischen Ordnungsrahmen, die primär die Qualitätsbegriffe für statische Modelle organisieren, um sich von dort aus dann dynamischen Modellinhalten zu nähern. Die Diskussion darüber, was unter Qualität von Modellen, insbesondere von Prozessmodellen zu verstehen ist, ist daher noch nicht abgeschlossen. Hinzu kommt der spezielle Anwendungsfall der wiederverwendungsorientierten Konstruktion. Die nächsten drei Abschnitte zur Qualität in der Prozessmodellierung sind wie folgt organisiert. Zunächst werden 1) die wichtigsten theoretischen Ansätze zur Definition von Prozessmodellqualität (aufbauend auf den Qualitätsbegriffen für konzeptuelle Modelle im weiteren Sinne) vorgestellt. Vorgreifend sei hier die kürzlich erfolgte veränderte Auffassung von Modellierungsaktivitäten und ihrer Zusammenhänge mit der Qualität von Modellen und der sich ändernden Wahrnehmung der vorliegenden Domäne hervorzuheben. Dabei werden die in Bezug auf die wiederverwendungsbasierte Prozessmodellerstellung relevanten Qualitätsgrößen identifiziert und eventuell fehlende Größen aufgezeigt und näher qualifiziert. In Anknüpfung an die Auffassungen von Prozessmodellqualität werden dann Arbeiten vorgestellt, die sich stärker mit verschiedenen 2) Einflussfaktoren in Prozessmodellierungsvorhaben auseinandersetzen und ihre Wirkungen auf die Modellqualität(en) untersuchen. Auch hier werden die modellwiederverwendungsrelevanten Faktoren kompakt gewürdigt und es wird in diesem Kontext die Granularitätseigenschaft von Prozessmodellen als ergebnisbeeinflussende Variable diskutiert. Zusammenfassend wird dann der Begriff der 3) Qualität in der Prozessmodellwiederverwendung näher expliziert und auf die Besonderheiten des wiederverwendeten Prozessmodells und des hierfür angewandten Qualitätsbegriffs hingewiesen. Hierdurch wird klarer, welche spezifische Qualität im Kontext der wiederverwendungsbasierten Prozessmodellkonstruktion als wichtig erachtet wird und wie sich die Prozessmodellgranularität als ein entscheidender Faktor in diesen Arbeitsprozess einordnen lässt. Theoretische Ansätze der Prozessmodellqualität Bevor die verschiedenen Stränge der Auffassungen von Prozessmodellqualität vorgestellt werden, kann eine Abgrenzung von jenen theoretischen Vorschlägen vorgenommen werden, die einen sehr weit gefassten Qualitätsbegriff zugrunde legen, der soziale Variablen (wie z.B. Anwenderzufriedenheit), die Effizienz von Prozessmodellierungsprojekten und weitere Maße einbezieht (wie z.B. in Bandara u. a. 2005; Frank 2007). Der Betrachtungsbereich erstreckt sich hier auf eine größere Gruppe von Prozessmodellierern und eine größere Menge zu konstruierender Prozessmodelle, deren Erstellung einen entsprechenden organisatorischen Rahmen, spezifische Managementhandlungen und Ressourcen erfordert. 36 Die hier entstehenden Aufwände werden auf der Ebene der betrieblichen Führung konsequenterweise zu einem Qualitätsbegriff der Prozessmodellierung hinzugerechnet. Dieser Makroperspektive steht eine Mikroperspektive gegenüber, die Qualitätseigenschaften im Rahmen der Aktivität eines einzelnen modellierenden Individuums fokussiert. Erfolgsmaße wie geringe Projektkosten oder tatsächlich resultierende Handlungen in der Organisation als Folge modellierter Prozesse werden hier außen vor gelassen. Stattdessen ermöglicht die Mikroperspektive ein detaillierteres Bild von einem semantischen und pragmatischen Qualitätsbegriff für Prozessmodelle, der sowohl den Bezug zum Wissen des Modellierers, als auch zu den prozessrelevanten Phänomenen im betrachteten Modellierungsbereich berücksichtigt. Im Folgenden werden drei relevante theoretische Rahmen für die Beschreibung von Qualitätseigenschaften innerhalb der Prozessmodellierung vorgestellt: 1) die Guidelines of Modeling (GoM) (Becker u. a. 2000), 2) das SEQUALFramework (Lindland u. a. 1994) und 3) dessen Überarbeitung hin zu einem Framework für die Qualität von aktiven Prozessmodellen (Krogstie u. a. 2006). Becker u. a. (2000) schlagen die Guidelines of Modeling (GoM) vor. Dies sind sechs Gestaltungsrichtlinien für die Erstellung von Informationsmodellen, bei deren Einhaltung die Qualität der konstruierten Modelle gesteigert werden kann. Die Richtlinien beziehen sich auf spezifische Eigenschaften von Modellen, namentlich Korrektheit, Relevanz und ökonomische Effizienz. Neben diesen drei Eigenschaften werden noch die optionalen Eigenschaften Klarheit, Vergleichbarkeit und Systematisches Design eingeführt. Die GoM wurden für EPK operationalisiert und getestet . Beispielsweise wird die ökonomische Effizienz als Qualitätsmerkmal von Modellen eingeführt, das sich auf die Machbarkeit aus Lindland u. a. (1994) bezieht. D.h. ein Prozessmodell muss mit vertretbaren Ressourcen erstellt werden können, so dass es im organisatorischen Arbeitsprozess rechtzeitig Verwendung findet. Die Wiederverwendung von Modellen30 wird dabei als möglicher Umsetzungsansatz vorgeschlagen, um diese ökonomische Effizienz zu erzielen. Welche (wiederverwendungsbezogenen) Aufgaben hiermit genau adressiert werden und wie hier potenzielle Aufwandseinsparungen konkret verstanden werden und wie sie erfolgen wird jedoch nicht weiter ausgeführt. Weiter wird eine optionale Richtlinie der Klarheit (Becker u. a. 2000, S. 33) vorgestellt, die den pragmatischen Aspekt aus Lindland u. a. (1994) referenziert und fordert, dass Modelle für Modellbetrachter verständlich gestaltet werden sollen. Was unter „Verständlichkeit“ wiederum genau verstanden wird bzw. wie dies operationalisiert werden könnte, wird nicht weiter definiert. Als beeinflussender Faktor wird das Layout eines Modelldiagramms genannt; konkrete Layoutregeln und deren vermutete Effekte auf Qualitätsdimensionen wie z.B. Verständlichkeit werden jedoch nicht formuliert. Der Beitrag kann als Versuch verstanden werden, ein theoretisches Modell zu etablieren, das Qualitätsmerkmale von konzeptuellen Modellen definiert und organisiert. Darüberhinaus werden einige spezifische Faktoren der Modellerstellung eingeführt und deren Einfluss auf Qualitätsmerkmale der erstellten Diagramme diskutiert. Die Faktoren und ihre Zusammenhänge mit Qualitätsgrößen sind aber abstrakt gehalten und tragen nur begrenzt dazu bei, Modellierern praktische Hinweise dafür zu geben, Modelle so zu 30 „Approaches to support the economic efficiency are reference models, appropriate modeling tools or the re-use of models.“ (Becker u. a. 2000, S. 33). 37 gestalten, dass sich resultierende Eigenschaften (sei es die Verständlichkeit eines Modells oder die adaptive Nutzbarkeit für eine neue Problemlösung) verbessern (siehe auch Mendling u. a. 2010a). Die GoM greifen einige Größen auf, die einige Jahre früher in einem sehr bekannten theoretischen Modell für die Qualität von konzeptuellen Modellen bereits konkret organisiert wurden: das SEQUAL-Framework von Lindland u. a. (1994). Dieses Modell basiert auf der semiotischen Theorie und definiert explizite Qualitätsgrößen von Modellen, die auf den wesentlichen Zusammenhängen zwischen einem konstruierten Modell, dem Wissen von Modellierern, einer Domäne und einer Modellierungssprache basieren. Das Modell ist in Abbildung 2.5 visualisiert. Konkret beschreibt dabei die syntaktische Qualität den Zusammenhang zwischen dem externalisierten Modell und der verwendeten Modellierungssprache. Die physische Qualität bezeichnet die Beziehung zwischen dem Modell und dem expliziten Wissen des Modellierers. Die organisatorische Qualität vertritt die Modelleigenschaften, die in Relation zu organisatorischen Zielen stehen. Die pragmatische Qualität bezieht sich auf Modellmerkmale, welche die Interpretatierbarkeit des Modells durch soziale Akteure bestimmen. Die semantische Qualität hingegen bezieht sich auf die Eigenschaft des Modells, die betrachtete Domäne (korrekt) zu repräsentieren. Das Framework wurde auch für EPK operationalisiert und einer empirischen Überprüfung unterzogen (Moody u. a. 2002). Insgesamt liefert das SEQUAL-Framework eine differenzierte Beschreibung von verschiedenen Perspektiven auf Modellqualität. Diese verschiedenen Qualitätsbegriffe sind grundlegend geeignet, um Modelle als Resultate von konstruktiven Prozessen zu beurteilen. Insbesondere die semantische Qualität ist eine nachvollziehbare Größe für Modelle, da sie vom Modell verlangt, alles relevante, was sich in der Domäne befindet, richtig wiederzugeben 31 . Wird das Framework auf die wiederverwendungsorientierte Modellierung bezogen, so sind die Qualitäten, was die Endergebnisse des Modellierungsprozesses anbelangt, direkt übertragbar und anwendbar. Im wiederverwendungsbasierten Ansatz tritt jedoch ein Modell hinzu – neben das finale Lösungsmodell – das eine besondere Rolle einnimmt: das wiederverwendete (und zu modifizierende) Modell. Das Framework nimmt keinen direkten Bezug auf den wiederverwendungsorientierten Konstruktionsprozess bzw. wiederverwendete Modelle. Die pragmatische Qualitätsdimension ist jedoch offen für Erfassbarkeits- und Verständlichkeitsaspekte, die in jedem Fall eine Rolle spielen, wenn ein Wiederverwendungsmodell eingesetzt (bzw. anpasst) wird. Diese „unterstützende Qualität“ eines Wiederverwendungsmodells in einem Konstruktionsprozess kann also innerhalb der pragmatischen Qualität untergebracht werden, benötigt aber eine weitergehende Charakterisierung. Da das SEQUAL-Framework eine überwiegend statische Sicht in Bezug auf die semantische Qualität einnimmt, welche Modellierungsaktivitäten und die Fähigkeit von Modellen, die Domäne zu verändern nicht stark genug berücksichtigt, und einen sehr eng 31 Vgl. Maes u. Poels (2007) für den Begriff wahrgenommene semantische Qualität (d.h. die Übereinstimmung von Informationen, die Nutzer aus dem Modell heraus interpretieren, mit Informationen, die Nutzer im Modell erwarten würden), der hiernach die Nützlichkeit für die weitere Kommunikation bestimmt. 38 Knowledge articulation appropriateness Participant language knowledge appropriateness Social actor explicit knowledge Ks Knowledge quality Modeler explicit knowledge Km Semantic quality Social actor interpretation I Goal of modeling G Physical quality Modeling domain D Perceived semantic quality Organizational quality Empirical quality Comprehensibility appropriateness Pragmatic quality Model externalization M Social quality Organizational appropriateness Syntactic quality Language extension L Tool quality Technical actor interpretation T Technical actor interpretation appropriateness Domain appropriateness Abbildung 2.5.: Das SEQUAL-Framework (so dargestellt in Krogstie u. a. 2006) gefassten Begriff der pragmatischen Qualität definiert, der sich auf das Verständnis von Modellen beschränkt, während weitere Anwendungen und Wirkungen der Modelle außer Acht gelassen werden, wurde das Framework diesbezüglich von Krogstie u. a. (2006) entsprechend erweitert. Das überarbeitete SEQUAL-Modell (siehe Abbildung 2.6) identifiziert die wesentlichen Aktivitäten der Modellierung (welche das Modell entwickeln), des fortschreitenden Lernens über eine Domäne (während der Modellierung) und jene konkreter Handlungen in der Domäne, welche aufgrund der Repräsentation durch ein Modell und die Modellierungsaktvitäten ausgelöst werden können. Es wird in diesem Zusammenhang der Begriff aktive Prozessmodelle eingeführt. Das Qualitätsframework 39 K (current knowledge) Knowledge quality KN (knowledge need) changes Semantic quality Ideal semantic quality (prescriptive) DO (optimal domain) Domain quality Learning (of domain) Pragmatic quality changes M Ideal semantic quality (descriptive) D (actual domain) Modelling (of domain) Pragmatic quality changes Action (in domain) Abbildung 2.6.: Qualitätsmodell der aktiven Prozessmodellierung (Krogstie u. a. 2006) ist abstrakt in der Hinsicht, dass es von Prozessmodellierern in der Praxis nicht direkt angewandt werden kann (Mendling u. a. 2010a). Sein qualitativer Charakter lässt zudem die Möglichkeit, quantitativ erfassbare Eigenschaften von Prozessmodellen und deren Zusammenhang mit Ergebnisgrößen wie Korrektheit, Verständlichkeit oder Auswirkungen auf den Betrieb noch offen (Krogstie u. a. 2006, S. 101). D.h. es lassen sich kaum konkrete Handlungsanweisungen, die sich auf spezifische Ausprägungen von Prozessmodellen beziehen, ableiten, die Prozessmodellierer im Konstruktionsprozess unterstützen könnten. Weiterhin berücksichtigt das Modell von Krogstie u. a. nicht explizit die Verfügbarkeit von wiederverwendbaren Prozessmodellen. Es wird das Prozessmodell M berücksichtigt, das im Zusammenspiel von Lernaktivitäten und ständig neu erworbenen Sichten auf die Domäne in einem Konstruktionsprozess entsteht. Die Möglichkeit, dass neben dem aktuellen Modelliererwissen auch Prozessdiagramme bestehen können, die als Lösungsschätzung in den Konstruktionsprozess direkt einbezogen werden können, taucht im Modell jedoch nicht explizit auf. Die Verfügbarkeit eines externalisierten Artefakts, d.h. ein Prozessdiagramm neben dem eigentlich zu erstellenden Modell, stellt eine zusätzliche Form der Unterstützung dar, die selbst in Interaktion mit dem Wissen der Modellierenden tritt und im kontinuierlichen Abgleich mit dem letztlichen Lösungsmodell (bzw. dem in der Entstehung befindlichen) steht. 40 Einflussfaktoren auf Qualitätseigenschaften von Prozessmodellen Da die Untersuchungsfrage qualitative Aspekte der Prozessmodellwiederverwendung adressiert (vgl. vorherigen Abschnitt) und dabei den spezifischen Faktor der Granularität des Wiederverwendungsmodells näher fokussieren möchte, muss sie in den Kontext von bisher betrachteten Einflussfaktoren gestellt werden, welche sich im Rahmen der Geschäftsprozessmodellierung auf Qualitätseigenschaften auswirken. Die vorgestellten Arbeiten stellen eine Auswahl dar, welche Qualitätsauffassungen im Zusammenhang der pragmatischen Qualität der Modellwiederverwendung berühren und daher von hoher Relevanz sind. Es wird herausgestellt, welche Faktoren berücksichtigt wurden, in welcher Weise sie sich auf Qualitätsgrößen von Prozessmodellen auswirken und welche Implikationen dies für die Prozessmodellwiederverwendung haben könnte. Insbesondere werden betrachtet: 1) Faktoren und Maße des Prozessmodellierungserfolgs (Bandara u. a. 2005), 2) die Seven Process Modeling Guidelines (Mendling u. a. 2010a) und 3) Einflussfaktoren auf die Verständlichkeit von Prozessmodellen (Reijers u. Mendling 2011). Die Arbeit von Bandara u. a. (2005) ist eine der wenigen empirischen Untersuchungen, die zum Thema Qualität in der Prozessmodellierung vorgenommen wurden. Das Modell von Bandara u. a. (2005) unternimmt den Versuch, den Erfolg von Prozessmodellierungsvorhaben zu beschreiben. Mehrere Faktoren, die über die Modellierung direkt betreffende Variablen hinausgehen (d.h. Methode, Sprache und Werkzeug), werden als wichtig hervorgehoben wie z.B. Stakeholder-Partizipation, Unterstützung durch das Management, Projektmanagement, Informationsressourcen und Kenntnisse der Modellierenden (vgl. die Abgrenzung dieser Makroperspektive in Abschnitt 2.2.3). Es werden Beziehungen hergestellt zwischen einzelnen Faktoren und Qualitätsdimensionen, diese werden aber nicht näher qualifiziert. D.h. es ist schwierig dem Modell zu entnehmen, in welcher Weise die Ausprägungen bestimmter Faktoren mit den Erfolgsdimensionen zusammenhängen. Darüber hinaus sind sowohl die Faktoren als auch die Erfolgsmaße nur sehr grob operationalisiert. Beispielsweise wird die Qualität eines Prozessmodells beschrieben mit dem Ausmaß, mit dem alle Merkmale des Prozessmodells so erfüllt sind, dass den Bedürfnissen des Modellierenden in effektiver und effizienter Weise entsprochen wird. In erster Linie werden über die Analyse von neun Case Studies mögliche Faktoren und die für wichtig erachteten Erfolgsmaße identifiziert. Praktische Hinweise, die Modellierenden bei der Erstellung von Geschäftsprozessmodellen eine konkrete Unterstützung bieten könnten, lassen sich aus diesem Modell nicht ableiten. Die identifizierten Konstrukte sind für diesen Zweck zu abstrakt und zu grob. Die Prozessmodellwiederverwendung als möglicher Ansatz in einem Prozessmodellierungsprojekt ist außerhalb des Untersuchungsfelds der Arbeit. Da die Konstrukte des Modells nur wenige konkrete Hinweise für die qualitative Prozessmodellierung entsprechend bestimmten Anforderungen geben, sind sie auch wenig aussagekräftig in Bezug auf eine Prozessmodellierungssituation unter möglicher Wiederverwendung von Prozessmodellen und qualitative Ausprägungen der resultierenden Prozessmodellergebnisse. Aufgrund des hohen Abstraktionsgrads prozessmodellbezogener Qualitätsmodelle (Lind- 41 land u. a. 1994; Becker u. a. 2000; Krogstie u. a. 2006) einerseits und der meist als anekdotisch einzustufenden praktischen Modelliererhinweise (da ohne empirischen Belege) werden in Mendling u. a. (2010a) auf Basis bisheriger empirischer Arbeiten sieben Modellierungsrichtlinien zusammengefasst, die in der Praxis zu qualitativ besseren Prozessmodellen führen sollen. Die Richtlinien beziehen sich auf untersuchte Zusammenhänge zwischen strukturell-syntaktischen Prozessmodelleigenschaften auf der einen Seite und der Fehlerwahrscheinlichkeit und der Verständlichkeit der Modelle für Menschen auf der anderen Seite. Diese sieben Prozessmodellierungsrichtlinien (engl. 7 Process Modeling Guidelines (7PMG)) sind folgende (vgl. Mendling u. a. 2010a): ∙ G1: Verwende so wenige Elemente im Modell wie möglich. ∙ G2: Minimiere die Zahl der Routingpfade pro Element. ∙ G3: Verwende ein Start-Ereignis und ein Ende-Ereignis. ∙ G4: Modelliere so strukturiert wie möglich.32 ∙ G5: Vermeide OR-Routing-Elemente. ∙ G6: Verwende Verb-Nomen-Aktivitätslabel. ∙ G7: Zerlege ein Modell mit mehr als 50 Elementen. Im Hinblick auf die Eigenschaften eines Prozesswiederverwendungsmodells im Rahmen einer Konstruktionsaufgabe sind die Richtlinien insofern zu berücksichtigen, als dass sie auf Auswirkungen auf die Verständlichkeit eines Prozessmodells hinweisen und die Größe Verständlichkeit für wiederverwendete Prozessmodelle zumindest als ein Faktor einer erfolgreichen Adaption zum Prozessmodellergebnis in Betracht gezogen werden muss. Daher kann auch die Korrelation zwischen den in den Richtlinien aufgeführten Eigenschaften und der Adaptionsperformanz wiederverwendeter Prozessmodelle vermutet werden. Insbesondere die Richtlinie G7 weist auf eine Eigenschaft – die Anzahl differenzierbarer Prozessmodellelemente – hin, die in einen Zusammenhang mit der Eigenschaft der Prozessmodellgranularität gebracht werden kann. Nach G7 führen Prozessmodelle mit mehr als 50 Elementen zu Schwierigkeiten der Verständlichkeit und sollten daher auf mehrere kleinere Prozessmodelle verteilt werden. In Bezug auf die Prozessmodellwiederverwendung könnte dies bedeuten, dass ein wiederverwendbares Prozessmodell mit mehr als 50 Elementen – dies könnte der Fall eines feingranularen Wiederverwendungsmodells im Vergleich zu einem grobgranularen sein – erstens schwieriger zu verstehen wäre und zweitens aufgrund der Verständlichkeitseinbuße dann auch schwieriger zu adaptieren wäre (in Richtung des Lösungsmodells). Dies wäre empirisch noch zu überprüfen, aber der Faktor der Elementanzahl weist auf eine potenzielle Granularitätsrelevanz in Bezug auf Qualitätsgrößen hin. Ausgehend vom Elementumfang (engl. size) als einem kritischem Faktor in Bezug auf 32 Strukturiertes Modellieren bezieht sich hier auf die konsistente paarweise Anwendung von Split- und Join-Konnektoren. 42 die Verständlichkeit von Prozessmodellen werden in Reijers u. Mendling (2011) darüber hinausgehend einerseits prozessmodellbezogene Eigenschaften (Modellfaktoren) und modelliererbezogene Merkmale (Personenfaktoren) untersucht. Modellfaktoren beziehen sich auf Charakteristika der externen Repräsentation des Prozessmodells, z.B. die Modelldichte oder Strukturiertheit. Personenfaktoren beziehen sich auf Charakteristika des Betrachters des Prozessmodells wie z.B. theoretisches Wissen und praktische Erfahrungen in der Prozessmodellierung. Mittels einer Fragebogen-basierten Untersuchung konnten deutliche Hinweise auf den Einfluss von Personenfaktoren (insbesondere Expertenwissen und -erfahrung) und Modellfaktoren (inbesondere die Komplexität basierend auf Merkmalen aus Mendling (2008) und Vanderfeesten u. a. (2008)) auf das Modellverstehen identifiziert werden. Dabei hat sich für die personenbezogenen Faktoren eine höhere Erklärungskraft (engl. predictive power) gezeigt im Vergleich zu modellbezogenen Eigenschaften. Die Implikationen dieser Ergebnisse für die Prozessmodellwiederverwendung sind ähnlich gelagert wie die oben dargelegte Bedeutung des Modellmerkmals Elementumfang. Die Verständlichkeit eines Prozessmodells, welche über die Beantwortung von Fragen durch die Modellbetrachter bezüglich Aspekte der Ausführungsreihenfolge, Exklusivität, Parallelität und weitere erfasst werden kann (Reijers u. Mendling 2011, S. 5-6), kann als wichtige Determinante in Aufgaben der wiederverwendungsbasierten und adaptionsorientierten Prozessmodellerstellung angenommen werden. Ob eine hohe Verständlichkeit von wiederverwendeten Prozessmodellen aber auch regelmäßig zu einer hohen Adaptionsperformanz führt, ist weiter zu untersuchen. Festzuhalten ist, dass modell- und personenbezogene Merkmale auch in Aufgaben der Prozessmodellwiederverwendung differenziert werden sollten und einen potenziellen Einfluss auf den Verlauf der Modellanpassung und das finale Konstruktionsergebnis haben. Sie sollten daher in der weiteren Untersuchung von Auswirkungen von Granularitätsunterschieden in der Prozessmodellwiederverwendung berücksichtigt werden. Qualität in der Prozessmodellwiederverwendung Für die wiederverwendungsbasierte Konstruktion von Geschäftsprozessmodellen ergibt sich aufgrund der charakteristischen Aktivitäten auf der Basis verfügbarer und potenziell relevanter Prozessmodelle eine zusätzliche Perspektive auf Qualität. Dem wiederverwendeten Prozessmodell kommt hierbei eine interessante Rolle zu. Die Qualitätseigenschaften dieses Wiederverwendungsmodells in Bezug auf eine qualitative und effiziente Modellierung fallen grundsätzlich in den Bereich der pragmatischen Qualität, die diesem betrachteten Modell zugeschrieben werden können und als Adaptionsqualität bezeichnet werden könnte. Aufgrund des speziellen Einsatzes als initiales Prozessmodell, das als Schätzung für die Bearbeitung einer Prozessmodellierungsaufgabe dient, sind die wiederverwendeten Prozessmodelle jedoch von den bisherigen Qualitätsfameworks noch nicht ausreichend differenziert worden. Es soll daher eine stärkere Differenzierung vorgenommen werden. Im Folgenden werden dazu 1) innerhalb des pragmatischen Qualitätsbegriffs die Facette der Adaptionsqualität erörtert, 2) das SEQUAL-Modell für aktive Prozessmodell im Wiederverwendungskontext interpretiert und schließlich 3) zwei in diesem Zusammenhang 43 geeignete Qualitätsgrößen konkretisiert, die für eine operationale Untersuchung eingesetzt werden können. Eine häufig betrachtete Facette der pragmatischen Qualität von genutzten Prozessmodellen ist die des inhaltlichen Verständnis33 . Die Erstellung eines Prozessmodells auf Basis der Wiederverwendung eines existierenden Prozessmodells erfordert ebenfalls die Betrachtung und sicherlich auch das Verständnis des Wiederverwendungsmodells, aber darüber hinaus auch den Abgleich mit den Anforderungen aus der Modellierungsaufgabe. Es ist zwar ein gewisses Verständnis des Wiederverwendungsmodells erforderlich, aber ebenso ist es erforderlich, dass sich der Abgleich mit den Aufgabenanforderungen durchführen lässt und entsprechende Anpassungen vorgenommen werden können. Bei einer Aufgabe des Typs „write-under-reuse“ ist also über das reine Verstehen des Wiederverwendungsmodells hinaus die Aufgabe des Vergleichs und der Anpassung zu bewältigen34 . Ansätze, die Vorschläge dafür machen, Geschäftsprozessmodelle hinsichtlich spezifischer Aufgaben wie „read-to-do“ qualitativ zu verbessern, sind daher von hoher Relevanz, wenn auch die Aufgabe „write-under-reuse“ eigene Anforderungen stellt. Das Verstehen eines potenziell wiederverwendbaren Modells kann als eine Voraussetzung dafür angesehen werden, dass dieses Modell mit dem Problemkontext verglichen und dann entsprechend der Aufgabenanforderungen angepasst werden kann. Nichtsdestotrotz kann ein notwendiger Trade-off angenommen werden zwischen dem Nutzen aus der Durchdringung des wiederverwendbaren Modells – dafür werden kognitive Ressourcen benötigt – und einer effektiven Anpassung des Modells, die ebenfalls Ressourcen benötigt und dadurch mit der Verständnisaktivität konkurriert. Diese Nuance kann mit Adaptionsqualität umschrieben werden. Das oben bereits erwähnte überarbeitete SEQUAL-Modell für aktive Prozessmodelle (Krogstie u. a. 2006) kann auf eine bestimmte Weise interpretiert werden, so dass es auch die Situation der Prozessmodellierung unter Wiederverwendung von existierenden Prozessmodellen erfasst. Dazu ist explizit die Zeit zu berücksichtigen, über welche die Modellierungsaktivitäten stattfinden. Im eigentlichen Sinne des Frameworks beginnt die Modellierung mit einer ersten Entwicklung des Modells M (was z.B. durch die Einfügung des ersten Modellelements erfolgen kann). Dann folgen entsprechend weitere Modellierungsaktivitäten, die das Modell weiterentwickeln, und es finden Lernprozesse in den Modellierern und Handlungen in der Domäne statt, die wiederum Auswirkungen auf die Domäne haben. Irgendwann gibt es einen Zeitpunkt, an dem das Modell als fertig deklariert wird. Die Nutzung eines wiederverwendbaren Prozessmodells kann nun ebenfalls vom SEQUAL-Framework erfasst werden, wenn man den Beginn der Modellierung mit einem ersten eingefügten Element nicht als strenge Anforderung betrachtet, sondern bereits erstellte Modelle als initiale Prozessmodelle zulässt. Diese könnten Prozessmodelle aus einem Repository speziell für die Wiederverwendung sein. Von diesem Punkt an wird das wiederverwendete Prozessmodell im Sinne von M weiter angepasst und im Rahmen 33 Hier wird wiederum differenziert in syntactic comprehension, semantic comprehension und problem solving (Khatri u. a. 2006). 34 Vgl. dazu den Wiederverwendungsprozess in Abschnitt 3.1. 44 der im Framework beschriebenen Aktivitäten zum Lösungsmodell hin entwickelt. Um nun sowohl die Anpassbarkeit des Wiederverwendungsmodells, als auch das Ergebnis einer Prozessmodellkonstruktion unter Wiederverwendung nach den obigen Einordnungen beurteilen zu können, werden zwei Qualtätsauffassungen herangezogen, die für die Untersuchungsrichtung und eine spätere Operationalisierung relevant sind: die Adaptionsqualität als eine Facette der pragmatischen Qualität und die semantische Qualität. Die Adaptionsqualität von einem Wiederverwendungsmodell in Bezug auf ein zu erstellendes Lösungsmodell kann als das Verhältnis von korrekt vorgenommenen Anpassungen am Modell zu den tatsächlich erforderlichen Anpassungen - um zur Lösung zu gelangen – aufgefasst werden. Falls beispielweise alle notwendigen Anpassungen am Wiederverwendungsmodell vorgenommen werden können, dann weist das wiederverwendete Modell in Bezug auf die Aufgabe eine hohe Adaptionsqualität auf. Die semantische Qualität beschreibt die Korrespondenz zwischen der Interpretation eines Modells durch den Modellnutzer und dessen derzeitigem Domänenwissen. Die Ziele der semantischen Qualität sind die Validität und Vollständigkeit des Modells (Lindland u. a. 1994; Krogstie u. a. 1995). Eine mengentheoretische Definition von Validität und Vollständigkeit wird in Lindland u. a. (1994) gegeben (vgl. auch die Operationalisierung in Abschnitt 5.2.4). Die semantische Qualität kann herangezogen werden, um zu prüfen, inwieweit das Ergebnis aus einer Prozessmodellkonstruktion unter Wiederverwendung den Anforderungen aus der Domäne, d.h. der Konstruktionsaufgabe, entspricht. Dies lässt Schlüsse darüber zu, inwieweit der Wiederverwendungsansatz im konkreten Fall erfogreich war oder nicht. 2.3. Wiederverwendungsebenen der Prozessmodellierung Nachdem Geschäftsprozessmodelle als zentrale Artefakte des Business Process Management identifiziert wurden und sowohl ihr prinzipieller Einsatz in Systementwicklungsansätzen aufgezeigt, als auch Begriffe der Qualität von Prozessmodellen – hier auch schon im Zusammenhang mit der Wiederverwendung von Prozessmodellen – dargelegt wurden, wird nun der Untersuchungsfokus auf den Ansatz der Wiederverwendung konzentriert. Bevor eine differenziertere Sicht auf wiederverwendungsorientierte Aktivitäten im Bezugsrahmen der Prozessmodellierung entwickelt wird, erfolgt eine Einordnung der prinzipiellen Strategien der Systementwicklung, welche extern repräsentierte Artefakte (die über Code und Komponenten hinausgehen) und deren systematische Wiederverwendung explizit in ihre Ansätze einbeziehen. Hierzu werden einige bekannte Vorschläge aufgezeigt. Im Kontext der Geschäftsprozessmodellwiederverwendung müssen darüber hinaus Wiederverwendungsansätze unterschieden werden, die sich auf unterschiedliche Ebenen von eingesetzten Modellierungssprachen beziehen, aber häufig unter dem Begriff der Modellwiederverwendung subsummiert werden. Folgende drei Ansätze lassen sich hier voneinander abgrenzen: die Wiederverwendung auf der Konstruktebene, die Wiederverwendung von prozessmodellbezogenen Assistenzartefakten und schließlich die Wiederverwendung direkt auf der Modellebene. Dieser Klassifikation folgend werden existieren- 45 de Ansätze aus der wissenschaftlichen Literatur und angewandten Forschung vorgestellt. Dieser Abschnitt erläutert die Konzepte entsprechend dieser vierteiligen Gliederung: 1) Wiederverwendung von Artefakten, 2) Konstruktebene, 3) Assistenzartefaktebene und 4) Modellebene. 2.3.1. Wiederverwendung von Artefakten Der folgende Abschnitt nimmt eine Strukturierung der allgemeinen Artefaktwiederverwendung in der Systementwicklung vor. Dazu werden zunächst verschiedene Ebenen von Entwicklungsartefakten im Informationssystemkontext differenziert, auf die sich Ansätze der Wiederverwendung prinzipiell beziehen können. Diese können wiederum in spezifischen Wiederverwendungsphilosophien der Systementwicklung konkretisiert werden. Für den Wiederverwendungstyp der Anforderungsspezifikation- und Designwiederverwendung, zu welchem auch die Geschäftsprozessmodellwiederverwendung zu zählen ist, werden 1) einige beispielhafte Ansätze vorgestellt, die zwar keine direkte Modellwiederverwendung vorschlagen, aber geschäftsprozessrelevanten Charakter aufweisen. Der Abschnitt schließt ab mit 2) grundsätzlichen Zielen, die mit der Artefaktwiederverwendung verfolgt werden. In Abbildung 2.7 sind die drei groben Ebenen einer Informationssystementwicklung nach ihrem Abstraktionsgrad dargestellt, angefangen bei Ebene 1, in der die Anforderungen an das zu entwickelnde Informationssystem bestimmt werden, dann Ebene 2, in der die Designs für die Softwaresysteme erstellt werden und schließlich Ebene 3, in der die Systemunterstützung geleistet wird. Auf allen drei Ebenen kann prinzipiell eine Wiederverwendung der jeweiligen Artefakte erfolgen, wobei die Schwierigkeit mit der zunehmenden Abstraktion steigt, da die Kontexte in der Regel komplexer und spezifischer werden und dadurch die erneute Einsetzbarkeit z.B. eines Anforderungsdokuments schwieriger zu gewährleisten ist. Mit Blick auf die Prozessmodellierung ist ein beispielhaftes Prozessmodell in das Ebenenschema zwischen der Ebene 1 der Anforderungsformulierung und der Ebene 2 des Softwaredesign eingeordnet (vgl. Sutcliffe 2002). In Abbildung 2.8 wird eine Perspektive auf verschiedene Wiederverwendungsphilosophien im Kontext der Informationssystementwicklung eingenommen. Es sind drei alternative Ansätze der Wiederverwendung dargestellt, die jeweils ausgehend von den Nutzeranforderungen von links nach rechts schrittweise zu einem neuen Informations- bzw. Softwaresystem gelangen. Im ersten (obersten) Ansatz erfolgt die Wiederverwendung lediglich über die Konstrukte der in den jeweiligen Phasen verwendeten Sprachen. D.h. es werden zunächst Anforderungen spezifiziert z.B. mit Text (dabei wird die jeweilige Sprache „wiederverwendet“), dann Designs konstruiert z.B. ebenfalls mit Text oder zusätzlich mit Modellen und schließlich wird basierend auf diesen Spezifikationen Code geschrieben. Auch hier erfolgt die Wiederverwendung „nur“ über die Konstrukte der jeweiligen Programmiersprache. Im mittleren Ansatz gehen die spezifizierten Anforderungen (hier durchaus bereits als Modelle) in einen Applikationsgenerator ein, welcher über festgelegte Transformationen die Spezifikationen in Programmcode und schießlich eine ausführba- 46 Vertical applications Abstraction context Banking Education Health care Avionics Aerospace Level 1 Requirements Business process models Horizontal applications Word processors, Databases Spreadsheets, Graphics tools Level 2 Software design general components classes patterns Level 3 System support System databases networks Printers ... Abbildung 2.7.: Ebenen der Artefaktwiederverwendung (in Anlehnung an Sutcliffe 2002) re Applikation überführt. Diese Philosophie möchte vom Schreiben des Programmcode abstrahieren und die Wiederverwendung erfolgt auf der Ebene der Generierungsmechanismen (z.B. die Transformation), die von Applikationsgenerierung zu Applikationsgenerierung erneut eingesetzt werden sollen (vgl. hierzu die MDA in OMG 2003). Der dritte Ansatz überführt die Anforderungsspezifikationen in eine modulare Designarchitektur, welche das Zusammenspiel von Komponenten bestimmt und die in ihrer Gesamtheit die neue Applikation ergeben. Die Komponenten können in verschiedenen Designarchitekturen wiederverwendet werden. Ebenso können Designarchitekturen ganz oder teilweise für ähnlich gelagerte Anforderungen wiederverwendet werden. Es werden dann die entsprechenden Komponenten aus einem Reuse-Repository bezogen. Ein Geschäftsprozessmodell kann in diesem dritten Ansatz neben der Spezifikation von Anforderungen auch Teil einer Designarchitektur sein, falls diese konsequent an der Geschäftsprozessorientierung ausgerichtet werden soll. Im Folgenden werden einige Ansätze aufgeführt, die extern repräsentierte Artefakte, die sich an dem Übergang von detaillierten Anforderungsspezifikationen zu spezifischen Designarchitekturen befinden, systematisch wiederverwenden (vgl. auch Sutcliffe 2002). 47 Designer Requirements engineer Requirements specifications Programming language Designs Application generator User requirements Business Process Models New application Design architecture Composition Requirements engineer Designer Reuse library Abbildung 2.8.: Wiederverwendung durch Spezifikation und Programmierung oder Generation auf Basis von High-Level-Anforderungssprachen versus Wiederverwendung durch Spezifikation und komponentenbasiertes Engineering (in Anlehnung an Sutcliffe 2002) Ansätze der Artefaktwiederverwendung Es wird die Wiederverwendung von Enterprise Integration Patterns (EIP) vorgeschlagen (Umapathy u. Purao 2008; Umapathy u. a. 2008). Ein Enterprise Integration Pattern ist ein Modell, das ein spezifisches Kommunikationsmuster zwischen Entitäten in einem Informationssystem beschreibt mit dem letztlichen Ziel eine erhöhte Interoperabilität der informationstechnischen Infrastruktur zu erreichen. Der Schwerpunkt des Ansatzes liegt auf der Suche und Auffindung der EIPs in einem Repository mittels spezifizierter Suchanfragen. Der Vorschlag hat dadurch eine geschäftsprozessmodellnahe Ausrichtung, da das Auffinden der EIPs auf Basis von Anforderungen erfolgt, welche in einem Prozessmodelldiagramm (bzw. Business Process Diagram (BPD)) repräsentiert sind. Daher ist der beschriebene Ansatz nicht deckungsgleich mit der Suche nach Geschäftsprozessmodellen, da die gesuchten Artefakte EIPs sind. Es liegt aber ein Prozesmodell in BPMN vor, aus 48 dem die Anforderungen abgeleitet werden. Das BPD dient also der prozessmodellbasierten Repräsentation der Suchanfrage. Ein weiterer Ansatz ist die Wiederverwendung von sogenannten Analysis Patterns (Purao u. a. 2001; Wohed 2000; Purao u. a. 2003). Ein Analysis Pattern repräsentiert eine Gruppierung von miteinander in Beziehung stehenden, generischen Objekten angereichert mit in diesem Kontext häufig vorkommenden Attributen und Verhaltensweisen (Coad u. a. 1995; Fowler 1997). Entwickler können diese Analysis Patterns dann in verschiedenen Domänen anwenden, um neue Systeme zu gestalten (Alexander 1964; Lea 1994). Es wurden bisher einige „naive“ Ansätze der Analysis-Pattern-Wiederverwendung vorgeschlagen (Purao u. a. 2001; Wohed 2000). Methodisch wird dabei folgendermaßen vorgegangen. Zunächst wird in der Menge vorhandener Beispiele nachgeschlagen und nach relevanten Patterns gesucht. Dies erfordert den Abgleich zwischen den untersuchten Beispielen und der Vorstellung der Gestaltungsaufgabe durch den Entwickler. Aufgefundene Patterns können dann verbunden werden über die ihnen gemeinsamen Objekte, um neue konzeptuelle Designs zu erstellen. Dieser Ansatz baut auf bestehenden Bibliotheken auf, welche die Patterns enthalten (vgl. Coad u. a. 1995; Fowler 1997). Purao u. a. (2003) kritisieren an den einfachen, bibliotheksbasierten Ansätzen der Analysis-PatternWiederverwendung die fehlende Berücksichtigung der Erfahrungsbildung und des Lernens, die Entwickler in der Regel in Entwicklungsprojekten erfahren. Sie sehen einen semi-automatischen Assistenten vor, als Instanz eines wiederverwendungsbasierten Designansatzes, welcher die Möglichkeit des Lernens explizit einbezieht. Dieser Assistent kann dann schnell vorläufige konzeptuelle Modelle kreieren, bei lediglich eingeschränkter Anleitung durch den menschlichen Entwickler, der das Design dann manuell weiter entwickeln kann. Es wird ein Prototyp vorgeschlagen, der Lernmechanismen und Trainings vorsieht und die prinzipielle Machbarkeit des Ansatzes aufzeigt. In Bezug auf die Prozessmodellwiederverwendung kann dieser Ansatz nur sehr eingeschränkt übertragen werden, da keine Geschäftsprozessmodelle, sondern Analysis Patterns wiederverwendet werden. Der Ansatz der Referenzmodellierung trägt im Kern den Gedanken der Wiederverwendung von Modellen (vom Brocke 2003; Delfmann 2006; Thomas 2006). Dies gilt prinzipiell auch für die Wiederverwendung von Prozessmodellen. Im Diskurs der Referenzmodellierung werden konstruktionsorientierte Ansätze (z.B. vom Brocke 2003), Managementansätze und -werkzeuge (Thomas 2006), Instanziierungen35 und Evaluierungsgrundlagen (Fettke 2006) vorgeschlagen. Im Vorwort in Fettke u. Loos (2007a) wird von Dave Hay auf den nicht erkennbaren Unterschied zwischen Referenzmodellen und Modellen hingewiesen: alle explizierten Konzepte und Methoden ließen sich auf die Wiederverwendung von Modellen (statt „Referenzmodellen“) anwenden. Dieser nicht zufriedenstellende Referenzmodellbegriff wird von Fettke problematisiert und mittels der strukturalistischen Referenzmodellierung neu erfasst (Fettke 2006, S. 75 ff.). Die empirische Evaluierung davon wie Anwender mit Referenzmodellen in konstruktionsorientierten Aufgaben tatsächlich umgehen ist empirisch bisher noch nicht erfolgt. 35 Vgl. dazu die Klassifikation in Fettke u. Loos (2003). 49 Ziele der Wiederverwendung Menschliche Problemlöser sind bestrebt, den Aufwand für die Lösung des Problems zu reduzieren, da ihre Kapazitäten der Informationsverarbeitung begrenzt sind (Newell u. Simon 1972). Der Rückgriff auf bestehende (Teil-)Lösungen stellt einen Ansatz dar, der Vorteile sowohl bezüglich der Effektivität, als auch der Effizienz erwarten lässt. Hinsichtlich der Effektivität wird in der Regel eine bessere Qualität dadurch erwartet, dass durch die Vorgabe eines Wiederverwendungsmodells (das erhebliche Teile der Lösung beinhaltet) mutmaßlich weniger Fehler eingeführt werden im Vergleich zu eigenkonstruierten Modellen. Dies lässt sich nachvollziehen, wenn davon ausgegangen wird, dass Modellierer an den ihnen vorgegeben Modellinhalten zumindest teilweise festhalten. Diese Begrenzung auf bestimmte durchführbare Aktivitäten (zumindest so wahrgenommen), welche die Repräsentation des Modells dem Modellierer auferlegt, wird auch als graphical constraining charakterisiert (Scaife u. Rogers 1996). Neben der Bestrebung bessere Modelle zu konstruieren, die eine verbesserte Kommunikation und Arbeit ermöglichen, werden auch ressourcensparende Ziele verfolgt, welche sich vorteilhaft auf die Effizienz auswirken sollen. Insbesondere soll die Zeit der Anforderungserfassung und Modellkonstruktion verkürzt werden (z.B. Rolland u. Prakash 1993). Die Attraktivität beruht darauf, dass bei der erfolgreichen Wiederverwendung eines bereits bestehenden Artefakts davon ausgegangen wird, diejenigen Ressourcen zu sparen, die bei der ursprünglichen Erstellung erforderlich waren. Der Einsatz von Wissensrepositories, in denen Erfahrungswissen kodifiziert wird, um die Performanz in wissensintensiven Aufgaben zu steigern, hat sich häufig bewährt (Gray u. Durcikova 2006; Xu u. Ramesh 2009). Neben gesteigerter Qualität und Effizienz der Modellerstellung kann noch eine weitere, verwandte Perspektive auf die Modellwiederverwendung eingenommen werden: die der Ergonomie. Dabei stellt das Wiederverwendungsmodell eine spezielle Form der Assistenz für den Modellierer dar, die für die Bearbeitung der vorliegenden Aufgabe geeignet sein sollte. Passgenauere Granularitäten von Artefakten zur Assistenz in Phasen der konzeptuellen Entwicklung, um die Performanz zu steigern, werden im Weiteren z.B. in Batra u. Wishart (2004) untersucht. 2.3.2. Konstruktebene Es existieren einige Ansätze, die sich nicht direkt auf die adaptive Wiederverwendung ganzer Prozessmodelle in Konstruktionsaufgaben beziehen, sondern auf Konstrukte (und Konstruktkombinationen oder Patterns) in Prozessmodellierungssprachen. Dies muss im Untersuchungskontext differenziert werden. Der wesentliche Ansatz soll im Folgenden skizziert werden. Process Patterns sind spezifische Konstruktkombinationen mit einer bestimmten Semantik36 , die eine wichtige Hilfe für Prozessmodellierer und -verantwortliche darstellen können. Weber u. a. (2008) und Gschwind u. a. (2008) schlagen einen Ansatz der Assistenz bei der Prozessmodellierung durch Wiederverwendung von Patterns vor. Proble36 Siehe dazu Workflow Patterns Initiative (2010). 50 matisch ist, dass während der Prozessmodellierung oft unstrukturierte Prozessmodelle erstellt werden, die nicht fehlerfrei sind. Die Bearbeitung dieser Modelle, so dass keine Fehler entstehen bzw. dass diese während der Konstruktion verhindert werden, würde eine Entlastung des Modellierers darstellen und qualitative Prozessmodelle garantieren. Es werden Workflow-Patterns definiert, die bei der Konstruktion von Prozessmodellen angewendet werden sollen. Weiterhin werden diese Workflow-Patterns als erweiterte Funktionalität eines bestehenden Modellierungswerkzeugs umgesetzt. Da die WorkflowPatterns eine höhere Komplexität besitzen als grundlegene Konstrukte wie beispielsweise eine BPMN-Aktivität oder ein BPMN-Sequenzfluss, kann von einem Übergang von Konstrukten zu (kleinen) Modellen gesprochen werden. Die Komplexität von üblichen Geschäftsprozessmodellen spezifischer Anwendungsdomänen wird durch die WorkflowPatterns nach Gschwind u. a. (2008) nicht repräsentiert, da es sich um eine Form der Wiederverwendung von Konstrukten handelt. Die Patterns sind vorab definiert und sie werden in einem bestimmten Anwendungskontext angeboten (dies muss vorher durch Festlegung und Abgleich einer Kategorie bestimmt werden). Es handelt sich also um eine Form der konstruktbasierten Konfiguration. Einige Auswertungsergebnisse haben sich ergeben: 10% der Modellierungszeit könnten eingespart werden; 70% der reinen Editierungszeit könnten eingespart werden; 50% der Anwender, die das Plug-In installiert hatten, nutzten die Patterns häufig; 10% der Anwender emfanden die Handhabung der Workflow-Patterns als einfach; 90% der Anwender bejahten die Frage, ob die Plug-Ins sie dabei unterstützen würden, die Qualität der erstellten Modelle zu verbessern37 . Darüber hinaus werden in Weber u. a. (2007); Weber u. Reichert (2008) 18 Change Patterns und 7 Change Support Features vorgeschlagen, um eine einheitliche Grundlage für den Vergleich von Prozessmanagementtechnologien hinsichtlich der Unterstützung von Änderungen an Prozessen zu schaffen. Mit diesem Vorschlag für definierte Patterns der Änderung von Konstrukten in Prozessmodellen werden qualitative Merkmale wie Korrektheit und Robustheit adressiert, die von Anwendern nach der Durchführung von Änderungen in Prozessmodellen erwartet werden. 2.3.3. Assistenzartefaktebene Im Kontext der Wiederverwendung von Prozessmodellen existieren Ansätze, die auf der Wiederverwendung von Artefakten beruhen, welche die Prozessmodellerstellung unterstützen sollen. Die Wiederverwendung bezieht sich jedoch nicht auf eine erneute, adaptive Verwendung des Prozessmodells an sich. Diese Ansätze müssen daher von der direkten, adaptiven Prozessmodellwiederverwendung differenziert werden. Es werden in diesem Zusammenhang die 1) Pattern- und regelbasierte Assistenz, 2) Wissensartefakte für die Prozessanpassung und 3) die vorschlagsbasierte Assistenz kurz vorgestellt. 37 Die Stichprobe bestand aus IBM-Beratern, der Umfang der Stichprobe wurde jedoch nicht spezifiziert. 51 Pattern- und regelbasierte Assistenz Batra u. Wishart (2004) untersuchen Pattern-basierte vs. regelbasierte Ansätze der Assistenz in der konzeptuellen Modellierung. Die konzeptuelle Gestaltung von Datenbanken ist für unerfahrene Designer schwierig und oft mit Fehlern behaftet. Diese unerfahrenen Designer (Novizen) können mit verschiedenen Ansätzen trainiert werden, welche verschiedene Formen des Wissens repräsentieren (hier: pattern- und regelbasiert), das in der Gestaltung wiederverwendet werden darf. Die beiden Trainingsansätze werden anhand von sechs Attributen beschrieben und als patternbasierte und regelbasierte Ansätze klassifiziert. Diese Attribute werden jedoch nicht explizit als mögliche eigenständige Faktoren verstanden, die ihrerseits beachtlichen Einfluss auf das Modellierungsergebnis haben können. Sie dienen hier lediglich dazu, um die beiden grundsätzlich verschiedenen Ansätze auseinanderhalten zu können. Deshalb werden sie nur wenig bis gar nicht beschrieben. Die einzelnen Faktoren sind aber für sich interessant im Hinblick auf ihren Einfluss auf eine Modellgestaltung. Beispielsweise wird das Attribut Granularität lediglich genannt. Es wird jedoch nicht definiert, was unter Granularität genau verstanden wird. Auch wird nicht klar, warum der regelbasierte Ansatz eine feinere Granularität aufweist, als der Pattern-basierte Ansatz. Das Attribut an sich ist nicht geklärt und im Kontext der alternativen Ansätze deshalb unverständlich. In der Gegenüberstellung mit artverwandten Attributen wie dem Abstraktionsgrad erscheint die Verwendung des Granularitätsbegriffs sogar widersprüchlich: der regelbasierte Ansatz wird zwar als abstrakt (zumindest abstrakter als der Pattern-basierte Ansatz) bezeichnet, weist aber zugleich eine feine Granularität auf. Diese Verständnis erscheint der Intuition und Definitionen von Granularität (z.B. Yao 2004) entgegengesetzt. Insgesamt unterscheidet sich dieser Ansatz von der Prozessmodellwiederverwendung, da die extern repräsentierten und wiederverwendeten Artefakte keine Prozessmodelle sind, sondern Patterns bzw. Regeln, welche den Konstruktionsprozess unterstützen. Wissensartefakte für die Prozessanpassung Xu u. Ramesh (2009) untersuchen, welchen Einfluss die wissensbasierte Unterstützung auf die Durchführung des Tailorings (d.h. die Anpassung) von Softwareentwicklungsprozessen hat. Hierbei wird die Cognitive-Fit-Theorie (Vessey u. Galletta 1991) getestet. Wenn die Wissensunterstützung (hierunter ist im Sinne des Cognitive-Fit-Modells das Repräsentationsformat der unterstützenden Information zu verstehen) zu der Art der Aufgabe (hierunter ist das Tailoring eines Softwareentwicklungsprozesses zu verstehen) passt, dann verbessert sich die Performanz der Aufgabenlösung. Es wird ein Modell aufgestellt, das versucht, den Einfluss von unterschiedlichen Wissensformen (generell und kontextualisiert) auf die Anpassungsperformanz im Softwareprozess-Tailoring zu erklären. Das Ergebnis zeigt, dass sich kontextualisiertes Wissen positiv auf den Anpassungsprozess auswirkt (sechs von acht Hypothesen konnten durch das faktorielle Experiment gestützt werden). Ein besonders großer Unterschied zeigt sich bei komplexen TailoringAufgaben. 52 Es besteht ein wesentlicher Unterschied zum Untersuchungskontext dieser Arbeit bezüglich des wiederverwendeten Artefakts. Das kodifizierte Wissen, das bei Xu u. Ramesh (2009) wiederverwendet wird, ist nicht als Prozessdiagramm, sondern als Text repräsentiert. Daneben wird bei Xu u. Ramesh (2009) der Fokus auf unterstützende Artefakte, die nicht selbst Repräsentationen der Lösung sind, gelegt, während die hier untersuchten Fragen sich auf jene Repräsentationen beziehen, die bereits für sich (nahezu) die angestrebte Lösung darstellen. Die Lösungen bei Xu u. Ramesh wären Werte für die Anzahl an Iterationen und ihrer jeweiligen angesetzten Dauer. Diese sind auch vorgegeben als Antwortoptionen. Die zusätzliche Unterstützung zur Entscheidungsfindung erfährt der Anwender aber über die Wissensartefakte. Xu u. Rameshs Untersuchung ist somit nur bedingt vergleichbar mit der hier angestrebten Studie. Die explizite Unterstützung durch „Howto“-Anweisungen erfolgt in der vorliegenden Arbeit nicht. Vielmehr wird das Unterstützungspotenzial durch eine gleichrepräsentierte Lösungsschätzung (Prozessdiagramm) exploriert. Weiterhin ist der Lösungsraum in Xu u. Rameshs Studie stärker beschränkt, als der in betrieblich typischen Prozessmodellierungsszenarien. Die Tailoring-Entscheidungen für die Antwortoptionen erfolgen über zwei Merkmale (Iterationszahl und Dauer) von denen jeweils 4 bzw. 3 Ausprägungen bereitgestellt wurden. Dies stellt im Gegensatz zu Prozessmodellierungsaufgaben eine relativ geringe Anzahl an Antwortalternativen dar. Zur Verdeutlichung: die Anzahl an möglichen „Antworten“, d.h. Prozessmodellen, in Modellierungsaufgaben ist prinzipiell nur durch die Konstrukte der jeweiligen Notation beschränkt. Dies geht weit über die Alternativen der Softwareprozess-Tailoring-Studie hinaus. Zudem werden bei Xu u. Ramesh die Wissenstypen „generalisiert“ und „kontextualisiert“ unterschieden. Bei der Wiederverwendung von Prozessdiagrammen handelt es sich zum einen um eine andere Art Wissenstyp, da die Prozessdiagramme, die zur Verfügung gestellt werden, bereits Lösungsschätzungen darstellen und keine Anleitungen sind, die einem Regelschema „Wenn-Dann“ folgen. Zum anderen sind die Prozessdiagramme als kontextualisiertes Wissen einzustufen. Generalisierte Prozessdiagramme sind denkbar und werden auch als normative Vorgaben zur Verfügung gestellt, werden aber im Untersuchungskontext nicht fokussiert, da ihre Repräsentation als zu abstrakt angesehen wird, als dass sie in den konkreten Aufgabenstellungen den Modellierer effektiv unterstützen könnten. Dass bei Xu u. Ramesh (2009) kontextualisiertes Wissen als eine effektive Form der Aufgabenunterstützung bestätigt wird (gegenüber generalisiertem Wissen), unterstützt ebenfalls die Untersuchungsentscheidung, den Fokus auf kontextualisierte Wissensformate, zu denen auch Geschäftsprozessmodelle gehören, zu legen. Es erfolgt keine Diskussion einer Ähnlichkeitsgröße oder eines „Abstands“ zwischen dem jeweiligen Wissensartefakt und der Tailoring-Aufgabe. Die Art der Repräsentation der beiden Wissensartefakte wird ausführlich dargestellt, aber es wird nicht klar, inwieweit die jeweiligen Inhalte zur Aufgabe passen. Denkbar wäre, dass das kontextualisierten Wissen eine bestimmte Menge an überflüssigen Informationen enthält, die für die Bearbeitung der Aufgabe nicht förderlich sind. Falls diese Menge eine bestimmte Größe überschreitet, wäre es denkbar, dass sich der Aufwand des Herausfilterns dieser Informationen negativ auf die Performanz auswirkt. Dieser negative Effekt könnte theoretisch so stark werden, dass die Unterstützungsleistung des kontextualisierten Wissen schließlich doch hinter der des generalisierten Wissensartefakts zurückbleiben könnte. Diese Grenzen, die aus unter- 53 schiedlichen Adaptionsaufwänden resultieren, hätten stärker thematisiert werden können. Um die Vorteilhaftigkeit von kontextualisiertem Wissen gegenüber generalisiertem besser zu validieren, sollte darüber hinaus der inhaltliche Abstand zwischen den jeweiligen Wissensartefakten und der Aufgabe zumindest grob kontrolliert werden. Vorschlagsbasierte Assistenz in der Prozessmodellierung Eine weitere Facette im Kontext der wiederverwendungsorientierten Prozesmodellierung ist die vorschlagsbasierte Assistenz in der Prozessmodellierung bzw. Recommendation Based Process Modeling Support (Hornung u. a. 2008; Koschmider u. a. 2009b, a). Dies sind Beiträge, die Modellierern während der Prozessmodellerstellung Vorschläge unterbreiten, wie das Prozessmodell fortgesetzt werden könnte. Dies erfolgt auf Basis von Interpretationen von Tags – dies sind Beschreibungen im Prozessmodell – über die eine Suchanfrage gestellt werden kann. Diese Suchanfrage wird genutzt, um ein Repository zu durchsuchen, das über eine Menge an passenden Prozessmodellfragmenten verfügt, welche sich eventuell zur Fortsetzung des gerade entstehenden Prozessmodells eignen. In Abbildung 2.9 ist der Ansatz illustriert. Edited business process customer request verify customer order place order verify customer order Order Approval Process ... customer order ... Process repository Query interface Abbildung 2.9.: Nutzerinteraktion um passendes Prozessmodellfragement aufzufinden (in Anlehung an Hornung u. a. 2008) Diese Ansätze sind vorstellbar als Assistenzmöglichkeiten, welche direkt im Prozessmodellerstellungsprozess Unterstüzung leisten. Im Zuge der Adaption eines wiederverwendeten Prozessmodells können diese Such- und Ergänzungsvorschläge vermutlich in der Werkzeugunterstützung ergonomische Vorteile bedeuten. Der Untersuchungsfokus der vorliegenden Arbeit liegt jedoch zunächst auf dem Adaptionsverhalten von menschlichen Prozessmodellierern ohne die Verfügbarkeit dieser vorschlagsbasierten Werkzeugunterstützung. Die Untersuchung dieser Möglichkeiten auf Basis des Adaptionsverhaltens sollte weiter verfolgt werden. 54 2.3.4. Modellebene Dieser Abschnitt fokussiert Wiederverwendungsansätze, die sich direkt auf den erneuten Einsatz eines im Repository befindlichen Prozessmodells beziehen. Dazu werden ausgewählte Designvorschläge näher beschrieben, insbesondere der Ansatz des ProzessmodellMerging (Küster u. a. 2006, 2008), ein domänenmodellorientierter Ansatz für die Prozessmodellspezialisierung (Reinhartz-Berger u. a. 2005; Soffer u. a. 2007), ein an Services ausgerichteter Wiederverwendungsansatz (Elhadad u. a. 2008) und ein Wiederverwendungsansatz, der die kollaborative Erstellung und Weiterentwicklung von Prozessmodellen betont (Tomaz u. a. 2009). Die Vorschläge werden im Zusammenhang empirischer Beobachtungen und im Hinblick auf das Adaptionsverhalten von Prozessmodellierern im Zuge der Prozessmodellwiederverwendung diskutiert. Küster u. a. (2006) machen einen Vorschlag für die Wiederverwendung von Geschäftsprozessmodellen im Rahmen der Verbesserung eines bestehenden Geschäftsprozesses, welcher bereits durch ein Geschäftsprozessmodell beschrieben ist. Die Auswahl des Wiederverwendungsmodells erfolgt dabei in Abstimmung zwischen einem Kunden (Geschäftsprozesseigner) und einem externen Moderator, der das wiederverwendbare Prozessmodell zur Verfügung stellt. Das wiederverwendbare Prozessmodell dient als Orientierungsgrundlage für die spezifische Adaption des bestehenden Geschäftsprozessmodells. Es kann als Idealanforderung an den zu verbessernden Geschäftsprozess angesehen werden. Die Anpassungsoperationen werden dann im bestehenden Geschäftsprozessmodell ausgeführt nach Maßgabe des wiederverwendeten Prozessmodells. Dieser Ansatz wird abgegrenzt von der Prozessmodellwiederverwendung im Rahmen einer Neukonstruktion, bei der die Anpassungsoperationen im wiederverwendeten Modell selbst vorgenommen werden und welches gleichzeitig das Ergebnisprozessmodell darstellt. Die Vergleiche und Adaptionen, die vorgenommen werden müssen, finden entsprechend den jeweiligen Ansätzen zwischen unterschiedlichen Ebenen statt. Bei der Prozessmodellneukonstruktion unter Wiederverwendung werden die Anforderungen an den neuen Geschäftsprozess (welche in unterschiedlicher Form repräsentiert sein können) mit dem Wiederverwendungsmodell abgeglichen. Die daraus resultierenden Adaptionen (z.B. beibehalten, einfügen, entfernen) finden im Wiederverwendungsprozessmodell statt. Das wiederverwendete und adaptierte Prozessmodell kann dann integriert und zweckentsprechend genutzt werden. Bei der Prozessmodellverbesserung 38 unter Orientierung an einem Wiederverwendungsprozessmodell werden die Inhalte des zu verbessernden Prozessmodells mit den Inhalten des Wiederverwendungsmodells abgeglichen (u.U. zusätzlich mit anderen Beschränkungen, die im Geschäftsprozesskontext relevant sein könnten). Die als notwendig erachteten Adaptionen – Refactoring operations (Küster u. a. 2006, S. 39) – werden dann im kundensseitigen Prozessmodell vorgenommen und es kann anschließend integriert und angewendet werden. Das Wiederverwendungsmodell bleibt in diesem Ansatz unverändert. In Abbildung 2.10 sind die abzugrenzenden Wiederverwendungsansätze schematisch illustriert. Für den Vergleich werden Korrespondenzen zwischen den Aktivitäten des bestehen38 Vgl. den Begriff Process merging (Küster u. a. 2006, S. 37). 55 Prozessmodellneukonstruktion unter Wiederverwendung Suche und Auswahl Repository Prozessmodellverbesserung unter Orientierung an Wiederverwendungsmodell Suche und Auswahl Adaption Wiederverwendungsprozessmodell Integration und Anwendung Vergleich Repository Wiederverwendungsprozessmodell Vergleich Geschäftsprozessmodell Anforderungen Adaption Integration und Anwendung Abbildung 2.10.: Modifikation von versus Orientierung an Wiederverwendungsmodell den Geschäftsprozessmodells und des wiederverwendeten Idealprozessmodells aufgestellt (weitere Konstrukte neben Aktivitäten werden in diesem Ansatz nicht weiter betrachtet). Auf Basis der Korrespondenzen werden entsprechende Refactoring-Operationen auf dem Geschäftsprozessmodell durchgeführt, u.a. das Hinzufügen, Entfernen und die Aufteilung von Aktivitäten. Dabei werden Kontrollflüsse zwischen den einzelnen Tasks zunächst ignoriert. Nachdem alle Adaptionen vorgenommen worden sind, werden in einem letzten Schritt die Kontrollflüsse zwischen den Aktivitäten eingefügt, um das Geschäftsprozessmodell zu vervollständigen. Die Autoren geben an, dass sich durch diesen Wiederverwendungsansatz das Prozessmodelldesign beschleunigen und die Qualität erhöhen lasse (Küster u. a. 2006, S. 36). Dadurch sollen sich erhebliche Kosteneinsparungen ergeben. Eine empirische Evaluation dieser abhängigen Variablen bzw. eine Gegenüberstellung mit alternativen oder üblichen Vorgehensweisen erfolgt jedoch nicht. Vermutungen über das Adaptionsverhalten von wiederverwendenden Prozessmodellierern und über die Ergonomie der vorgeschlagenen Methode lassen sich daher weder widerlegen noch bestätigen. In Soffer u. a. (2007) wird ein Ansatz der Geschäftsprozessmodellwiederverwendung vorgeschlagen, der einen Domain-Modeling-Ansatz (Sturm u. Reinhartz-Berger 2004; Reinhartz-Berger u. a. 2005) zugrunde legt und fünf mögliche Operationen der Spezialisierung von Referenzprozessmodellen identifiziert. Diese Operationen sind das Refinement, Sub-Typing, Contextual Adoption, Omission und Inclusion. Aktivitäten von Prozessen werden in diesem Zusammenhang als Transitionen von Zustandsmengen in andere Zustandsmengen betrachtet, welche über bestimmte Ausführungspfade durchgeführt werden. Refinement ist der Austausch einer Aktivität des Wiederverwendungsmodells durch eine Menge an Aktivitäten, welche die ursprüngliche Transition in feineren Schritten beschreiben. Die Transition der Zustandsmengen an sich bleibt durch die ursprüngliche Aktivität des wiederverwendeten Prozessmdoells entsprechend beschränkt. In diesem Zusammenhang wird auch die Verfeinerung der Granularität des Prozessmodells genannt. Sub-Typing bezieht sich auf die Möglichkeit, für die Transition einer Aktivität alternative Ausführungspfade zu spezifizieren (z.B. verschiedene Möglichkeiten der Platzierung einer Bestellung). Contextual Adoption hingegen ist eine Spezialisierung einer Aktivität, 56 die einen gleichen Ausführungspfad der Transition annimmt, diese bezieht sich aber jeweils auf andere initiale und finale Zustandsmengen, d.h. einen anderen Kontext. Die Verfügbarkeitsprüfung ist beispielsweise immer eine Transition von Zuständen, in denen keine Kenntnis über die Verfügbarkeit von Dingen besteht, zu Zuständen, in denen diese Kenntnis besteht. Diese Transition kann auf verschiedene Güter und Leistungen bezogen werden. Zusätzlich zu den drei oben beschriebenen Operationen kommen die Möglichkeiten Omission und Inclusion hinzu. Omission ist die Möglichkeit des Weglassens bzw. Entfernens von Aktivitäten. Inclusion ist die Möglichkeit der Einfügung neuer erforderlicher Aktivitäten im spezialisierten Prozessmodell. Der Fokus dieses Ansatzes liegt folglich auf den Operationen, mit denen eine Spezialisierung eines wiederverwendbaren Prozessmodells herbeigeführt werden kann (vgl. die beispielhafte Spezialisierung in Abbildung 2.11). Der grundlegende Designansatz sieht demnach vor, von konkreten Prozessmodellen abstrahierende Prozessmodelle (Prozessmodelle von eher grober Granularität) für die Wiederverwendung anzubieten, welche dann durch Spezialisierungsoperationen verfeinert werden können. Inwieweit diese Operationen das adaptive Vorgehen von Prozessmodellierern in der Praxis unterstützen ist außerhalb des Untersuchungsbereichs des Ansatzes. Auch die Qualität von Ergebnisprozessmodellen, die unter Anwendung dieser Methode entstehen, bleibt noch empirisch zu untersuchen. In Elhadad u. a. (2008) wird ein instanziiertes Softwarewerkzeug vorgeschlagen, welches das Management von einer Menge von spezialisierten Geschäftsprozessmodellen ermöglicht, welche von einer kleineren Menge von Referenzmodellen abgeleitet werden (repräsentiert mit BPMN). Die Methode stützt sich dabei auf ein semantisches Repository, über das Web Services aufgefunden werden können, welche die Aktivitäten des Geschäftsprozesses schließlich ausführen. In Bezug auf die Wiederverwendung von Prozessmodellen wird zunächst in einem „Reference Model Repository (RMR)“ über Stichworte und Kategorien ein wiederverwendbares Prozessmodell gesucht. Durch die Spezifikation der Suchanfrage können bereits Spezialisierungen auf Basis von Weglassungen erfolgen (für den jeweiligen Anwenderkontext irrelevante Prozessmodellelemete werden weggelassen). Im sogenannten „Customer Model Repository (CMR)“ entsteht so eine Kopie des wiederverwendeten und bereits leicht spezialisierten Prozessmodells, wobei LinkVerbindungen zu den RMR-Objekten beibehalten werden. Im Weiteren kann ein Analyst nun Anpassungen per Einfügung, Entfernung und Refinement (vgl. Soffer u. a. 2007) am Prozessmodell vornehmen. Insgesamt soll mit der werkzeuggestützten Methode (von der Prozessmodellspezifikation über das Matching mit Services bis zur Mediatorengenerierung) ein effizientes Geschäftsprozessoutsourcing erreicht werden. Das Adaptionsverhalten im Rahmen der Referenzprozessmodellanpassung und die Qualität der spezialisierten Modelle in Bezug auf konkrete Kundenprojektanforderungen stehen jedoch außerhalb des Untersuchungsfokus. In Tomaz u. a. (2009) wird ein Software-Tool für die kollaborative Prozessmodellierung und Modellwiederverwendung vorgestellt. Die Verteilung der Prozessmodelle erfolgt durch ein Peer-to-peer-Netzwerk. Das Tool unterstützt die Bewertung von Prozessmodellen durch die Ersteller und Nutzer, welche Teilnehmer im Netzwerk sind, mittels eines 57 <0,*> Customer Request for Quote Activity <0,*> Salesperson Request for Quote Activity <0,*> Request for Proposal Exists <0,*> Customer Order Received ‚Quote Activity’ part was omitted <1,*> <0,*> V <1,*> Inclusion Customer Entered the Internet Inclusion <1,*> Customer Fills Chocolate Order Forms <1,*> <0,1> Quote Activity Sub-Type 1 Sub-Type 1 <1,*> Sell Process Failed <1,1> Quote Activity Completed <1,1> Internet Form Received Fax Form Received <1,*> <1,*> <1,1> <1,*> XOR <1,1> Sub-Type 2 Validate Order Details Sub-Type 2 Order Chocolate by Fax <0,*> Refinement Order Chocolate by Internet Order is Valid XOR XOR <1,*> Save Order Details <1,*> Insert Order <1,*> <1,*> Order Inserted Contextual Adoption Check Chocolate Availability <1,*> <1,*> Check Availability <1,*> Some Resources are not Available <1,*> <1,1> <1,*> XOR Contextual Adoption Chocolate is not Available XOR Contextual Adoption <1,*> Chocolate is Available <1,1> All Resources Available Abbildung 2.11.: Wiederverwendung eines Prozessmodells per Spezialisierung (in Anlehnung an Soffer u. a. (2007)) Punktesystems. Diese Punktbewertung der Prozessmodelle stellt im Rahmen der angebotenen Stichwortsuche ein zusätzliches Merkmal dar, welches den Rang von gefundenen Modellen in der Ergebnisliste mitbestimmt. Die aufgefundenen Modelle können für eine neue Prozessmodellkonstruktion wiederverwendet und nach Bedarf angepasst werden. Die verwendete Geschäftsprozessmodellierungssprache ist UML Activity Diagrams. Der Beitrag untersucht weiterhin empirisch die Möglichkeit der Produktivitätssteigerung bei der Prozessmodellerstellung unter Wiederverwendung bestehender Modelle. Mittels einer Fallstudie wird aufgezeigt, dass durch das vorgeschlagene kollaborative Prozessmodellierungswerkzeug die Erstellung der Prozessmodellergebnisse als einfacher empfunden wird 58 und eine höhere Effizienz und Effektivität aufweist, als in der Kontrollgruppe. Insgesamt kann festgehalten werden, dass kaum empirische Untersuchungen zu erreichten Vorteilen (bzw. eventuellen Nachteilen im Vergleich zu From-scratch-Ansätzen) durch die Wiederverwendung von Prozessmodellen bestehen. Im weiteren Zusamenhang wird auch nicht deutlich gemacht wie Anwender Anpassungen und welche sie explizit an den Prozessmodellen vornehmen. Desweiteren wird selten thematisiert wie unterschiedliche Ausprägungen eines Wiederverwendungsmodells (z.B. Distanz zur Modellierungsaufgabe, Arten der notwendigen Anpassungen etc.) den Modifikationsprozess und damit auch das Endergebnis potenziell beeinflussen. 59 3. Wiederverwendung von Geschäftsprozessmodellen Im vorangegangenen Kapitel wurde der Gegenstandsbereich der Geschäftsprozessmodellierung zur Gestaltung von Informationssystemen bzw. informationstechnisch gestützten Arbeitssystemen terminologisch vorstrukturiert, um auf die benötigten Begriffe für weitere Beschreibungen der Prozessmodellwiederverwendung zurückgreifen zu können. Das Prozessmodell als zentrales Artefakt des Geschäftsprozessmanagementlebenszyklus wurde dabei in den Kontext der formalen Modellierung gestellt und dessen Einsatz in initialen Phasen der Anforderungserfassung und des Designs von einschlägigen Systementwicklungsmethoden aufgezeigt. Für die Analyse vor dem Hintergrund einer für betriebliche Organisationen erfolgreichen Systemgestaltung wurden verschiedene Perspektiven auf die Qualität von Prozessmodellen erläutert, die sich von formal syntaktischen Merkmalen bis hin zum intersubjektiven Verstehen durch mehrere Modellnutzer erstrecken. In diese Qualitätsauffassungen wurde auch jene qualitätsbezogene Eigenschaft von Prozessmodellen eingereiht, welche explizit in einem neuen Prozessmodellerstellungsproblem wiederverwendet werden. Diese Qualitätseigenschaft wurde der Tradition von Lindland u. a. (1994) folgend als eigenständige Facette der pragmatischen Qualitätsdimension eingeordnet. Sie ist zudem mit dem Begriff der aktiven Prozessmodelle von Krogstie u. a. (2006) vereinbar, die sich im Zuge der Modellierungsaktivitäten, des Lernens und der sich verändernden Wahrnehmung der Aufgabendomäne einer ständigen Neubetrachtung – also eine Form der erneuten Verwendung – und Anpassung auf die neuen Bedingungen unterziehen. Weiterhin wurde eine Abgrenzung von verschiedenen Ansätzen der wiederverwendungsorientierten Modellerstellung im Kontext der Prozessmodellierung vorgenommen, welche eine klare Abgrenzung der erneuten aufgabenbezogenen und u.U. adaptiven Verwendung ganzer Prozessmodelle von beispielsweise der rein konstruktbasierten Wiederverwendung ermöglicht. Diese Abgrenzung wird für den Fortgang der Arbeit und das Setzen des Untersuchungsfokus benötigt. Die Wiederverwendung von Prozessmodellen kann in unterschiedlichsten Arbeitskontexten erfolgen und die Art der wiederholten Anwendung reicht prinzipiell von der erneuten Betrachtung eines Prozessmodells, um sich beispielsweise einen spezifischen betrieblichen Ablauf nochmals zu vergegenwärtigen, bis hin zur rechner- und repositorygestützten Suche, Auffindung und intensiven Modifikation von formalen Prozessmodellen als Basis für die transformationsorientierte, modellgestützte Softwaresystementwicklung. Nichtsdestotrotz kann für den Prozess der Wiederverwendung von Prozessmodellen eine spezifische Abfolge von Arbeitsschritten ausgemacht werden, die hier vorgenommen 60 wird, um den Untersuchungsschwerpunkt, der auf der Phase der adaptiven Wiederverwendung liegt, präzise verorten zu können. Weiter werden essentielle beteiligte Rollen im Wiederverwendungsprozess aufgezeigt und wesentliche Funktionen eines Repository, aus welchem wiederverwendbare Prozessmodelle bezogen werden können, beschrieben. Diese beiden Konzepte vervollständigen die Informationsbasis, um in einer betrieblichen Organisation die Prozessmodellwiederverwendung sowohl in personeller als auch infrastruktureller Hinsicht planen und durchführen zu können. In Bezug auf die Beziehungen zwischen erstellenden und nutzenden (wiederverwendenden) Mitarbeitern und u.U. organisationsübergreifende Wiederverwendungen von Prozessmodellen sind verschiedene Szenarien der Wiederverwendung abzugrenzen, von denen im Weiteren die anonyme „Zweitverwertung“ (vgl. engl. Secondary Knowledge Mining (Markus 2001)) von Prozessmodellen fokussiert wird. Neben der Klärung des grundlegenden Ablaufs der Prozessmodellwiederverwendung sind Aspekte der menschlichen Wahrnehmung insbesondere im Kontext von visuellen Darstellungen, wie es Geschäftsprozessmodelle sind, in die Strukturierung der Untersuchung einzubeziehen. Die spezifische Arbeitssituation der Prozessmodellerstellung unter Wiederverwendung eines bestehenden Prozessmodells wird dafür mit dem etablierten theoretischen Modell des Cognitive-Fit zur Erklärung von Leistungen in allgemeinen problembasierten Aufgaben (Vessey u. Galletta 1991; Zhang u. Norman 1994) verbunden, da dort die essentiellen Entitäten im Rahmen eines Lösungsprozesses erfasst und die Beziehung zwischen externen Repräsentationen und mentalen Prozessen explizit berücksichtigt werden. Einer für die Prozessmodellwiederverwendung konkretisierten Version des Cognitive-Fit-Modells folgend werden die Rollen wichtiger beteiligter Entitäten wie Prozesskonstruktionsaufgabe und Domänen- und Modellierungswissen dargelegt. Mit Blick auf die eingangs gestellten Untersuchungsfragen wird das schwerpunktmäßige Interesse auf das Verhalten von Modellierern während der Anpassung von verfügbaren Geschäftsprozessmodellen, die in ihrer Granularität verschieden repräsentiert sein können, auf dem Weg zu ihrem Prozessmodellkonstruktionsziel gelenkt. Hieraus leitet sich die Fokussierung auf das Cognitive-Fit-Konstrukt der externen Aufgabenrepräsentation ab, inbesondere auf Granularitätseigenschaften des wiederverwendeten Prozessmodells, welche wiederum einen Einfluss auf den Prozess der Bildung der mentalen Repräsentationen ausüben, die für die letztliche Erstellung einer Prozessmodelllösung notwendig sind. Die wichtigen Erklärungsansätze im Zusammenhang dieser beiden Konstrukte in Bezug auf die Modellierungsleistung werden diskutiert, wobei das Untersuchungsinteresse der Beziehung zwischen Prozesmodellgranularität und dem spezifischen kognitiven Bias des Ankereffekts (engl. Anchoring) gilt. Abschließend werden die wesentlichen identifzierten Konzepte zur Strukturierung des Problems der Prozessmodellwiederverwendung bei variierter Granularität vor dem Hintergrund menschlicher Anker- und Anpapssungseffekte zusammengefasst. Das Kapitel gliedert sich dementsprechend in die drei Abschnitte 1) Vorgänge der Geschäftsprozessmodellwiederverwendung, 2) kognitive Bestimmungsgrößen der Prozessmodellwiederverwendung und 3) die abschließende Zusammenfassung. Der Abschnitt der 61 kognitiven Bestimmungsgrößen erfährt an entsprechender Stelle eine weitere Untergliederung, die oben bereits teilweise angeschnitten wurde. 3.1. Vorgänge der Geschäftsprozessmodellwiederverwendung Die Komplexität von sozio-technischen Systemen wie betrieblichen Organisationen bedingt, dass die Arbeitssituation der Geschäftsprozessmodellwiederverwendung vielseitig ausgeprägt sein kann und mitunter stark unterschiedliche Charaktereigenschaften annimmt. Dies äußert sich sowohl durch das methodische Vorgehen, das variiert werden kann, als auch durch die beteiligten Rollen, die miteinander in unterschiedlichen aufgabenbezogenen Beziehungen stehen können und durch die informationstechnische Unterstützung, die in der Regel durch eine Form eines Repository gegeben sein muss. Die grundsätzliche Arbeitssituation der wiederverwendungsorientierten Prozessmodellkonstruktion ist in Abbildung 3.1 illustriert. Um diese verschiedenen Ausprägungen der Vorgänge der Prozessmodellwiederverwendung besser differenzieren zu können, werden sie entlang der wesentlichen Dimensionen strukturiert. Der Wiederverwendungsprozess umfasst die essentiellen Arbeitsschritte und Abfolgen, die in jedem Anwendungsfall der Prozessmodellwiederverwendung durchlaufen werden. Diese Arbeitsschritte werden von spezifischen Rollen ausgeführt, die für Erstellung, Pflege, Distribution und letztlich die erneute Verwendung der Prozessmodelle verantwortlich sind. Diese Arbeiten werden typischerweise mit einem Repository unterstützt, dessen Funktionen hier zur Veranschaulichung beschrieben werden. Unter Bezugnahme auf die beteiligten Rollen sind zudem verschiedene Konstellationen von Mitarbeitern zu differenzieren, die sich bezüglich ihrer Ersteller-/Konsumentenrolle und ihrer Organisationszugehörigkeit voneinander unterscheiden können oder identisch sind. Dies wird in den verschiedenen Szenarien der Prozessmodellwiederverwendung dargelegt. Entsprechend gliedert sich der Abschnitt nach 1) Wiederverwendungsprozess, 2) Rollen und Repositories und 3 ) Szenarien der Prozessmodellwiederverwendung. 3.1.1. Wiederverwendungsprozess Der allgemeine Prozess der Wiederverwendung von Artefakten wird von Markus (2001) im Kontext der Wissenswiederverwendung strukturiert aufbereitet und umfasst die wesentlichen Elemente Aktivitäten, Rollen und Repositories. Darüber hinaus werden typische betriebliche Szenarien der Wissenswiederverwendung klassifiziert, die eine spezifische Abgrenzung von Anwendungsbereichen der Artefaktwiederverwendung vornehmen und damit die Grundlage für fokussierte Untersuchungen schaffen (Markus 2001, S. 62). Obwohl Markus’ Einteilungen sich auf die Wiederverwendung von betrieblichem Wissen – in diesem Kontext sind vorwiegend schwach strukturierte Informationen in Form von Dokumenten gemeint – beziehen, sind sie ausreichend allgemein, so dass sie auch auf die Wiederverwendung von Geschäftsprozessmodellen übertragen werden können. Zu- 62 Mental Domain and Representation of Modeling Task Solution Knowledge Interface Solution Model Reusable Model Task Retrieval Repository Abbildung 3.1.: Schematische modellierung Übersicht der wiederverwendungsbasierten Prozess- gleich können Geschäftsprozessmodelle angesichts ihrer unternehmensstrategischen Bedeutung unter betrieblich relevante Wissensartefakte eingeordnet werden. Der Prozess der Wiederverwendung von Geschäftsprozessmodellen kann in die folgenden wesentlichen Aktivitäten unterteilt werden (in Anlehung an den Wissenswiederverwendungsprozess in Markus 2001, S. 60-61): Erfassung (oder Dokumentation) bzw. Konstruktion von Geschäftsprozessen als Modelle, Aufbereitung von Geschäftsprozessmodellen, Verteilung von Geschäftsprozessmodellen (d.h. sie müssen Mitarbeitern zugänglich gemacht werden) und Wiederverwendung von Geschäftsprozessmodellen. Im folgenden werden die einzelnen Aktivitäten des Wiederverwendungsprozesses erläutert. Dort wo bereits geschäftsprozessmodellbezogene Prozesse der Wiederverwendung aus der Forschungsliteratur bekannt sind, werden die Konzepte entsprechend erweitert und spezifiziert. Abschließend erfolgt die Eingrenzung des Untersuchungsfokus auf die Phasen der vergleichenden Betrachtung von Prozessmodelldesignaufgabe und Wiederverwendungsmodell und seiner anschließenden adaptiven Wiederverwendung. Erfassung/Konstruktion Nach Markus kann die Erfassung (oder Dokumentation) von geschäftsprozessrelevantem Wissen auf mindestens vier unterschiedlichen Wegen erfolgen. Die Dokumentation kann erstens passiv als Nebenprodukt eines Arbeitsprozesses entstehen, wenn z.B. Arbeitsteams ihre elektronische Kommunikation selbst archivieren, die später durchsucht werden kann (z.B. Markus 1994; Majchrzak u. a. 2000). Für Ge- 63 schäftsprozessmodelle ist diese beiläufige Art der Erfassung nur bedingt anzunehmen. Es können beispielsweise Skizzen von Geschäftsprozessmodellen in Arbeitstreffen entstehen, welche schwerpunktmäßig andere Ziele verfolgen als die Konstruktion von formalen Prozessmodellen. Bei der Zusammenfassung aller erarbeiteten Ergebnisse am Ende eines Treffens können diese Skizzen (als Flipchart, digitales Foto o.ä.) dann gesammelt und archiviert werden. In der Regel bedarf es aber einer aktiven Partizipation der Beteiligten, um einen Geschäftsprozess zu explizieren und als Modell zu repräsentieren. Diese aktive Partizipation und bewusste Modellkonstruktion wird in einem zweiten möglichen Weg der Dokumentation von Geschäftsprozessmodellen stärker betont. Von außerhalb der Organisation hinzugezogene Moderatoren modellieren aus ihrer Perspektive die erarbeiteten Geschäftsprozesse (z.B. in Brainstorming-Sitzungen) für die am Arbeitsprozess beteiligten Mitarbeiter. Dies ist ein in der betrieblichen Praxis häufig auftretender Fall, da oft erst die Beteiligung eines Externen (z.B. beratende Personen) die Sicht auf die wesentlichen geschäftlichen Abläufe für die Mitarbeiter eröffnet (Molzberger 1985, S. 5). Drittens kann die Prozessdokumentation auf dem Wege der Erstellung von strukturierten Datensätzen erfolgen, als Bestandteil einer bewussten Wiederverwendungsstrategie, die vor der Entstehung des Geschäftsprozesswissens Strukturen anbietet. Solche Strukturen können z.B. den Namen des Geschäftsprozesses umfassen, aber auch Angaben zum Problemumfang, zu Akteuren im Modellierungsprozess bzw. zu verpflichtenden Modellierungsrichtlinien enthalten. Besonders in Organisationen, die eine explizite Geschäftsprozessmanagementstrategie verfolgen, sind solche Strukturen vorzufinden. In einem möglichen vierten Weg wird die Prozessdokumentation bewusst nach der Entstehung des Geschäftsprozesswissens durchgeführt. Dies umfasst alle Aktivitäten eines Modellkonstruktionsprozesses und kann auch die Filterung, Indizierung und Bereinigung der Modelle einschließen. In Abgrenzung zum o.g. Modellierungsweg mit wiederverwendungsorientierten Strukturen und Modellierungsrichtlinien erfolgt dieser Ansatz ohne diese expliziten Strukturen. Zwischen dem dritten und vierten Weg kann es unterschiedliche Ausprägungen des Einsatzes von vorstrukturierten Datensätzen und Richtlinien geben. In Unternehmen unterliegen diese Strukturen starken Variationen und sind häufig schwach ausgeprägt, so dass viele betriebliche Geschäftsprozessmodellierungsaktivitäten dem vierten Weg hinzugezählt werden39 . In anderen wissenschaftlichen Arbeiten, die den Modellwiederverwendungsprozess diskutieren, wird die Konstruktion eines Prozessmodells (welches später wiederverwendet werden kann) ebenfalls als eigenständige Aktivität abgegrenzt. Im Diskursbereich der Referenzmodellierung werden Geschäftsprozessmodelle als spezifische dynamische Modelle regelmäßig berücksichtigt (z.B. Allweyer 1998; vom Brocke 2003; Thomas 2006; Fettke u. Loos 2007b). In Fettke u. Loos (2005, S. 22) beispielsweise wird die Konstruktion potenziell wiederverwendbarer Geschäftsprozesse durch die Begriffe Problemdefinition und Entwicklung widergespiegelt (vgl. auch Schütte (1998, S. 235-291) und Schlagheck (2000, S. 78)). 39 Für eine ausführliche Betrachtung von Geschäftsprozessmodellierungsrichtlinien und ihres Einsatzes in Organisationen siehe Schrepfer (2010). 64 Aufbereitung Zwischen dem vierten Weg der Prozessdokumentation und der expliziten Aufbereitung von Geschäftsprozessmodellen ist der Übergang fließend. Aufbereitende Tätigkeiten umfassen die Bereinigung, Strukturierung, Kodifzierung bzw. die Indizierung von Geschäftsprozessmodellen nach Klassifizierungsschemata (Markus 2001; Fettke u. Loos 2003, S. 60). Ziel der Aufbereitung ist es, den konstruierten Geschäftsprozessmodellen Strukturen zu verleihen, welche die spätere Auffindung ermöglichen und unterstützen. Fettke u. Loos (2005, S. 23) führen in diesem Zusammenhang den Begriff der „Pflege“ ein. Zu aufbereitenden Aktivitäten sind auch die Evaluation und Bewertung von Geschäftsprozessmodellen zu rechnen. Eine Bewertung wird nach einer Wiederverwendung eines Geschäftsprozessmodells auf Basis bestimmter Qualitätskriterien (z.B. Passgenauigkeit, Anpassungsaufwand usw.) vorgenommen und kann als weiteres Strukturierungsmerkmal eingesetzt werden, um die Auffindung von Geschäftsprozessmodellen in neuen Prozessdesignaufgaben zu ermöglichen und zu erleichtern (vgl. auch Fettke u. Loos (2005, S. 22-23) und Schlagheck (2000, S. 78)). Die Aufbereitung ist eine kontinuierliche Aktivität, da die Subjektivität der unterschiedlichen Ersteller der Geschäftsprozessmodelle in der Regel zu Mehrdeutigkeiten führt, die an unternehmenszentraler Stelle aufgelöst werden sollten. Verteilung Damit die konstruierten und aufbereiteten Geschäftsprozessmodelle die potenziellen Nutzer erreichen können, welche diese für neue Prozessdesignzwecke einsetzen wollen, muss gewährleistet werden, dass sie innerhalb der Organisation verteilt bzw. diesen Nutzern zugänglich gemacht werden. Die Verteilung von Geschäftsprozessmodellen in der Organisation kann passiv erfolgen, z.B. durch das Befüllen eines Wissensspeichers wie ein Prozessmodell-Repository (Thomas 2006, S. 336), als auch aktiv, z.B die Versendung von Hinweisen auf neue verfügbare Geschäftsprozessmodelle an alle Teammitglieder (Dixon 2000). Weiterhin werden Fördermaßnahmen in die Prozessmodellverteilung mit eingeschlossen, welche beispielsweise die Anforderungen an eine erwogene Prozessmodellwiederverwendung beurteilen oder Organisationen dabei unterstützen, ein umfassenderes Bewusstsein und Verständnis dafür zu entwickeln. Wiederverwendung Die Wiederverwendung von Geschäftsprozessmodellen lässt sich in weitere Aktivitäten gliedern, die prinzipiell immer ausgeführt werden müssen, damit eine Nutzung des erneut verwendeten Prozessmodells erfolgen kann. Bevor es zu etwaigen Suchanfragen kommen kann, wird eine wesentliche Aktivität ausgeführt, die jegliche Wiederverwendungsbestrebungen erst initiieren kann. Es ist die Erinnerung daran, dass bestimmte – wiederverwendungsrelevante – Informationen überhaupt gespeichert wurden (und darüber hinaus auch an welchem Ort sie sich befinden und evtl. mit welchem Schema sie klassifiziert wurden). Diese Aktivität wird als Recall bezeichnet (Markus 2001, S. 61). Die Tätigkeit des Recall wird oft unzureichend gewürdigt, obwohl sie die Grundvoraussetzung für eine wiederverwendungsorientierte Prozessgestaltung (und für Wiederverwendungsprozesse i.A.) bildet. Recall wird auch bei der Geschäftsprozessmodellkonstruktion von Grund auf, d.h. ohne Wiederverwendung von einem existierenden 65 Modell, ausgeführt. Das Recall findet in diesem Fall aber über die mentalen Repräsentationen statt, die sich im internen Gedächtnis des Modellierers befinden. Beim Recall im Rahmen der Wiederverwendung von extern repräsentierten Modellen kommt die entscheidende Aktivität des Erinnerns in einem externen Gedächtnis hinzu. Dieses Recall ermöglicht erst die weiteren Schritte der wiederverwendungsbasierten Geschäftsprozessmodellkonstruktion. Im nächsten Schritt wird eine Suchanfrage definiert, mit der nach anforderungsrelevanten Geschäftsprozessmodellen gesucht werden kann. Die Aktivität der Suchanfragenformulierung wird auch in Markus (2001, S. 61), Fettke u. Loos (2002) und Thomas (2006) angeführt. Die Sprache, in der die Suchanfrage formuliert wird, kann von einfachen natürlich-sprachlichen geschäftsprozessspezifischen Stichworten über Mengen von Klassifizierungsmerkmalen (z.B. Elhadad u. a. 2008) bis hin zu speziellen Abfragesprachen (z.B. Awad 2007) und Geschäftsprozessmodellen an sich (z.B. Dijkman u. a. 2010) reichen. Nach Formulierung der Suchanfrage erfolgt die Durchführung der Suche nach relevanten Geschäftsprozessmodellen (Markus 2001; Fettke u. Loos 2002; Thomas 2006). In Abhängigkeit vom Typ der Suchanfrage werden die Ähnlichkeitsgrößen berechnet, die bestimmen, welche Geschäftsprozessmodelle in einem Repository der Suchanfrage am nächsten sind. Einige Vorschläge für die Durchführung von ähnlichkeitsbasierten Suchen über eine Menge von Geschäftsprozessmodellen finden sich in Dijkman u. a. (2010). Die Suchtätigkeit wird auch als Retrieval bezeichnet (z.B. Prieto-Díaz 1993; Purao u. a. 2003). Nach einer durchgeführten Suche liegt eine nach Ähnlichkeit sortierte Ergebnisliste bestehend aus aufgefundenen Geschäftsprozessmodellen vor. Diese Geschäftsprozessmodelle stellen potenzielle Kandidaten für die weitere Verwendung zur Lösung des vorliegenden Prozessdesignproblems dar. Anschließend wird eine Auswahl eines Geschäftsprozessmodells aus der Ergebnisliste getroffen. Für die Auswahlaktivität ist ein Vergleich zwischen Anforderungen aus der Prozessdesignaufgabe und den vorliegenden Prozessmodellkandidaten notwendig. Diese Vergleichstätigkeit („wähle ein Geschäftsprozessmodell aus der Ergebnisliste aus“) wird hier unter der Auswahlaktivität subsummiert. Nach der Auswahl liegt ein Geschäftsprozessmodell zur Wiederverwendung vor. Die Aktivität des Vergleichs wird als sich daran anschließende Aktivität ausdrücklich aufgeführt, da hier eine intensivere Auseinandersetzung mit sowohl den Prozessdesignanforderungen und dem wiederverwendeten Prozessmodell (und der inhaltlichen Differenz zwischen beiden) stattfinden muss (Küster u. a. 2006). Das Vergleichen erfordert das Erkennen (bzw. Wiedererkennen) der relevanten Prozessmodellelemente, -strukturen und -verhaltensweisen, die den Anforderungen aus der Prozessdesignaufgabe entsprechen (engl. Recognition, in Markus 2001, S. 61). Die Resultate der Vergleichsaktivitäten ergeben die Grundlage, um die anschließenden Adaptionen des Geschäftsprozessmodells an die Anforderungen vornehmen zu können. Basierend auf den Vergleichen zwischen gefundenem (und wiederzuverwendenem) Ge- 66 schäftsprozessmodell und den Anforderungen der unternehmensspezifischen Prozessdesignaufgabe müssen entsprechende Adaptionen im Geschäftsprozessmodell vorgenommen werden (Fettke u. Loos 2002, S. 13). Diese Anpassungen können spezifische Konstruktionsoperationen wie beispielsweise die Konfiguration oder die Löschung von Modellelementen sein40 . Nachdem alle nötigen Adaptionen vorgenommen wurden, liegt ein den Prozessdesignanforderungen entsprechendes Geschäftsprozessmodell vor. Die Integration des angepassten Geschäftsprozessmodells umfasst eventuell notwendige Abgleiche mit anderen bereits eingesetzten Modellen, die für die gemeinsame Nutzung in der Organisation erforderlich sind (Fettke u. Loos 2004, S. 19). Dies kann weitere Adaptionsmaßnahmen nach sich ziehen. Die abschließende Aktivität umfasst die Anwendung des angepassten Geschäftsprozessmodells entprechend der im Rahmen des Geschäftsprozessmanagementansatzes formulierten Ziele und Einsatzzwecke (Fettke u. Loos 2004, S. 19). Dies kann auch die finale Analyse und Überprüfung von generellen Prinzipien in Bezug auf die spezifischen Prozessdesignanforderungen mit einschließen. Dies wird auch als Rekontextualisierung bezeichnet (Markus 2001, S. 61). Alle Aktivitäten im Rahmen des gesamten Wiederverwendungsprozesses für Geschäftsprozessmodelle einschließlich der konkreten Unteraktivitäten der Wiederverwendung sind in der Übersicht in Abbildung 3.2 dargestellt. Der Untersuchungsschwerpunkt dieser Arbeit liegt auf der Phase der Wiederverwendung, d.h. Fragen in Bezug auf Aktivitäten der Konstruktion, Aufbereitung und Verteilung werden nicht betrachtet. Darüber hinaus werden die Aktivitäten vom Recall bis zur Auswahl eines Proezssmodells nicht das zentrale Untersuchungsfeld sein, d.h. es wird nicht näher betrachtet, mit welchen Methoden wiederverwendbare Prozessmodelle aufgefunden werden können und welche Attribute und Gütemaße herangezogen werden müssten, um ein Kriterium für die Passgenauigkeit aufgefundener Prozessmodelle zu entwickeln. Ebenso wird von der Integration und der finalen Anwendung (z.B. als Spezifikationsmodell in einem modellgestützten Systementwicklungsansatz) abstrahiert, was folglich den Untersuchungsschwerpunkt auf die Aktivitäten des Vergleichs und der Adaption des Prozessmodells legt. Dazu wird davon ausgegangen, dass ein wiederverwendbares Prozessodell vorliegt, welches für eine spezifische Designaufgabe genutzt werden soll. 3.1.2. Rollen und Repositories Rollen Die Aktivitäten des Wiederverwendungsprozesses für Geschäftsprozessmodelle werden von verschiedenen Mitarbeitern der Organisation ausgeführt. In Abhängigkeit von diesen Aktivitäten lassen sich grundlegende Rollenprofile definieren, die von Mitarbeitern eingenommen werden. Die Größe und Komplexität der Organisation kann den Grad der Verteilung und Differenzierung der Rollen und ihrer Beziehungen untereinander 40 Zu weiteren adaptiven Konstruktionsoperationen siehe vom Brocke (2003, S. 259 ff.), Fettke u. Loos (2004), Küster u. a. (2006) und Thomas (2006). 67 Anforderungen Anforderungen Konstruktion Recall Definition Suchanfrage Aufbereitung Suchen Auswahl Verteilung Vergleich Adaption Integration Wiederverwendung Anwendung Abbildung 3.2.: Prozess der Geschäftsprozessmodellwiederverwendung stark beeinflussen. Die wesentlichen Rollen im Kontext der Geschäftsprozessmodellwiederverwendung werden hier kurz skizziert. Mit Bezug auf die Konstruktionsaktivitäten ist die Rolle Geschäftsprozessmodellersteller erforderlich41 . Sie ist maßgeblich für die konkrete Konstruktion der Geschäftsprozessmodelle zuständig. In der Geschäftsprozessmanagementliteratur wird diese Rolle häufig vom Tätigkeitsspektrum sogenannter „Business Process Analysts“ oder „Business Analysts“ abgedeckt (IBM Software Group 2008; Schaffhauser 2010). Weitergehende Aufgaben umfassen hier u.a. die Validierung und Kommunikation der Prozessmodelle in der Organisation. Die erstellten Geschäftsprozessmodelle werden von der Rolle Geschäftsprozessmodellkonsument wiederverwendet42 . Der Geschäftsprozessmodellkonsument kann verschiedene Ausprägungen haben in Abhängigkeit vom jeweiligen Einsatzzweck des aufgefundenen Geschäftsprozessmodells. Dieses Modell kann beispielsweise in der Entwicklung von Software (pre-development use), als Dokumentation von existierender Software (postdevelopment use) oder für die strategische und organisatorische Neuausrichtung (business (re-)design) verwendet werden (Frank 2007, S. 124). Zwischen den beiden Hauptaktivitäten der Konstruktion und der Wiederverwendung 41 Vgl. hierzu die Rollen Wissensproduzent (Markus 2001, S. 61) und Referenzmodellersteller (Thomas 2006, S. 211). 42 Vgl. hierzu die Rollen Wissenskonsument (Markus 2001, S. 61) und Referenzmodellanwender (Thomas 2006, S. 211). 68 liegen die Aktivitäten zur Aufbereitung und Verteilung der Geschäftsprozessmodelle, welche von jeweils eigenen Rollen übernommen werden können43 . Insbesondere in Organisationen mit einer großen zu verwaltenden Menge an Geschäftsprozessmodellen bietet sich die Einführung von modellaufbereitenden und -verteilenden Rollen an. In den entsprechenden Aufgabenbeschreibungen sind in der Regel spezifische Verantwortungsbereiche und Zugriffsrechte bezüglich eines Geschäftsprozessmodell-Repository deklariert, sofern ein softwaregestütztes Repository in der Organisation eingesetzt wird. Die vier skizzierten Rollen müssen nicht von verschiedenen Personen übernommen werden. Sie können auch von einem einzigen Mitarbeiter ausgeführt werden. Dies wäre z.B. in folgendem Szenario der Fall, in dem ein einzelner Mitarbeiter sowohl ein Geschäftsprozessmodell erstellt als auch aufbereitet, um es zu einem späteren Zeitpunkt für eigene Zwecke wiederzuverwenden. Weiterhin sei angemerkt, dass in der Regel spezifische organisatorische Gegebenheiten vorliegen, die eine individuelle Ausprägung von benötigten Rollen (und Rollenbezeichnungen) und Beziehungen untereinander erfordern. Repositories Als wertvolles Wissensartefakt betrachtet, ist es für Unternehmen sinnvoll, Geschäftsprozessmodelle zu archivieren und für die Mitarbeiter in der Organisation verfügbar zu machen, so dass sie diese in ihren Projekten wiederverwenden können (Markus 2001; Rosa u. a. 2010). Bei größeren Mengen an Geschäftsprozessmodellen bietet es sich an, diese in einem Repository zu organisieren. Ein Repository ist eine Datenbank mit Informationen zu unternehmensspezifisch konstruierten Artefakten – in diesem Fall Geschäftsprozessmodelle – auf die viele Mitarbeiter Zugriff haben (Bernstein u. Dayal 1994). Darüber hinaus stellt ein Repository spezielle Funktionen wie die Speicherung, Suche und Versionsverwaltung der Geschäftsprozessmodelle bereit (Yan u. a. 2011). Prinzipiell ist es heutzutage möglich, Geschäftsprozessmodelle per Suchanfrage mit einer Suchmaschine44 im World Wide Web aufzufinden. Das World Wide Web und seine Dokumente können dabei als ein Repository angesehen werden. Die Suchanfragen bestehen allerdings aus einfachen Stichworten, welche nur mit dem Dokumentnamen bzw. zugehörigen Metadaten abgeglichen werden können. Semantische oder strukturelle Inhalte der Geschäftsprozessmodelle können mit heutigen Suchmaschinen noch nicht erfasst werden. Daneben sind die auffindbaren Geschäftsprozessmodelle in der Regel als reine Grafiken repräsentiert, d.h. sie liegen nicht in einem Format vor, das ein externes Werkzeug verstehen könnte, so dass die Bearbeitung und erneute Speicherung des Modells erleichtert würde. Weiterhin wäre das World Wide Web als Repository für Unternehmen ein schwer zu kontrollierender Raum, was bestimmte Prinzipien und Richtlinien der Vertraulichkeit, Autorisierung und Verfügbarkeit verletzen würde. Die Anforderungen an die Funktionalitäten eines Geschäftsprozessmodell-Repository, welches insbesondere die Speicherung und Suche von Geschäftsprozessmodellen un43 44 Vgl. hierzu Markus (2001, S. 61). Beispiele für stichwortbasierte Internetsuchmaschinen sind Google (Google Inc. 2010a) und Bing (Microsoft Corporation 2010). 69 terstützt, werden in Yan u. a. (2011) spezifiziert. Das vorgeschlagene Modell für ein Geschäftsprozessmodell-Repository umfasst drei wesentliche Teile: das Prozessdatenmodell, das Prozessfunktionsmodell und das Prozessmanagementmodell. Das Prozessdatenmodell beschreibt auf welche Weise Geschäftsprozessmodelle und zugehörige Daten in das Repository gelangen können und wie sie intern gespeichert werden. Es wird zusätzlich unterteilt in das Metamodell, das Speichermodell und das Indexmodell. Das Metamodell beschreibt welche Informationen im Repository gespeichert werden können und müssen und definiert alle zulässigen Konzepte und Relationen zwischen ihnen. Das Speichermodell beschreibt wie die Geschäftsprozessmodellinformationen technisch zu repräsentieren sind. Diese Beschreibungen beziehen sich sowohl auf das externe wie das interne Speichermodell (diese können, aber müssen nicht gleich sein). Das Indexmodell beschreibt das Konzept der Indizierung von Geschäftsprozessmodellen mit Begriffen, die der Klassifikation dienen und eine Suche und Navigation über die Prozessmodelle ermöglichen. Das Prozessfunktionsmodell beschreibt die grundlegenden Funktionen, die ein Geschäftsprozessmodell-Repository umfassen sollte. Diese lassen sich einteilen in Speicherfunktionen, Abfragefunktionen und Integrationsfunktionen. Zu den Speicherfunktionen gehören Basisfunktionen der Erstellung, Änderung und Löschung (siehe auch CRUD45 ) von Prozessmodellinstanzen bzw. Teilen davon, als auch Import- und Exportfunktionen. Abfragefunktionen werden benötigt, um aus einer Menge von Geschäftsprozessmodellen im Repository mithilfe von Suchkriterien ein geeignetes Prozessmodell aufzufinden. Die drei grundlegenden Methoden der Auffindung sind die Navigation, die stichwortbasierte Suche (vgl. auch Thomas 2006, S. 83 ff.) und die Abfrage mit zusätzlichen Funktionen, welche die Abfrage genauer spezifizieren können. Für die letztere Methode werden spezielle Abfragesprachen vorgeschlagen wie IPM-PQL (Choi u. a. 2007) oder BPMN-Q (Awad 2007). Die Integrationsfunktionen sind erforderlich, um externe Softwarewerkzeuge mit dem Repository zu verbinden (z.B. Geschäftsprozessmodell-Editoren zur Visualisierung und Bearbeitung der Modelle). Im Prozessmodellmanagementmodell werden weitere benötigte Verwaltungsfunktionen beschrieben. Diese gleichen teilweise den Funktionen von allgemeinen Repositories wie z.B. die Verwaltung des Zugriffs (engl. access management) und von Transaktionen (engl. transaction management). Es gibt aber auch geschäftsprozessmodellspezifische Verwaltungsfunktionen. Zu diesen zählen beispielsweise die Versionsverwaltung und das Lifecycle-Management von Prozessmodellen. Ein Überblick über alle Anforderungen an ein Geschäftsprozessmodell-Repository ist in Tabelle 3.1 gegeben. Eine tiefergehende Analyse der Repository-Anforderungen (einschließlich einer Repository-Referenzarchitektur) und eine vergleichende Untersuchung von existierenden Repositories anhand der definierten Anforderungen findet sich in Yan u. a. (2011). 45 CRUD = Create, Read, Update, Delete. 70 Tabelle 3.1.: Anforderungen an ein Geschäftsprozessmodell-Repository (Yan u. a. 2011) Process data model External process data model Internal process data model Process related data model Process index model Process classifications Other process indices Storage functions Create Delete Update Import Export Retrieval functions Navigate Search Query Integration functions Process management model Process aspect Process type Process notation Process storage model Process function model Process meta model Depends on external tools Process-specific management Version management Configuration management Lifecycle management Process view management General repository management Access management Integrity management Transaction management Check-in/-out management Dispatch management Notification management Context management 71 3.1.3. Szenarien der Prozessmodellwiederverwendung Neben dem grundlegenden Wiederverwendungsprozess für Geschäftsprozessmodelle, spezifischen Rollen in diesem Prozess und der Verfügbarkeit eines Repository müssen Szenarien der Prozessmodellwiederverwendung differenziert werden, die auf Unterschieden bzgl. der erstellenden und wiederverwendenden Mitarbeiter und Unterschieden der Organisationszugehörigkeit dieser Mitarbeiter beruhen. Diese Differenzierung äußert sich auch über die Möglichkeit und Art der Kommunikation, die zwischen Erstellern und Konsumenten besteht. Weiter ist auch der Wissensstand der beteiligten Rollen zu berücksichtigen, der bestimmte Szenarien der Prozessmodellwiederverwendung bedingt. In Anlehnung an die in Markus (2001) differenzierten Szenarien der Wissenswiederverwendung werden vier typische Grundszenarien der Prozessmodellwiederverwendung beschrieben, wobei der Untersuchungsfokus auf den letzten Typ der sekundären, adaptiven Wiederverwendung gelegt wird. Für die graphische Illustration der Wiederverwendungsszenarien wird die Notation DEMO (Dietz 1999) genutzt, welche die Beurteilung von Entitäten wie Mitarbeiter und Repository und die zwischen ihnen stattfindenden Transaktionen auf Basis von Kommunikationsakten adäquat repräsentiert. Folgende Szenarien der Prozessmodellwiederverwendung werden unterschieden: 1) Shared Work Producers, 2) Shared Work Practitioners, 3) Expert-Seeking Novices und 4) die sekundäre, adaptive Prozessmodellnutzung. Shared Work Producers Shared Work Producers erstellen Geschäftsprozessmodelle und verwenden diese zu einem späteren Zeitpunkt selbst, während sie mit anderen Mitarbeitern eng an einem gemeinsamen Projekt arbeiten. Zu den Aktivitäten zählen z.B. nochmaliges Durchsehen von Prozessmodellen, Besprechen von Designvorschlägen und die Nachprüfung von dokumentierten Entscheidungen. Die Aktivitäten dienen vor allem dazu, den Überblick über das laufende Prozessentwicklungsprojekt zu behalten. Die wesentlichen Transaktionen sind in Abbildung 3.3 illustriert. Shared Work Practitioners Shared Work Practitioners erstellen ebenfalls Geschäftsprozessmodelle. Diese sind aber für die Wiederverwendung durch andere Kollegen gedacht, die gleiche Arbeitsrollen einnehmen, aber an anderen Orten beschäftigt sein können (Markus 2001, S. 68). Der Zweck dieser Wiederverwendung liegt darin, Ratschläge an die Kollegen zu verteilen, um bestimmte Probleme lösen zu können und sie an Erfahrungen teilhaben zu lassen, welche Innovationen begünstigen können. Probleme hierbei ergeben sich bei der Auswahl relevanter Geschäftsprozessmodelle, da die Informationsmenge riesig sein kann. Autoren der ursprünglichen Geschäftsprozessmodelle, die direkt Auskunft über Aktualität und Relevanz der Modelle geben können, und Intermediären, die die Modelle für die ergonomische Wiederverwendung aufbereiten, kommt daher eine besonders wichtige Rolle zu (vgl. Markus 2001, S. 69) (siehe Abbildung 3.4). 72 Creation T1 W1 W 1: Rep.: T 1: Retrieval Worker Repository Transaction Rep. T2 Abbildung 3.3.: Wiederverwendungstransaktionen des Shared Work Producer Creation W1 Retrieval T1 T2 W2 Retrieval Rep. T3 W3 Retrieval W 1: Rep.: T 1: : Worker Repository Transaction Organizational Unit T4 W4 Abbildung 3.4.: Wiederverwendungstransaktionen des Shared Work Practitioner Expert-Seeking Novices Expert-Seeking Novices sind Anfänger oder Mitarbeiter aus einem anderen Arbeitskontext, die auf den Rat und das Wissen von Experten angewiesen sind, um sich z.B. schneller in die Arbeitsprozesse einzufinden. Diese Neulinge stellen eine qualitativ andere Anspruchsgruppe als langjährige Kollegen dar, weswegen die Prozessmodellwiederverwendungsituation hier abgegrenzt wird. Besondere Schwierigkeiten der effektiven Wiederverwendung ergeben sich durch unbekannte Fachtermini, durch Überfrachtung mit extrem kontextspezifischen Informationen und durch unbekannte Prozessmodellierungssprachen. Allen Punkten muss besondere Aufmerksamkeit gewidmet werden, um den Transfer des Geschäftsprozesswissens zu ermöglichen (vgl. Markus 73 Creation Retrieval Unit 1 Unit 2 W1 T1 T2 W2 Retrieval Rep. T3 W3 Retrieval W 1: Rep.: T 1: : Unit 3 Worker Repository Transaction Organizational Unit T4 W4 Abbildung 3.5.: Wiederverwendungstransaktionen der sekundären adaptiven Prozessmodellnutzung 2001, S. 70). Die Transaktionen der Erstellung und der Nutzung sind vergleichbar mit denen aus dem Szenario der Shared Work Practitioners. Sekundäre adaptive Prozessmodellnutzung Neben den drei oben genannten Situationen identifiziert Markus das Secondary Knowledge Mining. Dieser Fall umfasst die Extraktion von Geschäftsprozesswissen, welches von anderen Mitarbeitern – die dem Nutzer völlig unbekannt sein können – in Modellen aufbereitet wurde, und welches dann für andere Problemstellungen eingesetzt wird (vgl. Markus 2001, S. 71)46 . Der Fokus der vorliegenden Arbeit liegt auf der Wiederverwendungssituation des Secondary Process Mining, wobei Prozessmodellierer Geschäftsprozessmodelle für die Lösung neuer Aufgabenstellungen des Prozessdesigns verwenden (siehe Abbildung 3.5). Die Wiederverwendung von Prozessmodellen kann ebenfalls im Zusammenhang mit deontischen Regeln in der Organisation betrachtet werden, d.h. inwieweit die Wiederverwendung in bestimmten Phasen der Informationssystementwicklung erzwungen werden soll bzw. explizite Mandate in der Organisation vergeben werden, welche die systematische Wiederverwendung einfordern. Artefakte können für die passive Wiederverwendung bereitgestellt werden. D.h. es obliegt dem Artefaktnutzer, den Nutzen der verfügbaren Artefakte für die eigene Aufgabe zu erkennen und entsprechend auf dem Wege der schnelleren Erstellung/Adaption bzw. Übernahme eines relevanten Inhalts umzusetzen. Es kann 46 Bisher wurden Untersuchungen zur Informationssuche nach strukturierten Daten und Dokumenten vorgenommen (z.B. Bashein u. Markus 2000) – diese müssen zukünftig auf weitere Artefakte wie graphische Modelle erweitert werden. 74 aber auch ein Interesse einer übergeordneten Instanz daran bestehen, dass Artefakte möglichst häufig in die Arbeitssprozesse einzelner einbezogen werden, um ein bestimmtes gesamtorganisatorisches Ziel zu erreichen (z.B. die Begrenzung von Heterogenität in einem Anwendungssystemportfolio, um Lizenzkosten zu reduzieren). Diese Facette der obligatorischen Wiederverwendung äußert sich als aktive Kontrolle, als regelnder Eingriff, im Gegensatz zur oben beschriebenen freiwilligen Nutzung und ist als Instrument der organisatorischen Steuerung (Governance) anzusehen. Fragen zu Freiwilligkeit oder Zwang im Rahmen der Wiederverwendung von Artefakten sind nicht Gegenstand dieser Arbeit. Der Fokus liegt auf der Ergonomie der Prozesse, die bei der adaptiven Prozessmodellwiederverwendung involviert sind. Von Betrachtungen zur initialen Motivation der Wiederverwendung – ob per Auftrag oder als Handlungsoption – wird im weiteren Verlauf der Arbeit abgesehen. 3.2. Kognitive Bestimmungsgrößen der Prozessmodellwiederverwendung Die Erstellung von Geschäftsprozessmodellen für die Spezifikation neu erfasster Prozessabläufe mit Hilfe von wiederverwendbaren Prozessmodellen umfasst verschiedene kognitive Prozesse, die vom Prozessmodellierer ausgeführt werden müssen, um die Aufgabe bewältigen zu können. Dabei sind Wahrnehmungs- und Lernprozesse involviert, die sich sowohl auf die Geschäftsprozessdomäne, das Wiederverwendungsmodell, als auch die eigentliche Aufgabenstellung beziehen, aber auch Denk-, Such- und Entscheidungsprozesse, die letztlich die Grundlage für konstruktive bzw. adaptive Operationen zur Erstellung des geforderten Prozessmodells bereitstellen, sind fortwährend beteiligt. Die jeweiligen externen Repräsentationen der in der Aufgabe beteiligten Artefakte haben unterschiedliche Wirkungen auf die mentalen Darstellungen und die Informationsverarbeitungsprozesse von Modellierern, welche nur zum Teil erforscht sind. Für die Untersuchung von Wirkzusammenhängen zwischen der Repräsentation problembasierter Aufgaben und des Bearbeitungserfolgs wurde das theoretische Modell des Cognitive-Fit (Vessey u. Galletta 1991) vorgeschlagen. Dieses Modell eignet sich ebenfalls für die Strukturierung des Problemkontexts der adaptiven Prozessmodellwiederverwendung. Im Folgenden wird daher die Cognitive-Fit-Theorie (CFT) nach kurzer Darstellung mit den speziellen Arbeitsumständen der Prozessmodellwiederverwendung verknüpft (kognitionstheoretische Einordnung). Im Weiteren werden die einzelnen Konstrukte der CFT unter Berücksichtigung von in der Forschungsliteratur bereits untersuchten Effekten auf den Modellierungserfolg dargestellt und diskutiert (Unterabschnitte 3.2.2-3.2.5). Dabei wird speziell auf die Granularitätseigenschaft extern repräsentierter Prozessmodelle eingegangen. Für bisher uncharakterisierte Effekte im Rahmen der Prozessmodellwiederverwendung werden fallweise angrenzende Studien herangezogen und auf Übertragbarkeit geprüft. 75 Geschäftsprozessbeschreibung Wiederverwendungsprozessmodell Lösungsprozessmodell Vergleich Auswahl Repository Adaption Prozessmodellkonstruktionsaufgabe Suchen Abbildung 3.6.: Komponenten der Prozessmodellwiederverwendung 3.2.1. Kognitionstheoretische Einordnung In diesem Abschnitt wird die Arbeitssituation der Geschäftsprozessmodellwiederverwendung auf Basis der Cognitive-Fit-Theorie strukturiert. Dazu wird zunächst die CognitiveFit-Theorie selbst mit ihren einzelnen Komponenten und Beziehungen vorgestellt. Der Anwendungskontext der Prozessmodellwiederverwendung wird dann mit den einzelnen Konstrukten der Cognitive-Fit-Theorie assoziiert, so dass die Wiederverwendung von Prozessmodellen mit Hilfe der CFT-Begriffe interpretiert werden kann. Daraus abgeleitet kann ein spezielles Cognitive-Fit-Modell der Prozessmodellwiederverwendung formuliert werden. Auf diesem Modell wird schließlich gemäß dem Untersuchungsfokus der Schwerpunkt auf die Konstrukte des primären Forschungsinteresses gelegt. Der Abschnitt gliedert sich wie folgt: 1) Cognitive-Fit-Theorie, 2) CFT im Kontext Prozessmodellwiederverwendung, 3) spezielles Cognitive-Fit-Modell und 4) Untersuchungsfokus. Cognitive-Fit Theory (CFT) Der Cognitive Fit ist ein Kosten-Nutzen-basiertes Merkmal, welches impliziert, dass das Lösen von Problemen genau dann besonders effizient und effektiv erfolgen kann, wenn die Repräsentation des Problems und alle eingesetzten und assistierenden Werkzeuge die erforderlichen Methoden zur Aufgabenbewältigung unterstützen (Vessey 1991). Dies bedeutet, dass die Problemrepräsentation, welche von einem Aufgabenbearbeiter genutzt wird, im Kontext des Aufgabentyps betrachtet werden muss. 76 Internal Representation of the Problem Domain Mental Representation for Task Solution Problem-Solving Performance External Problem Representation Problem-Solving Task Abbildung 3.7.: Erweitertes Cognitive-Fit-Modell nach Zhang u. Norman (1994) Die CFT unterscheidet sich insofern vom Konzept des Task-Technology-Fit (Goodhue 1995; Goodhue u. Thompson 1995; Zigurs u. Buckland 1998), als dass in diesem die Abstimmung der Technologie auf die Aufgabe zur Erzielung gewünschter Performanzeffekte in Bezug auf die Kognition zu kurz greift. Aufgabenbearbeiter müssen über die einfache Technologienutzung hinaus auch die richtigen Lösungsprozesse ausführen und dafür geeignete mentale Repräsentationen entwickeln. Dies kann erreicht werden, indem die Problemrepräsentation auf den Typ der Aufgabe abgestimmt wird (engl. matching). Dies wird als Cognitive-Fit bezeichnet (Vessey 1991). Eine Repräsentation, die zu den kognitiven Strukturen des Anwenders passt, führt zur Anwendung von ähnlichen problemlösenden Prozessen und dadurch zur Formulierung von konsistenten mentalen Repräsentationen. Diese mentalen Repräsentationen müssten dann nicht mehr transformiert werden, um Informationen aus der Problemrepräsentation zu extrahieren und diese zur Problemlösung zu nutzen. Das Lösen von Problemen, bei denen der Cognitive-Fit mit den bereitgestellten Informationen besteht, sollte dann effizienter und effektiver werden. Das theoretische Modell der CFT ist in Abbildung 3.7 dargestellt. Die CFT konnte bislang in verschiedenen Studien, in denen Unterschiede der Bearbeitungsperformanz der Anwender bei unterschiedlichen Präsentationsformaten (wie z.B. Tabellen, Graphen und schematische Zeichnungen) beobachtet wurden, bestätigt werden. In Vessey u. Galletta (1991) beispielsweise werden Performanzunterschiede untersucht bei Vorliegen von spatial bzw. symbolic tasks, die mit Hilfe von jeweils einer spatial bzw. symbolic representation des Problems gelöst werden sollen. Spatial (dt. räumlich) bedeutet, dass ein Graph (oder ein Diagramm) explizit die Informationen über topologische und geometrische Relationen zwischen den Komponenten eines Problems beinhaltet, d.h. es werden die Beziehungen in der Datenmenge hervorgehoben. Tabellen dagegen repräsentieren Informationen, die primär symbolischen Charakter haben und über diskrete Werte hervorgehoben werden. Auf die Darstellung von Beziehungen zwischen Informationen 77 wird hier kein größeres Gewicht gelegt. Die Ergebnisse stützen teilweise die Prämisse, dass das Potenzial der Problemrepräsentation in Bezug auf den Lösungsprozess berücksichtigt werden sollte. Tabellennutzer waren zwar schneller und präziser bei der Lösung symbolischer Aufgaben. Bei räumlichen Aufgaben hingegen konnten die Graphennutzer schneller antworten, die Präzision war jedoch schlechter als die der Tabellennutzer. Die bessere Präzision könnte in diesem speziellen Fall an der Einfachheit der räumlichen Aufgabe gelegen haben. Die CFT wurde auch in der Domäne geografischer Informationssysteme überprüft, um dort Performanzunterschiede während der Lösung von Aufgaben wie Orts- und Lagebestimmungen bei verschiedenen Präsentationsformaten wie Karten und Tabellen zu untersuchen (Smelcer u. Carmel 1997; Dennis u. Carte 1998). In Shaft u. Vessey (2006) wurde die CFT herangezogen, um die unterschiedlichen Möglichkeiten, wie Softwarewartungsaufgaben erfasst werden, mit der korrekten Durchführung entsprechender Modifikationen an der Software theoriebasiert zu koppeln. Hier konnte gezeigt werden, dass die Änderungen in der Softwareerfassung (im Zuge der Modifikationsdurchführung) positiv mit der Modifikationsperformanz korrelierten, wenn ein Cognitive Fit vorlag. CFT für die Prozessmodellwiederverwendung Die CFT wurde bisher noch nicht speziell für Aufgaben der wiederverwendungsorientierten Geschäftsprozessmodellierung überprüft. Generell ist eine Übertragbarkeit des grundlegenden Cognitive-Fit-Modells gegeben, da die Prozessmodellerstellung auf Basis eines extern repräsentierten Geschäftsprozesskontexts eine kognitiv anspruchsvolle Aufgabe ist und damit unter den Problembegriff von Zhang u. Norman (1994) fällt. Anzumerken ist hier, dass die Mehrzahl der Studien, die die CFT zugrunde gelegt haben, Aufgaben der Erfassung und des Verständnis untersuchen (mit Ausnahme von Shaft u. Vessey (2006), die auch Modifikationsaufgaben analysieren). Die Prozessmodellerstellung unter Wiederverwendung stellt in Abgrenzung dazu eine Konstruktionsaufgabe in den Vordergrund. Spezielles Cognitive-Fit-Modell Entsprechend den Konstrukten der CFT können nun Spezialisierungen im Kontext der Prozessmodellwiederverwendung vorgenommen werden. Die Gliederung orientiert sich direkt an den Konstrukten der externen Problemrepräsentation, der internen Repräsentation der Domäne, der mentalen Repräsentation zur Aufgabenlösung, der eigentlichen Aufgabe und der gezeigten Performanz bei der Problemlösung. Durch den Rückgriff auf existierende Prozessmodelle ist das wiederverwendbare Modell (i.S.e. Lösungsschätzung) nach der engen Auffassung der CFT keine direkte externe Repräsentation des Problems, sondern die Lösung (bzw. größere Teile davon in Abängigkeit vom jeweiligen „Abstand“ zu den Anforderungen). Die eigentliche Problemrepräsentation bei der Prozessmodellierung manifestiert sich auf Grundlage des geschäftsprozessbezoge- 78 External Problem Representation Geschäftsprozessbeschreibung Internal Representation of the Problem Domain Mental Representation for Task Solution Problem-Solving Performance Wiederverwendungsprozessmodell Lösungsprozessmodell Vergleich Auswahl Adaption Prozessmodellkonstruktionsaufgabe Repository Suchen Problem-Solving Task Abbildung 3.8.: CFT-Konstrukte wiederverwendung und Komponenten der Prozessmodell- nen Wahrnehmungsbereichs des Modellierers. Dieser Wahrnehmungsbereich erstreckt sich in der Praxis auf verschiedene prozessrelevante Informationsquellen: Dokumente, Dialoge, Abläufe, Akteurverhalten, Soft- und Hardware etc.47 Das wiederverwendbare Prozessmodell wäre dieser Auffassung zufolge nicht Teil der Problemrepräsentation. Im Sinne eines unterstützenden Artefakts, welches Informationen über den Bereich der Problemdomäne in sich trägt, kann das Wiederverwendungsmodell jedoch als Teil der externen Problemrepräsentation angesehen werden. Dadurch liegen zwei zu erfassende Artefakte vor – Geschäftsprozessbeschreibung und Wiederverwendungsmodell, die neben die ohnehin durchzuführende allgemeine Prozessmodellkonstruktionsaufgabe treten. Dadurch entstehen potenziell drei Unteraufgaben48 : die Erfassung der Geschäftsprozessbeschreibung, die Erfassung des wiederverwendbaren Prozessmodells und die Konstruktion des Geschäftsprozessmodells. Dadurch, dass das verfügbare Prozessmodell wiederverwendet und angepasst werden darf, entsteht eine weitere, aus der Konstruktionsaufgabe folgernde Aufgabe: die Adaption des Wiederverwendungsmodells. Die mentale Repräsentation der adaptiven Lösung (das angepasste Prozessmodell) kann als die Integration der drei Unteraufgaben interpretiert werden. In Anlehnung an Shaft u. Vessey (2006, S. 31) müssten demzufolge vier (wenn man die Integration aller mentalen Aufgabenrepräsentationen hin47 In einer laborexperimentellen Untersuchung könnte die Problemrepräsentation beispielsweise auf eine textliche Beschreibung zwecks Kontrollierbarkeit und Gebot der Vereinfachung beschränkt werden. 48 Vgl. hierzu das Dual-Task Problem-Solving Model (Shaft u. Vessey 2006, S. 31). 79 zuzählt) Cognitive-Fit-Modelle in einem beschreibenden Modell verbunden werden. Aufgrund des explorativen Charakters dieser Arbeit und der Konzentration auf ausgewählte Faktoren im Rahmen der Prozessmodellwiederverwendung, wird das einzelne erweiterte Cognitive-Fit-Modell nach Zhang u. Norman (1994) hier als ausreichend befunden. Diese Sicht lässt sich nachvollziehen, wenn das wiederverwendbare Prozessmodell – im Sinne eines unterstützenden Werkzeugs – als Erweiterung der Problemrepräsentation betrachtet wird, d.h. sowohl die Geschäftsprozessbeschreibung, als auch das wiederverwendbare Prozessmodell werden als Bestandteile der externen Problemrepräsentation betrachtet. Zentrale Aufgabe des Modellierers ist es, auf Grundlage der gegebenen Informationen einen Geschäftsprozess in einer spezifischen Notation abzubilden. Für diese Aufgabe stehen nicht nur textbasierte Anforderungsinformationen, sondern auch ein Prozessmodell in eben dieser Notation zur Verfügung, welches bereits über bestimmte Teile der Lösung verfügt. Da es sich nur um eine Schätzung der Lösung handelt, sind Anpassungen dieses Modells notwendig. Diese Anpassungsaktivitäten stellen eine Problemstellung dar, die sich aus der Modellierungsaufgabe ergibt. Diese Problemstellung bzgl. erforderlicher Anpassungen kann als erweiterte Repräsentation des gesamten Konstruktionsproblems betrachtet werden. Zur internen Repräsentation der Problemdomäne werden spezifische Kenntnisse in der Anwendungsdomäne, aber auch Kenntnisse in der benötigten Prozessmodellierungssprache gerechnet. Diese Repräsentationen werden selbst durch die externe Problemrepräsentation weiter geformt und tragen zur Bildung der mentalen Repräsentation der Problemlösung (d.h. der Prozessmodelllösung bzw. -konstruktion/-adaption) bei. Diese beziehen natürlicherweise auch die eigentliche Aufgabe mit ein, welche im Prozessmodellwiederverwendungskontext konsequenterweise die Prozessmodellkonstruktion (unter Wiederverwendung) ist. Diese mentale Repräsentation der Prozessmodelllösung beeinflusst wiederum die Prozessmodellierungsperformanz, was sich in der Annahme ausdrückt, dass Modellierer bei einer adäquaten Repräsentation ein besseres Adaptionsverhalten bzgl. des Wiederverwendungsmodells aufweisen. In Abbildung 3.9 ist das Zhang u. Normansche CFT-Modell mit den für die Prozessmodellwiederverwendung spezialisierten Konstrukten dargestellt. Untersuchungsfokus Den Forschungsfragen folgend sind nicht alle dargestellten Konstrukte des speziellen Cognitive-Fit-Modells in gleichem Umfang von Untersuchungsinteresse. Das Konstrukt Prozessmodellierungsaufgabe und das Konstrukt Domänen- und Modellierungswissen spielen zwar entscheidende Rollen in der Prozessmodellierung, sollen hier jedoch nicht weiter fokussiert werden. Die Prozessmodellkonstruktionsaufgabe kann im Kontext des Untersuchungsinteresses als stabil erachtet werden. Besondere Effekte sind also durch etwaige Variationen der gestellten Aufgabe nicht zu erwarten. Die Aufgabe lautet im Kern, den Geschäftsprozess als Modell abzubilden. Es werden keine anderen Aufgaben betrachtet, wie z.B. Verständnisaufgaben o.ä., sondern nur die Konstruktion des Ge- 80 Domänen- und Modellierungswissen Externe Aufgabenrepräsentation Geschäftsprozessbeschreibung Mentale Repräsentation für die Prozessmodellkonstruktion/-adaption Prozessmodellierungsperformanz Prozessmodellkonstruktionsaufgabe Wiederverwendungsprozessmodell Abbildung 3.9.: Spezialisierung des Cognitive-Fit-Modells im Kontext der Prozessmodellwiederverwendung schäftsprozessmodells auf Basis eines repräsentierten Geschäftsprozesskontexts. In diesem Zusammenhang ist die Beziehung zur externen Aufgabenrepräsentation, speziell der Geschäftsprozessbeschreibung, zu beachten. Bei umfangreicherer Geschäftsprozessbeschreibung, unbekannter Terminologie usw. steigt die Komplexität der Aufgabenbearbeitung. Dies sind aber Merkmale der externen Aufgabenrepräsentation und nicht der Prozessmodellkonstruktionsaufgabe. Die Schwierigkeit der eigentlichen gestellten Aufgabe an sich – die Modellierung – ist gleich. Da die Arbeit nur die Prozessmodellkonstruktion fokussiert und keine weiteren Aufgaben, die unter Umständen auf unterschiedliche Weise zur Bildung von mentalen Repräsentation beitragen würden, muss das Konstrukt der Art der Aufgabe nicht weiter expliziert werden. Da die Rolle des Domänen- und Modellierungswissens in Bezug auf die Prozessmodellwiederverwendung nicht genau geklärt ist, erfolgt eine kompakte Würdigung dieses Konstrukts in einem eigenen Abschnitt. Nachdem Prozessmodellierungsaufgabe und Domänen- und Modellierungswissen aus dem Blickfeld des Untersuchungsschwerpunkts gerückt sind, verbleiben die externe Aufgabenrepräsentation – bestehend aus einer Geschäftsprozessbeschreibung und einem Wiederverwendungsmodell, die mentale Repräsentation für die Prozessmodellkonstruktion/-adaption und die Prozessmodellierungsperformanz im zentralen Untersuchungsfokus. Abbildung 3.10 illustriert die Fokussierung dieser drei Konstrukte. Im Folgenden werden die einzelnen Konstrukte des spezialisierten Modells unter besonderer Berücksichtigung der Beziehungen zu performanzbezogenen Größen vorgestellt und vor dem Hintergrund einschlägiger Studien diskutiert. Die Schwerpunkte werden hierbei der Untersuchungsrichtung folgend bei der externen Aufgabenrepräsentation auf 81 Domänen- und Modellierungswissen Externe Aufgabenrepräsentation Geschäftsprozessbeschreibung Mentale Repräsentation für die Prozessmodellkonstruktion/-adaption Prozessmodellierungsperformanz Wiederverwendungsprozessmodell Prozessmodellkonstruktionsaufgabe Abbildung 3.10.: Fokus auf externe Aufgabenrepräsentation die Granularität des Wiederverwendungsmodells und bei der mentalen Repräsentation auf Aspekte der kognitiven Belastung gelegt. In diesem Zusammenhang wird spezifischen Entscheidungsprozessen, welche für die Adaption eines wiederverwendeten Prozessmodells durchlaufen werden, besondere Bedeutung beigemessen. Der Rest des Abschnitts 3.2 ist daher im Weiteren wie folgt gegliedert: 1) Domänen- und Modellierungswissen, 2) Externe Aufgabenrepräsentation, 3) Mentale Repräsentation der Prozessmodelladaption und 4) Entscheidungsprozesse in der Prozessmodellwiederverwendung. 3.2.2. Domänen- und Modellierungswissen Die interne Repräsentation der Problemdomäne wird in Abgrenzung zur externen Problemrepräsentation betrachtet (Zhang u. Norman 1994). Für die wiederverwendungsbasierte Prozessmodellierung bedeutet dies, dass die interne Domänenrepräsentation des Prozessmodellierers insbesondere aus dem Wissen über die Geschäftsprozessmodellierung als solche, aber auch aus dem Wissen über den spezifischen Anwendungsbereich, in den der abzubildende Geschäftsprozess eingebettet ist, besteht. Die Komponenten des Prozessmodellierungswissens und des Anwendungsdomänenwissens werden hinsichtlich ihrer potenziellen Wirkungen auf den Modellkonstruktionsprozess unter Wiederverwendung im folgenden diskutiert. Dieser Abschnitt ist dementsprechend gegliedert in 1) Rolle des Anwendungsdomänenwissens, 2) Rolle des Modellierungswissens und 3) Zusammenfassung und Berücksichtigung in dieser Arbeit. 82 Anwendungsdomänenwissen Das Wissen und die Erfahrung des Modellerstellers in einer Anwendungsdomäne stellen prinzipiell beeinflussende Größen in der Durchführung eines Modellierungsvorhabens hinsichtlich des Ergebnisses dar (Recker 2010a). Bei Vorliegen von viel Wissen und Erfahrung bzgl. einer Domäne verfügt der Modellierer über mentale Repräsentationen, die besondere Unterstützung hinsichtlich der Modellierungsaufgabe leisten können. Erfahrene Modellersteller können Problemstellungen schneller und besser einschätzen, bewerten und passende Lösungen einsetzen. Ebenso kann ein Modellnutzer auf sein Erfahrungswissen zurückgreifen und kann so die Inhalte einer Konstruktionsaufgabe schnell und effektiv mit seinen mentalen Repräsentationen abgleichen. Die Vorteile von Anwendungsdomänenwissen sind sowohl durch eine besondere Form der Speicherung der gelernten Inhalte, als auch durch effiziente Auffindungsmechanismen, die das Erinnern vereinfachen, ausgeprägt (Mayer 1975; Khatri u. a. 2006). Im Kontext der wiederverwendungsbasierten Prozessmodellierung sind bis dato keine Arbeiten bekannt, die den Einfluss von spezifischem Domänenwissen auf Performanzgrößen näher untersuchen. Es kann daher keine belegte Aussage zu dessen möglichen Effekten getroffen werden. Es existieren jedoch Ergebnisse aus verwandten Forschungsarbeiten, die zwar bzgl. Aufgabentyp und eingesetzten Modellierungssprachen anders fokussiert sind, aber dennoch eine partielle Übertragung von Grundüberlegungen anregen. Konkrete Aufgaben im Rahmen der Modellierung lassen sich grundsätzlich in reine Lese- und Verständnisaufgaben (engl. read) und Konstruktionsaufgaben (engl. write) unterteilen49 . Die Prozessmodellkonstruktion unter Wiederverwendung stellt dabei einen hybriden Aufgabentyp dar, da in erster Linie eine Modellkonstruktion erfolgen soll, aber gleichzeitig die Verwendung eines verfügbaren Prozessmodells in der Konstruktionsaktivität gewünscht ist. Dies erfordert daher auch das Betrachten und Verstehen des bereitgestellten Prozessmodells in Bezug auf die Konstruktionsaufgabe. Vorhandenes Anwendungsdomänenwissen könnte somit zumindest auf diesen Teil der Aufgabenbewältigung einen Einfluss ausüben, der sich wiederum auf die Performanz der Gesamtaufgabe (die Prozessmodellerstellung) auswirken könnte. Der Faktor Anwendungsdomänenwissen in Verständnisaufgaben der konzeptuellen Modellierung wurde in verschiedenen Forschungsarbeiten mit unterschiedlichen Untersuchungsschwerpunkten analysiert. In Khatri u. a. (2006) wird der Einfluss von Anwendungsdomänenwissen auf die Performanz in Entity-Relationship-Modellierungsaufgaben in Abhängigkeit vom Aufgabentyp innerhalb der „read-to-do“-Klasse (d.h. der Fokus liegt auf dem Verstehen der Modelle) untersucht. Während das Anwendungsdomänenwissen für die syntaktische und semantische Erfassung (engl. Comprehension) von EntityRelationship-Modellen keinen erkennbaren Performanzunterschied hervorrief, konnte bei der Bearbeitung von problemorientierten Aufgaben ein signifikanter Effekt beobachtet werden. Als problemorientiert werden hier solche Aufgaben klassifiziert, die nur durch 49 Vgl. hierzu die Abgrenzung von Aufgabentypen wie „read-to-recall“, „read-to-do“ und „write“ in Burkhardt u. a. (2002); Gemino u. Wand (2004). 83 die Nutzung von Wissen, welches im Modellschema repräsentiert ist, gelöst werden können. Operationalisiert werden diese Aufgaben in Form von Abfragen, für die Modellnutzer bestimmen müssen, ob und wie Informationen im Modellschema verfügbar sind (Khatri u. a. 2006, S. 84). Für problemorientierte Verständnisaufgaben in der EntityRelationship-Modellierung wäre der Faktor Anwendungsdomänenwissen dieser Studie zufolge zu berücksichtigen. Auf Grundlage dieser Ergebnisse wird auch hervorgehoben, dass es für zukünftige Forschungsdesigns wichtig ist, mehr als eine einzige Anwendungsdomäne zu betrachten, da die Schwere des Einflusses von Anwendungsdomänenwissen variieren könnte. Eine weitere Studie hat die Vertrautheit oder Erfahrung von Modellierern mit der Anwendungsdomäne (engl. domain familiarity) als Einflussfaktor in Entity-RelationshipModellierungsaufgaben untersucht. Burton-Jones u. Weber (1999) haben eine mögliche Wirkung der Anwendungsdomänenerfahrung und der unterschiedlichen Repräsentationsformen von Relationships auf das Verständnis eines konzeptuellen Schemas analysiert. Es konnte gezeigt werden, dass, wenn keine Anwendungsdomänenerfahrung vorlag, die verschiedenen Relationshiprepräsentationen zu Unterschieden im Verständnis führten, wohingegen keine Performanzunterschiede zu beobachten waren, als Anwendungsdomänenerfahrung vorlag. Eine direkte Untersuchung der Effekte von Anwendungsdomänenwissen wurde nicht vorgenommen. Venkatesh u. Morris (2000) zeigen, dass bei Individuen ohne praktische Erfahrung die Einstellungen zur Systemnutzungsabsicht eher von generellen, nutzungsunabhängigen Kriterien geprägt werden, jedoch, wenn sie an Erfahrung mit dem System gewinnen, zunehmend konkrete Kriterien aus der Auseinandersetzung mit dem Problemgegenstand in ihre Beurteilung mit einbeziehen. Eine interessante Komponente ist in diesem Zusammenhang die Zeit, oder wahrgenommene Zeit, die in betrieblichen Arbeitsabläufen zur Verfügung steht, um zu diesem spezifischen Informationsakquisitionsverhalten zu gelangen. Übertragen auf den Kontext der Prozessmodellwiederverwendung lassen sich nur schwache Hinweise entnehmen, dass das Anwendungsdomänenwissen signifikante Wirkungen auf die Performanz haben könnte, zumal die erwähnten Studien nur einen Teil der Aktivitäten der wiederverwendungsorientierten Modellkonstruktion, nämlich das Verstehen des Wiederverwendungsmodells, adressieren. Effekte von Anwendungsdomänenerfahrung auf die Performanz in konstruktionsorientierten Modellierungsaufgaben sind bisher nicht direkt untersucht worden. Im vorliegenden Kontext kommt zudem der Aspekt der Wiederverwendung hinzu, was wiederum eine besondere Form der Modellkonstruktion darstellt. Hier müssen wiederverwendbare Informationen abgewogen und für lösungsrelevant befunden werden. Welche Wirkzusammenhänge zwischen dieser Art von Entscheidungsprozessen und Anwendungsdomänenwissen bestehen, ist nur begrenzt analysiert worden. Es sind drei Studien in diesem Zusammenhang bekannt. In Venkatesh (2000) wird gezeigt, dass systemunabhängige Faktoren, wie das Vertrauen in eigene Computerkenntnisse (computer self-efficacy50 ) und extern verfügbare Unterstützungsangebote (facilitating conditions51 ), wahrscheinlich stärkere Einflussgrößen 50 51 Siehe Venkatesh (2000, S. 346). Siehe Venkatesh (2000, S. 347). 84 bzgl. der gebildeten Nutzungsabsicht sind, als die Anwendungserfahrung durch die direkte Interaktion mit einem System. Die Studie wurde in drei betrieblichen Kontexten durchgeführt: Einführung eines Online Helpdesk-Systems, Einführung eines Immobilienverwaltungssystems und der Umstieg auf ein PC-basiertes System für die Gehaltsabrechnung. Diese Kontexte lassen sich nur bedingt auf die Aufgabe der wiederverwendungsbasierten Prozessmodellspezifikation übertragen. Die facilitating conditions lassen sich jedoch der Verfügbarkeit des wiederverwendbaren Prozessmodells zuordnen. Die Nutzungsabsicht kann mit der Absicht assoziiert werden, modifizierende und anforderungsbezogene Operationen am Wiederverwendungsmodell vorzunehmen. Nach Venkatesh wäre folglich von der Repräsentation des Wiederverwendungsmodells ein deutlich stärkerer Einfluss auf Anpassungsabsichten zu erwarten, als von der Anwendungserfahrung. Mervis u. Rosch (1981) dagegen vermuten, dass die menschliche Anwendung von Heuristiken ein fundamentaler kognitiver Prozess ist, der unterbewusst abläuft und nicht durch Domänenerfahrung moderiert werden kann. Ebenso wurde in Wright u. Anderson (1989) gezeigt, dass die Vertrautheit mit der Anwendungsdomäne kaum eine Wirkung auf die Bearbeitungsperformanz hat. Die Aufgaben waren hier Entscheidungsprobleme, zu denen die Teilnehmer Einschätzungen der Eintrittswahrscheinlichkeit abgeben sollten. Die Prozessschritte der Prozessmodellwiederverwendung Vergleich und Adaption können ebenfalls als Entscheidungsprozesse interpretiert werden, infolgedessen bestimmte Modellelemente beibehalten, verworfen bzw. anderweitig modifiziert werden. Wright u. Anderson (1989) zufolge ist durch eine Manipulation der Anwendungsdomänenerfahrung keine signifikante Wirkung auf die Modellierungsperformanz zu erwarten. Bei Aufgaben, in denen Modelle als Lösungsschätzungen adaptiv wiederverwendet werden, scheint der Einfluss des Anwendungsdomänenwissens auf performanzbasierte Größen gering zu sein. Den diskutierten Arbeiten nach ist es folglich schwierig, von einem eindeutigen Effekt des Anwendungsdomänenwissens auf Performanzgrößen in sowohl Modellverständnis- als auch Modellkonstruktionsaufgaben auszugehen. Trotz dieser Aussagen zu einem eher geringen Effekt der Anwendungsdomänenerfahrung sollte dieser Faktor in Studien nicht außer Acht gelassen werden. Sofern eine Möglichkeit besteht, den Stand des Domänenwissens von Modellierern zu erheben, sollten diese Werte in die Analyse mit einfließen. Modellierungswissen Das Wissen von Modellierern bzgl. eines Informationssystems und dessen Gestaltungsmethoden – dies ist abzugrenzen von Anwendungsdomänenwissen – hat einen entscheidenden Einfluss auf die Lösung von problembasierten Aufgaben. In mehreren Studien wurde gezeigt, dass ein höherer Wissensstand in der Repräsentation der vorliegenden Informationssysteme positiv mit der Bearbeitungsperformanz in Aufgaben der Informationssystemgestaltung korreliert. Auch in Khatri u. a. (2006) wird gezeigt, dass genaueres Informationssystemwissen (engl. information system knowledge) einen positiven Einfluss auf die Performanz in der ER-Modellierung hat. Diese Arbeiten haben sich auf statische 85 Modelle konzentriert und in der Regel den Aufgabentyp des Erfassens und des Verstehens untersucht. Die Übertragung auf die wiederverwendungsorientierte Prozessmodellerstellung ist daher eingeschränkt, da qualitative Abweichungen bzgl. Modellierungsebene und Aufgabentyp bestehen. Im Diskursbereich der Prozessmodellierung sind in der jüngeren Zeit weitere Arbeiten zur Rolle der Modellierungskenntnisse in der Bearbeitung von Prozessmodellierungsaufgaben durchgeführt worden (z.B. Recker u. a. 2010). Zusammenfassung Die bisher bekannten Ergebnisse dürfen erneut diskutiert werden, wenn adaptive Aufgaben bei Wiederverwendung von Prozessmodellen in das Untersuchungsfeld einbezogen werden. Es kann aber eingesehen werden, dass auch für die Anpassung von Prozessmodellen Kenntnisse in der Prozessmodellierungssprache notwendig sind. Dies bezieht sich einerseits auf die Erfassung und die Einordnung des Wiederverwendungsprozessmodells („Was beschreibt das Modell vor dem Hintergrund des vorliegenden Geschäftsprozesses?“), aber auch auf nötiges Wissen, um zulässige und anforderungsgerechte Adaptionen im Prozessmodell vornehmen zu können („Welche Operationen führen zu der gewünschten Repräsentation gemäß der Proezssmodellierungssprache?“). Ohne jegliche Prozessmodellierungskenntnisse wären diese Adaptionen als eher zuffällig zu interpretieren. Diese Ergebnisse legen nahe, das Prozessmodellierungswissen als beeinflussenden Faktor in Konstruktionsaufgaben zu berücksichtigen. Es ist zumindest ein Performanzunterschied zu erwarten, wenn der Wissensabstand zwischen Modellierergruppen groß ist, z.B. wenn die Modellierungsleistung von Bearbeitern ohne Modellierungskenntnisse (Anfänger) der Leistung von Prozessmodellierungsexperten gegenübergestellt wird. Aufgrund des anders gelagerten Untersuchungsinteresses, welches auf der spezifischen Eigenschaft der Granularität des extern repräsentierten Prozessmodells liegt, sollte das Modellierungswissen in Untersuchungsdesigns kontrolliert werden. 3.2.3. Externe Aufgabenrepräsentation Die externe Aufgabenrepräsentation ist ein zentrales Konstrukt der CFT und passt sich in den Kontext der Geschäftsprozessmodellwiederverwendung ein. In diesem Zusammenhang besteht die externe Aufgabenrepräsentation aus zwei Artefakten: die Geschäftsprozessbeschreibung und das Wiederverwendungsprozessmodell. Für beide kann vermutet werden, dass spezifische Variationen ihrer Ausprägung zu verschiedenen Wegen der mentalen Repräsentationen führen und damit auch Unterschiede in der Qualität der Ergebnisse hervorrufen werden. Deswegen sollen im Folgenden für diese beiden Artefakte die wesentlichen Merkmale charakterisiert und ihre Bezüge zum Wiederverwendungsprozess aufgezeigt werden. Der Geschäftsprozesskontext, welcher hier als Geschäftsprozessbeschreibung bezeichnet wird, umfasst in der realbetrieblichen Organisation mehrere Kanäle, über die er sich dem Prozessmodellierer vermittelt (Beobachtung phyischer Aktivitäten, Sichtung von Dokumenten, Gespräche mit Experten, etc.). Mit Blick auf 86 die Einschränkungen durch das hier mögliche Untersuchungsdesign, wird nur auf die Merkmale einer textbasierten Geschäftsprozessbeschreibung eingegangen, da diese die primäre Informationsquelle für den Modellierer darstellt. Das Wiederverwendungsprozessmodell manifestiert sich vor allem über die Dimensionen der notationsbezogenen graphischen Attribute, der syntaktisch-semantischen Ausprägung der jeweils eingesetzten Prozessmodellierungssprache und über die Prozessmodellgranularität (bezogen auf die Prozessmodellierungsanforderungen). Der Abschnitt gliedert sich daher entsprechend in 1) Geschäftsprozessbeschreibung und 2) Wiederverwendungsprozessmodell. Geschäftsprozessbeschreibung Im Folgenden werden wichtige Merkmale der extern repräsentierten Geschäftsprozessbeschreibung aufgeführt, die potenziell einen Einfluss auf den Prozess der Anpassung des wiederverwendeten Geschäftsprozessmodells haben. Da sie jedoch nicht im Mittelpunkt des Untersuchungsinteresses stehen werden sie in der später erfolgenden Untersuchung konstant gehalten (mit Ausnahme der Anwendungsdomäne, siehe Abschnitt 5.2.3), um den Faktor der Prozessmodellgranularität weitestgehend isoliert betrachten zu können. Die betrachteten Merkmale der Geschäftsprozessbeschreibung sind 1) das Repräsentationsformat, 2) die Komplexität der Geschäftsprozessbeschreibung und schließlich 3) die Anwendungsdomäne, in welcher der beschriebene Geschäftsprozess angesiedelt ist. Repräsentationsformat der Geschäftsprozessbeschreibung Viele Studien haben in der Vergangenheit gezeigt, dass sowohl die semantische Einbettung als auch das Repräsentationsformat von ansonsten strukturgleichen Problemstellungen starke Effekte auf die Prozesse des Problemlösens und die Qualität der Ergebnisse (Simon u. Hayes 1976), deduktive Schlussfolgerungen (Johnson-Laird u. a. 1972; Klauer u. a. 2000) sowie auf statistisches Schlussfolgern (Fiedler 1988) haben können (vgl. auch Bröder u. Schiffer 2003). Im Diskursbreich der Prozessmodellierung haben sich Studien mit unterschiedlichen Problemstellungen und Wirkungen der Repräsentationsvarianten von Prozessmodellen beschäftigt. Die Teilergebnisse dieser empirischen Studien sind in einen Vorschlag von sieben Richtlinien zusammengeflossen, deren Befolgung zu höherer Qualität in konstruierten Prozessmodellen hinsichtlich syntaktischer Korrektheit und Verständlichkeit führen soll (Mendling u. a. 2010a) (siehe auch Abschnitt 2.2.3). Wenn aber die Erstellung eines Prozessmodells, welches einen Geschäftsprozess des Wahrnehmungsbereichs abbilden soll, die Aufgabe darstellt, dann bezieht sich der Repräsentationsformatbegriff der Problemstellung hier auf jenen wahrgenommenen Geschäftsprozess. Diese Geschäftsprozessdarstellungen sind in der Regel sprachlich strukturiert, z.B. wenn der Prozessanalyst betriebsinterne Dokumente über betriebliche Abläufe sichtet oder sogar Zugriff auf bereits erstellte Prozessmodelle hat52 . Darüber hinaus stellen alle wahrnehmbaren Phänomene im geschäftsprozessrelevanten Bereich Signale dar, die innerhalb der Prozessmodellkonstruktion von Modellierern verarbeitet werden können. Um eine realistische Arbeitsitua52 Vgl. auch die informelle Spezifikation in Frederiks u. van der Weide (2006). 87 tion untersuchen zu können, müsste die Vielfalt an Wahrnehmungsinformationen, die in der Prozessmodellierung genutzt werden kann, in der Problemstellung reflektiert werden. Dies wäre bspw. in Feldversuchen möglich. Für die Untersuchung von spezifischen Zusammenhängen in der wiederverwendungsbasierten Prozessmodellierung bietet sich allerdings eine kontrolliertere Umgebung an, in der die Problemrepräsentation auf bestimmte Formate beschränkt bleibt, da ansonsten die interne Validität stark gefährdet wäre. Es wird hier eingeräumt, dass wenn die Problemstellung auf verschiedene Weise dem Prozessmodellierer präsentiert wird – z.B. eine rein natürlich-sprachliche Beschreibung eines Geschäftsprozessablaufs versus selbst durchgeführte, rein visuelle Beobachtungen desselben Prozesses – es auch zu unterschiedlichen Modellierungsresultaten kommen kann. Die nähere Untersuchung dieser Wirkzusammenhänge sei hier zukünftigen Forschungsarbeiten vorbehalten. Komplexität der Geschäftsprozessbeschreibung Merkmale für die Aufgabenkomplexität können aus den Bereichen der angewandten Linguistik, der Prozessmodellierung und der Textanalyse herangezogen werden. Der Schwerpunkt der Bestimmung der Aufgabenkomplexität liegt hier nicht auf der genauen Quantifizierung der Komplexität der einzelnen Aufgaben, sondern dient vorrangig der Vergleichbarkeit der Aufgaben und der Sicherstellung, dass eine Aufgabe nicht wesentlich komplexer ist, als die andere. Es muss zwischen Merkmalen unterschieden werden, die sich auf die Verarbeitungsanforderungen einer Aufgabe beziehen – diese ergeben sich aus der Struktur und der Repräsentation der Aufgabe – und den Merkmalen bezüglich der Fähigkeiten und Ressourcen des jeweiligen Aufgabenbearbeiters, die auf einer großen Anzahl an individuellen Faktoren basieren (Robinson 2001). Daraus ergeben sich die zu differenzierenden Merkmale Aufgabenkomplexität (engl. Task complexity) bzw. Aufgabenschwierigkeit (engl. Task difficulty)53 . Nach Robinson (2001) setzt sich die Aufgabenkomplexität zusammen aus den Anforderungen hinsichtlich der benötigten Aufmerksamkeit, des Erinnerungsvermögens, des logisches Denkvermögens und weiteren Verarbeitungsfähigkeiten, die sich aus der Struktur der Aufgabenstellung ergeben. Es gibt eine Vielzahl an Maßen, um die Komplexität von textbasierten Aufgaben zu bestimmen. Campbell (1988) differenziert vier essentielle Attribute der Aufgabenkomplexität, die je nach Ausprägung miteinander kombiniert auftreten können und damit einen bestimmten Komplexitätstyp darstellen. Diese Attribute sind: die Möglichkeit verschiedener potenzieller Lösungspfade, um einen erwünschten Endzustand zu erreichen; die Existenz mehrerer verschiedener Lösungen zu der gestellten Aufgabe; die Existenz konfliktärer Beziehungen zwischen Lösungswegen und den unterschiedlichen Ergebnissen; die Existenz von Unsicherheit, was bestimmte Lösungspfade zu spezifischen potenziellen Ergebnissen betrifft. In Prabhu (1987) werden Kriterien vorgeschlagen, die als grobe Maße für kognitive Komplexität beschreiben werden: Anzahl der verschiedenen Informationselemente; An53 Für nähere Ausführungen zur Aufgabenschwierigkeit sei hier auf (Robinson 2001) verwiesen. 88 zahl von Schritten der Schlussfolgerung; die Anforderung nach präzisen Fachtermini; Grad der Abstraktheit. Das erste Merkmal umfasst die Anzahl an Information, die verarbeitet werden muss. Dabei wird davon ausgegangen, dass je mehr Informationen zu verarbeiten sind (z.B. wenige Regeln im Gegensatz zu vielen Regeln in regelbasierten Aufgaben) desto komplexer gestaltet sich die Aufgabe. Das zweite Merkmal bezieht sich auf die Anforderung nach logischem Schließen. Je größer die Anzahl der Schritte, die benötigt werden, um Ableitungen, Schlüsse bzw. Berechnungen vorzunehmen, um zum Ergebnis zu gelangen, desto komplexer kann die Aufgabe angesehen werden. Ein drittes Kriterium bezieht sich auf die Anforderung nach präzisen Fachtermini, die benötigt werden, um eine Idee oder ein Ergebnis darzustellen. Je präziser diese Termini sein müssen, desto komplexer die Aufgabe. Ein viertes Merkmal bezieht sich auf den Grad der Abstraktheit der Inhalte in einer Aufgabe. Realweltliche Objekte und Aktivitäten sind demnach als konkret einzustufen und damit weniger komplex; Konzepte und verallgemeinernde Darstellungen abstrahieren von jenen realweltlichen Bezügen und werden daher als komplexer eingestuft. Prabhu (1987) zieht auch das Merkmal Vertrautheit mit Begriffen in der Aufgabenbeschreibung heran, das eine Aufgabe schwieriger oder einfacher lösbar erscheinen lässt. Dieses Merkmal ist an der Schnittstelle zwischen den eigenen Fertigkeiten, da diese Vertrautheit hätte erworben werden müssen und einem bestimmten Vorwissen, das eine Anforderung der Aufgabe selbst sein kann. Wie auch in Robinson (2001) kann die Begriffsvertrautheit der Aufgabenkomplexität zugeordnet werden – dort heißt es benötigtes „Vorwissen“. In Robinson (2001) selbst werden die kognitiven Faktoren der Aufgabenkomplexität nochmals in zwei Blöcke unterteilt: in ressourcenleitende und ressourcenverbrauchende Faktoren. Bei den ressourcenleitenden Faktoren zählt Robinson folgende auf: die Anzahl der Elemente, auf die man die eigene Aufmerksamkeit richten muss; das Ausmaß an „here-and-now“ der Aufgabe: dies lässt sich als konkrete Bezüge zu Objekten und Aktivitäten der näheren Umwelt interpretieren und betrifft auch die zeitliche Dimension, d.h. inwieweit die Aufgabe jetzige Phänomene im Gegensatz zu zukünftigen bzw. vergangenen Phänomenen behandelt; die Anforderung an logisches Schlussfolgern, welches bereits oben bei Prabhu als Anforderung innerhalb von Aufgabenkomplexität erläutert wurde. Zu den ressourcenverbrauchenden Faktoren zählt Robinson beispielhaft auf: die Anforderung an planende Tätigkeiten zur Lösung des Problems; die Anzahl für in sich geschlossene Aufgaben, d.h. handelt es sich um eine einzige Aufgabe oder um mehrere verbundene Aufgaben; den benötigten Rückgriff auf vorhandenes Vorwissen bezüglich der Applikationsdomäne bzw. bezüglich der – in diesem speziellen Fall – Modellierungsgrammatik. In Hess u. Biggam (2004) werden folgende Merkmale der Textkomplexität vorgeschlagen: Schwierigkeit der Wörter und Struktur der Sprache; Struktur des Texts: Beschreibung, Sequenz/Prozedur, Ursache-Wirkung; Diskursstil: z.B. es handelt sich um einen nüchternen, beschreibenden Text; Genremerkmale des Texts: z.B. es handelt sich um eine einfache Beschreibung; Benötigtes Hintergrundwissen; Anforderung an logisches Schlussfolgern; Format und Layout des Texts und die Länge des Texts. 89 In Batra u. Wishart (2004) werden für eine Datenmodellierungsaufgabe drei Dimensionen der Komplexität betrachtet: a) die kombinatorische Komplexität, d.h. die Anzahl der erforderlichen Beziehungen, b) die Verzweigungsart der Beziehungen und c) die Schwierigkeit, die Semantik einer geforderten Beziehung aus dem Text zu erlesen. Da sich die vorliegende Untersuchung auf die Abbildung von Prozessen bezieht, ist die Aufgabe und damit auch deren Komplexitätsbegriff anders gelagert, als in der Datenmodellierungsaufgabe bei Batra u. Wishart. Die kombinatorische Komplexität, die mit der Anzahl an erforderlichen Beziehungen zwischen Entitäten gleichgesetzt wird, findet im Kontext der Prozessmodellierung ihre Entsprechung in der Komplexität, die sich aus den Beziehungen zwischen den Aktivitäten und anderen geforderten Elementen ergibt. Auch hier kann gesagt werden, dass, wenn eine Aufgabe mehr von diesen Beziehungen erfordert, ihre Komplexität steigt. Ein viel diskutiertes Maß, das diesen Sachverhalt beschreibt, ist die Control Flow Complexity (z.B. Cardoso u. a. 2006). Die Verzweigungsart der Beziehung, mit der Batra u. Wishart binäre und tertiäre Beziehungen überschreiben, ist ein datenmodellbezogenes Merkmal und auf prozessbezogene Aufgabenstellungen nicht anwendbar. Der dritte Punkt bezüglich der sich erschließbaren Semantik aus dem Text betrifft die sprachliche Dimension der Komplexität, die generell textbasierten Aufgaben zugrunde liegt. Dies wird weiter unten näher diskutiert. In Larkey (1998) werden elf Merkmale zur Bestimmung von Textkomplexität herangezogen. Die Arbeit von Larkey ist primär darauf ausgerichtet, eine maschinenbasierte Analyse von Texten zu ermöglichen. Daher ist das Vorgehen stärker der statistischen Textanalyse zuzuordnen. Die für den Untersuchungskontext potenziell relevanten Merkmale werden im Folgenden aufgeführt: Anzahl der Buchstaben im Aufgabentext; Anzahl der Wörter im Aufgabentext; Anzahl unterschiedlicher Wörter; Anzahl der Sätze; Durchschnittliche Wortlänge; Durchschnittliche Satzlänge. Der obigen Diskussion entsprechend wurden Merkmale zur Bestimmung der Aufgabenkomplexität herangezogen, die in Tabelle 3.2 aufgeführt sind. Folgendes ist für die zwei rechten Spalten der Tabelle 3.2 anzumerken: Für jedes Komplexitätsmerkmal sind bereits die Wertausprägungen für die zwei Geschäftsprozessbeschreibungen, die in der späteren Untersuchung verwendet werden (siehe Kapitel 5), aufgeführt. Die beiden Geschäftsprozessbeschreibungen werden mit „Supplier Switch“ und „SLA violation“ bezeichnet. Es ist zu erkennen, dass sich die Aufgaben in den Komplexitätsdimensionen nur unwesentlich unterscheiden. Es kann für die Untersuchung also angenommen werden, dass die zwei Aufgaben von sehr ähnlich gearteter Komplexität sind. Anwendungsdomäne Eine Geschäftsprozessdarstellung eines betrieblichen Kontexts ist natürlicherweise immer in einer bestimmten Anwendungsdomäne angesiedelt. Verschiedene Anwendungsdomänen zeichnen sich in einer beispielweise dokumentbasierten Darstellung durch eine spezifische Terminologie und u.U. auch eigenen Duktus aus, welche sich aus den individuellen Phänomenen einer jeweiligen Domäne ergeben. Obwohl der Faktor der Anwendungsdomäne durch entsprechende indivuelle Kenntnisse in der jeweiligen Anwendungsdomäne moderiert werden sollte, birgt er eventuell eine gewisse potenzielle 90 Tabelle 3.2.: Aufgabenkomplexität Komplexität der Modellierungsaufgabe Komplexitätsmerkmal Definition Referenzen Einheit Supplier Switch SLA Violation Larkey (1998) Number 5365 5936 Deskriptiv (bezogen auf den Text) CHARS Anzahl der Buchstaben WDS Anzahl der Wörter im Aufgabentext Larkey (1998) Number 1041 1090 DIFFWDS Anzahl unterschiedlicher Wörter Larkey (1998) Number n/a n/a SENTS Anzahl der Sätze Larkey (1998) Number n/a n/a WDLEN Durchschnittliche Wortlänge Larkey (1998) Number n/a n/a SENTLEN Durchschnittliche Satzlänge Larkey (1998) Number n/a n/a LINES Anzahl der Zeilen eigene Festlegung 78 Anzahl der Absätze eigene Festlegung Number Number 73 PARAG 11 10 Campbell (1998) Boolean ja ja Campbell (1998) Boolean nein nein Campbell (1998) Boolean nein nein Campbell (1998) Boolean ja ja Prabhu (1987), Robinson (2001) Number n/a n/a Prabhu (1987), Robinson (2001) Number Änderungsanforderungen an Istprozess: 2 Änderungsanforderungen an Istprozess: 2 Anforderung nach präzisen Fachtermini Prabhu (1987) Number alle werden erklärt alle werden erklärt ABSTR Grad der Abstraktheit Prabhu (1987) {low, med, high} high high HRNOW Ausmaß an "here-and-now" Robinson (2001) {low, med, high} low low PLAN Anforderung an planende Tätigkeiten Robinson (2001) {low, med, high} medium medium Control-flow complexity (vgl. kombinatorische Komplexität) Cardoso u.a. (2006), Number Batra u. Wishart (2004) 16 14 Problemlösungsorientiert PATH MULTISOL CONFLICT PATHRISK INFOEL INFER TERM Möglichkeit verschiedener potenzieller Lösungspfade Existenz mehrerer verschiedener Lösungen Existenz konfliktärer Beziehungen zwischen Lösungswegen und den unterschiedlichen Ergebnissen Existenz von Unsicherheit, was bestimmte Lösungspfade zu spezifischen potenziellen Ergebnissen betrifft Anzahl der verschiedenen Informationselemente (Anzahl der Elemente, auf die man die eigene Aufmerksamkeit richten muss) (Anzahl von in sich geschlossenen Aufgaben) Anzahl von Schritten der Schlussfolgerung (Anforderung an logisches Schlussfolgern) Prozessorientiert CFC ACTIV Number of Activities Cardoso u.a. (2006) Number 20 27 MCC McCabe Komplexität McCabe (1976) Number 6 6 91 Eigenkomplexität, welche sich z.B. dadurch zeigen könnte, wenn verschiedene Modellierer ohne einschlägigen Kenntnisse der jeweiligen Anwendungsdomänen (und auch sonst ohne stark variierenden Merkmale) eine signifikant unterschiedliche Leistung in der Prozessmodellerstellung erbringen. Allein um diese Möglichkeit näher auszuloten und auch im Sinne der Replikation der Untersuchung von wiederverwendungsbasierten Effekten über mehrere Anwendungsdomänen hinweg, sollte eine Variation der Anwendungsdomäne berücksichtigt werden. Wiederverwendungsprozessmodell Die externe Repräsentation des wiederverwendeten Prozessmodells ist das zentrale Konstrukt des Untersuchungsinteresses in Bezug auf die Bildung mentaler Repräsentationen zur Lösung der Prozessmodellkonstruktionsaufgabe und die dabei gezeigte Anpassungsund Modellierungsleistung. Im Folgenden wird auf die wesentlichen Merkmale, über die sich das wiederverwendete Prozessmodell präsentiert, aber auch auf das ähnlichkeitsbasierte Verhältnis zwischen dem Wiederverwendungsmodell und der Prozessmodellierungsaufgabe eingegangen. Die nächsten Unterabschnitte sind wie folgt gegliedert: 1) Merkmale der graphischen Notation, 2) Merkmale der Prozessmodellierungssprache, 3) Granularität des wiederverwendeten Prozessmodells und 4) Prozessmodellähnlichkeit (im Hinblick auf Performanzunterschiede, die sich durch besonders „nahe“ Wiederverwendungsmodelle im Vergleich zu besonders „entfernten“ Wiederverwendungsmodellen in Bezug auf die Aufgabe zeigen könnten). Merkmale der graphischen Notation In Moody (2009) wird aufgegriffen, dass die graphischen Ausprägungen von Notationen Einflüsse auf die Kognition und das Verständnis der repräsentierten Inhalte haben. Aus diesem Grund muss die Wahl bzw. Konstruktion einer Notation kognitive Mechanismen, Bias und weitere Zusammenhänge berücksichtigen, um eine effektive Kommunikation mittels graphischer Repräsentationen zu ermöglichen. Die verschiedenen Möglichkeiten der graphischen Repräsentation von Notationselementen sind jedoch nicht Gegenstand der Untersuchung, weshalb auf eine differenzierte Betrachtung der möglichen Effektunterschiede verzichtet wird. Zu den graphischen Attributen der Prozessmodellierungsnotation sei hier vorab angemerkt, dass in der später explizierten Untersuchung auf die spezifische Notationsausprägung der BPMN, welche in dem eingesetzten Modellierungswerkzeug zur Verfügung steht, zurückgegriffen wird (siehe Abschnitt 5.2.5). Im weiteren Sinne der graphischen Ausprägungen von repräsentierten Prozessmodellen sind hier noch das Layout und das Labeling (Mendling u. a. 2010b) von Prozessmodellelementen zu nennen, die potenziell den Aufbau mentaler Repräsentationen der Prozessmodellkonstruktion beinflussen können. Merkmale der Prozessmodellierungssprache Prozessmodellierungssprachen können unterschiedliche Konzepte auf verschiedene Art und Weise repräsentieren. Analysen der 92 repräsentierten Konzepte in verschiedenen Prozessmodellierungssprachen werden beispielsweise in Recker u. a. (2010) und Rosemann u. a. (2006) durchgeführt. Es liegt nahe, dass unterschiedliche Repräsentationen in Prozessmodellierungssprachen auch zu differenzierten Prozessen der Bildung von mentalen Repräsentationen führen, wenn diese in Modellierungssituationen genutzt werden. Es ist deshalb zu erwarten, dass unterschiedliche Prozessmodellierungssprachen auch verschiedene Einflüsse auf das menschliche Modellierungsverhalten ausüben können und sowohl die Adaptionsperformanz, als auch die semantische Qualität von Prozessmodelllösungen beeinflussen würden. Der Fokus dieser Arbeit liegt jedoch nicht auf dem Vergleich von zwei (oder mehreren) Prozessmodellierungssprachen und möglichen Performanzunterschieden in wiederverwendungsbasierten Modellierungsszenarien. Das Untersuchungsinteresse gilt der Variation von Granularität in wiederverwendbaren Prozessmodellen und deren Einfluss auf kognitive Prozesse und Prozessmodellierungsperformanz. Aufgrund des möglichen Einflusses unterschiedlicher Prozessmodellierungssprachen besteht eine potenzielle Gefährdung der externen Validität, wenn in der Untersuchung nur eine einzige Prozessmodellierungssprache zum Einsatz kommen sollte. Da die Untersuchungsressourcen jedoch beschränkt sind, und der Modellgranularitätseinfluss von primärem Interesse ist, konzentriert sich die Studie auf eine weit genutzte und die gängigsten Konzepte repräsentierende Prozessmodellierungssprache (siehe Abschnitt 5.2.5). Für die Untersuchung wird deshalb eine Prozessmodellierungssprache gewählt, welche häufig verwandte Konstrukte beinhaltet und deren Grammatik einer Vielzahl von Mitarbeitern in IT-gestützten Organisationen geläufig ist. Granularität wiederverwendeter Prozessmodelle Der Granularitätsbegriff für Prozessmodelle wird in der Regel intuitiv genutzt und beschreibt eine Eigenschaft einer Prozessmodellrepräsentation, welche als entweder besonders nah oder dicht an den zu repräsentierenden Phänomenen des jeweiligen Geschäftsprozesses umschrieben werden kann bzw. als weit entfernt oder stark abstrahiert von den Phänomenen. Weiterhin wird auch von entsprechend feinen bzw. groben Granularitäten von Prozessmodellen gesprochen. Gemein ist den Begriffsauffassungen, dass typischerweise bestimmte Teile oder deren Repräsentationen gemeint sind und die verschiedenen Stufen der Zusammenfassung dieser Teile (oder Teilerepräsentationen). Bevor eine Formalisierung des Granularitätsbegriff in Bezug auf Prozessmodelle erfolgt (siehe Abschnitt 4.4), soll eine einschlägige Forschungsarbeit, die auf die potenzielle Wirkungsweise von Unterschieden in der Granularität bzw. Modulariät in Bezug auf effektivitäts- und effizienzbasierte Größen der Aufgabenbearbeitung mit Hilfe von Prozessmodellen eingeht, vorgestellt werden. Diese gibt wichtige Hinweise auf die der Untersuchungsfrage zugrunde liegenden vermuteten Performanzeffekte aufgrund variierter Granularität in wiederverwendungsbasierten Prozessmodellierungsaufgaben. Reijers u. Mendling (2008) thematisieren den Faktor Modularität in Prozessmodellen und untersuchen dessen Einfluss auf das Verständnis, das System- und Prozessanalysten durch Betrachten des Modells erwerben. Es handelt sich hier also um die Aufgabe des Verstehens eines Prozessmodells und nicht um die Aufgabe der Konstruktion. Es wird 93 die Frage gestellt, unter welchen Bedingungen Geschäftsprozessmodelle von menschlichen Betrachtern besser bzw. schlechter verstanden werden. Insbesondere wird der Fokus auf den Faktor Modularität als besondere Eigenschaft von Prozessmodellen gerichtet, der einen entscheidenden Einfluss auf den Erwerb von Verständnis ausüben könnte (vgl. dazu das Forschungsmodell in Abbildung 3.11). Die Modularität in einem Prozessmodell schlägt sich in der Anwendung von Subprozessen nieder, d.h. es werden z.B. mehrere detailliertere Aktivitäten zu einem Subprozess zusammengefasst, welcher diese Aktivitäten abstrahiert. Operationen, welche die Modularisierung ermöglichen sind beispielsweise Subprocesses in BPMN oder die Verschachtelung von Kontrollfunktionen in BPEL. Je mehr Subprozesse in einem Modell präsent sind, desto höher ist die Modularität dieses Prozessmodells. Die Modularität auf Basis von Aktivitäten kann hier als eine spezifische Ausprägung der Granularität aufgefasst werden (vgl. Abschnitt 4.4.2). Dem Verständnis eines Modells wird ein Lernbegriff zugrunde gelegt, d.h. es reicht für den Betrachter nicht aus, die Bestandteile des Prozessmodells als solche identifizieren zu können – dies wird in der englischsprachigen Literatur meist mit Comprehension im Sinne von Erfassen oder Auffassen bezeichnet – sondern er muss ein Verständnis der Zusammenhänge der einzelnen Modellkomponenten entwickeln und eine Vorstellung von Konsequenzen bei Eintritt bestimmter Ereignisse haben. Dies setzt einen Lernprozess während der Betrachtung voraus. Die experimentelle Untersuchung wurde als einfaktorieller Plan angelegt, wobei der Faktor in der Modularität (Faktor A mit den Stufen: A1 = präsent, A2 = abwesend) eines Prozessmodells bestand (siehe Abbildung 3.12). Da den Teilnehmern während des Experiments jedoch zwei verschiedene Prozessmodelle zur Betrachtung vorgelegt wurden, wurde mindestens ein weiterer Faktor in die Untersuchung eingeführt. Dieser Faktor basierte auf den zwei sich unterscheidenden Anwendungsdomänen, denen die Prozessmodelle entstammten (1. Arbeitssuchendenberatung und 2. Führerscheinausgabeprozess). Daneben gab es Unterschiede im Ausmaß der Modularität in den jeweiligen komprimierten bzw. ausgeklappten Versionen der zwei Prozessmodelle. Auf diesen Unterschied weisen Reijers u. Mendling in der Diskussion ausdrücklich hin. Das Ergebnis zeigt, dass eine bestimmte Modularität (Modular versus Flattened) zu einem verbesserten Verständnis der Modellbetrachter führen kann. Die Relation zwischen Modulqualitätskriterien und kognitiven Heuristiken, insbesondere in Bezug auf bestimmte Aufgaben (hier: Aufbau von Verständnis, d.h. Lernen anhand grafischer Modelle), wird teilweise diskutiert. Im Fazit wird vorsichtig gefolgert, dass Modularität in einem Prozessmodell hilfreich für die Bearbeitung von Verständnisaufgaben sein könnte, da der Modellbetrachter von irrelevanten Informationen abgeschirmt wird. Die Relevanz einer Information ist aber abhängig von der Aufgabe (oder Aufgabentyp), d.h. bei der Wahl einer anderen, spezifischeren (oder lokalen) Verständnisfrage hätte eine Antwort aufgrund fehlender Detailtiefe gar nicht gegeben werden können. Der Zusammenhang zwischen Aufgabenspezifität und Problempräsentation (hierzu sind modularisierte bzw. flache Prozessmodelle zu zählen) bleibt hier teils im Hintergrund. Der Anschluss an die Cognitive-Fit-Theorie von Vessey u. Galletta (1991) würde eine tiefergehende In- 94 EXPERIMENTELLE AUFGABE UNABHÄNGIGE VARIABLE Charakteristika der Teilnehmer Modularität des Prozessmodells Anwendungsdomänenwissen (kontrolliert, da erfahrene Berater) Vorhanden Nicht vorhanden ABHÄNGIGE VARIABLE Modellierungswissen (kontrolliert, da erfahrene Berater) Modellverständnis Korrektheit von 12 beantworteten Fragen Charakteristika der Verständnisaufgabe UNABHÄNGIGE VARIABLE(N) Anwendungsdomäne Aufgabenkomplexität, u.a. Anzahl Tasks, McCabe-Komplexität, Zeit (kontrolliert) A: Ausgabe von Führerscheinen Subprozesse: viele FanIn-Out: groß B: Beratung arbeitsloser Bürger Subprozesse: wenige FanIn-Out: klein Abbildung 3.11.: Forschungsmodell zum Einfluss der Modularität auf das Verständnis in Reijers u. Mendling (2008) present 14 subjects for each factor combination; subjects received two tasks Use of modularity absent A B Application domain Abbildung 3.12.: Experimentdesign mit Anwendungsdomäne zwei Faktoren Modularisierung und terpretation der Ergebnisse im Kontext existierender empirischer Beobachtungen zum Einfluss von Problemrepräsentationen auf die Lösungsperformanz ermöglichen. Für den Kontext der wiederverwendungsbasierten Prozessmodellerstellung sind diese Ergebnisse insofern interessant, als dass über das Wiederverwendungsmodell auch eine 95 Erfassungs- und Verstehenstätigkeit ausgeführt werden muss54 . Es darf angenommen werden, dass ein verbessertes Verständnis des Wiederverwendungsprozessmodells sich auch positiv auf die adaptiven Operationen auswirkt, so dass in der Folge auch ein qualitativ besseres Lösungsprozessmodell entsteht. Besser unterstützte Lernprozesse in der Phase des Prozessmodellverstehens begünstigen eventuell auch die effektivere Adaption eines wiederverwendeten Prozessmodells. Die hier gewonnenen Erkenntnisse sind somit sehr hilfreich in Bezug auf die Bildung von Hypothesen, die Wirkzusammenhänge zwischen Granularität des Wiederverwendungsmodells und Modellierungsperformanz annehmen. Studien, die diese Effekte im speziellen Wiederverwendungs- und Prozessmodellierungskontext direkt untersuchen, sind dem Autor nicht bekannt. Prozessmodellähnlichkeit Die wiederverwendbaren Prozessmodelle, die für die Prozessmodellierungsaufgabe zur Verfügung stehen, können unterschiedlich weit „entfernt“ von der idealen, alle Geschäftsprozessanforderungen erfüllenden Prozessmodelllösung sein. Im einfachsten Fall entspricht das Wiederverwendungsmodell exakt dem Idealprozessmodell und kann direkt als Lösung übernommen werden. Im Fall, dass das Wiederverwendungsmodell von der Ideallösung abweicht, sind unterschiedlich stark ausgeprägte Abweichungen möglich. Der Grad dieser Abweichungen kann mit dem Begriff der Prozessmodellähnlichkeit bezeichnet werden (vgl. Ehrig u. a. 2007). Zu differenzieren sind hier prozessmodellierungssprachbasierte Maße der Ähnlichkeit und die von menschlichen Modellierern wahrgenommene Ähnlichkeit zwischen Prozessmodellen. Erstere versuchen, intersubjektiv abstimmbare, quantifizierbare Metriken der Ähnlichkeit zu entwickeln, welche in Einklang mit menschlichen Einschätzungen der Ähnlichkeit von Prozessmodellen stehen sollen. Aus einer grob einschätzenden Sicht heraus kann angenommen werden, dass, wenn ein wiederverwendbares Prozessmodell bzgl. den Anforderungen der Modellierungsaufgabe als „ähnlicher“ aufgefasst wird, auch die Bearbeitung der Modellierungsaufgabe effzienter durchgeführt werden kann. Dieser Einschätzung liegt die Annahme zugrunde, dass für den Fall eines sehr ähnlichen Wiederverwendungsprozessmodells weitaus weniger Anpassungsoperationen vorgenommen werden müssen, um zur Lösung zu gelangen und diese Operationen auch weniger kognitiven Aufwand verursachen, als für den Fall eines weniger ähnlichen Wiederverwendungsmodells. Für die adaptive Prozessmodellwiederverwendung sind keine Arbeiten bekannt, die diese intuitiv eingeschätzten Zusammenhänge direkt bestätigen könnten, was auch damit zusammenhängt, dass bereits der Begriff der Prozessmodellähnlichkeit einige Schwierigkeiten bereitet und nicht direkt mit einer interssubjektiv festlegbaren Größe gemessen werden kann. Ohne eine engere Festlegung des Ähnlichkeitsbegriffs gestaltet sich auch die Untersuchung von Zusammenhängen zwischen Ähnlichkeit der Wiederverwendungsmodelle und Modellierungsperformanz problematisch. Es sind aktuelle Arbeiten bekannt, die mögliche Metriken der Prozessmodellähnlichkeit vorschlagen und empirisch mit Einschätzungen menschlicher Modellierer verglei54 Vgl. dazu die Erläuterung zu mehreren unterliegenden Cognitive-Fit-Modellen in der Prozessmodellwiederverwendung in Abschnitt 3.2.1. 96 chen (Dijkman u. a. 2010). Im Kontext der adaptiven Prozessmodellwiederverwendung muss differenziert werden, dass in den metrikbezogenen Arbeiten Prozessmodelle mit Prozessmodellen verglichen wurden, wohingegen bei der Prozessmodellierung unter Wiederverwendung die Anforderungen an einen Geschäftsprozess (repräsentiert in Dokumenten, in der Projektumwelt etc., jedoch nicht als Modell) mit einem verfügbaren Prozessmodell verglichen werden müssen. Die Ähnlichkeitsbestimmung kann insofern nur soweit analog betrachtet werden, als dass im Fall der adaptiven Prozessmodellwiederverwendung eine mentale Repräsentation eines Prozessmodells auf Basis der Aufgabenanforderungen entsteht, so dass man auch hier von einem Prozessmodell-Prozessmodell-Vergleich sprechen könnte. Es kann auf relativ robuste Metriken zurückgegriffen werden, um Ähnlichkeiten zwischen Geschäftsprozessmodellen zu bestimmen (Ehrig u. a. 2007; van Dongen u. a. 2008; Dijkman u. a. 2009, 2010). Die Ähnlichkeit zwischen Prozessmodellierungsaufgaben und wiederverwendbaren Modellen und die Rolle, die sie im Hinblick auf die Modellierungsperformanz spielt, befindet sich jedoch außerhalb des Untersuchungsfelds der o.g. Arbeiten. Der intuitive Zusammenhang, dass den Aufgabenanforderungen ähnlichere Wiederverwendungsmodelle auch eine relativ bessere Modellierungsperformanz bewirken, wird auch von einigen Arbeiten angezweifelt. Rousu u. Aarts (1996) wenden ein, dass die von Menschen wahrgenommene Ähnlichkeit zwischen Modellen nicht zwangsläufig den Anpassungskosten entspricht, die aufgewendet werden müssen, um schrittweise zu einer korrekten Lösung zu gelangen. Obwohl die Untersuchung nicht im Kontext der Prozessmodellwiederverwendung durchgeführt wurde, sind die Implikationen für die Prozessmodellwiederverwendung ebenfalls nachvollziehbar. Angesichts der noch geringen Beobachtungen zu wahrgenommener Prozessmodellähnlichkeit und noch geringerer Ergebnisse zur adaptiven Prozessmodellwiederverwendung, sind die in Rousu u. Aarts beschriebenen Disordinalitäten zwischen wahrgenommener Ähnlichkeit und Anpassungsaufwand auch für die Prozessmodellierung vorstellbar. Einfach ausgedrückt wäre es demnach möglich, dass ein den Anforderungen sehr ähnlich erscheinendes wiederverwendbares Prozessmodell zu weitaus höherem Anpassungsaufwand führt, als ein wiederverwendbares Prozessmodell, das den Aufgabenanforderungen sehr viel unähnlicher wirkt. Laub u. a. (2006) untersuchen die menschliche Wahrnehmung von Ähnlichkeit. Hiernach existieren Ansätze, um ein Maß für die Ähnlichkeit von wahrgenommenen Mustern zu bestimmen. Oft basieren diese Maße auf der Euklidischen Distanz. In Laub u. a. (2006) wird gezeigt, dass es Bereiche gibt, in denen genau dieses Euklidische Maß gilt, aber auch Bereiche, in denen dies nicht der Fall ist. D.h. es handelt sich hier um Bereiche, in denen die Gültigkeit des Euklidischen Maßes verletzt wird. Die Untersuchung wurde auf Basis der Erkennung von menschlichen Gesichtern durchgeführt. Eine Übertragung dieser Beobachtung der Verletzung des Euklidischen Maßes auf den Kontext der Prozessmodellwiederverwendung ist bisher noch nicht erfolgt, birgt jedoch vermutlich interessante Implikationen. Insgesamt ist festzuhalten, dass, um die interne Validität nicht zu gefährden, die Prozessmodellähnlichkeit in einer konkreten Untersuchung kontrolliert werden sollte. 97 3.2.4. Mentale Repräsentation der Prozessmodelladaption Nachdem die wesentlichen, extern repräsentierten Artefakte der Geschäftsprozessbeschreibung und des Wiederverwendungsmodells im Rahmen der Prozessmodellwiederverwendung erläutert wurden, erfolgt hier die Beschreibung von Auffassungen der mentalen Repräsentationen, welche von Prozessmodellierern für die Prozessmodellkonstruktion aufgebaut werden. Im Folgenden werden wesentliche Konzepte und Mechanismen der mentalen Repräsentationsbildung vorgestellt und im Zusammenhang mit dem Einsatz von verschieden granularen Wiederverwendungsmodellen in Prozessmodellkonstruktionsaufgaben diskutiert. Der Abschnitt gliedert sich nach den kognitiven Konzepten wie folgt: 1) Kognitives Chunking, 2) Kognition von visuellen Diagrammen, 3) Dual Coding Theory und 4) Cognitive Load Theory. Kognitives Chunking Miller (1956) hat zwei wesentliche theoretische Konzepte vorgeschlagen, die grundlegend für das Information Processing Framework und die kognitive Psychologie im allgemeinen sind. Das erste Konzept – jenes der Informationsverarbeitung – zieht eine Rechenmaschine bzw. einen Computer als Modell für das menschliche Lernen heran. Demzufolge nimmt das menschliche Gehirn Informationen auf, vollzieht Operationen auf ihnen, um Form oder Inhalt zu ändern, speichert sie, sucht und findet sie auf und generiert auf sie bezogene Antworten – alles Aktivitäten, die sehr viel Ähnlichkeit mit den wesentlichen Prozessen eines Computers haben (siehe Abbildung 3.13). Das zweite wesentliche Konzept ist „chunking“ und die beschränkte Kapazität des Kurzzeitgedächtnisses (short-term memory, auch working memory). Miller (1956) hat die Vermutung geäußert, dass das menschliche Kurzzeitgedächtnis nur 5 bis 9 „chunks“ an Information (7 +/- 2) halten kann. Ein Chunk wird hierbei als jede mögliche bedeutungsvolle Einheit verstanden und kann sich auf Zahlen, Wörter, Schachpositionen, menschliche Gesichter etc. beziehen. Dabei ist ein Chunk als eine Sammlung von Elementen zu verstehen, welche eine starke Assoziation untereinander, aber eine nur schwache Assoziation mit Elementen anderer Chunks aufweisen (Gobet u. a. 2001). Diese Ideen sind zu Grundelementen der meisten Theorien zum menschlichen Gedächtnis geworden. Bei der Erfassung und Bearbeitung von Aufgaben und ihres Kontexts (d.h. die Lösungsfindung zu einem komplexen Problem) findet ein spezifischer Chunking-Prozess statt (Lane u. a. 2000; Gobet u. a. 2001). Chunking ist ein Mechanismus, der es ermöglicht, verbesserte Fähigkeiten der Informationsextraktion aus der Umwelt zu entwickeln, trotz gleich bleibender kognitiver Beschränkungen. Aufgrund dieser mentalen Chunks – diese werden während der Bearbeitung gebildet, stehen aber auch schon aufgrund von Wissen und Erfahrung in spezifischer Form zur Verfügung – kann angenommen werden, dass bestimmte Repräsentationen des Problems (aber auch von unterstützenden externen Repräsentationen wie wiederverwendbaren Prozessmodellen) passgenauer sind als andere, in dem 98 Long-term Memory External Stimulus Sensory Memory Initial Processing Short-term Memory Repetition Forgotten Retrieval Elaboration and Coding Response Forgotten Abbildung 3.13.: Theoretisches Modell der menschlichen Informationsverarbeitung nach Miller (1956) Sinne, dass sie eine ergonomischere Bearbeitung des Problems erlauben55 . Beispielsweise könnte nach dieser Auffassung ein externes Modell zur Wiederverwendung, welches mehrere Informationselemente in wenigen Elementgruppen zusammenfasst, besser zu einer mentalen Repräsentation passen, die aus eher groben Chunks besteht. Es wird hier eine Analogie zur Granularität (bzw. Modularität) von Prozessmodellen erkennbar, da auch dort die Zusammenfassung von feineren zu gröberen Informationselementen vollzogen wird (siehe Abschnitt 4.4.2). Eine jeweilig spezifisch vorliegende Granularität eines Wiederverwendungsmodells könnte daher in der Wahrnehmung des Prozessmodellierers einen relativ gesehen besseren oder schlechteren Ausgangspunkt für die weitere Bearbeitung darstellen – basierend auf dem Aufwand der notwendigen Anpassungen. Dieses Potenzial eines Einflusses der Granularität von wiederverwendeten Prozessmodellen auf die Modellierungsleistung erfordert die nähere Untersuchung des Ausmaßes dieses Potenzials und der Bedingungen, unter denen sich diese Vorteile abschöpfen lassen können. Der direkte Vergleich von Granularitätsniveaus mit tatsächlich vorliegenden mentalen Chunks (und ihrer quantifizierten Ausprägung) entzieht sich jedoch den Möglichkeiten des Untersuchungsrahmens. Festzuhalten bleibt, dass bestimmte Chunk-Zustände der mentalen Repräsentation mit bestimmten extern repräsentierten Eigenschaften in Wiederverwendungsmodellen, wie der Granularität, besser „zusammenarbeiten“ können, als mit anderen. 55 Vgl. dazu die Cognitive-Fit-Theorie nach Vessey u. Galletta (1991) in Abschnitt 3.2.1. 99 Kognition von visuellen Diagrammen Prozessmodelle sind allgemein betrachtet ein spezieller Typ von visuellen Diagrammen. Visuelle Diagramme werden in der betrieblichen Praxis häufig eingesetzt mit dem Ziel, bestimmte Inhalte für das Zielpublikum verständlicher darzustellen. Das Verständnis darüber, wie visuelle Diagramme – im Gegensatz zu z.B. symbolischen Darstellungen – eigentlich von Menschen verarbeitet werden und welche kognitiven Prozesse dabei ablaufen, ist allerdings gering (Scaife u. Rogers 1996). Inwieweit ein visuelles Diagramm, hier ein Prozessmodell, Modellierer in einem Modellkonstruktionsprozess überhaupt unterstützen kann und auf welche Weise dies geschieht, sind demnach berechtigte Fragen. Es existieren einige grundlegende Arbeiten, die spezifische Vorteile bei der Aufgabenbearbeitung mit Hilfe von Diagrammen feststellen konnten. Die Implikationen für die Prozessmodellwiederverwendung werden anschließend daran kurz dargelegt. Larkin u. Simon (1987) formulieren die Vermutung, dass sich diagrammatische Datenstrukturen besonders von satzbasierten Datenstrukturen unterscheiden, und zwar durch die Möglichkeit einer einfacheren Suche in den Inhalten. Entitäten mit ähnlichen Attributen können in Diagrammen beispielsweise räumlich an gleichen Orten angesiedelt sein, was ihre Auffindbarkeit erleichtert. Dadurch, dass Diagramme simultan Informationen über den Ort der repräsentierten Komponenten und ihrer Beziehungen darstellen, wird der Aufwand für die Suche und Auffindung erheblich reduziert (Scaife u. Rogers 1996, S. 192). Weiterhin konnten Studien bekräftigen, dass Diagramme eine wichtige Rolle als externe Gedächtnisse (engl. external memory) übernehmen. Dieses externe Gedächtnis ermöglicht es, das Gesamtbild des Problems simultan aufrechtzuerhalten, während parallel dazu die Lösung schrittweise erarbeitet werden kann. Obwohl dies auch für satzbasierte Strukturen angenommen werden kann, scheint das „computational offloading“ – also das Auslagern von kognitiven Rechenoperationen in das externe Gedächtnis – mit Hilfe von Diagrammen für bestimmte Probleme in einem größeren Umfang möglich zu sein (Larkin u. Simon 1987; Zhang u. Norman 1994). Hinsichtlich der kognitiven Prozesse gibt es unterschiedliche Vorstellungen davon, was in einzelnen Subjekten im Detail abläuft. Koedinger u. Anderson (1990) merken beispielsweise an, dass sich in Diagrammen problemlösende Schlüsse nicht generell einfacher ziehen lassen als in symbolischen Darstellungen (so von Larkin u. Simon (1987) nahegelegt), sondern dass dies von der Erfahrung und dem Gelernten bezüglich einer Repräsentationsart abhänge. Nach Bauer u. JohnsonLaird (1993) wird die Konstruktion von Bedeutungen aus Worten heraus umgangen, indem visuelle Repräsentationen gebildet werden, deren Manipulation weniger Ressourcen des Arbeitsgedächtnisses benötigt und dadurch den Lösungsprozess beschleunigt (siehe auch Scaife u. Rogers 1996, S. 195). Eine weitere Perspektive fokussiert die Möglichkeiten der interpretatorischen Beschränkung in Diagrammen (auch: graphical constraining). Die wahrnehmbaren Informationen in einem Diagramm können so angelegt sein, dass das Problem nur auf einige wenige Arten verstanden werden kann (im Gegensatz zu sehr vielen möglichen Arten), so dass der Diagrammnutzer auf bestimmte Lösungsmöglichkeiten gelenkt und die Verarbeitung dadurch kognitiv sparsamer wird (Scaife u. Rogers 1996; Stenning u. Oberlander 1995, S. 4). Diesem Vorschlag liegt jedoch die Annahme 100 zugrunde, dass die intersubjektive Übereinstimmung bezüglich graphischer Symbole sehr hoch ist. Die Gültigkeit dieser Annahme darf jedoch zumindest für Subjektgruppen, in denen kein hohes Maß an Wissen bezüglich einer speziellen diagrammbasierten Sprache vorliegt, angezweifelt werden. In Bezug auf die Aufgabe der wiederverwendungsbasierten Prozessmodellkonstruktion können prinzipiell die Auffassungen eines externen Gedächtnis (d.h. das Wiederverwendungsmodell, da es Lösunganteile enthält, auf welchem computational offloading vollzogen werden kann) und des graphical constraining (auch das Wiederverwendungsmodell, welches den Lösungsraum eingrenzt), übertragen werden. Ein Unterschied zwischen den Arbeiten zur Nutzung von Diagrammen in problembezogenen Aufgaben und der Prozessmodellwiederverwendung besteht jedoch darin, dass die Diagramme in der Regel als solche genutzt werden und über sie bzw. „in“ ihnen mentale Operationen durchgeführt werden. Sie werden typischerweise nicht adaptiert. In der Prozessmodellwiederverwendung geht es aber darüber hinaus, da das wiederverwendete Diagramm selbst Bestandteil der Aufgabe ist und entsprechend adaptiert werden muss. Die Implikationen der bestehenden Erkenntnisse zur Kognition von visuellen Diagrammen sind daher in Bezug auf die Prozessmodellkonstruktion unter Wiederverwendung noch begrenzt. Dual Coding Theory Die Dual-Coding-Theorie basiert auf dem Verständnis, dass Individuen zwei separate Kanäle der Informationsverarbeitung nutzen: visuell und auditorisch (Mayer 1975, 1989). Die Theorie stützt sich auf drei grundlegende Annahmen. Die erste Annahme geht davon aus, dass Menschen über zwei separate Kanäle der Verarbeitung für jeweils verbales und visuelles Material verfügen. Dass unterschiedliche Regionen des Gehirns für verschiedene Funktionen, wie bildliche Darstellung oder Sprachverarbeitung, aktiviert werden, konnte in den letzten zwei Jahrzehnten durch kontinuierlich verbesserte Bildgebungsverfahren und umfangreiche Untersuchungen gezeigt werden (z.B. Cabeza u. Nyberg 2000; Wager u. Smith 2003). Die zweite Annahme geht davon aus, dass ein Verarbeitungskanal immer nur eine begrenzte Zahl an Informationen verarbeiten kann. Diese Annahme ist analog in der Cognitive Load Theory wiederzufinden (siehe nächster Abschnitt). Drittens wird angenommen, dass Menschen aktiv an der Erstellung von bedeutsamen mentalen Repräsentationen beteiligt sind. Dies umfasst das Filtern, die Organisation und die Integration der verbalen und visuellen Informationen. Die zwei Kanäle, auditorisch und visuell, ergänzen sich, so dass das Verständnis verbessert werden kann, wenn über beide Kanäle Informationen aufgenommen werden im Gegensatz zur Aufnahme über lediglich einen Kanal. Die Cognitive Theory of Multimedia Learning stützt sich auf diese Aussagen und schlägt vor, dass Material, welches aufgenommen, verstanden und im Gedächtnis gespeichert werden soll, möglichst Bilder und Wörter enthalten soll. Das allgemeine Prinzip, das diesen Auffassungen zugrunde liegt, ist das Multimedia Principal (Mayer 1989, 2001). Diese theoretische Grundlage wird herangezogen, um den Labeling-Stil in Prozessmodellen hinsichtlich seiner Auswirkungen auf die Verständlichkeit bei Modellbetrachtern zu 101 untersuchen (Mendling u. a. 2008). Ein Label ist ein Text, der zur näheren Beschreibung an graphischen Symbolen angebracht wird. Die Güte von Prozessmodellen im Sinne von verbesserter Kommunikation und gemeinsamem Verständnis hängt demnach nicht nur von der Wahl der grafischen Konstrukte ab, sondern auch besonders von der Annotation mit textlichen Labels. Basierend auf empirisichen Daten werden verschiedene Stile des Labelings untersucht und es konnte gezeigt werden, dass kurze Labels für Aktivitäten das Verständnis von Prozessmodellen verbessern (Mendling u. a. 2008). Implikationen für die Prozessmodellwiederverwendung haben diese Ergebnisse insofern, als dass unterschiedliche Stile des Labeling im Wiederverwendungsmodell die Verständlichkeit beeinflussen und damit indirekt Effekte auf den Umfang und die Präzision der Adaptionsaktivität ausüben könnten. Im Untersuchungskontext der Prozessmodellwiederverwendung gibt es keine auditorischen Informationen im engeren Sinne, aber durchaus verbale Informationen und damit auch kanalentsprechende mentale Codierungen. Über die Zweikanaligkeit könnten daher positive Effekte auf die Verständlichkeit der wiederverwendeten Prozessmodelle erreicht werden und damit indirekt auch auf die Adaptionsaktivität. Interessanter ist aber im Hinblick auf die unterschiedliche Informationsdichte in verschieden granularen Wiederverwendungsmodellen wie die Beschränkung der Kanalkapazitäten die adaptiven Möglichkeiten beeinflusst. Cognitive Load Theory Die Cognitive Load Theory wurde von Sweller entwickelt als ein Modell der menschlichen Kognition und legt den Fokus auf die beschränkten Kapazitäten des Arbeitsgedächtnis (working memory) (Sweller 1988, 1994; Paas u. a. 2010). Cognitive load (dt. kognitive Belastung) bezeichnet die Beanspruchung des Arbeitsgedächtnis während der Bearbeitung von kognitiven Aufgaben wie Lernen. Der Begriff des Arbeitsgedächtnis ist vom Kurzzeitgedächtnis (engl. short-time memory) abzugrenzen (Baddeley 1992). Das Arbeitsgedächtnis bezieht sich auf Strukturen und Prozesse, welche die temporäre Speicherung und Manipulation von Informationen übernehmen. Der Begriff des Kurzzeitgedächtnis bezeichnet allgemein die kurzzeitliche Speicherung von Informationen ohne Aktivitäten der Manipulation bzw. Organisation dieser Informationen mit einzuschließen. Wenn ein Individuum eine Lernaufgabe bearbeiten muss, für die kein adäquates Schema vorliegt, dann müssen alle Informationselemente einzeln und simultan im Gedächtnis behalten werden. Dies beansprucht das Arbeitsgedächtnis, während der Lernende versucht, ein neues Schema für die neuen Informationen zu erzeugen. Bevor neue Informationen in das Langzeitgedächtnis übergehen und als Schema gespeichert werden, müssen sie im Arbeitsgedächtnis verarbeitet werden. Die Grundannahme der CLT hierbei ist, dass das Arbeitsgedächtnis nicht unendlich belastbar, sondern kapazitätsbeschränkt ist (vgl. die Kanalkapazitätsschranke der DCT im vorhergehenden Abschnitt). Wenn die Verarbeitung der neuen Informationen die Kapazitäten des Arbeitsgedächtnis überschreitet, dann wird der effiziente Lernvorgang behindert. Die Kapazität des Arbeitsgedächtnis ist beschränkt hinsichtlich des „Platzes“ und der Zeit. Die Zeitbeschränkung geht von der Annahme aus, dass es ein „Decay“ – einen zeitlichen Verfall von Informationen – geben 102 kann. Es gibt Hinweise, die gegen ein Decay von Informationen im Arbeitsgedächtnis sprechen (z.B. Lewandowsky u. a. 2009). Das Arbeitsgedächtnis kann nach Miller (1956) maximal sieben (plus minus zwei) Informationsteile („Chunks“) halten. Jüngere Untersuchungen legen eher vier haltbare, im Sinne von präsent und aufrufbar, Chunks nahe (Cowan 2000). Die CLT ist für die Untersuchungsfrage der Effekte veränderter Granularität von Wiederverwendungsmodellen auf die Prozessmodellierungsperformanz insofern relevant, als dass ab einer bestimmten Menge an zu erfassenden und beizubehaltenden Informationselementen Abruf- bzw. Verarbeitungsschwierigkeiten bzgl. weiterer Elemente auftreten. Eine unterschiedliche kognitive Ladung basierend auf zu erfassenden Informationen entsteht im Rahmen der Prozessmodellwiederverwendung durch die Variation der Granularität der Wiederverwendungsmodelle, welche für die Aufgabenbearbeitung eingesetzt werden sollen. Performanzgrößen, die aufgrund dieser unterschiedlichen kognitiven Ladungen beeinflusst werden können, sind z.B. die Adaptionsperformanz und die finale semantische Qualität der Ergebnismodelle. Es lässt sich also ein direkter Bezug der theoretischen Aussage der CLT zu den untersuchungsrelevanten Größen in der wiederverwendungsbasierten Prozessmodellkonstruktion herstellen. Die Frage ist, zu welchem Grad das Arbeitsgedächtnis im Untersuchungskontext der Prozessmodellwiederverwendung in Anspruch genommen wird und ob von Unterschieden in der kognitiven Beanspruchung ausgegangen werden kann, die sich durch das unterschiedliche Treatment mit verschieden granularen Prozessmodellen ergeben könnten. Untersuchungen, die sich auf die reine Bestimmung des Kapazitätslimits des Arbeitsgedächtnis konzentrieren, müssen bestimmten Anforderungen an die Beobachtungsbedingungen gerecht werden (Cowan 2000, S. 88-89). Untersuchungen, die diese Anforderungen nicht erfüllen, sind speziell zu interpretieren, da ihre Ergebnisse keine direkten Schlüsse auf genaue Kapazitätsbeschränkungen zulassen. Eine Klasse von Untersuchungen, die nicht zu dem engen Kreis zu zählen sind, sind Studien, bei denen die beschränkte Kapazität des Arbeitsgedächtnis sowohl von erfassten Chunks als auch von Zwischenverarbeitungsergebnissen belegt wird. Ein Beispiel für solch eine Untersuchung ist die sogenannte „n-back task“, bei der jedes Item einer fortlaufenden Serie mit jenem Item verglichen weden muss, das n Items zuvor gezeigt wurde (Cohen u. a. 1977; Poulton 1954). Ein weiteres Beispiel ist eine Aufgabe, bei der das Untersuchungssubjekt eine Folge von Zahlen gesagt bekommt und immer genau drei ungerade Zahlen in einer Reihe erkennen muss (Jacoby u. a. 1989). Außerdem werden Untersuchungen ausgenommen, bei denen aus dem Arbeitsgedächtnis Inhalte abgerufen werden, das Arbeitsgedächtnis dann aber für andere Inhalte wiederverwendet kann – ohne dass der Recall der urpünglichen Inhalte nicht mehr möglich wäre. Diese Möglichkeit ist z.B. gegeben, wenn eine visuelle Information weiterhin sichtbar bleibt, nachdem das Untersuchungssubjekt die Informationen aus dem Arbeitsgedächtnis abgerufen hat (Cowan 2000). Dies ist ein Fall, in dem eine Grafik als externes Gedächtnis genutzt werden kann. Die betrachtete Aufgabe der Prozessmodellwiederverwendung fällt unter diese Untersuchungsansätze, da sowohl Zwischenverarbeitungsergebnisse (dies sind die Anpassungen, 103 deren Erforderlichkeit vom Modellierer ermittelt werden muss) das Arbeitsgedächtnis belegen, als auch eine externe Auslagerung in das Prozessdiagramm stattfindet (das Prozessdiagramm bleibt während der Aufgabenbearbeitung sichtbar). Für die Überprüfung des Kernkonzepts der CLT, d.h. ob ein Kapazitätslimit vorliegt und welchen genauen Umfang es hat, ist diese Aufgabe nur sehr eingeschränkt verwendbar. Dennoch kann der Grundgedanke der CLT, dass das Arbeitsgedächtnis kapazitätsbeschränkt sei, herangezogen werden, wenn neben den Chunks der reinen Erfassung (von Informationen in Aufgabe und Wiederverwendungsmodell) auch die Zwischenverarbeitung und deren Ergebnisse (notwendige Anpassungen) als kapazitätsbelegende Einheiten einbezogen werden. 3.2.5. Entscheidungsprozesse in der Prozessmodellwiederverwendung Auf Basis der mentalen Repräsentationen, die über die Geschäftsprozessbeschreibung und das Wiederverwendungsmodell gebildet werden, müssen Entscheidungen gebildet werden, die sich auf Anpassungen am Wiederverwendungsmodell beziehen, so dass die korrekte Lösung erstellt werden kann. Da diese Entscheidungsssituation potenziell viele Informationen umfasst, aus denen die anforderungsgerechten und relevanten extrahiert werden müssen, sind in diesem Kontext grundlegende menschliche Entscheidungsheuristiken zu berücksichtigen, um Erklärungsansätze heranziehen zu können, die in der Lage sind, etwaige Performanzunterschiede (insbesondere im Zusammenhang mit Variationen der Repräsentation des Prozesswiederverwendungsmodells) zu erläutern. Dazu werden im Folgenden Konzepte des 1) Information Retrieval, 2) grundlegende kognitive Entscheidungsheuristiken und 3) der fokussierte Anker- und Anpassungseffekt vorgestellt und im Untersuchungskontext diskutiert. Information Retrieval Die Wiederverwendung von Prozessmodellen umfasst die Aktivitäten Vergleich und Adaption eines Wiederverwendungsmodells vor dem Hintergrund eines zu modellierenden Geschäftsprozesses (vgl. den Wiederverwendungsprozess in Abschnitt 3.1). Diese beiden Tätigkeiten können im Sinne einer Suchaktivität im Wiederverwendungsmodell interpretiert werden, deren Elemente mit den Anforderungen aus dem Geschäftsprozess abgeglichen und entsprechend beibehalten bzw. angepasst werden. Theorien, die sich mit der Wiederverwendung und Auffindung von Informationen im Allgemeinen auseinandersetzen sind daher von hoher Relevanz. Gesammeltes Wissen diesbezüglich existiert im Forschungsfeld des Information Retrieval (Croft 1987; Ingwersen 1996; Vakkari 1999; Baeza-Yates u. Ribeiro-Neto 1999; van Rijsbergen 2004). Vakkari (1999) geben einen Überblick über die zentralen Konzepte aus dem Information Retrieval und Information Seeking und fokussieren die Zusammenhänge zwischen der Aufgabenkomplexität (eines Problems) und den dafür angewandten Informationsaktivitäten: Informationsbedarfsbestimmung, Suchstrategien und Relevanzeinschätzungen. Diese Konzepte wurden primär in der Domäne der Dokumentensuche entwickelt. Sie lassen sich aber auf die in dieser 104 Tabelle 3.3.: Suchstrategien in Abhängigkeit von der Problemstruktur Struktur des Problems schwach strukturiert Browsing Suchstrategie strukturiert Querying Scanning Browsing Learning Recognition Surveying-Chaining Journal run Selecting Specification Ending Arbeit im Fokus stehende Aufgabe der Prozessmodellierung unter Wiederverwendung existierender Modelle übertragen, wenn der Anteil des Wiederverwendungsmodells – im Sinne eines Dokuments – „herausgezogen“ und für die Prozessmodelllösung verwandt wird. Insbesondere die 1) Suchstrategien und 2) Gütemaße zur Einschätzung der Suchergebnisse können im Zusammenhang mit der Prozessmodellwiederverwendung eingesetzt werden. Im Information Retrieval ist der Aufbau des Fokus auf die (Such-)Aufgabe – die Formulierung des Problems – verbunden mit dem Einsatz und der Strukturierung von bestimmten Informationsaktivitäten (Vakkari 1999, S. 830). Dafür werden bestimmte Suchstrategien eingesetzt. In Tabelle 3.3 sind in Abhängigkeit von der Strukturiertheit des Problems beispielhafte alternative Suchstrategien56 dargestellt (Vakkari 1999, S. 832). Wenn die Aufgabe anfangs nicht stark strukturiert ist, dann werden eher explorative Suchstragien eingesetzt. Wenn die Aufgabe sich klarer abzeichnet, sinkt der Anteil an explorativen Suchvorgängen und die assoziative Suche nimmt zu (Yang 1997). Auf die Modellierung unter Wiederverwendung übertragen bedeutet dies, dass, wenn sich die Modellierungsaufgabe mit der Bearbeitungszeit für den Modellierer zunehmend verdeutlicht, der Anteil spezifischer Suchvorgänge anwachsen müsste – die Suche bezöge sich dann auf das Wiederverwendungsmodell und die in ihm enthaltenen bzw. nicht enthaltenen relevanten Informationen. Diese spezifische Suche könnte sich dann wiederum darin zeigen, dass der Modellierer in der Lage war, die überflüssigen Informationen zu streichen bzw. fehlende oder zu unspezifische Informationselemente im Ergebnismodell zu ergänzen. Wenn im Ergebnismodell allerdings nicht die notwendigen Anpassungen vollzogen wurden, sind verschiedene Ursachen möglich. Auf die unterschiedlichen Suchstrategien wird sich eine Erklärung nicht beschränken können. Der Aufgabenfokus konnte eventuell nicht in der verfügbaren Zeit gebildet werden, weil die Modellierungsaufgabe dafür zu komplex ist. D.h. dass auch die Suchstrategie nicht von einem explorativen Modus auf einen stärker spezifischen Modus hätte umgestellt werden können. Selbst wenn die Fokus56 Journal run ist für den Kontext der Prozessmodellwiederverwendung nicht relevant. 105 bildung erfolgt und auch spezifischere Suchvorgänge in Gang gesetzt werden, so könnten diese auf den falschen Kriterien aufbauen. Auch wäre eine verbleibende hohe Restkomplexität der Suche im Wiederverwendungsmodell denkbar, welche zwar auf spezifische Weise erfolgen könnte, aber dennoch ressourcenintensiv ist und sich dadurch nicht im Ergebnismodell niederschlagen kann. Allein basierend auf dem Ergebnismodell wird sich der Zusammenhang zwischen der Aufgabe und verschiedenen angewandten Suchstrategien auf dem Wiederverwendungsmodell nicht differenziert aufzeigen lassen. Dazu bedarf es empirischer Methoden, die den konkreten Prozess der Informationssuche (z.B. in einem wiederverwendbaren Modell) erheben. Festzuhalten bleibt, dass die Anwendung von spezifischen Suchstrategien im Rahmen der Prozessmodellwiederverwendung identifiziert werden kann. Dabei ist von einer eher schwach strukturierten Aufgabe auszugehen, da die Repräsentation des zu modellierenden Geschäftsprozesses typischerweise nicht strukturiert vorliegt, sondern aus mehrkanaligen, zeitlich versetzten und u.U. stark verteilten Informationen besteht. Das Wiederverwendungsmodell ist selbst zwar eine strukturierte Repräsentation. Es ist im Hinblick auf die Anforderungen des Geschäftsprozesses aber nicht deckungsgleich und muss angepasst werden. Die Anpassungsaufgabe kann aus kognitiver Sicht als sehr viel weniger strukturiert interpretiert werden. Das Information Retrieval liefert darüber hinaus Gütemaße, mit denen sich die Qualität der aufgefundenen Ergebnisse quantifizieren lässt. Hierzu zählen vor allem Precision und Recall (z.B. Croft 1987) und Kombinationen der beiden Maße. Diese Gütemaße stellen prinzipiell eine Möglichkeit dar, auch die Ergebnisse aus Aufgaben der wiederverwendungsorientierten Prozessmodellerstellung nach ihrer semantischen Qualität hinsichtlich Validität und Vollständigkeit zu bewerten. In Abschnitt 4.1 und Abschnitt 5.2.4 (im Rahmen der experimentellen Untersuchung) werden diese Konzepte des Information Retrieval herangezogen, um genau diese qualitative Ergebnisbeurteilung vorzunehmen. Entscheidungsheuristiken In der kognitiven Psychologie werden konkrete Entscheidungsprozesse untersucht, die bei der Entscheidungsfindung in spezifischen Auswahlproblemen von Menschen durchgeführt werden. Diese liegen prinzipiell auch den Aktivitäten des Vergleichs und der Adaption bei der Prozessmodellwiederverwendung zugrunde, welche ausgeführt werden, um die richtigen Entscheidungen in Bezug auf die Adaption des Wiederverwendungsmodells zu treffen. Für kognitive Entscheidungsprozesse werden häufig zwei grundlegende Hypothesen angenommen. Die Memory-Search-Hypothese besagt, dass bei der Lösung von bestimmten Aufgaben das Gedächtnis nach den entscheidenden Informationen durchsucht werden muss und dass diese Suche mit unter Umständen erheblichem Aufwand verbunden sein kann. Aus diesem Grund könnten vereinfachte Heuristiken erforderlich sein (Gigerenzer 1997; Bröder u. Schiffer 2003; Garcia-Retamero u. a. 2007), die das Durchsuchen effizent gestalten. Die Formathypothese hingegen legt die Art und Weise der Repräsentation im Gedächtnis zugrunde, also z.B. verbale, sequenzielle Codierung 106 im Vergleich zu bild- bzw. schematabasierter Codierung57 . In Abhängigkeit von diesen Gedächtnis-Codierungen können jeweils unterschiedliche Informationsextraktionsstrategien angewandt werden. In diesem Kontext können analog zu den Codierungsformaten zwei Ansätze der Informationssuche voneinander differenziert werden. Dies ist zum einen das „simple heuristics framework“ von Gigerenzer u. a. (1999), das eine sequenzielle Abbarbeitung von informativen Merkmalen, Cues, annimmt. Zur zweiten Gruppe gehören jene Ansichten, die simultane und kompensatorische Cue-Verarbeitung annehmen (diese Sichten sind verwandt mit Modellen basierend auf der Image Theory). Der Begriff kompensatorisch impliziert, dass alle wichtigen Merkmale gleichzeitig berücksichtigt werden, ohne dass die entscheidenden Subjekte es als schwierig empfinden würden. Diese Informationsextraktionsstrategien können nun im Kontext der Prozessmodellwiederverwendung betrachtet werden. Die Überprüfung des Wiederverwendungsmodells darauf, ob es als Lösungsmodell – oder Annäherung an eine Lösung – tauglich ist, erfordert einen Vergleich der Anforderungen aus der Geschäftsprozessbeschreibung mit den grafischen Symbolen und Beschriftungen des Prozessmodells. Die Anforderungsinformationen müssen also zunächst im Gedächtnis als mentale Repräsentationen vorliegen, um dann wieder für den Abgleich mit dem Stimulus aus dem Wiederverwendungsmodell abgerufen werden zu können. Bereits was die Codierung der Geschäftsprozessbeschreibung angeht, ist unklar, nach welcher Art diese primär repräsentiert wird. Dies könnte sequenziell geschehen, was im Falle einer textlichen Beschreibung besonders nahe liegt. Modellierer könnten aber bereits auf Basis der Geschäftsprozessbeschreibung auch Schemata aufbauen, die eher der Image-Theorie entsprechen. Ebenso ist unklar, mit welcher primären Strategie die Informationen aus dem wiederverwendeten Prozessmodell gesucht und aufgefunden werden, denn dies könnte über eine sequenzielle Verarbeitung der Prozessmodellelemente (d.h. Abgleich mit den Anforderungen), aber auch über eine image-basierte, also auf den graphischen Prozessmodellsymbolen basierende, simultane Verarbeitung erfolgen. Falls sich bestimmte Schwierigkeiten der Anpassung des Wiederverwendungsmodells zeigen, dann kann das zumindest implizieren, dass vom Modellierer eine ungeeignete Such- und Vergleichsstrategie angewandt wurde. Es kann aber auch bedeuten, dass das Repräsentationsformat des Wiederverwendungsmodells, z.B. ein feingranulares Prozessmodell mit einigen irrelevanten Modellelementen, zur Prozessmodellerstellung ungeeignet ist in Bezug auf die dem Modellierer zur Verfügung stehenden Extraktionsstrategien (er könnte sich einer sequenziellen Strategie bedienen und durch den hohen Aufwand der einzelnen Bearbeitungen blockiert werden). Dieses Szenario würde zu der Vermutung passen, dass die Anpassung von feingranularen, mit irrelevanten Prozessmodellelementen versetzten Wiederverwendungsmodellen schwerer fällt, als die Verfeinerung von grobgranularen Modellen. Die Untersuchungen, die im Bereich der adaptiven Entscheidungsheuristiken duchgeführt wurden, lassen eine Übertragung der Konzepte noch nicht zu, da in der Regel kleinere Aufgaben, wie two-alternative-forced-choice tasks (Bröder u. Schiffer 2003) analysiert wurden. Die Arbeitssituation der Prozessmodellwie57 vgl. hierzu die Image Theory, die eine Schema-Theorie ist. Es gibt verschiedene Arten von Schemata: Skripte, Stereotypen, Prototypen, etc. und Images, d.h. Bilder (Beach u. Mitchell 1987; Kosslyn 1994). 107 derverwendung umfasst mehrere solcher Aufgaben in einer: es gibt multiple Entscheidungsalternativen (verschiedene potenzielle Anpassungsmöglichkeiten) im Gegensatz zu einer Zwei-Alternativen-Auswahl. Weiterhin bleiben die Fragen nach der Art der mentalen Repräsentation von und Informationsextraktion in Prozessmodellen interessant, da aufgrund der Beschaffenheit von Prozessmodellen regelmäßig eine verbale und eine image-basierte Codierung bzw. Extraktion in Kombination in Frage käme. Anker- und Anpassungseffekt Wenn im Rahmen einer Aufgabenbearbeitung dem Bearbeiter eine Lösungsschätzung vorgegeben wird, dann können bestimmte kognitive Effekte auftreten, welche die erforderlichen Anpassungsaktivitäten auf unterschiedliche Weise beeinflussen. Die adaptive Wiederverwendung von Geschäftsprozessmodellen zur Konstruktion eines Prozessmodells für eine neue Prozessdesignaufgabe stellt eine Arbeitssituation dar, in der diese Effekte potenziell auch auftreten können, da ebenfalls eine Lösungsschätzung – das aufgefundenene, wiederzuverwendende Geschäftsprozessmodell – vorliegt, welches nicht direkt als Lösungsmodell übernommen werden kann, sondern angepasst werden muss. In den folgenden Abschnitten wird zunächst der grundlegende kognitive Effekt des Anchoring (dt. Ankern) aus der Verhaltensökonomie beschrieben. Davon ausgehend werden die bisherigen Untersuchungen dieses Effekts im Kontext wiederverwendungsorientierter Ansätze in Bereichen der Informationssystemgestaltung beleuchtet. Daran anschließend wird dann die Rolle des Ankereffekts in der Wiederverwendung von Geschäftsprozessmodellen diskutiert. Anchoring oder Focalism ist ein kognitiver Bias, der eine weit verbreitete menschliche Tendenz beschreibt, sich bei der Entscheidungsfindung auf einen oder nur wenige „Cues“ (hinweisgebende Merkmale) zu verlassen (Plous 1993). Dieser fokussierte Bezug wird auch Anchoring and Adjustment Bias genannt. Es handelt sich hierbei um ein robustes Phänomen in Entscheidungsprozessen, welches in zahlreichen Experimenten, bei denen Teilnehmer befragt wurden bzw. Entscheidungen für spezifische Probleme zu treffen hatten, getestet wurde (z.B. Missier u. a. 2007). Erkenntnisse der kognitiven Psychologie legen nahe, dass das Treffen von Entscheidungen in Bezug auf die Durchführung notwendiger Anpassungen zur Erfüllung von Anwendungsanforderungen, sehr schwierig sein kann. Dies macht die Wiederverwendung von Systemdesigns zusätzlich herausfordernd (vgl. hierzu Tversky u. Kahneman 1974; Wright u. Anderson 1989; Plous 1993). Die Betrachtung der Anchoring und Adjustmentheuristik wurde erst vor wenigen Jahren im Kontext der IS-Gestaltung erstmals untersucht. Parsons u. Saunders (2004) haben die kognitive Verzerrung des Anchoring und Adjustment in der Domäne von ISEntwicklungsaufgaben explorativ untersucht, bei denen explizit Artefakte zur Wiederverwendung zur Verfügung standen, die den Entwicklern als Hilfestellung gebende Lösungsschätzung diente. Unter Bezugnahme auf die Wiederverwendung von Artefakten der IS-Gestaltung wurde die Anchoring- und Anpassungsheuristik im Hinblick auf das Verhalten von Entwicklern bzw. Datenbankdesignern zunächst in zweierlei Hinsicht verstanden. 108 Die beiden differenzierten Arten des Anchoring beruhen auf der Art und Weise wie ein Wiederverwendungsartefakt von den Anforderungen des zu entwickelnden Systems abweichen kann (Parsons u. Saunders 2004, S. 875). Im ersten Fall bestehen Anforderungen des zu entwickelnden Systems, die vom Wiederverwendungsartefakt nicht abgedeckt werden, d.h. sie sind dort nicht repräsentiert. Die Bereitstellung bzw. Repräsentation dieser Anforderungen in einem Lösungsartefakt kann mit der Korrektheit der Lösung assoziiert werden58 . Anchoring bedeutet in diesem Fall, dass ein Entwickler unbewusst an dem bereitgestellten Wiederverwendungsartefakt festhalten würde und es versäumt, die Anpassungen vorzunehmen, so dass die notwendigen Anforderungen im Lösungsartefakt repräsentiert sind. Dieses Versäumnis würde einen Korrektheitsverlust der Lösung bedeuten. Es ist denkbar, dass Entwickler die Auslassungen in einem Wiederverwendungsartefakt zwar erkennen, aber dennoch von einer einfügenden Anpassung absehen, d.h. bewusst ein unkorrektes Ergebnis konstruieren. Es darf aber angenommen werden, dass Entwickler nicht bewusst erforderliche Funktionalitäten in einem Lösungsartefakt auslassen würden und in der Regel die Motivation haben, eine korrekte Lösung zu erstellen (Parsons u. Saunders 2004, S. 876). Im zweiten Fall enthält das Wiederverwendungsartefakt Funktionalitäten, die im Hinblick auf die Lösungsanforderungen fehlerhaft sind. Beispielsweise könnte ein Wiederverwendungsartefakt die funktionale Anforderung enthalten, dass Kunden immer eine Mitgliedsnummer zugewiesen bekommen, während hingegen das neue System nur eine optionale Zuweisung von Mitgliedsnummern erfordert. Auch hier wäre die Korrektheit der finalen Lösung beeinträchtigt, wenn der Entwickler am Wiederverwendungsartefakt festhalten und die fehlerhafte Funktionalität in das Lösungsartefakt übernehmen würde (Parsons u. Saunders 2004, S. 876). Das Anchoring bezieht sich hier auf die Übernahme von fehlerhaften Elementen des Wiederverwendungsartefakts. Ein Wiederverwendungsartefakt kann darüber hinaus Funktionalitäten beeinhalten, die nicht in den Anforderungen der vorliegenden IS-Gestaltungsaufgabe spezifiziert sind. Nach Parsons u. Saunders werden diese irrelevanten Funktionalitäten als extraneous bezeichnet. Wird das Anchoring an solchen Elementen eines Wiederverwendungsartefakts vollzogen, hält der Entwickler an diesen irrelevanten Funktionalitäten fest und übernimmt sie in das entstehende Lösungsartefakt. Diese Situation wird allerdings als verschieden von den oben genannten zwei Fällen eingestuft und zwar in zweierlei Hinsicht. Erstens muss eine beibehaltene Funktionalität nicht notwendigerweise zu einem Korrektheitsverlust führen, solange den Aufgabenanforderungen nicht direkt widersprochen wird. Zweitens muss das Beibehalten (aus Aufgabensicht) irrelevanter Information nicht unbedingt auf einem unterbewussten, kognitiven Effekt beruhen, sondern könnte bewusst vom Entwickler durchgeführt werden, z.B. auf Basis bestimmter Erfahrungen. Im Rahmen einer auf Wiederverwendung beruhenden Entity-Relationship-Modellierungsaufgabe für das Luftfahrtwesen wurde schließlich gezeigt, dass insbesondere das Anchoring bezüglich irrelevanter (d.h. überschüssiger) Informationselemente (im Wiederverwendungsmodell) signifikant ist, d.h. dass viele der nicht notwendigen Informationen im Wiederverwendungsmodell von den Modellierenden in das Lösungsmodell übertragen wurden. 58 Vgl. dazu die Definitionen von semantischer Vollständigkeit und Validität von Modellen beispielsweise in Lindland u. a. (1994). 109 Dies kann im Kontext der Prozessmodellwiederverwendung diskutiert werden. Die Untersuchung weist zwar auf die Existenz der Anchoring-Heuristik hin und impliziert in diesem engen Kontext (einer einzigen bearbeiteten Aufgabe), dass die Wiederverwendung des Modells für die Bearbeitung der gestellten Entwicklungsaufgabe hinderlich sei. Es bleibt jedoch zu fragen, ob dies für jede Aufgabengröße zutrifft, d.h. ob nicht doch Konstellationen zwischen Aufgabenkomplexität und Wiederverwendungsmodell existieren, bei denen die Aufgabenbearbeitung ohne jegliche Assistenzform weitaus ressourcenintensiver wäre, als der Wiederverwendungsansatz. Da die Aufgabenkomplexität in der Studie von Parsons u. Saunders nicht variiert wird, kann hierzu keine Aussage getroffen werden. Eine Kontrollgruppe wurde ebenfalls nicht untersucht, weswegen es nicht möglich ist, etwas über die Performanz von Entwicklern ohne wiederverwendbare Lösungsschätzung im direkten Vergleich auszusagen. Womöglich wäre diese Kontrollgruppe in der gleichen verfügbaren Zeit weit hinter dem Ergebnis der Treatment-Gruppe zurückgeblieben und zwar so weit, dass die qualitativ abwertenden Anchoring-Effekte – also Zusatzfunktionalitäten, Auslassungen und propagierte Fehler – im Ergebnis der Treatment-Gruppe in Kauf hätten genommen werden können. Darüberhinaus handelte es sich bei der Festlegung der Anchoring-relevanten Abweichungen (unabhängige Variablen) im Wiederverwendungsmodell um eine einzige – willkürliche – Manipulation (bzw. Manipulationsmenge). Es ist jedoch anzunehmen, dass Anchoring-Effekte von Typ und Ausmaß der Manipulationen abhängen (auch in Relation zum Umfang des Wiederverwendungsmodells). Beispielsweise könnte man davon ausgehen, dass eine einzige überflüssige Zusatzfunktionalität kognitiv anders verarbeitet wird, als eine größere Menge an Zusatzfunktionalitäten, die nicht den Anforderungen entsprechen. Erstere könnte in der Regel unentdeckt bleiben, während letztere aufgrund ihrer Menge von Entwicklern sehr viel eher registriert und dadurch auch aus der Lösung gelöscht werden könnten. Es wäre aber auch der Fall denkbar, dass eine einzige überflüssige Funktionalität in einem umfangmäßig kleineren Wiederverwendungsmodell auffälliger und damit leichter zu entfernen wäre, als eine Menge von überflüssiger Funktionalität, die unter Umständen als homogener und „normaler“ wahrgenommen werden könnte und auf die dadurch ein sehr viel stärkeres Anchoring wirken würde. Weiterhin könnte der Grad an Anchoring stark in Abhängigkeit vom Manipulationstyp variieren. Zum Beispiel könnte eine zusätzliche Funktionalität im Wiederverwendungsmodell, deren Vorkommen auf den ersten Blick zunächst nicht kontextfremd erscheint, eher „übersehen“ – also im Ergebnismodell beibehalten werden, als dass man eine fehlende Funktionalität, welche aber „offensichtlich“ von den Anforderungen verlangt wird, nicht ins Ergebnismodell einfügt. Es wären also zusätzliche Faktoren bezüglich des Manipulationsumfangs im Wiederverwendungsmodell (oder: der relative Abstand des Wiederverwendungsmodells in Bezug auf die Lösung) und bezüglich der Manipulationstypen zu berücksichtigen und zu kontrollieren, um einen differenzierten Aufschluss auch über diese Abhängigkeiten zu gewinnen. Insgesamt kann festgehalten werden, dass Anchoringeffekte in einer wiederverwendungsbasierten Modellierungsaufgabe prinzipiell zu erwarten sind. Aufgrund der schwächeren Repräsentation von hierarchischen Konzepten in Prozessmodellen im Vergleich zu ER-Diagrammen, kann darüber hinaus angenommen werden, dass Ankereffekte im Kontext von Granularitätsänderungen des Prozesswiederverwendungsmodells stärker auftreten werden (vgl. Abschnitt 2.2.1). 110 3.3. Zusammenfassung Dieses Kapitel hat für den Kontext der wiederverwendungsbasierten Prozessmodellkonstruktion zum einen die grundlegenden Vorgänge des Wiederverwendungsprozesses strukturiert und zum anderen wesentliche kognitive Bestimmungsgrößen im Rahmen der Aktivitäten des Vergleichs und der Addaption für die Prozessmodellwiederverwendung dargelegt. Die allgemeinen Vorgänge der Prozessmodellwiederverwendung werden dabei in den grundlegenden Wiederverwendungsprozess bestehend aus vier Phasen, in beteiligte Rollen und das Prozessmodell-Repository und in mögliche Nutzungsszenarien der konkreten Wiederverwendung von Prozessmodellen strukturiert. Der Untersuchungsrichtung entsprechend wird der Fokus auf die Phase der Wiederverwendung, insbesondere die Aktivitäten des Vergleichs und der Adaption, und das Szenario der sekundären adaptiven Prozessmodellwiederverwendung (dabei ist dem Nutzer der Ersteller des wiederverwendeten Modells nicht direkt bekannt) gelegt. Für eine klarere Einordnung der kognitiven Bestimmungsgrößen im Zusammenhang mit der Prozessmodellwiederverwendung wird das Cognitive-Fit-Modell von (Vessey u. Galletta 1991) herangezogen. Auf dieser Basis kann die spezifische Arbeitssituation der Prozessmodellwiederverwendung in die Komponenten Domänen- und Modellierungswissen, externe Aufgabenrepräsentation (Geschäftsprozessbeschreibung und Wiederverwendungsmodell), die Prozessmodellkonstruktionsaufgabe, die mentalen Repräsentationen für die Prozessmodelladaption und die Prozessmodellierungsperformanz gegliedert werden. Dem Untersuchungsinteresse folgend wird insbesondere die Granularität als fokussierte Eigenschaft des Wiederverwendungsmodells erörtert. Im weiteren Zusammenhang werden die mentalen Repräsentationen und die darüber erfolgenden Entscheidungsfindungsstrategien (die für die Adaption des Wiederverwendungsmodells angewandt werden müsssen) vorgestellt und es wird diskutiert, welche unterschiedliche Interpretationen in Bezug auf die Modellierungsperformanz bei Änderung des Wiederverwendungsmodells (insbesondere Änderungen der Granularität) sie zulassen. Besonders wird der kognitive Bias des Anchoring aus dem Untersuchungsinteresse heraus als möglicher, performanzbeeinflussender Faktor hervorgehoben. 111 4. Anpassungsheuristiken in der Prozessmodellwiederverwendung Das vorangestellte Kapitel hat den essentiellen Vorgang des Geschäftsprozessmodellwiederverwendungsprozesses dargelegt und das Zusammenspiel zwischen den zu durchlaufenden Aktivitäten, den beteiligten Rollen und eingesetztem Repository erläutert. Dabei wurde das Untersuchungsfeld auf das Wiederverwendungsszenario der sekundären adaptiven Prozessmodellnutzung eingegrenzt, in welchem dem aktuellen Prozessmodellwiederverwender der ursprüngliche Prozessmodellersteller in der Regel unbekannt ist und das aufgefundene Prozessmodell für die neue vorliegenden Problemstellung entsprechend modifiziert wird. Für diese spezifische Arbeitssituation der Prozessmodellwiederverwendung wurden im Weiteren die Rolle der menschlichen Kognition in das Blickfeld der Untersuchung gerückt und die Zusammenhänge, die zwischen den mentalen Repräsentationen und einem Wiederverwendungsmodell im Hinblick auf Veränderungen der Leistung in der Bearbeitung von Aufgaben bestehen, auf Grundlage der Cognitive-Fit-Theorie aufgezeigt. Insbesondere der Eigenschaft einer sich ändernden Granularität des wiederverwendeten Prozessmodells als einer spezifischen Ausprägung der externen Aufgabenrepräsentation und dem kognitiven Bias des Anchoring und Adjustment, der einen signifikanten Einfluss auf die Bildung der geeigneten mentalen Repräsentationen zur Prozessmodellkonstruktion ausüben könnte, wurden der Untersuchungsrichtung folgend besondere Aufmerksamkeit gewidmet. Es wird zunächst die adaptive Prozessmodellwiederverwendung allgemein aus der Perspektive des Information Retrieval charakterisiert und es werden Möglichkeiten der Anpassungen, die im Zuge der Prozessmodelllösungsbildung durchgeführt werden können, aufgezeigt. Im Weiteren wird das Anchoring auf den Kontext der Prozessmodellwiederverwendung übertragen. Hierbei werden unterschiedliche Effekte, die bei der Prozessmodellwiederverwendung im Gegensatz zur Wiederverwendung von anderen Modellen auftreten können, diskutiert. Zur weiteren Charakterisierung des Ankereffekts werden spezielle Ankertypen, die für den Untersuchungskontext als relevant eingestuft werden, klassifiziert und mit der Eigenschaft der Granularität von Prozessmodellen in Beziehung gesetzt. Der bisher informell genutzte Granularitätsbegriff wird mit existierenden Konzepten zu einer Prozessmodellgranularitätauffassung formalisiert und es wird eine zugehörige Metrik der Granularitätsbestimmug definiert. Es erfolgt schließlich die Bildung von Hypothesen, die spezifische Wirkungen auf die Adaptionsperformanz und die semantische Qualität aufgrund veränderter Granularitätsniveaus annehmen. Das Kapitel gliedert sich dementsprechend wie folgt: 1) Adaptive Prozessmodellwiederverwendung, 112 2) Ankereffekte in der Prozessmodellwiederverwendung, 3) Anker und Granularität, 4) Formalisierung der Prozessmodellgranularität und 5) Hypothesen zu Wirkungen auf die Modellierungsleistung. 4.1. Adaptive Prozessmodellwiederverwendung Zur Verdeutlichung der wesentlichen Zusammenhänge, die zwischen Anforderungen aus einer Prozessdesignaufgabe (Domäne), einem gegebenen Wiederverwendungsmodell und der letztlich erstellten Lösung bestehen – einschließlich der richtigen oder falschen Änderungen am Wiederverwendungsmodell – wird hier auf ein mengentheoretisches Gerüst und Konzepte des Information Retrieval zurückgegriffen59 . Die Adaptionen, die aus einer Information-Retrieval-Perspektive betrachtet werden, können auf Adaptionen in wiederverwendeten Prozessmodellen übertragen werden. Anhand dieser Konzepte lassen sich dann gebildete Erwartungen über vorgenommene (bzw. ausbleibende) Anpassungen aufgrund bestimmter Effekte im Zuge der Prozessmodellwiederverwendung darstellen. Es wird zunächst 1) das Grundprinzip der Prozessmodellkonstruktion nach Maßgabe von Anforderungen mit den Begriffen des Information Retrieval dargestellt. Anschließend wird 2) in dieses Konzept das Vorliegen eines Wiederverwendungsmodells eingeführt und das Begriffssystem entsprechend erweitert. Anknüpfend an die mengentheoretische Sichtweise des Information Retrieval können sowohl prozessorientierte Domänenanforderungen, als auch wiederverwendbare Prozessmodelle und final erstellte Lösungsmodelle als Elementmengen betrachtet werden60 . Die Elemente sind dabei jeweils die sprachlichen Konstrukte aus den Anforderungstexten, die mit einem geschäftsprozessbezogenen Konzept verknüpft werden bzw. die Konstrukte einer jeweiligen Modellierungssprache (z.B. eine Aktivität in der BPMN), welche für die Modellierung sowohl des Wiederverwendungsmodells, als auch des Lösungsmodells eingesetzt werden. Mit Hilfe der Mengenbetrachtung lassen sich die grundlegenden Zusammenhänge zwischen den drei Modellen61 übersichtlich darstellen. Für die allgemeine Betrachtung werden zunächst nur die Prozessanforderungen mit dem Lösungsmodell in Beziehung gesetzt. Darauf aufbauend wird dann der Einsatz eines wiederverwendbaren Prozessmodells eingeführt, welches sowohl spezifische Relationen zu den ursprünglichen Anforderungen, als auch zur letztlichen Lösung aufweist. Die zunächst zweiteilige Betrachtung von Prozessanforderungen und Lösungsmodellen erlaubt zudem eine direkte Entlehnung von Begriffen aus dem Information Retrieval zur Qualifikation einer Ergebnismenge, die aus einer Informationssuche resultiert. Dies ist möglich, da auch die Erstellung eines Lösungsprozessmodells auf Basis von natürlich-sprachlich formulierten Anforderungen als Suchprozess über jene formulierten Anforderungen verstanden werden 59 Für eine Übersicht des Forschungsgebiets Information Retrieval siehe beispielsweise Croft (1987), Ingwersen (1996), Vakkari (1999), Baeza-Yates u. Ribeiro-Neto (1999) und van Rijsbergen (2004). 60 Für eine Mengenbetrachtung im Kontext der Deklaration und Akzeptanz von für die Wiederverwendung intendierten Modellen siehe auch Thomas (2006, S. 87). 61 Die natürlich-sprachlich formulierten Prozessanforderungen werden hier als Modell hinzugezählt. 113 kann. Die Möglichkeit, Anforderungen und Ergebnis mengenmäßig in ein Verhältnis zu setzen, schafft so die Grundlage für eine qualitative Beurteilung des Konstruktionsergebnisses. Seien die Anforderungen der Prozessdesignaufgabe die Menge 𝐴, die für die Prozessaufgabe nicht relevanten Informationselemente die Menge 𝑁 und die Informationselemente des Lösungsmodells die Menge 𝐿. Diese Mengen sind als Venn-Diagramme in Abbildung 4.1 dargestellt. Anforderungen (A) Nicht gefordert (N) Lösungsmodell (L) FN TP TN FP Abbildung 4.1.: Mengen der Anforderungen (A), nichtgeforderten Elemente (N) und des Lösungsmodells (L) Analog zur Suche in einer Dokumentenmenge, an deren Ende eine Ergebnismenge vorliegt, darf die Konstruktion eines Prozessmodells über einen gegebenen Anforderungsraum begriffen werden, welche schließlich auch in ein Ergebnis- oder Lösungsmodell mündet. Durch die Erstellung der Menge 𝐿 über den gesamten Suchraum Ω = 𝐴∪𝑁 entstehen potenziell vier Teilmengen, wobei zwei dem Lösungsmodell angehören. Die anderen zwei befinden sich außerhalb des Lösungsmodells. Für die Bezeichnung der Teilmengen werden hier die im Information Retrieval üblichen Begriffe True Positive (𝑇 𝑃 ), False Positive (𝐹 𝑃 ), True Negative (𝑇 𝑁 ) und False Negative (𝐹 𝑁 ) herangezogen. 𝑇 𝑃 umfasst die Informationselemente des Lösungsmodells, die tatsächlich von den Anforderungen verlangt werden. 𝐹 𝑃 sind dagegen jene Informationselemente des Lösungsmodells, die außerhalb der Anforderungen an den Geschäftsprozess liegen. 𝑇 𝑁 ist die Menge der irrelevanten Informationselemente, die richtigerweise ihren Weg nicht in das Lösungsmodell gefunden haben. In 𝐹 𝑁 befinden sich die Informationselemente, die vom Lösungsmodell nicht berücksichtigt wurden, obwohl sie von den Prozessanforderungen verlangt werden. Zur Beurteilung der Güte des Lösungsmodells können die Maße Recall und Precision herangezogen werden. Recall ist der Anteil an relevanten Informationselementen in einem Ergebnis, das nach einem Suchprozess erzielt wird. Recall wird auch als Treffer- 114 quote bezeichnet. Precision ist der Anteil in einem erarbeiteten Ergebnis, der tatsächlich relevant ist, also den Anforderungen entspricht. Für Precision wird auch der Begriff Genauigkeit verwendet. Mit mengentheoretischen Symbolen können Recall und Precision auf Basis der oben eingeführten Mengen folgendermaßen ausgedrückt werden (van Rijsbergen 2004, S. 31): 𝑅𝑒𝑐𝑎𝑙𝑙 = 𝐴∩𝐿 𝐴 𝑃 𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝐴∩𝐿 𝐿 Es wird nun ein wiederverwendbares Prozessmodell W eingeführt, welches selbst eine Menge an Informationselementen darstellt, die den Anforderungen entsprechen können (was sie unter günstigen Konstruktionsbedingungen auch werden), aber auch außerhalb der Prozessanforderungen liegen können, d.h. für die Aufgabe keine Relevanz besitzen. Um die zwei Teilmengen des Wiederverwendungsmodells – in Bezug auf Anforderungen bzw. nicht geforderte Konzepte – von den Teilmengen 𝑇 𝑃 und 𝐹 𝑃 des Lösungsmodells zu unterscheiden, werden sie mit 𝑇 𝑃𝑟 und 𝐹 𝑃𝑟 bezeichnet (r steht für Reuse). In Abbildung 4.2 ist das Mengendiagramm aus Abbildung 4.1 um die Elementmenge des wiederverwendbaren Modells erweitert. Anforderungen (A) Nicht gefordert (N) Wiederverwendbares Prozessmodell (W) FN TPr TN fd td FPr tk fk Lösungsmodell (L) TP ti fi FP Abbildung 4.2.: Wiederverwendungsmodell (W) und sechs Teilmengen der Adaption Es ergeben sich sechs weitere Teilmengen, die sich auf ihr jeweiliges Verhältnis zu dem Lösungsmodell beziehen, welches durch die Adaption des Wiederverwendungsmodells erstellt wird: 1) false delete (fd), 2) true keep (tk), 3) true insert (ti), 4) true delete (td), 5) false keep (fk) und 6) false insert (fi). fd sind jene Elemente, die den Anforderungen entsprechen und auch bereits im Wiederverwendungsmodell repräsentiert waren, aber fälschlicherweise im Zuge der Adaption zum Lösungsmodell entfernt wurden. tk sind die Elemente, die den Anforderungen entsprechen, bereits im Wiederverwendungsmodell enthalten waren und richtigerweise beibehalten wurden. ti sind die Elemente, welche 115 den Anforderungen entsprechen, aber nicht im Wiederverwendungsmodell repräsentiert waren – dafür aber bei der Adaption richtigerweise eingefügt wurden. td sind Modellelemente, die zwar im Wiederverwendungsmodell enthalten waren, obwohl sie gar nicht den Anforderungen entsprechen, und schließlich im Wege der Anpassung zum Lösungsmodell richtigerweise entfernt wurden. fk sind jene Modellelemente, welche ebenfalls im Wiederverwendungsmodell enthalten waren, obwohl sie nicht den Anforderungen entsprechen und im Zuge der Adaption fälschlicherweise im Lösungsmodell beibehalten wurden. Abschießend sind fi die Elemente, die weder im Wiederverwendungsmodell repräsentiert waren, noch den Anforderungen entsprechen, aber dennoch fälschlicherweise in das Lösungsmodell eingefügt wurden. Diese sechs Teilmengen beschreiben alle möglichen Zusammenhänge zwischen Wiederverwendungsmodell, Lösungsmodell und Anforderungen (bzw. Nicht-Anforderungen) aus der Perspektive des Information Retrieval. Im Folgenden ist zu klären, wie sich Ankereffekte in diesem Kontext ausdrücken. 4.2. Ankereffekte in der Prozessmodellwiederverwendung Da sich im Rahmen von wissenschaftlichen Untersuchungen die Anchoring- und Adjustmentheuristik in vielen verschiedenen Aufgaben, bei denen Menschen Entscheidungen treffen mussten, als robustes Phänomen gezeigt hat, kann angenommen werden, dass dieser kognitive Bias auch auftritt, wenn Geschäftsprozessmodelle – im Sinne einer initialen Lösungsnäherung – vorgegeben werden. Das wiederverwendbare Geschäftsprozessmodell dient hier als unterstützendes Artefakt während der Bearbeitung von Prozessmodellierungsaufgaben. Mit Hilfe der Begriffe des Information Retrieval aus dem vorigen Abschnitt kann der Ankereffekt zunächst qualitativ dargestellt werden. Anschließend wird diskutiert, inwieweit Ankereffekte, die im Zusammenhang mit der Wiederverwendung anderer Modelle beobachtet wurden, auf die Wiederverwendung von Prozessmodellen übertragen werden können. Das wiederverwendbare Prozessmodell W kann zunächst im Verhältnis zu den Anforderungen A – bei deren vollständiger Erfüllung die ideale Prozessmodelllösung vorliegen würde – und Nichtanforderungen N betrachtet werden (siehe Abbildung 4.3). Angenommen das Ziel der wiederverwendungsmodellbasierten Konstruktion sei die Erreichung des Idealmodells. Dann ergeben sich auf Basis die oben beschriebenen sechs Teilmengen der Adaption entsprechend, die wie folgt interpretiert werden. ti umfasst die Elemente, die richtigerweise eingefügt würden, da sie nicht Bestandteil von W, aber anforderungsrelevant sind. tk stellen die richtigerweise beibehaltenen Elementen dar: sie sind bereits im Wiederverwendungsmodell und entsprechen den Anforderungen. td sind richtigerweise zu entfernende Elemente: sie sind zwar in W, sollten aber entfernt werden, um zu einer anforderungsgerechten Prozessmodelllösung zu kommen. Entsprechend gibt es die drei verbleibenden Mengen fd, fk und fi, die aus der Perspektive des nicht anforderungsorientierten Adaptierens interpretiert werden und sich teilweise mit den eben genannten Mengen in Abbildung 4.3 überschneiden. Zu fd wird die Elementmenge tk, wenn die kor- 116 rekten und relevanten Elemente des Wiederverwendungsmodell fälschlicherweise entfernt werden. Zu fk wird die Menge td, wenn die eigentlich nicht benötigten Elemente des Wiederverwendungsmodell nun doch beibehalten werden – fälschlicherweise. Schließlich verbleibt fi : fälschlicherweise eingefügte Elemente in ein Lösungsmodell, da sie nicht den Anforderungen entsprechen. Für ti und fi lassen sich entsprechende Pendants finden, wenn man die Adaptionsaktivität des Unterlassens (engl. omit) hinzuzieht. Ein true insert könnte somit – falls nicht durchgeführt – zu einem false omit werden. Analog gehört zu einem false insert, welches doch nicht umgesetzt wird, ein true omit. Anforderungen (A) = Idealmodell (I) Nicht gefordert (N) Wiederverwendbares Prozessmodell (W) FN TN TPr FPr fd tk ti fk td fi Abbildung 4.3.: Mengen der Anforderungen (A), nichtgeforderten Elemente (N) und des Lösungsmodells (L) Mit diesen Begriffen lässt sich nun das Anchoring näher beschreiben. Anchoring findet statt, wenn in Bezug auf das Wiederverwendungsmodell (die Lösungsschätzung) die notwendigen Anpassungen nicht durchgeführt werden, da der Modellierer den ihm vorliegenden Modellelementen verhaftet bleibt. Die notwendigen Anpassungen in Richtung des Lösungsmodells stellen die Mengen ti und td dar. D.h. es sind potenziell Einfügungen vorzunehmen, um die fehlenden, aber anforderungsrelevanten Elemente abzudecken. Und es sind potenziell Löschungen vorzunehmen, damit das Wiederverwendungsmodell von den irrelevanten Elementen befreit wird. Dies ist auch mit den Pfeilen in Abbildung 4.3 illustriert. Anchoring ist nun, wenn die true inserts und die true deletes nicht in dem Umfang erfolgen, so dass das ideale Prozessmodellergebnis entstehen kann. Die Elemente, welchen die Modellierer verhaftet bleiben können (also die Prozessmodellelemente von ti und td ), werden als Anker bezeichnet. Der Literatur folgend, welche Ankereffekte in der wiederverwendungsbasierten Modellierung untersucht hat (Parsons u. Saunders 2004), werden die Elemente in ti als Omission-Anchors bezeichnet, da diese Elemente im Wiederverwendungsmodell ausgespart wurden, aber relevant sind. Die Elemente in td hingegen werden als Extraneous-Anchors bezeichnet, da sie in Bezug auf die ideale Prozessmodelllösung irrelevante Elemente umfassen. 117 Die Übertragbarkeit von Ergebnissen aus bisher erfolgten Arbeit muss kritisch beurteilt werden, da keine Wiederverwendung von Prozessmodellen untersucht wurde. Grundsätzlich stellen andere Modelltypen eine andere Art der Abstraktion dar, daher darf die Erwartung von Anchoring-Effekten, die beispielsweise bei statischen Modellen wie EntityRelationship-Diagrammen (Parsons u. Saunders 2004) beobachtet wurden, grundsätzlich in Frage gestellt werden. Nichtsdestotrotz gibt es auf der visuellen Ebene Analogien, die darauf schließen lassen, dass zumindest aufgrund der rein visuellen Repräsentation ähnliche Ankereffekte auftreten könnten. In ERD sind Entitäten beispielsweise als Kästen bzw. Boxen dargestellt. In vielen Prozessmodellierungsnotationen gibt es ebenfalls Boxen (u.U. mit abgerundeten Ecken wie in der BPMN), die für Aktivitäten stehen. Trotz der semantischen Unterschiede der Boxen, kann angenommen werden, dass das Anchoring auch bei den Boxen in Prozessmodellen – stärker über die visuelle Wahrnehmung, als über rationale Erwägungen – stattfindet. Der Effekt des Anchoring bei statischen Modellen einerseits und dynamischen Modellen (d.h. zeitliche Abfolgen berücksichtigende Modelle) andererseits lässt sich noch besser einsehen, wenn der wesentliche Charakter der Modelle betrachtet wird. Statische Modelle wie Klassenmodelle und ER-Modelle unterteilen eine betrachtete Domäne in verschiedene Entitäten zu einem bestimmten Zeitpunkt (bzw. über einen Zeitraum, der zu einem Zeitpunkt aggregiert wird). Modellierer, die bspw. eine Datenmodellierungsaufgabe bearbeiten, werden ebenfalls mentale Repräsentationen entwickeln, denen die Gliederung der Domäne in mehrere Teile zugrundeliegt. Bezieht sich ein Modellierer nun auf ein verfügbares statisches Modell, d.h. er verwendet es wieder, so liegen potenziell die oben beschriebenen Elementmengen der notwendigen Anpassung vor. Das Anchoring ist dann eine Funktion des wahrgenommenen Zusammenhangs der repräsentierten Elemente aus dem Wiederverwendungsmodell. Dieser Zusammenhang lässt sich auch mit den Begriffen Assoziation oder Affinität bezeichnen. Je höher diese Affinität in der mentalen Repräsentation zwischen mehreren Elementen oder auch einem einzigen Element (welches aber zergliedert werden könnte) ist, desto schwieriger wird sich die notwendige Anpassung, sei es die Entfernung von nicht benötigten Elementen oder die Einfügung von feineren Elementen, darstellen. Die Affinität bei statischen Modellen beruht darauf, inwieweit die Informationen einen inhaltlichen Zusammenhang aufweisen und wie leicht sich unterschiedliche Informationsteile diskriminieren lassen (z.B. „Kunde“ ist inhaltlich etwas anderes als „Rechnung“). Da die Architektur des Gedächtnis als zumindest ähnlich in Hinblick auf die Strukturierung in Teile angesehen werden kann (vgl. das Chunking nach Miller (1956)), stehen die Chancen prinzipiell günstig, dass Anpassungen korrekt vorgenommen werden. Doch schon bei der Wiederverwendung von statischen Modellen wurde gezeigt, dass Ankereffekte auftreten (siehe weiter oben). Werden nun Prozessmodelle betrachtet, stellt sich die Affinität zwischen Elementen (oder einem einzigen gröberen Element) etwas anders dar. Während bei statischen Modellen die „Andersartigkeit“ der Entitäten ausschlaggebend ist, kommen bei Elementen dynamischer Modelle die expliziten Merkmale der Zeit und der sachlogischen Abfolge hinzu, welche die Entitäten in Prozessmodellen, z.B. Aktivitäten, diskriminieren. Diese 118 Affinität kann als höher eingeschätzt werden, da die Diskriminierung von Elementen, die sich über ihr Auftreten zu verschiedenen Zeitpunkten differenzieren, aber dennoch einen inhaltlichen Zusammenhang aufweisen, dem Gedächtnis eine höhere Leistung abverlangt. Dies kann sowohl für die nötige Verfeinerung von groben Aktivitäten als auch für die Entfernung überflüssiger Aktivitäten angenommen werden. Das Anchoring wird demnach aufgrund höherer wahrgenommener Affinitäten bei Prozessmodellen mindestens so ausgeprägt sein wie bei statischen Modellen, wenn nicht stärker. 4.3. Anker und Granularität Die Möglichkeit verschiedener Anchortypen steht in enger Beziehung mit verschiedenen Granularitätsniveaus von Modellen, die in Relation zu einem zu konstruierenden Lösungsmodell wiederververwendet werden. Anders ausgedrückt bedeutet dies, dass unterschiedlich feine Partitionen eines Sachverhalts, d.h. eben auch unterschiedlich granulare Modelle von abzubildenden Phänomenen, verschiedene Arten von Anchors im Hinblick auf eine zu erstellende Lösung implizieren. Die verschiedenen Anchors ziehen entsprechend unterschiedlich verteilte Anpassungsoperationen nach sich, die erforderlich sind, um vom Wiederverwendungsmodell – der Lösungsnäherung – zum Lösungsmodell zu gelangen. Dieser Zusammenhang ist zunächst nicht unmittelbar eingängig, da willkürliche Verteilungen von Anchortypen auf unterschiedlichsten Granularitätsniveaus prinzipiell denkbar sind. Dies bedeutet, dass z.B. der Anchortyp „Omission“ sowohl in einem feingranularen als auch grobgranularen Modell in gleicher Zahl auftauchen kann. Theoretisch ließen sich entsprechende Modelle leicht konstruieren: feingranulare Modelle, die, trotz „Nähe“ in bestimmten Bereichen, große Auslassungen in anderen Bereichen aufweisen; und grobgranulare Modelle, die zwar gleichmäßig abzubildende Inhalte erfassen, denen aber insgesamt der Detaillierungsgrad fehlt, d.h. die auch mit ausgelassenen Informationselementen behaftet sind, welche durch Einfügungen kompensiert werden müssen. Die in der betrieblichen Praxis angebotenen Wiederverwendungsmodelle legen jedoch nahe, dass die Verteilung von Anchortypen in den Modellen entlang unterschiedlicher Granularitäten nicht gleichmäßig ist. Dies lässt sich z.B. an betrieblichen Referenzmodellen für die Prozesse von Telekommunikationsunternehmen (eTOM62 ), des IT-Servicemanagement (ITIL63 ) und der Logistik (SCOR64 ) beobachten, welche primär auf die Abdeckung aller Prozesse (oder ProzessCluster) des jeweiligen Anwendungsbereichs gerichtet sind (TM Forum 2008; Holten u. Melchert 2002; Hochstein u. a. 2004). In der Regel kommt es nur zu wenigen Entfernungen von Prozessgruppen (d.h. wenige Extraneous-Anchors). Ein großes deutsches Telekommunikationsunternehmen hat bspw. die von eTOM vorgegebenen Prozessgruppen unter geringfügigen Entfernungen übernommen65 . Umgekehrt werden von feingranularen 62 enhanced Telecom Operations Map. IT Infrastructure Library. 64 Supply Chain Operations Reference Model. 65 Beobachtungen resultieren aus internem Projekt mit dem Unternehmen. 63 119 Customer Interface Management Manage Contact Manage Request (Including Self Service) Analyze & Report on Customer Mediate & Orchestrate Customer Interactions Abbildung 4.4.: Dekomposition des Prozesses „Customer Interface Management“ in Prozesse der Ebene 3 (TM Forum 2005, S. 36) Wiederverwendungsmodellen wie z.B. den Informationsentitäten der Universal Business Language (UBL) sehr viele Elemente angeboten, die nur in wenigen Anwendungsfällen in ihrer Gesamtheit zum Einsatz kommen werden (das „Order“-Dokument umfasst bspw. potenziell mehr als 2000 Entitäten) (OASIS Universal Business Language (UBL) TC 2006). Es wird daher im Zuge der Adaption vorwiegend zu Löschungen kommen und kaum zu Einfügungen. Diese Verteilung soll anhand eines Beispiels der Prozessmodellierung verdeutlicht werden. Das eTOM-Modell stellt Geschäftsprozessmodelle auf vier unterschiedlichen Granularitätsniveaus zur Verfügung (Ebenen 0 bis 3) (TM Forum 2005). Die feinste Stufe (Ebene 3) ist im Verhältnis zu einer ablauforientierten und an konkreten, atomaren Aktivitäten ausgerichteten Repräsentation immer noch sehr weit entfernt davon und ist deshalb als grobgranular einzustufen. In Abbildung 4.4 ist die Prozessdekomposition der Ebene 3 für den Prozess „Customer Interface Management“ dargestellt. Die Informationselemente in diesem grobgranularen Prozessmodell sind zu unspezifisch, als dass sie die Anforderungen erfüllen könnten, die auf die Repräsentation von ablauf- und transaktionsrelevanten Details eines Geschäftsprozesses abzielen. Das Modell besteht im Wesentlichen aus vier grob beschriebenen Aktivitäten, die als essenziell für das Management von Schnittstellen zu allen Kunden des Unternehmens angesehen werden. Diese Aktivitäten sind so grundlegend, dass man annehmen kann, dass die wenigsten Dienstleistungsunternehmen auf sie verzichten würden. Die Wahrscheinlichkeit von Elementlöschungen ist daher als gering anzusehen. Vor dem Hintergrund eines Prozessmodellierungsvorhabens, das die automatische Ausführung des Prozesses beabsichtigt, mangelt es dem Modell allerdings an vielen detaillierten Informationselementen wie z.B. konkreteren Aktivitäten und Transaktionen, Verzweigungen bei verschiedenen möglichen Zuständen und konkreten Start- und Endbedingungen. Dies sind wesentliche Auslassungen, die als Omission-Anchors angesehen werden können. Um zu der gewünschten feinen Repräsentation des Prozesses zu gelangen, wäre in diesem Fall eine größere Menge an Elementeinfügungen nötig. Dass ein Zusammenhang zwischen dem Anchortyp „Omission“ und einer groben Granularität besteht, liegt auch in der Beschaffenheit des Granulari- 120 Anforderungen Anforderungen OmissionAnchors Wiederverwendbares Prozessmodell Wiederverwendbares Prozessmodell FPr TPr ExtraneousAnchors TN TPr TN Nicht gefordert Nicht gefordert Abbildung 4.5.: Anker im feingranularen Wiederverwendungsmodell (links) und grobgranularen (rechts) tätskonzepts selbst. Bei der Vergröberung der Modellgranularität wird eine Reduktion bezüglich des zu modellierenden Systems vollzogen (d.h. bestimmte Informationen werden weggelassen). Diese Reduktion muss dann zwangsläufig im Zuge der Anpassung des wiederverwendeten Modells in Richtung Lösung mittels Einfügung ausgelassener Informationselemente wieder aufgehoben werden. Betrachtet man hingegen in der Praxis verfügbare feingranulare Modelle, so lässt sich im Hinblick auf die Verteilung von verschiedenen Anchortypen folgende Beobachtung machen. Dadurch, dass viele Informationsdetails in die feingranularen Modelle aufgenommen werden, erlangen sie eine hohe Spezifität bezüglich potenzieller Systemgestaltungsaufgaben, für die sie im Modellierungsvorgang wiederverwendet werden können. Dies bedeutet auch, dass die Wahrscheinlichkeit, dass dieses feingranulare Modell auf Systemanforderungen trifft, die nicht die ganze Informationsvielfalt des Wiederverwendungsmodells ausschöpfen, steigt. Diese nicht genutzten, da für das Modellierungsproblem irrelevanten Elemente, sind ein Fall von vorliegenden Extraneous-Anchors. Damit ist nicht gesagt, dass nicht auch Anforderungen bestehen können, die vom feingranularen Wiederverwendungsmodell nicht abgedeckt werden (dies wäre ein Fall von vorliegenden Omission-Anchors). Aber die Situation, dass ein detailliertes Modell in erster Linie den Informationsbedarf eines Lösungsmodells übersteigt, stellt einen mindestens relevanten, wenn nicht häufigen Fall in wiederverwendungsbasierten Modellerstellungsprozessen mit feingranularen Modellen dar. Die tatsächliche Häufigkeit dieser Fälle wäre empirisch zu prüfen, ist aber hier nicht Gegenstand weiterer Erörterungen. In Abbildung 4.5 sind die wesentlichen Anchor-Verteilungen in fein- bzw. grobgranularen Modellen mengenbasiert illustriert. 121 Sicherlich ist das Verhältnis zwischen irrelevanten Elementen im Wiederverwendungsmodell und konkreten Lösungsanforderungen abhängig davon wie viele Systeme insgesamt diese – prinzipielle – Lösung erfordern und in welchem Ausmaß sie durch ihre Indivdualität potenziell spezifische Abweichungen – und damit überschüssige Information für den Einzelfall – in das Wiederverwendungsmodell einbringen (bzw. eingebracht haben). Weiterhin ist das Verhältnis abhängig von der Effektivität des Suchvorgangs, da durch eine effektive Suche der Anteil an irrelevanten Elementen reduziert werden kann. Hier wird der Fall näher betrachtet, dass die feingranularen Wiederverwendungsmodelle relativ gesehen zu den Lösungsanforderungen eine Menge überschüssiger Informationen enthalten. Für die adaptive Wiederverwendung des Modells bedeutet dies, dass die irrelevanten Informationselemente entfernt werden müssen. Auch dies soll mit einem Beispiel der Prozessmodellierung illustriert werden. In Abbildung 4.6 ist ein Prozessmodell für den „Order-to-cash“-Prozess abgebildet, der sich sehr nah an den Ausführungsdetails des Geschäftsprozesses befindet, also feingranular ist. Der „Order-to-cash“-Prozess könnte nun in verschiedenen Betrieben mit weitaus weniger Aktivitäten durchgeführt werden, z.B. könnte die gesamte Abwicklung der Bezahlung nicht separat – wie hier dargestellt – ablaufen, sondern intern durchgeführt werden. Falls nun in einem Modellierungsvorhaben der „Order-to-cash“-Prozess umgestaltet und für diesen Zweck dieses BPD wiederverwendet werden soll, dann wird das Modell mehr Informationselemente bereitstellen, als die vorliegende Situation u.U. erfordert. Die präsenten irrelevanten Informationen müssten dann im Zuge der Anpassung mit Löschoperationen aus dem Prozessmodell entsprechend entfernt werden. Es ist nicht zwingend erforderlich, dass bei der Verfeinerung der Modellgranularität irrelevante Informationselemente eingeführt werden – wohingegen die Reduktion bei der Granularitätsvergröberung unvermeidlich ist. Aber die obige Argumentation und die praktischen Beispielmodelle lassen die Wahrscheinlicheit dieser zunehmenden „Verwässerung“ bei feinerer Granularität plausibel erscheinen. Zusammenfassend kann festgehalten werden, dass – obwohl beide Granularitätsfälle, fein- bzw. grobgranular, für wiederverwendbare Prouzessmodelle so konstruiert werden könnten, dass gleiche Anteile der Anchortypen „Extraneous“ und „Omission“ (bezogen auf die Aufgabenanforderungen) vorliegen – die betriebliche Modellierungspraxis nahelegt, dass Prozessmodelle höherer Granularität eher nach adaptiven Elementeinfügungen verlangen, während Prozessmodelle feinerer Granularität regelmäßig die Löschung von Informationselementen erfordern. Das konkrete Vorgehen bei der Adaption von OmissionAnchors bzw. Extraneous-Anchors wird im Folgenden erläutert. 4.3.1. Adaption von Omission-Anchors Bei Vorliegen von Omission-Anchors sind Modellelemente im Wiederverwendungsmodell ausgelassen, die aber im finalen Lösungsmodell vorhanden sein müssen. Eine entsprechende Änderung eines Omission-Anchors ist im folgenden Beispiel für einen Ausschnitt eines wiederverwendbaren BPD illustriert (siehe Abbildung 4.7). Der obere Prozessmo- 122 Abbildung 4.6.: Prozess des „Order-to-cash“ mit mehreren Pools (Silver 2007, S. 4) dellausschnitt stellt einen Teil des Wiederverwendungsprozessmodells dar, welches für die Bearbeitung einer Prozessmodellierungsaufgabe genutzt werden soll. Die zweite Aktivität „Check entered data (errors in data? Is it a new customer?)“ ist in Bezug auf die Aufgabendetails zu grob, da konkrete Aktivitäten wie die Behandlung von Eingabefehlern und die Neukundenprüfung nicht expliziert sind. Diese stellen Omission-Anchors dar. Dementsprechend muss die Aktivität des Wiederverwendungsmodells durch die zunächst eigene Löschung und dann die Einfügung von feineren Aktivitäten, Exclusive-Gateways und zusätzlichen Kontrollflüssen angepasst werden. Abbildung 4.7 illustriert diesen Adaptionsprozess der Omission-Anchhors. 4.3.2. Adaption von Extraneous-Anchors Bei Vorliegen von Extraneous-Anchors befinden sich Modellelemente im Wiederverwendungsmodell, die keiner Anforderung der Modellierungsaufgabe entsprechen und daher überflüssig sind. Diese müssen bei einer korrekten Anpassung daher entsprechend aus dem Wiederverwendungsmodell entfernt werden. Die entsprechende Änderung eines Extraneous-Anchors ist im folgenden Beispiel für einen Ausschnitt eines wiederverwendbaren BPD illustriert (siehe Abbildung 4.8). Die fiktive Aufgabenbeschreibung macht 123 Customer service Wiederverwendungsmodell Receive and enter customer data Check entered data (errors in data? Is it a new customer?) Anpassungsprozess: Einfügung von feineren Aktivitäten und weiteren Modellierungsselementen (Adaption der Omission-Anchors) Lösungsmodell Customer service No Receive and enter customer data Check customer data Error handling Data complete and plausible? Yes Check customer for first registration New customer? No Yes Create new customer Abbildung 4.7.: Beispielhafte Adaption von Omission-Anchors keine Aussagen über die Versendung von Kopien an eine Abteilung X. Die Aktivität „Send copies to department X“ ist daher als überflüssiges Element im Wiederverwendungsmodell zu werten, stellt also einen Extraneous-Anchor dar. Die Anpassung dieses Extraneous-Anchor erfordert entsprechend die Löschung der Aktivität und Anpassung des Kontrollflusses, so dass auf „Create contract“ direkt „Send offer“ folgt. 4.4. Formalisierung der Prozessmodellgranularität Der Effekt des Anchoring wurde in Bezug gesetzt mit bestimmten Granularitätsniveaus, welche typischerweise eher über bestimmte Mengen des einen Typs, d.h. über OmissionAnchors (bei grober Granularität) oder des anderen Typs, d.h. über Extraneous-Anchors (bei feiner Granularität) verfügen. Dies ist im Kontext einer Prozessmodellkonstruktionsaufgabe zu betrachten, für welche die wiederverwendeten Prozessmodelle entsprechend angepasst werden müssen. Der Begriff der Granularität ist an dieser Stelle noch nicht weiter konzeptualisiert worden, weswegen im Folgenden der Granularitätsbegriff für Prozessmodelle stärker formalisiert werden soll. Dazu erfolgt zunächst eine Einführung in allgemeine Auffassungen des Granularitätsbegriffs, welche die grundsätzlichen Prinzipien der Größe klären. Im Anschluss daran folgt eine tiefere Auseinandersetzung mit bestehenden Konzepten der Abstraktion, Modularität und Granularität, die schließlich zu einer 124 Create contract Send copies to department X Send offer Anpassungsprozess: Entfernung von Aktivitäten (Adaption der Extraneous-Anchors) Customer service Customer service Wiederverwendungsmodell Create contract Send offer Lösungsmodell Abbildung 4.8.: Beispielhafte Adaption von Extraneous-Anchors praktisch handhabbaren Größe der Prozessmodellgranularität zusammengeführt werden. Der Abschnitt gliedert sich daher wie folgt: 1) Granularitätsauffassungen und 2) Konzepte der Prozessmodellgranularität. 4.4.1. Granularitätsauffassungen Granularität geht auf das lateinische Wort granum – „Korn“ – zurück und bedeutet, dass etwas aus mehreren Bestandteilen („Körnern“) besteht oder zu bestehen scheint (vgl. auch Merriam-Webster Online Dictionary 2010). Oft werden unter dem Granularitätsbegriff – über das alleinige Vorliegen von Bestandteilen eines Ganzen hinausgehend – spezifische Zustände verstanden, die in einer Ordnungsbeziehung stehen können. Demzufolge wird bestimmten Aufteilungen eine „niedrige“ bzw. „höhere“ Granularität zugeordnet. In der Datenmodellierung wird dies beispielsweise angewandt, wobei mit dem Begriff Granularität der Detaillierungsgrad von Daten beschrieben wird: sehr detaillierte Daten haben eine niedrige Granularität; mit steigender Verdichtung der Daten wird eine höhere Granularität erreicht (Mucksch 2006). Die Bezeichnung hierarchisch geordneter Granularitätszustände mit Ordnungsbegriffen des allgemeinen Sprachgebrauchs wie „hoch“ und „niedrig“ erfolgt allerdings uneinheitlich und kann deshalb missverständlich sein. So gibt es Anwendungsbeispiele, bei denen mit „höherer“ oder „größerer“ Granularität größere Körner bzw. Teile gemeint sind, wie z.B. bei grobkörnigem Zucker (im Gegensatz zu feinpulverigem Puderzucker) oder bei 125 großpixeligen Fotografien (im Gegensatz zu höheraufgelösten Abbildungen). In anderen Kontexten können die Begriffe „hoch“ und „niedrig“ in der genau entgegengesetzten Ordnungsbeziehung verwandt werden. Es empfiehlt sich daher, stattdessen die Begriffe „fein“ und „grob“ zu verwenden, da über diese ein allgemein klareres Verständnis bezüglich der assoziierten Größe der Teile herrscht (siehe dazu auch die Diskussion zum Begriff „granular“ in Wiktionary 2010). Granularität ergibt sich aus der menschlichen Wahrnehmung von realen Phänomenen heraus und bezieht sich daher auf mentale Repräsentationen. Dieses fundamentale Konzept, dass jeder Gebrauch von Sprache zum Zwecke der Einschätzung der Realität eine granulare Partition erstellt, wird daher in verschiedenen Wissenschaften zugrunde gelegt (Bittner u. Smith 2001). Diese wahrnehmungsbasierte Grundidee der Granularität findet sich in Gebieten wie z.B. der angewandten Logik, der Ontologie, der Mereotopologie und der Mathematik wieder. Durch die Externalisierung dieser Repräsentationen lassen sich formale Konzepte entwickeln, mit denen sich granulare Zusammenhänge beschreiben lassen. Granularität steht im engen Zusammenhang mit Begriffen wie Abstraktion und Modularität (Sutcliffe 2002)66 . Informell ausgedrückt ist die Modellabstraktion eine Veränderung eines Modells dahingehend, dass essenzielle Modellmerkmale in der neuen Repräsentation beibehalten werden, während die mit Bezug auf einen bestimmten Zweck als unsignifikant erachteten Informationen ausgelassen werden (Smirnov u. a. 2010b, S. 2). Im Zusammenhang mit Granularität lassen sich mindestens zwei Konzepte differenzieren: der Vorgang der „Granulation“, d.h. Methoden wie aus feingranularen Modellen grobgranulare Modelle erstellt werden; und die Beschreibung spezifischer granularer Zustände, so dass verschiedene Modelle mit den gleichen Konzepten gemessen und vergleichende Betrachtungen zwischen Modellen unterschiedlicher Granularitätsniveaus vorgenommen werden können. In dieser Arbeit soll der Einfluss der wahrnehmbaren Konzeptmengen, also der Granularität eines Modells (einer spezifischen Partition des „Ganzen“) auf die Bearbeitung von Prozessmodellierungsaufgaben untersucht werden. Der Aspekt der möglichen Rekombinierbarkeit von Komponenten in einem Modell, also das, was Modularität vornehmlich charakterisiert, steht dagegen nicht im Fokus. 4.4.2. Konzepte der Prozessmodellgranularität Im Folgenden werden einige wichtige Konzepte, die im Kontext der Prozessmodellabstraktion bzw- granularität stehen, erläutert. Dies sind insbesondere die Business Process Model Abstraction, der Ansatz des Process Structure Tree, die Prozessmodellmodularität und schließlich die Granularität als mengentheoretische Größe. Das letztgenannte Kon66 In Sutcliffe (2002) wird auch eine leichte informelle Differenzierung zwischen Granularität und Abstraktion vorgenommen, die von unterschiedlichen „Designperspektiven“ herrührt. 126 zept wird schließlich verwendet, um bestimmte Granularitätsniveaus für Prozessmodelle und ein zugehöriges quantifizierbares Maß festzulegen. Geschäftsprozessmodellabstraktion Smirnov u. a. (2010b) schlagen eine Formalisierung für die Abstraktion von Geschäftsprozessmodellen in Anlehnung an die Meta Object Facility (MOF) – ein Standard des Model-Driven Engineering – vor, welche (Meta-)modellierungsartefakte in vier Ebenen organisiert (OMG 2006). Für ein Prozessmodell 𝑚 ∈ 𝑀 wird eine Menge an abstrakten Prozessmodellen betrachtet, wobei jedes abstrakte Modell ebenfalls eine Beschreibung der Instanzen darstellt, welche durch 𝑚 repräsentiert sind, jedoch mit weniger Details. Für diese Abstraktion wird folgende Abbildung eingeführt: 𝑎𝑏𝑠𝑡𝑟 : 𝑀 → 𝒫(𝑀 ). Ein abstraktes Modell eines Modells 𝑚, 𝑚𝑎 ∈ 𝑎𝑏𝑠𝑡𝑟(𝑚), liefert keine weiteren Informationen über die Instanzen, die bereits durch 𝑚 beschrieben sind. Weiterhin wird gefordert, dass sowohl 𝑚, als auch 𝑚𝑎 konform mit einem Metamodell sind67 . In Anlehnung an einen kartographischen Generalisierungsansatz (McMaster u. Shea 1992) werden die Ziele, eine Entscheidungsregel und eine Methode der Prozessmodellabstraktion als zentrale Komponenten identifziert. Die Ziele der Abstraktion adressieren verschiedene Verwendungszwecke von Modellen und entsprechend verschiedene benötigte Ansichten auf Sachverhalte. Dafür wird eine Menge von Abstraktionsobjekten Ω in einem Prozessmodell betrachtet, auf denen ein Abstraktionskriterium – in Bezug zu einem Ziel – definiert wird, welches den Vergleich der Objekte ermöglicht. Beispiele für Abstraktionskriterien sind Ausführungskosten oder Case-Frequenz. Ist das Abstraktionskriterium ordinal skaliert, dann können ein Schwellwert und eine Entscheidungsregel definiert werden, die Abstraktionsobjekte als entweder signifikant oder unsignifikant klassifizieren. Die Frage nach der Methode der Transformation von Modellen zu abstrakten Modellen wird mit Vorschlägen zu spezifischen Operationen adressiert. Diese beziehen sich auf Mengen von Abstraktionsobjekten 𝑂 ⊂ Ω und 𝑂𝑎 ⊂ Ω in Modellen 𝑚 bzw. 𝑚𝑎 . Sie sind wie folgt definiert. Basis-Abstraktionsoperation Es sei eine Funktion 𝛼𝑜 : 𝑀 → 𝑀 , die ein Prozessmodell 𝑚 in ein Modell 𝑚𝑎 transformiert. Dann ist 𝛼𝑜 eine Basis-Abstraktionsoperation, wenn sie von einem unsignifikanten Abstraktionsobjekt 𝑜 ∈ 𝑂 ∧ 𝑠𝑖𝑔𝑛(𝑜) = 𝑓 𝑎𝑙𝑠𝑒 abstrahiert, so dass ∙ ∣𝑂∣ > ∣𝑂𝑎 ∣, wobei 𝑂, 𝑂𝑎 ⊂ Ω die Mengen der Abstraktionsobjekte der Modelle 𝑚 und 𝑚𝑎 sind; ′ ∙ 𝛼𝑜 mit einer Hilfsfunktion 𝛼𝑜 : 𝑂∖ {𝑜} → 𝑂𝑎 assoziiert ist68 ; 67 Für die Einbettung der Geschäftmodellabstraktion in die MOF siehe Smirnov u. a. (2010, S. 3). Zu Anforderungen an Metamodellkonstruktionen vgl. auch Kühne (2006). 68 ′ Es wird eine Hilfsfunktion 𝛼𝑜 eingeführt, da die Funktion 𝛼𝑜 nur auf der Modellebene definiert ist. ′ 𝛼𝑜 erlaubt die Aufstellung von Korrespondenzen zwischen Abstraktionsobjekten in 𝑚 und 𝑚𝑎 und ermöglicht die Charakterisierung von Eigenschaften der Basis-Abstraktionsoperation. 127 ′ ∙ 𝛼𝑜 eine surjektive Funktion ist. Zwei wichtige Beispiele für Basis-Abstraktionsoperationen sind die Operationen elimination (𝜋) und aggregation (𝜎) (vgl. Smirnov u. a. 2010b, S. 5). Eliminierungsoperation Eine Basis-Abstraktionsoperation 𝜋𝑜 : 𝑀 → 𝑀 ist eine Eli′ nierungsoperation, wenn ∣𝑂∣ = ∣𝑂𝑎 + 1∣ und die Hilfsfunktion 𝜋𝑜 bijektiv ist. Die Eliminierung erzeugt ein Modell, das über keinerlei Information über das ausgelassene Abstraktionsobjekt 𝑜 verfügt, aber alle anderen Abstraktionsobjekte beibehält. Im Gegensatz dazu werden bei der Aggregation die Informationen des bzw. der Abstraktionsobjekte beibehalten (vgl. Smirnov u. a. 2010b, S. 5). Aggregationsoperation Eine Basis-Abstraktionsoperation 𝜎𝑜 : 𝑀 → 𝑀 ist eine Aggre′ gationsoperation, wenn 𝜎𝑜 eine nicht-injektive surjektive Funktion ist. Die Aggregation erzeugt ein abstraktes Modell, wobei ein unsignifikantes Abstraktionsobjekt 𝑜 zusammen mit weiteren Abstraktionsobjekten als neues Abstraktionsobjekt 𝑜′ repräsentiert wird. Das Objekt 𝑜′ erbt die Eigenschaften der Abstraktionsobjekte, die von 𝑜′ aggregiert werden (z.B. die Summation von einzelnen Durchführungskosten verschiedener Aktivitäten) (vgl. Smirnov u. a. 2010b, S. 5). Die Geschäftsprozessmodellabstraktion oder Business Process Model Abstraction (BPMA) wird schließlich als Komposition von Basis-Abstraktionsoperationen realisiert. Die BasisAbstraktionsoperationen werden auf jedes als insignifikant klassifiziertes Abstraktionsobjekt angewandt (vgl. Smirnov u. a. 2010b, S. 6 ff.). BPMA Die Geschäftsprozessmodellabstraktion BPMA ist eine Operation 𝛼 : 𝑀 → 𝑀 , die ein Prozessmodell 𝑚 in ein abstrahiertes Prozessmodell 𝑚𝑎 transformiert, so dass 𝛼 = 𝛼𝑜𝑙 ∘ 𝛼𝑜𝑙−1 ∘ ⋅ ⋅ ⋅ ∘ 𝛼𝑜1 die Funktionskomposition ist, wobei ∙ ∀𝑜 ∈ 𝑂𝑎 : 𝑠𝑖𝑔𝑛(𝑜) = 𝑡𝑟𝑢𝑒∧(∄𝑘 < 𝑙, ∀𝑜 ∈ 𝑂𝑘 : 𝑠𝑖𝑔𝑛(𝑜) = 𝑡𝑟𝑢𝑒), d.h. im abstrahierten Prozessmodell sind alle Objekte signifikant; ∙ 𝛼𝑜1 ist eine Basis-Abstraktionsoperation 𝛼𝑜1 (𝑚) = 𝑚2 , 𝑜1 ∈ 𝑂 ∧ 𝑠𝑖𝑔𝑛(𝑜1 ) = 𝑓 𝑎𝑙𝑠𝑒; ∙ für 𝑘 = 2 . . . (𝑙 − 1) ist 𝛼𝑜𝑘 eine Basis-Abstraktionsoperation 𝛼𝑜𝑘 (𝑚𝑘 ) = 𝑚𝑘+1 , 𝑜𝑘 ∈ 𝑂𝑘 ∧ 𝑠𝑖𝑔𝑛(𝑜𝑘 ) = 𝑓 𝑎𝑙𝑠𝑒; ∙ 𝛼𝑜𝑙 ist eine Basis-Abstraktionsoperation 𝛼𝑜𝑙 (𝑚𝑙 ) = 𝑚𝑎 , 𝑜𝑙 ∈ 𝑂𝑙 ∧ 𝑠𝑖𝑔𝑛(𝑜𝑙 ) = 𝑓 𝑎𝑙𝑠𝑒 Eine wichtige intrinsische Eigenschaft der BPMA ist der Informationsverlust, da das abstrakte Prozessmodell weniger Informationen bzgl. Reihenfolgebeschränkungen aufweist, als das Prozessmodell, das abstrahiert wurde. Die hier aufgeführten Transformationsdefinitionen liefern ein Grundgerüst für die Durchführung von Abstraktionsoperatio- 128 nen auf Geschäftsprozessmodellen. Weitere Arbeiten, in denen spezifische Abstraktionen auf Prozessmodellen vorgeschlagen und analysiert werden sind Polyvyanyy u. a. (2009); Smirnov u. a. (2010a). Im Zusammenhang mit der Aggregation von Abstraktionsobjekten wird auch der Begriff der Granularität eingeführt (Smirnov u. a. 2010b, S. 6). Granularität wird hier als eine Eigenschaft von Prozessmodellen aufgefasst, die eine gewisse Passgenauigkeit oder „Nähe“ von Modellelementen zu den repräsentierten Phänomenen aufweisen. Modelle, deren Elemente sehr „nah“ an den Phänomenen sind werden als eher fein bezeichnet; Modelle mit Elementen, die weiter entfernt von den Phänomenen sind, sind eher grobgranular. Dabei spielt es keine Rolle, ob ein Prozessmodell wenig oder viel von einem zu repräsentierenden Bereich abbildet – eine spezifische Granularität (z.B. sehr fein) kann auch bei einem Modell mit sehr geringem Abdeckungsgrad beibehalten werden. Granularität und Abdeckungsgrad (engl. coverage level) werden hier als voneinander unabhängige Dimensionen betrachtet. Es stellt sich hier jedoch die Frage wie ein einziges, sehr fein partitioniertes Modellelement zu einem höheren Granularitätsniveau aggregiert werden kann? Dies ist allein aufgrund der Definition der Aggregationsfunktion nicht möglich, da dafür mindestens zwei Abstraktionsobjekte benötigt werden. Selbst wenn von dieser Verletzung abgesehen und weitere Abstraktionsobjekte für die Aggregation zugelassen würden, kann das Granularitätsniveau nicht steigen, wenn nicht auch die Abdeckung der zu repräsentierenden Phänomene zunehmen würde. Die hier nahegelegte Möglichkeit eines sehr grobgranularen Prozessmodells, das vielleicht aus einem einzigen Modellelement besteht, aber gleichzeitig einen – nur – gegen Null gehenden Teil der zugrunde liegenden Phänomene beschreiben soll (oben links im Quadranten des zweidimensionalen „granularity level-coverage level“-Systems (Smirnov u. a. 2010b, S. 6)), erscheint mengentheoretisch nicht intuitiv. Der Unterschied zu anderen Granularitätsauffassungen (siehe Folgendes) ist, dass hier kein Begriff der nicht explizit repräsentierten Informationselemente im Zusammenhang mit der Granularität zugrunde gelegt wird. Unrepräsentierte Informationselemente sind für die Dimension „Abdeckungsgrad“ ein entscheidendes Merkmal. Der Granularitätsbegriff scheint sich hier allerdings dann nur auf das jeweilig im Modell Repräsentierte zu beziehen – und nicht mehr auf Informationselemente, die zwar adressiert werden wollen, aber nicht mehr durch das Modell abgedeckt sind. Dies bedeutet, dass die Granularitätseigenschaft mit der Variation des Abdeckungsgrads auch den Bezug zu den Phänomenen ändert, also unterschiedliche unterliegende Systeme referenziert. Der Vergleich von Granularitäten von zwei Modellen kann daher verschiedene Basen haben und eignet sich dadurch nur sehr begrenzt für den Inter-Modell-Vergleich hinsichtlich des Merkmals Granularität. Process Structure Tree Im Ansatz des Process Structure Tree (PST) (Vanhatalo u. a. 2008) wird ein Prozessmodell als Workflow-Graph verstanden. Das Ziel des Ansatzes ist es, einen Workflowgraphen in eine Hierarchie von Sub-Workflows zu zerlegen, welche Sub-Graphen mit einem jeweils 129 einzigen Kontrollflusseingang und einem einzigen Kontrollflussausgang sind. Der spezifizierte PST ist unique, definiert kanonische Fragmente und ist modular. Darüber hinaus kann der PST in linearer Zeit berechnet werden. Im Kern adressiert der Ansatz des Process Structure Tree die Transformation von Prozessdiagrammen zum PST. Dabei liegt der Fokus dieser Arbeit auf der effizienten Berechnung der Transformation. Zu bemerken ist, dass sprachliche Konstrukte (d.h. die Labels der Aktivitäten des Prozessmodells) keine weitere Berücksichtigung in diesem Ansatz finden. Desweiteren wird keine Relation zu menschlichen kognitiven Aktivitäten bzw. Besonderheiten charakterisisert. Es wird die Vermutung geäußert, dass die Dekomposition bei Analyseaufgaben hilfreich sein kann. Auf diesen Zusammenhang wird jedoch nicht näher eingegangen. In Bezug auf den Untersuchungskontext ist dieser Ansatz hilfreich, um aus Prozessmodellen eine hierarchische Struktur zu erstellen, in der Ordnungsbeziehungen zwischen den einzelnen Fragmenten existieren. Diese Ordnungsbeziehungen können prinzipiell dafür genutzt werden, um in verschiedenen Granularitätsniveaus zu navigieren. Modularität Unter Modularität wird ein charakteristisches Muster von hierarchisch verschachtelten „Blöcken“ verstanden, das in veschiedenen Kontexten wie in der Artefaktgestaltung, in Produktionsprozessen oder in Arten und Weisen des Gebrauchs auftreten kann (Baldwin u. Clark 2000, S. 12)69 . Eine andere Definition bezeichnet Modularität als generelles Merkmal von Systemen, das den Grad beschreibt, inwieweit dessen kooperierende Komponenten voneinander getrennt bzw. rekombiniert werden können (Schilling 2000). Wiederum eine weitere Definition fasst Modularität als Gestaltungsprinzip von komplexen Systemen auf, die aus kleineren Subsystemen bestehen, welche unabhängig voneinander gehandhabt werden können, aber dennoch zusammen funktionieren (Langlois 2002). Als allgemeines Systemmerkmal aufgefasst finden sich modulare Konzepte daher in unterschiedlichen Anwendungsdomänen wieder, z.B. in den Ingenieurwissenschaften (z.B. Baldwin u. Clark 2000), in den Kognitionswissenschaften (z.B. Fodor 1983) und in der Mathematik (z.B. Grätzer 1998). Entgegen einiger Definitionen muss ein modulares System nicht notwendigerweise hierarchisch geordnet sein, da dies eine partielle Ordnung der Beziehungsrelation zwischen Modulen implizieren würde, was aber nicht der Fall sein muss (Parnas 1972). Auch die Zerlegbarkeit eines Systems in seine Module muss nicht streng gefordert werden, da die Funktionsweise einzelner Module durchaus in vielfältiger Abhängigkeit zu den Wirkweisen anderer Module stehen kann (Reijers u. Mendling 2008; Langlois 2002). Um ein System bewusst in Module zu zerlegen, sind qualitative Merkmale notwendig, welche die Zerlegung leiten. Solche Qualitätskriterien werden in Wand u. Weber (1995) vorgeschlagen und diskutiert. Es werden fünf Merkmale vorgeschlagen. Die ersten drei Merkmale sind absolut in dem Sinne, dass sie entweder erfüllt sind oder nicht. Minimality fordert, dass es keine redundanten Zustandsinformationen im modularen Modell gibt. 69 Zu Modularität wird insbesondere auf die Ausführungen in Reijers u. Mendling (2008) verwiesen. 130 Determinism fordert, dass eine Zustandsänderung genau dann ausgelöst wird, wenn ein eindeutiges internes oder externes auslösendes Ereignis auftritt. Ist dies nicht der Fall, dann kann das Verhalten eines Moduls nur verstanden werden, wenn Informationen über den Zustand anderer Module bekannt sind. Losslessness (Verlustlosigkeit) fordert, dass Attribute des unmodularisierten Modells durch die Modularisierung nicht verloren gehen dürfen. Die zwei verbleibenden Merkmale, Coupling und Cohesion, sollten nach Möglichkeit optimiert werden. Das Coupling sollte möglichst klein sein, so dass die Summe aller Eingänge in die modularisierten Systeme kleiner oder gleich der Eingangszahl jeder anderen Modularisierung des Gesamtsystems ist. Die Cohesion von Modulen sollte möglichst groß sein, so dass der Output, der auf den Eingangsvariablen basiert, innerhalb einer definierten Menge bleibt, und dass das Hinzufügen eines weiteren Outputs nicht die Erweiterung der Eingangsvariablenmenge erforderlich macht. Insgesamt kann festgehalten werden, dass in Bezug auf die Zusammenfassung mehrerer Elemente in einer neuen Einheit der Modularitätsbegriff starke Überschneidung mit dem Gedanken der Granularität aufweist (vgl. nächsten Abschnitt). Granularität externer Repräsentationen Der Begriff Granularität wird in verschiedenen Forschungsfeldern wie Granular Computing, Cognitive Informatics, Pattern Classification und konzeptueller Modellierung diskutiert (vgl. Yao 2003). Granularität ist ein fundamentales Konzept meschlicher Kognition and bezieht sich auf die Konstruktion, die Interpretation und die Repräsentation von sogenannten Granules. Ein Granule ist eine Ansammlung von Punkten (oder Objekten), die aufgrund von schwieriger Unterscheidbarkeit, Ähnlichkeit, Nähe oder gleicher Funktionalität zusammentragen wurden (Zadeh 1997). Granules sind das Ergebnis eines Granulationsprozesses. Dies ist ein Prozess, welcher ein „Universum“ (ein wahrgenommener Gegenstandsbereich) in Untermengen einteilt bzw. durch die Gruppierung von individuellen Objekten ein Clustering herbeiführt. Granules können als Untermengen eines Universums betrachtet werden, das entweder „fuzzy“ oder „crisp“ ist (vgl. dazu Yao 2003, 2004). Wenn der Granulationsprozess erfolgt ist, müssen die entstandenen Granules bezeichnet werden. Dies geschieht durch Klassifikation, d.h. Namen werden zu Granules zugeordnet so dass ein Granule eine Instanz einer spezifisch bezeichneten Kategorie darstellt. Die Partitionierung eines Universums 𝑈 ist eine Sammlung von nichtleeren und paarweise disjunkten Untermengen von 𝑈 , deren Vereinigung 𝑈 ist. Jede Untermenge in einer Partition wird auch als Block bezeichnet. In der granulierten Sicht sind Partitionen, als die Elemente einer Partitionierung von 𝑈 , die grundlegenen Bausteine und werden auch als die elementaren Granules bezeichnet. Diese sind die kleinsten nichtleeren Untermengen, die definiert, beobachtet bzw. gemessen werden können. Aus elementaren Granules können durch Vereinigung größere Granules konstruiert werden (Yao 2003). Da Partitionen nichtleer sind, haben sie eine Kardinalität von ≥ 1. Die Teile oder Blöcke einer Partition sind zählbar, aber nicht erfassbar, weil sie nicht differenziert werden können. Wenn man das Konzept der Granularität auf den Be- 131 U U π1 π2 Elementary granules in the respective partition Abbildung 4.9.: Zwei alternative Partitionen eines Universums 𝑈 reich der Enterprise Systems und deren Design und Management überträgt, dann besteht das Universum 𝑈 aus dem gesamten Unternehmen inklusive seiner Geschäftsprozesse, Datenstrukturen, Mitarbeiter und aller anderen Artefakte, die für die strategischen und operativen Tätigkeiten benötigt werden. Dies ist in der Regel eine Perspektive, die von einem Enterprise Designer oder Enterprise-Architekten eingenommen wird. Wenn Beziehungen zu anderen Unternehmen aufgebaut werden, dann vergrößert sich entsprechend der Blickwinkel und schließt auch all diese zusätzlichen Artefakte mit ein – das Universum vergrößert sich. Zur Vereinfachung werden Busines-to-Business-Verbindungen nicht in die Betrachtung mit einbezogen. Im Enterprise-Kontext entsprechen die verschiedenen Partitionen des Universums den unterschiedlichen Blickwinkeln, die Enterprise-Gestalter in der Organisation einnehmen können. Die Strukturierung des gesamten Unternehmens in grobe Service-Domänen kann beispielsweise als grob-granulare Partition angesehen werden. Im Gegensatz dazu wäre die Abbildung eines End-to-End-Geschäftsprozesses mit all seinen Datenstrukturen eine fein-granulare Partition. Eine konzeptuelle Visualisierung von verschiedenen Granularitäten unterschiedlicher Partitionen ist in Abbildung 4.9 gezeigt. Die Granularität unterschiedlicher Partitionen ist ein wichtiges Charakteristikum in Design-Aufgaben, die auf unterschiedlichen Granularitätsebenen angesiedelt sind, da sie einen Effekt darauf hat, wie Gestaltungsaufgaben geplant und entwickelt werden und wie effizient verfügbare Artefakte wiederverwendet werden können. 132 π1 A B A2 A1 A3 A4 |A2|=8 |A1|=1 |A3|=7 |A4|=1 b a h k c e f i l g d |U|=17 π2 α β A1 A2 γ A3 δ A4 ε A5 A6 A7 |A2|=1 |A1|=1 |A4|=2 |A3|=5 |A5|=1 |A6|=6 b a |A7|=1 h k c e f i l g d |U|=17 Abbildung 4.10.: Zwei alternative Partitionierungen eines atomaren Prozessmodells: grob (oben) und fein (unten) Granularitätsmetrik Um das Granularitätskonzept als Faktor in wiederverwendungsorientierten Designaufgaben untersuchen zu können, muss ein quantitatives Maß zugeordnet werden. Als Basis für eine Granularitätsmetrik einer bestimmten Partition kann die Shannon-Entropie herangezogen werden (Yao 2003; Shannon u. Weaver 1963). Für eine Partition 𝜋 = 𝐴1 , 𝐴2 , . . . , 𝐴𝑚 ist die Wahrscheinlichkeitsverteilung ( 𝑃𝜋 = ∣𝐴1 ∣ ∣𝐴2 ∣ ∣𝐴𝑚 ∣ , ,..., ∣𝑈 ∣ ∣𝑈 ∣ ∣𝑈 ∣ 133 ) (4.1) wobei ∣ ⋅ ∣ die Kardinalität einer Menge bezeichnet. Diese Verteilung gibt an, mit welcher Wahrscheinlichkeit die einzelnen Partitionsblöcke 𝐴𝑖 eines Modells auftreten bzw. zum Einsatz kommen, wenn dieses Modell verwendet wird. Grobe Blöcke, d.h. Granules, die viele Elemente umfassen (also großes ∣𝐴𝑖 ∣/∣𝑈 ∣) weisen eine höhere Wahrscheinlichkeit auf, dass es zum „Einsatzfall“ kommt, da das Granule für viele potenzielle Informationsentitäten relevant sein wird. Dies lässt sich auch für grobgranulare Aktivitäten eines Prozessmodells einsehen, die – bei adaptiver Wiederverwendung – eine größere Menge an relevanten Subaktivitäten abdecken würden (vgl. Modularität im Unterabschnitt weiter oben). Über die Wahrscheinlichkeit lässt sich also die höhere Informationsdichte in gröber granularen (bzw. die geringere Informationsdichte in feiner granularen) Modellen abbilden. Um für eine spezifische Partitionierung einer betrachteten Domäne (= Universum) in Bezug auf Prozessmodelle (also ein Prozessmodell einer spezifischen Abstraktion) einen Granularitätswert zu erhalten, müssen die Werte der Wahrscheinlichkeitsverteilung 𝑃𝜋 in einen repräsentierenden Wert überführt werden. Dies leistet die ShannonEntropiefunktion. Die Shannon-Entropiefunktion der Wahrscheinlichkeitsverteilung ist definiert als 𝐻(𝜋) = 𝐻(𝑃𝜋 ) = − 𝑚 ∑ ∣𝐴𝑖 ∣ 𝑖=1 ∣𝑈 ∣ log ∣𝐴𝑖 ∣ ∣𝑈 ∣ (4.2) Dabei ergibt sich für die gröbste Partitionierung 𝑈 ein maximaler Entropiewert von 𝐻(𝜋) = −𝑙𝑜𝑔1 = 0 und für die feinste Partitionierung (atomare Partition) ein Wert von 𝐻(𝜋), der gegen −𝑙𝑜𝑔0, also gegen unendlich geht. Nach Yao (2003) kann die folgende, leicht von 𝐻 abgewandelte Funktion 𝐺 als Maß für die Granularität einer Partition 𝜋 verwendet werden, um besonders feingranularen Modellen möglichst niedrige Werte und grobgranularen Modellen hohe Werte zuzuordnen: 𝐺(𝜋) = 𝑚 ∑ ∣𝐴𝑖 ∣ 𝑖=1 ∣𝑈 ∣ log ∣𝐴𝑖 ∣ (4.3) Aufbauend auf der Entropiefunktion, bei welcher für zwei Partitionen 𝜋1 und 𝜋2 die Relation 𝜋1 ≻ 𝜋2 gilt, d.h. 𝜋1 ist grobgranularer als 𝜋2 bzw. 𝜋2 ist eine Verfeinerung von 𝜋1 (siehe Abb. 4.9), ergibt sich die Relation 𝐺(𝜋1 ) ≥ 𝐺(𝜋2 ). Die gröbste Partition {𝑈 } hat den maximalen Granularitätswert log ∣𝑈 ∣, die feinste Partition {{𝑥} ∣𝑥 ∈ ∣𝑈 ∣} hat den minimalen Granularitätswert 0. Die Metrik 𝐺 kann genutzt werden, um verschiedene Wiederverwendungsartefakte in Modellierungsaufgaben ihrer Granularität nach zu unterscheiden. Ein Beispiel für unterschiedlich granulare Prozessmodelle nach dieser Definition ist in Abbildung 4.10 gegeben. In Bezug auf die Möglichkeit vieler verschiedener Partionierungsmöglichkeiten soll hier aber auf einen wichtigen Aspekt hingewiesen werden. Da die Granularitätsmetrik ein 134 zusammenfassendes Maß einer granulierten Partition ist, gehen Informationen über die Granulationsdetails verloren. D.h. es sind zwei Partitionen gleicher Granularität vorstellbar, die sich in der spezifischen Granulation stark unterscheiden können. Es könnte z.B. in beiden Partitionen jeweils Bereiche geben, die fein und grob granuliert sind, aber die Verteilung dieser Bereiche könnte vollständig entgegengesetzt gelagert sein. Da die konkrete Partition einen entscheidenden Einfluss auf die Ergonomie eines Modells haben kann, muss in Untersuchungen das Charakteristikum Granularität enger gefasst werden in dem Sinne, dass zusätzlich eine spezifische Partition der Granularität zugeordnet sein muss. Knüpft man die Granularität nicht an eine spezifische Partition, so werden sich verallgemeinernde Aussagen über die Granularität bezüglich ihres Effekts auf die Designperformance kaum treffen lassen. Denn die reine Betrachtung der Granularität als Einflussfaktor könnte die Erwartung entstehen lassen, dass in einem weiteren Anwendungsfall die Nutzung eines wiederverwendbaren Artefakts gleicher Granularität zu einem ähnlichen Performanceeffekt führen könnte. Dies ist aber angesichts der möglichen unterschiedlich partionierten Artefakte – die gleiche Granularität besitzen – eine falsche Erwartungshaltung. Die Einflüsse, welche durch die konkrete Partition ausgeübt werden weisen einen eigenen zusätzlichen Charakter auf im Vergleich zur Granularitätsmetrik, welche für verschiedene Partitionen gleich ausgeprägt sein kann. Theoretisch kann dies mit dem Einfluss auf Performanzgrößen von Layout-bezogenen Merkmalen (vgl. Strukturiertheit in Mendling u. a. (2010a)) und insbesondere von der unterschiedlichen Ausprägung von Konstrukten entlang des zeitlichen Ablaufs begründet werden, welche in Partitionen gleicher Granularität sehr unterschiedlich ausgeprägt sein können. Bestimmung der Granularität der Wiederverwendungsmodelle Die oben definierten Konzepte der Granularität von Partitionen werden nun auf Prozessmodelle angewandt, um deren Granularitäten zu ermitteln bzw. festzulegen. Mit Blick auf die Untersuchung, welche die Granularität von wiederzuverwendenden Prozessmodellen fokussiert, ist dieser Ermittlungsansatz analog anzuwenden. Ein wichtiger Faktor in der Granularitätsbestimmung für eine spezifische Partition ist die Kardinalität des „Universums“, d.h. des Problembereichs der Aufgabe oder auch Scope des zu formulierenden Prozessmodells. Diese stellt die Referenz dar, zu der höhere oder niedrigere Granularitäten von Partitionen des Universums in Beziehung gesetzt werden können. Das Universum (oder auch Diskursbereich) stellt sich oft primär durch betrieblich relevante Texte (oder auch Dialog Documents 70 ) dar, der Modellierern zur Verfügung gestellt wird71 . Im Text sind sowohl Informationen über den Ist-Prozess, als auch weitergehende kontextuelle Informationen repräsentiert, u.a. welche Änderungen am Prozess im Hinblick auf eine Verbesserung von der Organisation gewünscht sind. Ein Text kann nicht die gleiche Menge an Informationen aussenden wie komplexere Arbeitssituationen 70 71 Vgl. hierzu Frederiks u. van der Weide (2006). In der betrieblichen Praxis sind die Informationsquellen und Medien, über die sich ein Geschäftsprozesskontext erschließen lässt, typischerweise vielfältiger. 135 in größeren Organisationen, in denen mehrere Kommunikationsbeziehungen bestehen zu sowohl menschlichen Akteuren als auch zu Informationssystemen, in der die Situation durch weitere Faktoren bestimmt sein kann durch soziale Machtverhältnisse, Vertrauen, technisches Wissen, Organisationshistorie u.v.m. Ein Aufgabentext für die Prozessmodellierung kann eine derart komplexe soziotechnische Arbeitssituation nur stellvertretend abbilden. Den Prozesstext als Ausgangspunkt für die Bestimmung der atomaren Granularität, d.h. ∣𝑈 ∣, zu nehmen, erscheint daher sinnvoll, da es sich um ein intersubjektiv wahrnehmbares Objekt der Aufgabenrepräsentation handelt. Für die Aufteilung des Aufgabentexts in seine atomaren Bestandteile sind Ansätze der Textanalyse heranzuziehen. Innerhalb der Textanalyse lassen sich zwei Typen der Analyse grob unterscheiden. Es gibt zum einen die Inhaltsanalyse oder auch qualitative Analyse und zum anderen die statistische Analyse. Letztere beschäftigt sich primär mit der Zählung von bestimmten Merkmalen innerhalb von Texten und ihrer mathematischen Transformation. Als einfachstes Verfahren sei hier nur die Aufführung von Frequenzen bestimmter Wörter genannt. Das Auftauchen bestimmter Textmerkmale und deren Zählung ist für die Kardinalitätsbestimmung insofern wichtig, als dass letztlich die Menge der atomaren Teile des Aufgabentexts ermittelt werden muss. Entscheidender ist jedoch, was genau im Text als einzelne, zählbare Einheit betrachtet werden soll und was nicht. Aus diesem Grund sind qualitative Analyseverfahren von primärer Bedeutung. Die texbasierte Inhaltsanalyse ist eine systematische, replizierbare Technik zur Kompression von mehreren Worten eines Textes in wenige inhaltliche Kategorien auf Basis von expliziten Regeln (Stemler 2001). Da der Kontext des Aufgabentexts die Beschreibung eines Geschäftsprozesses ist, wird der Fokus auf bestimmte prozessrelevante Textbestandteile und inhaltliche Kategorien gesetzt. Folgende inhaltliche Kategorien sind aufgrund des Prozesskontexts vorgegeben, in welche die Wörter des Prozesstextes eingeordnet werden: ∙ Akteure, Organisationseinheiten, Abteilungen ∙ Aktivitäten ∙ Datenobjekte ∙ Begriffe, die auf Sequenzialität (temporale Aspekte) hinweisen ∙ Ereignisse des Beginns und des Abschlusses und Ereignisse im Verlauf des Prozesses ∙ Verzweigungen, Zusammenführungen ∙ Restliche Begriffe Auf Basis dieser Kategorien kann für einen Geschäftsprozesstext die Kardinalität, also die Menge aller atomaren Bestandteile, die für die Prozessmodellierung relevant sind, bestimmt werden. Die Begriffskategorien können dann auf die Elemente in den wiederverwendbaren Prozessmodellen abgebildet werden. Dabei wird so vorgegangen, dass all jene Wörter, welche einen inhaltlichen Bezug zu dem jeweiligen Prozessmodellierungselement 136 haben, auch diesem zugeordnet werden. Die Prozesselemente stellen also Obermengen bestimmter Untermengen aus dem Aufgabentext, d.h. Wörter oder Begriffskomplexe, dar. Die Obermengen auf Ebene des Prozessmodells sind dabei nicht disjunkt, da Wörter des Textes durchaus mehreren Prozesselementen zugeordnet werden können. Dies entspricht nicht genau dem Granularitätskonzept aus Yao (2004), da dort nur von disjunkten Mengen die Rede ist. Da jedoch primär das Ziel verfolgt wird, die Granularitätsdifferenz zwischen zwei Modellen bezogen auf einen Aufgabentext deutlich aufzuzeigen, kann in diesem konkreten Fall die Forderung abgeschwächt und eine Mehrfachzuordnung von Wörtern zu Prozesselementen zugelassen werden72 . Ist dies erfolgt, kann mit Hilfe der Granularitätsformel aus Gleichung 4.3 die Granularität für die Wiederverwendungsmodelle bestimmt werden. 4.5. Hypothesen zu Wirkungen auf die Modellierungsperformanz Es werden die Überlegungen aus den vorangegangenen Abschnitten herangezogenen, um Hypothesen der Wirkungen bestimmter Faktoren auf Performanzgrößen der wiederverwendungsbasierten Prozessmodellierung abzuleiten. Der Hauptfokus des Untersuchungsinteresses liegt primär auf den erwarteten Schwankungen der Adaptionsperformanz bei der wiederverwendungsbasierten Prozessmodellierung, welche durch anzunehmende Wirkungen der Faktoren Prozessmodellgranularität und Anwendungsdomäne hervorgerufen werden. Hierdurch soll eine genauere Charakterisierung des adaptiven Verhaltens von wiederverwendenden Prozessmodellierern erreicht werden. Die vorzunehmenden Anpassungen (worüber sich die Adaptionsperformanz quantifizieren lässt) beziehen sich auf bestimmte Anker in den Wiederverwendungsprozessen, die in Relation zur Prozessmodellgranularität stehen. Durch die Vornahme bzw. das Versäumen von erforderlichen Anpassungen wird folglich auch die gesamte semantische Qualität des Lösungsmodells beeinflusst – aber nicht allein dadurch. Es ist möglich, dass andere Modifkationen vorgenommen werden, die sich nicht auf die geforderten Anpassungen beziehen, wodurch die semantische Qualität zusätzlich beeinflusst werden kann. Neben der Adaptionsperformanz ist daher auch die finale Lösungsqualität zu beobachten, um unerwartete Effekte bzgl. des komplettierten Prozessmodells nicht zu übersehen. Der Abschnitt ist im Folgenden gegliedert in 1) Effekte, die sich auf Adaptionsperformanz beziehen und 2) Effekte, welche sich u.U. auf die semantische Qualität der Prozesmodelllösungen auswirken. 4.5.1. Wirkung auf Adaptionsperformanz Haupteffekt der Granularität Übertragen auf den Kontext der Geschäftsprozessmodellierung unter Wiederverwendung postuliert die kognitive Verzerrung des Anchoring und 72 Für einen interessanten Ansatz der WordNet-basierten Aggregation von feinen Aktivitäten zu gröberen Aktivitäten siehe auch Smirnov u. a. (2010a). 137 Adjustment Bias, dass sich Prozessmodellierer während der Wiederverwendung eines Prozessmodells an den im Wiederverwendungsmodell vorliegenden Anchors orientieren und in nicht ausreichendem Maße die notwendigen Änderungen vornehmen, um das wiederverwendete Prozessmodell an die neuen Geschäftsprozessanforderungen anzupassen. Es wird vorausgeschickt, dass in jedem Fall von wiederverwendeten Prozessmodellen, an denen eine bestimmte Anzahl an Anpassungen vorgenommen werden muss, um zur Lösung zu gelangen, mit Ankereffekten zu rechnen ist. Obwohl diese Annahme für diesen konkreten Kontext hypothetisch ist und zu überprüfen wäre, wird sie hier zugrunde gelegt anknüpfend an die Beobachtungen aus der Studie von Parsons u. Saunders (2004). Dort wurden deutliche Ankereffekte bei der Wiederverwendung eines ER-Diagramms beobachtet. Für die Wiederverwendung eines graphischen Prozessmodells in einer dazu komplexeren Modellierungsaufgabe (als der in Parsons u. Saunders’ Untersuchungsdesign), kann daher ein ähnlich starker, wenn nicht stärkerer Ankereffekt angenommen werden. Es existieren Hinweise darauf, dass die Anpassung von verschiedenen Anchortypen Modellierern unterschiedliche Schwierigkeiten bereitet, welche sich in der Modellierungsperformanz niederschlagen. Dies ist zunächst nicht direkt einleuchtend, da verschiedene Anchors zwar jeweils eine entsprechende Anpassungsoperation verlangen, diese Anpassungsoperationen aber nicht zwingend unterschiedlich hohe Aufwände erfordern müssen. Betrachtet man beispielsweise ein wiederverwendbares Prozessmodell, das einmal mit einem Extraneous-Anchor versehen ist und einmal mit einem Omission-Anchor, so wären die entsprechenden Anpassungsoperationen die Entfernung des Elements bzw. die Einfügung eines fehlenden Elements nach Maßgabe der Anforderungen der Modellierungsaufgabe. Beiden Situationen geht die vergleichende Betrachtung der Modellierungsaufgabe und des Wiederverwendungsmodells voraus, wobei im Fall des Wiederverwendungsmodells mit Extraneous-Anchor die Handlung der Löschung eines Elements resultiert und im Fall des Wiederverwendungsmodells mit Omission-Anchor die Handlung der Einfügung des fehlenden Elements. Dass die vorgenommenen Vergleiche und die Ausführung der jeweiligen Anpassungsoperation besonders unterschiedliche kognitive Aufwände verursachen könnten, ist hier nicht offenkundig. In empirischen Arbeiten konnten jedoch Hinweise auf unterschiedliche kognitive Aufwände bei Anpassungen im Rahmen der Artefaktwiederverwendung – hervorgerufen durch unterschiedliche Anchortypen – beobachtet werden. In Parsons u. Saunders (2004) werden drei Anchortypen – Extraneous, Error und Omission73 – sowohl bei der Codewiederverwendung als auch bei der Designmodellwiederverwendung betrachtet. Die Untersuchung der Codewiederverwendung zeigt, dass die vorgenommenen Anpassungen von Omission- und Error-Anchors sich nicht signifikant von der Kontrollgruppe unterscheiden. Bezüglich der Anpassung von Extraneous-Anchors allerdings ist der Unterschied zwischen Treatment- und Kontrollgruppe signifikant. Da die Untersuchung darauf ausgelegt ist, zunächst allgemein das Anpassungsverhalten bezüglich Anchors in wiederverwendeten 73 Omissions (dt. Auslassungen) beziehen sich hier auf Entitäten, Attribute, Relationships und Hierachien, die im wiederverwendbaren ER-Diagramm nicht enthalten waren, welche aber in der Modellierungsaufgabe explizit gefordert wurden. Das wiederverwendete Modell musste entsprechend angepasst bzw. erweitert werden, um die Anforderungen zu erfüllen. 138 Modellen explorativ zu untersuchen, sind die Anchorverteilungen im wiederverwendbaren Code nicht explizit für einen Vergleich von Anchortypen gestaltet. Während nur ein einziger Omission-Anchor im Wiederverwendungscode untergebracht ist, beträgt die Anzahl der Extraneous- bzw. Error-Anchors mehr als doppelt so viel, was bedeutet, dass die Probanden Extraneous- und Error-Anchors stärker exponiert sind, als Omission-Anchors. Trotz der mangelnden Vergleichbarkeit der Anchortypanpassungen aufgrund der ungleich verteilten Anchors deutet das signifikante Anchoring der Extraneous-Elemente darauf hin, dass diese Art der Adaption Teilnehmern stärkere Schwierigkeiten bereitet. Auch die Untersuchung der Wiederverwendung eines Designmodells zeigt, dass der Anchoring-Effekt in Bezug auf Extraneous-Elemente signifikant ist (Parsons u. Saunders 2004). Der Anchoring-Effekt ist zwar auch bei den anderen Anchortypen zu beobachten. Bei den Extraneous-Anchors ist er allerdings stärker ausgeprägt. Dies deutet darauf hin, dass auch bei der Wiederverwendung von Diagrammen (bei Parsons u. Saunders ist es ein ER-Modell) Anchoring-Effekte bei verschiedenen Anchortypen unterschiedlich stark auftreten. Auch in der Untersuchung von Allen u. Parsons (2010) wird auf die Möglichkeit unterschiedlicher Schwierigkeitsgrade bei der Anpassung von verschiedenen Anchors hingewiesen. Die Untersuchung betrachtet allerdings SQL-Anweisungen, die in der Formulierung von neuen Abfragen wiederverwendet werden. SQL-Anweisungen sind grundsätzlich auch IT-Artefakte, weisen jedoch hinsichtlich der sprachlichen Ausdrücke und der visuellen Repräsentation deutliche Unterschiede zu Prozessmodellen auf. Aus diesem Grund sind die Ergebnisse der Studie von Allen u. Parsons nur eingeschränkt auf den Kontext der Prozessmodellwiederverwendung zu übertragen. Auch die Differenzierung der betrachteten Anchors ist nicht die gleiche wie in der Studie von Parsons u. Saunders, denn es wird in erster Linie zwischen sogenannten „surfacestructure“- und „deep-structure“-Anchors unterschieden (die beide entweder entfernt, hinzugefügt oder abgeändert werden können). „Surface-structure“-Anchors sind erforderliche Anpassungen, die relativ einfache Änderungen umfassen, wie z.B. die Einschränkung eines Operanden oder die Änderung einer aggregierenden Funktion. Für diese Anpassungen ist es nicht notwendig, die Ausdrücke der Informationsanfrage mit dem Datenbankschema in Verbindung zu bringen. Bei „Deep-structure“-Anchors ist es dagegen erforderlich, dieses Verständnis der Zusammenhänge zwischen den Ausdrücken der Informationsanfrage und dem Datenbankschema zu entwickeln. Und dieses Verständnis ist besonders abhängig vom Vorliegen einer internen, syntax-neutralen Datenanweisung, deren Aufbau initialen Aufwand bedeutet. Ein Beispiel für einen „Deep-structure“-Anchor ist die Anpassung eines JOIN-Ausdrucks (Allen u. Parsons 2010, S. 63). Obwohl der Fokus der Betrachtung bei Allen u. Parsons (2010) nicht auf der Unterscheidung zwischen Anchors liegt, die unterschiedliche Anpassungsoperationen wie das Entfernen und das Hinzufügen implizieren, ist der Beitrag dennoch fruchtbar. Ihre Betrachtung zeigt die Notwendigkeit auf, die „Tiefe“ von Extraneous- und Omission-Anchors näher zu qualifizieren, um dieses Merkmal als zusätzliche Ursache einer schwierigeren 139 Anpassung im Rahmen eines Anchor-Vergleichs weitestgehend auszuschließen. Die inhaltliche Tiefe der Anchors (ob Extraneous oder Omission) sollte in einer Untersuchung stabil gehalten und kontrolliert werden, ansonsten hätte die Untersuchung einen Bias in Richtung des „tiefer“ gelegenen – also auch schwieriger anpassbaren – Anchors. Werden die oben diskutierten Untersuchungen gemeinsam im Kontext der wiederverwendungsbasierten Prozessmodellanpassung betrachtet, so kann für umfangreichere Modelle vermutet werden, dass die Anpassung von Extraneous-Anchors schwieriger ist, als die Anpassung von Omission-Anchors. Durch die schwierigere Identifikation und Modifikation erscheint es daher wahrscheinlich, dass weniger Extraneous-Anchors korrekt angepasst werden, als dies sich bei der Adaption von Omission-Anchors zeigt. Wenn man den Zusammenhang zwischen der Granularität und dem Vorliegen bestimmter Ankertypen heranzieht (siehe Abschnitt 4.3), dann kann analog die Erwartung aufgestellt werden, dass die Anpassung von feingranularen Wiederverwendungsmodellen (die vorwiegend Extraneous-Anchors beinhalten) für Prozessmodellierer schwieriger ist, als die Anpassung von grobgranularen Wiedeverwendungsmodellen (die vorwiegend OmissionAnchors beinhalten). Der Grund für die größeren Schwierigkeiten wird zum einen in einer aufwändigeren Suche bei der Identifikation der überflüssigen Informationselemente gesehen. Zum anderen ist es aus kognitiv-ergonomischer Sicht vermutlich hilfreich, auf bestimmte Cues im grobgranularen Wiederverwendungsmodell zurückgreifen zu können, die Modellierern sowohl die Identifikation aber auch die entsprechende Modifikation (durch Assoziation mit bestehenden mentalen Repräsentationen) erleichtern. Diese Annahme wird durch Ergebnisse aus dem Bereich der Neurophysiologie gestützt, die nahelegen, dass kognitive Anpassungsoperationen innerhalb unterschiedlich ausgeprägter mentaler Skalen den Untersuchungsteilnehmern verschieden hohe Schwierigkeiten bereiten (Qu u. a. 2008). Es wird daher die Erwartung abgeleitet, dass die Anpassung (Entfernung) von Extraneous-Anchors einen höheren kognitiven Aufwand bedeutet, als die Anpassung (Einfügung) von Omission-Anchors. Diese Erwartung ist in theoretischer Hinsicht jedoch nur schwach gestützt und speist sich vornehmlich durch die eingeschränkten empirischen Ergebnisse der Parsons u. Saundersschen Studie. Ein solideres Fundament zur theoretischen Erklärung der Adaptionsperformanzschwankungen bei unterschiedlich granularen Wiederverwendungsmodellen bilden die zuvor dargestellten kognitionsbasierten Theorien der Dual Coding Theory (DCT) und Cognitive Load Theory (CLT). Nach der DCT steigt die Verständlichkeit, wenn Informationen über beide Kanäle – auditorisch und visuell – präsentiert werden. Bei Prozessmodellen ist dies der typische Fall. Prozessmodelle bestehen sowohl aus graphischen Konstrukten wie z.B. Kästen und Pfeilen als auch aus verbalen Annotationen. Letztere tragen vor allem innerhalb von Kästen als spezifische Beschreibung der jeweiligen Aktivität zur genaueren Information bei. Die Prozessmodellierung stellt somit bereits eine Umsetzung des Multimedia Principle dar. Wird die Granularität von Prozessmodellen zusätzlich betrachtet, so dass Prozessmodelle auf unterschiedlichen Granularitätsebenen entstehen, so bleibt das Multimedia Principle unverletzt, da sowohl im grobgranularen wie im feingranularen Fall graphische und verbale Konstrukte eingesetzt werden. Die 140 Zweikanaligkeit von wiederverwendbaren Prozessmodellen bleibt also von Variationen der Granularität unberührt. Ein erwarteter Effekt auf die Adaptionsperformanz kann demnach nicht mit einer Änderung der Zweikanaligkeit (z.B. auf nur einen oder mehr als zwei) erklärt werden. Eine andere Erklärungsmöglichkeit ergibt sich über die Begrenzung der Kanalkapazität. Wenn diese Grenze erreicht wird, dann ist mit einem negativen Effekt auf die Verständlichkeit zu rechnen. Der menschliche Arbeitsspeicher kann nur eine begrenzte Zahl an Informationseinheiten halten, um sie dann auf Passgenauigkeit zu prüfen. Übersteigt die Zahl zu erfassender Elemente diesen Speicher, so kommt es zu Verzögerungen der Erfassung und damit nicht zum Aufbau benötigter mentaler Repräsentationen, da nicht alle Informationselemente gleichzeitig erfasst werden können. Das erschwerte Erfassen und damit auch Verstehen eines vorliegenden Prozessmodells mit der kanalkapazitätsübersteigenden Menge an Informationselementen wird sich auch erschwerend auf die adaptive Aktivität auswirken. Diese Aktivität besteht aus dem Vergleich zwischen Anforderungen und Elementen des Wiederverwendungsmodells und der anschließenden Durchführung einer Änderung basierend auf dem Vergleichsergebnis. Die zu hohe Zahl an Informationselementen, die zur erschwerten Verständlichkeit führt, erfordert eine entsprechend hohe Zahl an durchzuführenden Vergleichen zwischen den Anforderungen und der hohen Anzahl potenziell beizubehaltender Elemente des Wiederverwendungsmodells. Da eine parallele Durchführung der Vergleiche aufgrund der beschränkten Kanalkapazitäten nicht möglich ist und eine effiziente sequenzielle Durchführung der Vergleiche ebenfalls komplex ist – verbale Anforderungen müssen mit räumlich angeordneten Symbolen assoziiert werden und bereits durchgeführte Vergleiche müssen „gemerkt“ werden, was wiederum Arbeisspeicher beansprucht – wird die Performanz der Adaption des Wiederverwendungsmodells beeinträchtigt werden. Zu erwartende Effekte auf die Adaptionsperformanz, die mit unterschiedlichen Granularitäten der Wiederverwendungsmodelle einhergehen, lassen sich auf ähnliche Weise mit der CLT begründen. Auch hier wird eine Kapazitätsbeschränkung zugrunde gelegt, welche dem Arbeitsgedächtnis nur eine Belegung bestimmten Umfangs erlaubt, ohne dass es zu Verarbeitungsschwierigkeiten kommt. Grundsätzlich kann daher bei größeren Mengen an zu erfassenden und zu haltenden Informationselementen – wie dies bei feingranularen im Vergleich zu grobgranularen Wiederverwendungsmodellen der Fall ist – mit einer geringeren Adaptionsperformanz gerechnet werden. Über die reine Betrachtung der im Wiederverwendungsmodell vorliegenden Elementzahl hinaus kann der angenommene Performanzabfall im feingranularen Fall auch mit den differenzierten Ladungstypen intrinsic load, extraneous load und germane load begründet werden. Intrinsic load ist zunächst grundsätzlich für beide Fälle (fein- und grobgranular) gleich, da die Aufgabe lautet, den Geschäftsprozess zu modellieren. Die Geschäftsprozessbeschreibung ist für beide Fälle von gleichem Umfang und gleicher Komplexität. Die extraneous load ist durch die Wiederverwendungsmodelle gegeben, die für die Bearbeitung genutzt werden sollen. Diese Ladung hat durch die unterschiedlichen Granularitätsstufen jeweils einen anderen Charakter. Sie ist im feingranularen Fall aufgrund der größeren Anzahl an Elementen höher 141 als im grobgranularen Wiederverwendungsmodell. Da die Prozessmodellierung adaptiv erfolgt, hat die externe Präsentation der Wiederverwendungsmodelle auch eine Wirkung auf den Charakter der intrinsischen Last. Diese äußert sich nicht über den reinen Umfang der notwendigen Anpassungen, sondern über den Typ der jeweiligen Anpassungsoperation. Dies lässt sich am konkreten Vorgehen eines Modellierers zeigen. Um festzustellen, inwieweit die Anforderungen an den Sollprozess vom wiederverwendbaren Modell abgedeckt werden, werden Vergleiche vorgenommen und Korrespondenzen zwischen jeweiliger Prozessanforderung und Inhalt der Lösungschätzung aufgestellt (zu Korrespondenzen siehe Küster u. a. (2006, S. 40-41)). Die Anzahl potenziell vorzunehmender Vergleiche ist – entsprechend der höheren Elementzahl – im Fall des feingranularen Modells höher, da sich die Vergleichsanzahl mit der steigenden Elementzahl im Wiederverwendungsmodell erhöht. Die Anzahl aufzustellender Korrespondenzen zwischen Prozessanforderungen und Wiederverwendungsmodellelementen ist dagegen nahezu gleich (wenn die Graph Edit Distance kontrolliert wird, vgl. Abschnitt 5.2.5 zu kontrollierten Variablen) – aber der Typ der Korrespondenzen unterscheidet sich. Während im grobgranularen Fall many-to-1-Korrespondenzen vorherrschen, dominieren im feingranularen Fall die 1-to-1- und 0-to-1-Korrespondenzen. Die Folge dieser Korrespondenzaufstellungen sind schließlich die notwendigen Anpassungsoperationen, die auf den Korrespondenzen basieren. Entsprechend des Korrespondenztyps kommt es zu unterschiedlichen Operationstypen. Im grobgranularen Fall muss es zu Einfügungen von Elementen kommen; im feingranularen Fall hingegen müssen Elemente aus dem Modell entfernt werden. Die obige Aufstellung von möglichen Informationseinheiten, welche das Arbeitsgedächtnis potenziell belegen – bei unterschiedlichen Granularitätsbedingungen – lässt zunächst darauf schließen, dass die kognitive Beanspruchung im feingranularen Fall größer sein müsste aufgrund der intensiveren Anforderungen an die Erfassung und potenziell mehr durchzuführender Vergleiche. Folgende gerichtete Unterschiedshypothese wird deswegen formuliert. Hypothese 1 (H1). Die Prozessmodellgranularität wirkt unabhängig von der Anwendungsdomäne unterschiedlich auf die Adaptionsperformanz. Die Entfernung von überflüssigen Informationselementen aus einem wiederverwendbaren Prozessmodell beansprucht mehr kognitive Kapazitäten als die Einfügung von ausgelassenen Elementen (der Anpassungsbias ist größer). Deswegen werden Prozessmodellierer ausgehend von einem grobgranularen Wiederverwendungsmodell mehr erforderliche Anpassungen korrekt vornehmen, als wenn Sie von einem feingranularen Wiederverwendungsmodell ausgehen. Kein Haupteffekt der Anwendungsdomäne Es wird als wichtig eingestuft, dass Prozessmodellierungsaufgaben aus der betrieblichen Praxis verwendet werden. In einigen Studien sind die Anwendungsdomänen in akademischen Kontexten angesiedelt und lassen sich nur mit einigem Aufwand in die betrieblichen Realitäten transferieren. Darüber hinaus ist die Anzahl an Arbeiten, die Phänomene des Modellierungsverhaltens in ver- 142 schiedenen Anwendungsdomänen komparativ betrachten gering. Effekte, die sich aus der semantischen Komplexität spezifischer Anwendungsdomänen ergeben könnten, dürfen daher nicht pauschal ausgeschlossen werden. Um dies zu tun, müssten zwei oder mehr Anwendungsdomänen betrachtet werden, um zu überprüfen, ob die Effekte ebenso in der einen wie in der anderen Anwendungsdomäne auftreten74 . Es wird angenommen, dass der Effekt der Prozessmodellgranularität robust ist gegenüber verschiedenen Anwendungskontexten. Daher wurde es als entscheidend erachtet, dass die Einbettung der Prozessmodellierungsaufgabe in unterschiedlichen Anwendungsumgebungen erfolgt, so dass die angenommene Robustheit der Effekte näher charakterisiert werden kann (vgl. Khatri u. a. 2006). Es wird davon ausgegangen, dass die Anwendungsdomäne – bei ansonsten kontrollierten Faktoren wie Anwendungsdomänenkenntnisse und Aufgabenkomplexität – keinen besonderen zusätzlichen Einfluss auf die Adaptionsperformanz hat. Die domänenspezifische Terminologie verschiedener Anwendungsbereiche könnte zwar zu unterschiedlichen Auffassungen unter Modellierern führen; der Effekt der Granularität (vgl. H1.) wird allerdings als so robust erachtet, dass diese Effekte nicht zum Tragen kommen. Es ist demnach nicht zu erwarten, dass die Unterschiede im Verhalten der Anchoranpassung bzw. Prozessmodellkonstruktion signifikant sind. Hypothese 2 (H2). Die Anwendungsdomäne, in der die Prozessmodellierungsaufgabe angesiedelt ist, hat keinen signifikanten Einfluss auf den Anteil durchgeführter geforderter Änderungen (d.h. auf den Anteil korrekt angepasster Anchors). Kein Interaktionseffekt Es sind keine Interaktionseffekte zwischen dem Faktor der Wiederverwendungsmodellgranularität und der Anwendungsdomäne zu erwarten, die sich in Unterschieden der Anpassungsperformanz ausdrücken würden. D.h. es ist keine differenzielle Wirkung der Prozessmodellganularität zu erwarten, z.B. von der Art, dass in der Anwendungsdomäne Energie durch die Granularitätsstufe Gcoarse eine stärkere adaptive Reaktion hervorgerufen wird, als in der Anwendungsdomäne Telekommunikation, dass aber für die Granularitätsstufe Gfine keine anwendungsdomänenspezifischen Wirkunterschiede nachweisbar sind (A × B). Diese Annahme wird in folgender Hypothese festgehalten: Hypothese 3 (H3). Es gibt keinen beobachtbaren Interaktionseffekt zwischen den Faktoren Prozessmodellgranularität und Anwendungsdomäne bzgl. der Adaptionsperformanz im Zuge der Prozessmodellkonstruktion. 74 Für eine Diskussion der Relevanz von Anwendungsdomänenkenntnissen im Rahmen von Prozessmodellwiederverwendungsaufgaben siehe Abschnitt 3.2.2 und darin den Unterabschnitt „Anwendungsdomänenwissen“. 143 4.5.2. Wirkung auf semantische Qualität Haupteffekt der Granularität Es wird angenommen, dass es auch bzgl. der semantischen Gesamtqualität der Lösungsmodelle zu einem signifikanten Unterschied kommt, in Abhängigkeit von der Granularität (bzw. notwendigen Anpassungsoperationen) des Wiederverwendungsmodells (vgl. H1.). Auch hier wird von der Richtung ausgegangen, dass es im feingranularen Fall (also mehr notwendige Entfernungen) zu einem schlechteren Endergebnis kommt, als im grobgranularen Fall. Die theoretische Möglichkeit ist gegeben, dass im grobgranularen Fall über die platzierten Anker hinaus Modifikationen vorgenommen werden, welche die semantische Qualität negativ verändern. Es werden jedoch keine direkt einsehbaren Gründe gesehen, warum diese qualitätssenkenden Anpassungoperationen gerade im grobgranularen Wiederverwendungsmodell vorgenommen werden sollten bzw. warum diese negativen Operationen häufiger als im feingranularen Fall durchgeführt werden sollten, wo die gleiche Möglichkeit besteht. Die inkorrekt vorgenommenen Anpassungen von Anchors haben einen Einfluss auf die semantische Qualität eines Ergebnismodells. Während versäumte Anpassungen der Anchors Omission und Error klare Implikationen für die Korrektheit von Lösungsmodellen haben wird dies bei Extraneous-Anchors in der Literatur differenzierter betrachtet. Es komme hier darauf an, inwieweit die überflüssigen Informationselemente den Aufgabenanforderungen widersprechen und wie spätere Anwender diese Informationselemente im konkreten Kontext bewerten (Parsons u. Saunders 2004, S. 875-876). Für die Untersuchungsfrage wird hier eine strengere Haltung bezüglich der Qualitätseinbußen ausgehend von verpassten Extraneous-Anchor-Anpassungen eingenommen. Diese irrelevanten Informationen in Lösungsmodellen verletzen den Modellierungsgrundsatz der Sparsamkeit (engl. parsimony) (Becker u. a. 2000) und erlegen den Prozessmodellierern zusätzliche kognitive Belastungen auf (Sweller 1988). Deswegen wird hier bei der Übernahme von Extraneous-Anchors in Lösungsmodelle von einer Beeinträchtigung der semantischen Qualität ausgegangen. Die zuvor diskutierten und hier weiter fokussierten Anchors Extraneous und Omission sind aber nicht die einzigen Modellelemente in einem Wiederverwendungsmodell, an denen Anpassungen vorgenommen werden können. Theoretisch ist eine Wiederverwendungssituation denkbar, bei der in einem grobgranularen Wiederverwendungsmodell mit Omission-Anchors eine vorwiegend gute Anpassungsperformanz geleistet wird (d.h. die semantische Qualität wird kaum beeinträchtigt) relativ zur Adaptionsperformanz in einer Wiederverwendungssituation mit Extraneous-Anchors. Im Fall mit den OmissionAnchors könnten aber andere Informationselemente im Wiederverwendungsmodell bzw. Informationen aus den Aufgabenanforderungen kognitive Einflussfaktoren darstellen, die zur Erstellung eines Lösungsmodells mit qualitativen Defiziten führen. Diese Anpassungen können kleinere Erweiterungen oder Änderungen an wenigen Informationselementen des Modells sein, die kaum die wesentliche Validität und Vollständigkeit des Modell beeinträchtigen. Es könnte aber auch zu falschen Anpassungen kommen, deren Auswirkung die Validität und Vollständigkeit des Ergebnismodells gravierend reduzieren würde. 144 Theoretisch könnte daher ein Prozessmodellierer bezüglich der Anchors sehr viele korrekte Anpassungen vornehmen, aber gleichzeitig auch eine Menge an falschen Änderungen durchführen75 . Diese falschen Änderungen könnten in einem Mengenbereich liegen, der so hoch ist und deren Fehlerhaftigkeit so gravierend ist, dass die gute Performanz bezüglich der korrekten Anchor-Anpassungen überkompensiert wird und damit die Gesamtqualität des Ergebnismodells leidet (vgl. Abschnitt 2.2.3). D.h. trotz einer guten Anpassungsperformanz könnte dennoch ein insgesamt schlechteres Ergebnismodell entstehen (aufgrund anderer Einflüsse). Um diesen Fall zu berücksichtigen, soll nicht nur die Anpassungperformanz bezüglich spezifischer Anchors betrachtet werden, sondern auch die gesamte semantische Ergebnisqualität des jeweils erstellten Lösungsmodells. Wenn die gleichen Aufgabenanforderungen für eine Prozesserstellung unter Wiederverwendung gestellt werden, dann ist zu erwarten, dass das Lösungsmodell unter Anpassung von Extraneous-Anchors nicht nur hinsichtlich der Adaptionsperformanz schlechter abschneidet, sondern dass auch die gesamte semantische Qualität niedriger sein wird. Die theoretische Begründung des zu erwartenden Performanzabfalls der semantische Qualität ist analog zu den Begründungen des Adaptionsperformanzabfalls auf Grundlage der kognitionsbasierten Theorien in H1 zu sehen. Ein weiterer Grund für diese Ableitung liegt darin, dass neben den betrachteten Anchors keine anderen auffälligen Anchors oder besonderen Repräsentationen in den Wiederverwendungsmodellen enthalten sind, so dass kein Grund zur Annahme besteht, dass neben den Auswirkungen der Ankerund Anpassungsheuristik andere Effekte signifikant zur Entfaltung kommen, welche die grundlegende Tendenz der vermuteten Qualitätsunterschiede kompensieren oder sogar umkehren könnten. Die Wahrscheinlichkeit dafür, dass ein solches Modellierungsverhalten auftritt, wird allerdings als gering eingestuft. Eher wird davon ausgegangen, dass die Abweichungen in den Wiederverwendungsmodellen auf Basis von Extraneous- bzw. Omission-Anchors die primäre Quelle für Anchoring-Effekte und damit potenzielle Qualitätsbeinträchtigungen darstellen. Es ist somit nicht zu erwarten, dass die semantische Gesamtqualität der Modellierungsergebnisse von der Tendenz resultierend aus den Qualitätseinbußen des Anchorings deutlich abweichen wird. Daher ist auch bezüglich der Gesamtqualität im Falle der Wiederverwendung eines grobgranularen Prozessmodells mit einem besseren Ergebnis zu rechnen im Vergleich mit der Wiederverwendung eines feingranularen Prozessmodells. Es wird daher folgende gerichtete Unterschiedshypothese formuliert. Hypothese 4 (H4). Die Entfernung von überflüssigen Informationselementen im Zuge der Anpassung ausgehend von einem feingranularen Wiederverwendungsmodell und die damit einhergehenden kognitiven Aufwände führen auch dazu, dass die Ergebnismodellqualität insgesamt niedriger ist, als bei der Anpassung ausgehend von einem grobgranularen Wiederverwendungsmodell. 75 Um mögliche Verzerrungen aufgrund von schwankenden Mengenverhältnissen zu vermeiden, sollten die abhängigen Variablen relativ gemessen werden. 145 Für die Ergebnisqualität wird angenommen, dass sie in Abhängigkeit von der Granularität des wiederverwendbaren Prozessmodells einen Verlauf wie ein inverses U hat. Obwohl tendenziell von Vorteilen hinsichtlich des Modellierungsergebnisses bei der Wiederverwendung von eher grobgranularen Prozessmodellen ausgegangen wird, ist eine kontinuierliche Verbesserung der Ergebnisqualität bei zunehmend gröber werdender Prozessmodellgranularität nicht zu erwarten. Viel eher ist mit einem Abfallen der Qualität des Modellierungsergebnisses zu rechnen. Ein Hinweis auf die Existenz solch eines Abbruchpunkts bzw. -bereichs bezüglich der Granularität des Wiederverwendungsmodells – dort wo die Ergebnisqualität ihre maximalen Werte erreicht – kann zunächst dadurch gewonnen werden, wenn für den Fall der extrem vergröberten oder maximalen Granularität des Wiederverwendungsmodells gezeigt wird, dass in dieser Situation die Ergebnisqualität deutlich unter dem Wert liegt, der mit einem wiederverwendeten Prozessmodell etwas feinerer Granularität erzielt werde würde. Zwischen beiden ermittelten Punkten wird es einen Bereich geben, in dem die Modellergebnisqualität ihren Höhepunkt erreicht und dann entsprechend abfällt (ohne hier den genauen Verlauf näher charakterisieren zu können). Auch dieser erwartete Effekt kann mit den Arbeitsspeicherbeschränkungen der Cognitive Load Theory begründet werden. Ab einer bestimmten Menge an zu erfassenden Elementen in feingranularen Prozessmodellen, nimmt die Schwierigkeit des effizienten Vergleichens und Anpassens zu (vgl. Begründung in H1), so dass es zu Beeinträchtigungen der Performanz kommt, was sich letztlich in einer schlechteren Qualität des Prozessmodellergebnis äußert. Ist die Granularität des Wiederverwendungsmodells allerdings so grob, dass kaum Elemente zur Wiederverwendung zur Verfügung stehen, dann verlagert sich die Suche und der Vergleich (dann mit mentalen Repräsentationen) in den Aufgabentext. Auch hier wird der Arbeitsspeicher mit potenziell vielen verbalen Informationen belegt, die einerseits umfangreich und andererseits noch nicht in graphische Symbole der Prozessmodellierungssprache übertragen worden sind. Dies stellt kapazitätsmäßig eine größere Herausforderung dar, als wenn zumindest einige Modellierungselemente aus einem Wiederverwendungsmodell wiederverwendet werden könnten. Zusammen mit der qualitätsbezogenen Hypothese 2 ist daher ein bestimmter, grober Verlauf der Ergebnisqualität in Abhängigkeit von der Wiederverwendungsmodellgranularität zu vermuten, der in folgender Hypothese festgehalten wird: Hypothese 4.1 (H4.1). Es ergibt sich eine inverse U-Form für die Ergebnismodellqualität in Abhängigkeit von der Granularität des Wiederverwendungsmodells. D.h. dass bei einer besonders groben und bei einer besonders feinen Granularität des Wiederverwendungsmodells die Modellqualität jeweils niedriger sein wird, als bei einem Wiederverwendungsmodell mit einer dazwischen liegenden Granularität76 . 76 Mit unterschiedlichen Granularitäten geht hier implizit jeweils eine bestimmte Art der Anpassung gemäß den Anforderungen der Aufgabe einher. Dies sind zum einen Einfügungen aufgrund von fehlenden Details bei grober Granularität und zum anderen Löschungen aufgrund von überflüssigen Details bei feiner Granularität. Die praktische Motivation dieses Zusammenhangs wird in Abschnitt 4.3 erläutert. 146 Weiterhin wird eine höhere Ergebnisqualität bei Prozessmodellwiederverwendung unter komplexen Aufgabenanforderungen insgesamt gegenüber einem „from-scratch“-Ansatz angenommen. Trotz Anzeichen in bisherigen Arbeiten, die auf die Signifikanz des qualitätsbeeinträchtigenden Anchoring-Effekts deuten, muss das Ergebnis des wiederverwendungsbasierten Vorgehens immer auch mit der Alternative des „from-scratch“-Ansatzes in Relation gesetzt werden. Bei hinreichend komplexen Modellierungsaufgabenstellungen und knappen Ressourcen, z.B. durch Zeitbeschränkungen, wird erwartet, dass selbst bei der mit Qualitätsverlusten behafteten wiederverwendungsbasierten Prozessmodellerstellung dennoch eine Modellierungsperformanz erreicht werden kann, die jene von „fromscratch“-Ansätzen übertrifft. Dies heißt, dass die Qualität von Prozessmodellen, die mit Hilfe von wiederverwendbaren Modellen erstellt werden, höher ist als die von Modellen, die ohne ein verfügbares wiederverwendbares Assistenzmodell erstellt werden (ohne kann gleichgesetzt werden mit maximal granular: das „Wiederverwendungsmodell“ ist lediglich eine einzige Partition, die dem Universum entspricht). Diese Annahmen verfeinern Hypothese 4.1, die bereits festhält, dass die Ergebnisqualität unter jene bei der grobgranularen Wiederverwendung fällt, aber keine präzise Aussage darüber trifft, wie sich die Performanz des „from-scratch“-Ansatzes gegenüber der feingranularen Wiederverwendung verhält. Theoretisch kann die Erwartung ebenfalls mit der Arbeitsspeicherbeschränkung der Cognitive Load Theory begründet werden. Im maximal granularen Fall muss der Arbeitsspeicher vorwiegend mit Transformationen von verbalen Informationen des Textes hin zu graphischen Konstrukten der Prozessmodellierungssprache belegt werden. Diese sind als komplexe Verarbeitungsschritte einzustufen. Im feingranularen Wiederverwendungsmodell muss es zwar zu vielen Vergleichen und Entfernungen von Elementen kommen, aber die Transformation von verbalen Informationen in Prozessmodellkonstrukte fällt sehr viel geringer aus, weswegen die Belastung des Arbeitsspeichers insgesamt kleiner ist. Es kann daher davon ausgegangen werden, dass die semantische Qualität im Zuge der Adaption des feingranularen Prozessmodells besser ausfallen wird, als wenn from-scratch modelliert wird. Hypothese 4.2 (H4.2). Prozessmodellierer ohne die Verfügbarkeit eines Wiederverwendungsmodells (bzw. mit Verfügbarkeit des „Modells“ maximaler Granularität) erstellen für Prozessdesignaufgaben höherer Komplexität ein qualitativ schlechteres Ergebnismodell, als Prozessmodellierer, die ein Prozessmodell adaptiv wiederverwenden. Anknüpfend an die obige Annahme, dass es Granularitätsbereiche von Wiederverwendungsmodellen gibt, die in Modellierungsaufgaben qualitative Vorteile gegenüber sehr fein- und sehr grobgranularen Wiederverwendungsmodellen bieten, wird darüber hinaus vermutet, dass im Fall ohne ein Wiederverwendungsmodell (oder maximale Granularität) die Ergebnisqualität auch signifikant unter der Qualität des Falls mit feingranularer Wiederverwendung bleibt. Bisherige Arbeiten haben die potenziellen Qualitätsbeeinträchtigungen aufgrund von Anchoring-Effekten näher beleuchtet (Parsons u. Saunders 2004; Allen u. Parsons 2010). 147 Dabei waren die Aufgabenumfänge limitiert, so dass auch die Kontrollgruppen mit „fromscratch“-Ansätzen eine gute Ausgangslage hatten, die Aufgabe korrekt zu bearbeiten. Die Situation verändert sich jedoch mit der steigenden Komplexität der Modellierungsaufgaben. Ein höher komplexe und umfangreiche Aufgabe wird hohe Anforderungen an einen Modellierer stellen, welche sich negativ auf die Ergebnisqualität auswirken können. Die Verfügbarkeit eines Wiederverwendungsmodells könnte daher – trotz der potenziellen Qualitätsminderungen durch z.B. viele nicht angepasste Extraneous-Anchors – immer noch zu einem positiveren Ergebnis führen als der „from-scratch“-Ansatz. Die vorliegende Untersuchungfrage geht diesem Bereich höher komplexer Modellierungsaufgaben nach und vermutet einen Vorteil der Wiederverwendung von Prozessmodellen. Es kommt aber darauf an, wie komplex die Modellierungsaufgabe ist, wieviel Zeit für die Bearbeitung zur Verfügung steht und wie groß der „Abstand“ der Wiederverwendungsmodelle zu den Lösungsmodellen ist. Für bestimmte Konstellationen ist die Vorteilhaftigkeit des Wiederverwendungsansatzes denkbar. Es soll hier festgehalten werden, dass es nicht um eine pauschale Bewertung der Vorteilhaftigkeit der Modellwiederverwendung geht, sondern dass die Bedingungen herausgearbeitet werden, unter denen die Modellwiederverwendung trotz Anchoring-Effekten den „from-scratch“-Ansatz qualitativ übertreffen kann. Es wird davon ausgegangen, dass die Granularität von wiederverwendbaren Prozesmodellen zwar einen Einfluss auf die Adaptions- und Modellierungsperformanz hat, dass die Qualitätsvorteile, die sich aus der Variation der Modellgranularität ergeben aber auch bestimmte Schranken hat. Diese Annahme von Schranken führt zu folgender Vermutung. Ein grobgranulares Wiederverwendungsmodell führt zu einem verbesserten Modellierungsergebnis als dies durch ein feingranulares geschehen könnte. Aber es gibt ein Granulairtätsniveau, das – wenn es überschritten wird – wieder zu einem Absinken der Ergebnisqualität führt. Der Extremfall der maximalen Granularität kann außerdem analog gesehen werden zu einem nicht vorliegenden Wiederverwendungsmodell. Die maximale Granualarität gruppiert den gesamten betrachteten Prozess zu einer einzigen Partition, die dazu noch unbenannt ist. Dies entspricht der leeren Modellierungsfläche und der Prozessmodellierer muss den Geschäftsprozess „auf der grünen Wiese“ auf Grundlage der ihm gestellte Anforderungen konstruieren. Die Vermutung ist, dass bei größeren Prozessmodellen (d.h. ab 20 Informationselementen) der Modellierer ohne Wiederverwendungsmodell (also mit einem „Wiederverwendungsmodell“ maximaler Granularität) zu einem schlechteren Ergebnis kommt, als der Modellierer mit einem grobgranularen Wiederverwendungsmodell. Der Grund dafür ist in der Anforderung zu sehen, ausschließlich Omission-Anchors – denn alles muss noch in das „Modell“ eingefügt werden – anzupassen, was ein sehr gutes Verständnis der Aufgabenanforderungen und eine Konstruktion eines vollständigen mentalen Modells der Lösung erfordert. Die Informationsaufnahme, das Verständnis der Anforderungen und die Modellierung ohne jegliche Assistenz durch ein existierendes Modell sind angesichts der Komplexität und der zeitlichen Beschränkungen kognitiv aufwändiger, als die Anpassung eines wiederverwendbaren Modells (nach wie vor ist der „Abstand“ des wiederverwendbaren Modells zur Aufgabe zu beachten, der nicht zu groß 148 sein darf). Entlang der Granularitätsdimension von wiederverwendbaren Modellen (für bestimmte Modellierungsaufgaben) ergäbe sich also eine inverse U-Form der Qualitätsausprägung: mit feingranularen (d.h. mit „Extraneous“-Anchors behafteten) Modellen wird die semantische Qualität noch stark beinträchtigt; mit etwas gröber granularen (d.h. vorwiegend mit „Omission“-Anchors behafteten) Wiederverwendungsmodellen gelingt jedoch bereits eine qualitativ bessere Prozessmodellierung; bei zunehmender Granularität des Wiederverwendungsmodells (bis zur maximalen Granularität, die dem Fall ohne wiederverwendbares Modell enspricht) wird die Qualität der Ergebnisse jedoch irgendwann wieder abfallen. Kein Haupteffekt der Anwendungsdomäne Obwohl sich die Terminologie und die Semantik in unterschiedlichen Anwendungsdomänen unterscheiden, ist nicht zu erwarten, dass die Anwendungsdomänen an sich – bei vergleichbaren Anwendungsdomänenkenntnissen der Prozessmodellierer – einen signifikanten Effekt auf die Gesamtqualität der Modellierungsergebnisse haben (vgl. H2.). Der Vermutung, dass die Anwendungsdomäne als potenzieller Einflussfaktor ausschließbar ist, soll untersuchungstechnisch so entgegengekommen werden, dass das Phänomen des Anchoring-Effekts in kontrollierter Untersuchungsumgebung in zwei verschiedenen Anwendungsdomänen beobachtet wird. Hypothese 5 (H5). Die Anwendungsdomäne, in der die Prozessmodellierungsaufgabe angesiedelt ist, hat keinen signifikanten Einfluss auf die Ergebnisqualität der finalen Prozessmodelle. Kein Interaktionseffekt Analog zu H3. wird nicht davon ausgegangen, dass zwischen den Faktoren Prozessmodellgranularität und Anwendungsdomäne eine Interaktionseffekt in Bezug auf die semantische Qualität der Prozessmodellergebnisse besteht. Die Hypothese lautet daher wie folgt: Hypothese 6 (H6). Es gibt keinen beobachtbaren Interaktionseffekt zwischen den Faktoren Prozessmodellgranularität und Anwendungsdomäne in Hinsicht auf die semantischen Gesamtqualität der final konstruierten Prozessmodelle. 149 5. Forschungsmodell und Untersuchung Auf Grundlage der im vorangegangen Kapitel hergeleiteten Forschungshypothesen kann die systematische Untersuchung der Fragen zum Einfluss der Modellgranularität in der wiederverwendungsorientierten Prozessmodellierung erfolgen. Dazu wird ein Forschungsmodell formuliert, welches die verschiedenen Variablen im Kontext von Prozessmodellierungsaufgaben zueinander in spezifische Beziehungen setzt. Unter Bezugnahme auf diese Größen und Beziehungen werden die zugehörigen Hypothesen operationalisiert. Ebenfalls Bestandteil der Planung der Untersuchung sind die detaillierte Beschreibung der unabhängigen und abhängigen Variablen, der kontrollierten Variablen und des experimentellen Designs. Letzteres erläutert insbesondere die getroffenen Maßnahmen zur Randomisierung und die Arten und Ausprägungen der betrachteten Faktoren zur Bestimmung des charakteristischen experimentellen Designtyps. Im Weiteren werden Angaben zur tatsächlichen Durchführung des Experiments gemacht. Dies umfasst sowohl die vorbereitenden Maßnahmen als auch Angaben zu erfolgten Experimentterminen und Vorgehen bei der konkreten Präsentation der Aufgabenstellung. Die erhobenen Modellierungsergebnisse fließen in den datenanalytischen Teil, wo sie zunächst rein deskriptiv charakterisiert werden. Für die Überprüfung der Hypothesen erfolgen anschließend die entsprechenden statistischen Tests. Dieses untersuchungsmethodische Vorgehen lässt sich in die forschungsmethodische Tradition bisheriger Arbeiten zur experimentellen Analyse von Modellierungstechniken in der Softwareentwicklung einordnen (z.B. Wohlin u. a. 2000; Gemino u. Wand 2004). Gemino u. Wand (2004) haben beispielsweise einen methodischen Rahmen vorgelegt, der empirische Untersuchungsmethoden zur Beantwortung von Fragen zur Qualität von Informationsmodellierungstechniken integriert und welcher anderen Untersuchungsvorhaben als Leitlinie während der Untersuchungsplanung dienen soll. Hierüber soll auch die Vergleichbarkeit von empirischen Untersuchungen verbessert werden. Die meisten der dort berücksichtigten Variablen werden auch im hier aufgestellten Forschungsmodell reflektiert (siehe 5.2). Die hier vorgenommene Gliederung der Untersuchung richtet sich im Kern nach der Struktur von Wohlin u. a. (2000) zur experimentellen Untersuchung von Ansätzen des Software-Engineering. Das Kapitel ist daher wie folgt gegliedert. Zunächst erfolgt eine Zieldefinition, um das Ziel der Untersuchung kompakt zusammenzufassen. Daran schließt sich die Untersuchungsplanung an. Diese besteht aus der Vorstellung des Forschungsmodells, der Aufstellung der operationalen Hypothesen, aller Variablen (unabhängige, abhängige und kontrollierte) und dem Experimentdesign. Die Experimentdurchführung wird erläutert mit Vorbereitungsmaßnahmen und dem experimentellen Ablauf. Abschließend erfolgt dann die Ergebnisanalyse einschließlich deskriptiver Statistiken und Hypothesentests. 150 5.1. Zieldefinition Das Ziel der Untersuchung ist es, die individuelle Adaptionsperformanz von Modellierern in der Geschäftsprozessmodellerstellung unter Wiederverwendung bei variierter Granularität des Wiederverwendungsmodells zu analysieren und vermutete Unterschiede zu bestimmen. Die Untersuchung wird motiviert durch ein zurzeit unzureichendes Verständnis der kognitiven Prozesse, die während der Anwendung und Verarbeitung von verfügbaren Prozessdiagrammen zur Lösung von Aufgabenstellungen der Geschäftsprozessmodellierung in Modellierern ablaufen. Die Untersuchung wird im Rahmen eines Laborexperiments durchgeführt. Der Vorteil von Laborexperimenten ist, dass sowohl die unabhängigen Variablen gezielt verändert, als auch die Versuchsbedingungen in hohem Maße kontrolliert werden können. Dies trägt zur Sicherstellung einer hohen internen Validität bei. Insbesondere im Hinblick auf die Manipulation der Wiederverwendungsmodellgranularität (unabhängige Variable des primären Untersuchungsinteresses) ist das Experiment ein adäquates Forschungsdesign. Untersuchungsobjekt Das Untersuchungsobjekt im Experiment ist das Vorgehen bei der Prozessmodellwiederverwendung im Kontext der Geschäftsprozesserstellung von Modellierern, die sowohl aus dem akademischen Umfeld der Wirtschaftsinformatik, als auch aus betrieblichen Organisationen stammen. Insbesondere sind die kognitiven Kapazitäten in Bezug auf die Adaption der wiederverwendeten Prozessmodelle von Untersuchungsinteresse. Untersuchungsperspektive Die eingenommene Untersuchungsperspektive ist die aus Sicht eines Verantwortlichen für die geschäftsprozessmodellgetriebene Entwicklung von Informationssystemen innerhalb einer betrieblichen Organisation. Die Wiederverwendung von bestehenden Prozessmodellen könnte strategisch explizit gefordert sein, weswegen sich dem Verantwortlichen die Frage stellt, wie die Prozessmodelle beschaffen sein müssen, damit das wiederverwendungsorientierte Vorgehen erfolgreich implementiert werden kann. Die Beantwortung dieser Frage erfordert ein tieferes Verständnis davon, wie Prozessmodellierer mit der Möglichkeit der Wiederverwendung diese Prozessmodelle erfassen und anforderungsgerecht adaptieren. Fokus auf Adaptionsperformanz Der Hauptfokus der Untersuchung liegt darauf, inwieweit Modellierer in der Lage sind, Wiederverwendungsprozessmodelle unterschiedlicher Granularität im Rahmen einer einer Prozessmodellkonstruktionsaufgabe korrekt anzupassen. Dabei konzentriert sich die Untersuchung zunächst auf ausgewählte charakteristische Granularitätsstufen, von denen aus die Anpassungen erfolgen sollen (siehe Abschnitt 5.2.2). Da versäumte Anpassungen zu inkorrekten Inhalten im Prozessmodell führen, die sich auf die gesamte Qualität der Ergebnismodelle auswirken, wird zusätzlich auch die gesamte semantische Qualität der Lösungsmodelle betrachtet. 151 5.2. Untersuchungsplanung Das konkretisierte Forschungsmodell lehnt sich an identifizierte Faktoren aus dem Research Framework von Gemino u. Wand (2004) an. Dieses Framework wurde formuliert, um einen vereinheitlichten Ordnungsrahmen für die Evaluierung von konzeptuellen Modellierungssprachen und -techniken im Rahmen experimenteller Untersuchungen festzulegen, der Wissenschaftlern als Ausgangspunkt für spezifische Forschungsvorhaben dienen soll. Neben seiner Funktion als forschungsmethodisches Werkzeug ermöglicht das Framework darüberhinaus den Vergleich von experimentellen Anordnungen und erleichtert damit die Interpretation von Untersuchungergebnissen ähnlicher Versuchsanordnungen. Aus dem Framework werden insbesondere die Charakteristika der Teilnehmer, der Aufgabe und der Repräsentation eines (wiederverwendbaren) Modells übernommen, welche potenziell die Modellierungsperformanz beinflussen (vgl. Abbildung 5.1). Die grundlegenden bestimmenden Faktoren auf die Bearbeitungsperformanz finden sich in ähnlicher Form auch im Forschungsmodell von Allen u. Parsons (2010) wieder, die ebenfalls Wirkzusammenhänge zwischen einerseits Charakteristika der Teilnehmer, des Datenmodells, der Aufgabe und des Arbeitssystems (d.h. gleiche Bedingungen für alle Untersuchungssubjekte) und andererseits der Performanz bei der Formulierung von neuen Datenbankabfragen – auch mit der Möglichkeit der Wiederverwendung – vermuten. Der Unterschied zur vorliegenden Untersuchung liegt im betrachteten Informationssystemartefakt (Datenbankabfragen versus Prozessmodelle). Die Manipulation eines wiederverwendbaren Artefakts mit unterschiedlichen Anchors und die Beobachtung der Wirkung auf das Anchoring-Verhalten der Teilnehmer ist im Weiteren eine zentrale Komponente des Forschungsmodells von Parsons u. Saunders (2004) und wurde für das vorliegende Forschungsmodell übernommen und für den Kontext Geschäftsprozessmodellierung adaptiert. Parsons u. Saunders haben untersucht, ob Anchors auf Basis von Zusatzfunktionalitäten, Auslassungen und Fehlern in den Wiederverwendungsmodellen (Klassendiagramme) häufig in die Lösungsmodelle übertragen werden. Die Komponenten und konzeptuellen Zusammenhänge im hier zugrundegelegten Forschungsmodell sind in Abbildung 5.1 visualisiert. Das Modell beschreibt die angenommenen und theoretisch begründeten Effekte von a) drei verschiedenen Granularitätsniveaus (bzw. Anpassungstypen) des Wiederverwendungsmodells (fein = Gfine , grob = Gcoarse , maximal = Gmax ) und b) zwei unterschiedlichen Anwendungsdomänen (Energieversorgung = En, Telekommunikation = Tel) auf sowohl die korrekt vorgenommene Anpassung von Anchors (Adaptionsperformanz, percentage correct adjustments = PCA) als auch die Gesamtmodellqualität (overall semantic quality = OSQ) im Kontext von Geschäftsprozessmodellierungsaufgaben unter Modellwiederverwendung. Da die Untersuchung auf die Wirkzusammenhänge zwischen unabhängigen und abhängigen Variablen ausgerichtet ist, sind die verbleibenden Faktoren, die einen Einfluss auf Untersuchungsdurchführung sowie -ergebnis ausüben könnten, während der Untersuchung entsprechend zu kontrollieren (vgl. dazu die Framework-Komponenten in Gemino u. Wand (2004)). 152 EXPERIMENTELLE AUFGABE UNABHÄNGIGE VARIABLE Charakteristika der Teilnehmer Granularität des Wiederv.-Modells Anwendungsdomänenwissen (kontrolliert) Fein Grob Modellierungswissen (kontrolliert) Maximal (keine Wiederverwendung) Charakteristika der Modellierungsaufgabe Edit distance zw. Lösung und Wiederv.-Modell (kontrolliert) ABHÄNGIGE VARIABLEN Modellierungsperformanz Adaptionsperformanz UNABHÄNGIGE VARIABLE Anwendungsdomäne Aufgabenkomplexität (kontrolliert) Semantische Modellqualität Energieversorgung Telekommunikation Abbildung 5.1.: Forschungsmodell der Untersuchung In den folgenden Abschnitten werden auf Basis des Forschungsmodells zunächst die operationalen Hypothesen abgeleitet aus den Hypothesen des Abschnitts 4.5. Daran schließt sich die Definition der einzelnen Variablen an, d.h. die unabhängigen Variablen, die abhängigen Variablen und die kontrollierten Variablen, und es folgt die Beschreibung ihrer Operationalisierung. Abschließend wird das Experiment im Detail erläutert. Es ergibt sich folgende Gliederung des Abschnitts: 1) operationale Hypothesen, 2) unabhängige Variable: Granularität/Anchoringtyp, 3) unabhängige Variable: Anwendungsdomäne, 4) abhängige Variablen, 5) kontrollierte Variablen und 6) Experimentdesign. 5.2.1. Operationale Hypothesen Die informell angegebenen Hypothesen aus Abschnitt 4.5 können nun formalisiert werden. Dabei ergeben sich auch die erforderlichen Größen, um die Hypothesen formal überprüfen zu können. H1. Nullhypothese, 𝐻0 : Die Adaptionsperformanz (gemessen als prozentualer Anteil korrekt vorgenommener Adaptionen, engl. Percentage Correct Adjustments, PCA) von Prozessmodellierern ist unter Wiederverwendung von grobgranularen Prozessmodellen (Gcoarse ) kleiner oder gleich der Performanz unter Wiederverwendung von feingranularen Prozessmodellen (Gfine ): 153 𝐻0 : PCA(Gcoarse ) ≤ PCA(Gfine ) Alternativhypothese, 𝐻1 : PCA(Gcoarse ) > PCA(Gfine ) Benötigte Größen: Granularität der Wiederverwendungsprozessmodelle (Gcoarse oder Gfine ) und Adaptionsperformanz (PCA). H2. Nullhypothese, 𝐻0 : Es gibt einen Unterschied bezüglich der Adaptionsperformanz (PCA) im Rahmen der wiederverwendungsorientierten Prozessmodellerstellung einmal in der Anwendungsdomäne Energie (En) und einmal in der Anwendungsdomäne Telekommunikation (Tel). 𝐻0 : PCA(En) ∕= PCA(Tel) Alternativhypothese, 𝐻1 : PCA(En) = PCA(Tel) Benötigte Größen: Anwendungsdomänen der Prozessmodellierungsaufgabe (En oder Tel) und Adaptionsperformanz (PCA). H3. Nullhypothese, 𝐻0 : Es liegt ein signifikanter Interaktionseffekt bezüglich der Adaptionsperformanz (PCA) in der Modellierung vor, der auf die Wechselwirkung der Faktoren Prozessmodellgranularität und Anwendungsdomäne zurückgeführt werden könnte. Die Alternativhypothese, 𝐻1 dazu lautet, dass kein signifikanter Interaktionseffekt der Faktoren bezüglich der Adaptionsperformanz zu beobachten ist. Die zu verwendenden Größen entsprechen denen in H1. und H2. H4. Nullhypothese, 𝐻0 : Die semantische Qualität (gemessen als Grad der Vollständigkeit und Validität, engl. Overall Semantic Quality, OSQ) der Lösungsprozessmodelle, die unter Wiederverwendung feingranularer (Gfine ), grobgranularer (Gcoarse ) bzw. maximal granularer (Gmax ) Prozessmodelle entstehen, weist keine Unterschiede auf. 𝐻0 : OSQ(Gcoarse ) = OSQ(Gfine ) = OSQ(Gmax ) Alternativhypothese, 𝐻1 : OSQ(Gcoarse ) ∕= OSQ(Gfine ) ∕= OSQ(Gmax ) OSQ(Gcoarse ) ∕= OSQ(Gmax ) Benötigte Größen: Granularität der Wiederverwendungsprozessmodelle (Gfine , Gcoarse oder Gmax ) und semantische Qualität (OSQ). und H4.1. Nullhypothese, 𝐻0 : Die semantische Qualität der Lösungsprozessmodelle, die unter Wiederverwendung maximal granularer (dies entspricht einem Vorgehen ohne Wiederverwendung, Gmax ) und feingranularer Prozessmodelle (Gfine ) entstehen, ist größer 154 der von Lösungsprozessmodellen, welche unter Wiederverwendung grobgranularer Prozessmodelle (Gcoarse ) erstellt werden. 𝐻0 : OSQ(Gmax ) ≥ OSQ(Gcoarse ) OSQ(Gfine ) ≥ OSQ(Gcoarse ) und Alternativhypothese, 𝐻1 : OSQ(Gmax ) < OSQ(Gcoarse ) OSQ(Gfine ) < OSQ(Gcoarse ) und Benötigte Größen: Granularität der Wiederverwendungsprozessmodelle (Gcoarse , Gfine oder Gmax ) und semantische Qualität (OSQ). H4.2. Nullhypothese, 𝐻0 : Die semantische Qualität der Lösungsprozessmodelle, die unter Wiederverwendung maximal granularer Prozessmodelle (dies entspricht einem Vorgehen ohne Wiederverwendung, Gmax ) entstehen, ist größer der von Lösungsprozessmodellen, welche unter Wiederverwendung feingranularer Prozessmodelle (Gfine ) erstellt werden. 𝐻0 : OSQ(Gmax ) ≥ OSQ(Gfine ) Alternativhypothese, 𝐻1 : OSQ(Gmax ) < OSQ(Gfine ) (Wiederverw. vorteilhaft) Benötigte Größen: Granularität der Wiederverwendungsprozessmodelle (Gfein oder Gmax ) und semantische Qualität (OSQ). H5. Nullhypothese, 𝐻0 : Es gibt einen Unterschied bezüglich der semantischen Qualität (OSQ) im Rahmen der wiederverwendungsorientierten Prozessmodellerstellung einmal in der Anwendungsdomäne Energie (En) und einmal in der Anwendungsdomäne Telekommunikation (Tel). 𝐻0 : OSQ(En) ∕= OSQ(Tel) Alternativhypothese, 𝐻1 : OSQ(En) = OSQ(Tel) Benötigte Größen: Anwendungsdomänen der Prozessmodellierungsaufgabe (En oder Tel) und semantische Qualität (OSQ). H6. Nullhypothese, 𝐻0 : Es liegt kein Interaktionseffekt bezüglich der semantischen Qualität (OSQ) der Lösungsmodelle vor, der auf die Interaktion der Faktoren Prozessmodellgranularität und Anwendungsdomäne zurückgeführt werden könnte. Die Alternativhypothese 𝐻1 dazu lautet, dass kein signifikanter Interaktionseffekt der Faktoren bezüglich der semantischen Qualität zu beobachten ist. Die zu verwendenden Größen entsprechen denen in H4. und H5. 155 EXPERIMENTELLE AUFGABE Charakteristika der Teilnehmer Granularität des Wiederv.-Modells Anwendungsdomänenwissen (kontrolliert) H3: Kein Interaktionseffekt bzgl. Adaptionsperformanz UNABHÄNGIGE VARIABLE Fein Modellierungswissen (kontrolliert) Grob Aufgabenkomplexität (kontrolliert) ABHÄNGIGE VARIABLEN Maximal H1 (keine Wiederverwendung) Modellierungsperformanz H4 Charakteristika der Modellierungsaufgabe Edit distance zw. Lösung und Wiederv.-Modell (kontrolliert) H6: Kein Interaktionseffekt bzgl. semantische Modellqualität Adaptionsperformanz Semantische Modellqualität UNABHÄNGIGE VARIABLE Anwendungsdomäne Energieversorgung H5 H2 Telekommunikation Abbildung 5.2.: Forschungsmodell mit Hypothesen 5.2.2. Unabhängige Variable: Granularität/Anchoringtyp Die erste betrachtete unabhängige Variable IV1 ist die Granularität G – spezifischer ausgedrückt die Granularität einer bestimmten Partition – eines wiederverwendbaren Prozessmodells repräsentiert mit der BPMN. Die Granularität der Prozessmodelle ist definiert über die Partitionierung entlang von Aktivitäten, Subaktivitäten usw. (vgl. hierzu die Modularität von Prozessmodellen in Abschnitt 4.4.2), d.h. andere Elemente betreffende Feinpartitionierungen, wie z.B. in Bezug auf Gateways oder Events werden hier nicht vorgenommen. Ein bestimmtes Granularitätsniveau wird hier mit dem Vorkommen von bestimmten Anchortypen assoziiert (ausgelassene bzw. irrelevante Aktivitäten). Für die unabhängige Variable werden aufgrund des explorativen Charakters der Untersuchung drei kategorische Stufen unterschieden77 : Feine Granularität Das feingranulare Wiederverwendungsmodell (Gfine ) ist sehr dicht am Granularitätsniveau der Aufgabenanforderungen und in ihm liegt eine Menge an Extraneous-Anchors vor (d.h. es enthält weitere Modellelemente, die bezüglich der Aufgabe irrelevant sind). Diese Anchors müssen vom Modellierer entsprechend im Wiederverwendungsmodell angepasst werden, so dass das Prozessmodell letztlich die Anforderungen der Modellierungsaufgabe erfüllt. Die primär erforderliche 77 Ein vollständigeres Bild ergäbe sich durch die Manipulation auf Grundlage von feineren Abstufungen der Modellgranularität. Die begrenzten Ressourcen und zumutbare Belastung von verfügbaren Testmodellierern zwingt die Untersuchungsleitung dazu, die Ausprägungsstufen der im Experiment eingesetzten Granularitäten auf wenige charakteristische zu diskretisieren. 156 Anpassungsoperation, um vom Wiederverwendungsmodell zum Lösungsmodell zu gelangen, ist vom Typ „Entfernen“. Grobe Granularität Das grobgranulare Wiederverwendungsmodell (Gcoarse ) fasst mehrere feinere Informationselemente zusammen, so dass sie sich dem Prozessmodellierer nicht mehr präsentieren. Es liegt daher, in Relation zu den Aufgabenanforderungen und dem feinen Wiederverwendungsmodell, auf einem groben Granularitätsniveau. Diese groben Modellelemente, die in Bezug auf die Aufgabenanforderungen verfeinert werden müssen, sind daher als Omission-Anchors aufzufassen. Um zum Lösungsmodell zu gelangen, müssen entsprechende Modellelemente – die ausgelasen wurden – erst noch in das Wiederverwendungsmodell eingefügt werden. Der primäre Anpassungsoperationstyp ist daher „Einfügung“. Maximale Granularität Die maximale Granularität eines Prozessmodells (Gmax ) beträgt per Definition log ∣𝑈 ∣78 . Das wahrnehmbare „Prozessdiagramm“, dessen Granularitätsniveau auf maximal gesetzt ist, birgt keinerlei differenzierbare Information mehr in sich. Alle Granules sind in der größtmöglichen Partition aufgenommen, also in einer einzigen „Riesenaktivität“. Aus Sicht der Anpassung von Anchors ist das maximal granulare Wiederverwendungsmodell ausschließlich mit Omission-Anchors ausgestattet, da sämtliche Informationen, die für die Erstellung des Lösungsmodells notwendig sind, ausgelassen sind. Das „Prozessmodell“ maximaler Granularität kann also mit der leeren Fläche, die ein Modellierer betrachtet, um das geforderte Prozessmodell zu erstellen, gleichgesetzt werden. Diese Situation entspricht einem Prozessdesignauftrag an einen Prozessmodellierer, welcher von Grund auf und ohne Hilfestellung durch ein wiederverwendbares Prozessmodell das Geschäftsprozessmodell erstellt. Teilnehmende Modellierer, die dieser Situation ausgesetzt werden, können als Kontrollgruppe angesehen werden, da sie in der Essenz kein Prozessmodell wiederverwenden können. In der Untersuchung werden für die maximal granulare Ausprägung vier unbeschriftete Pools als „quasi-leere Vorlage“ den Modellierern zur Verfügung gestellt. Dies entspricht nicht exakt dem Granularitätswert log ∣𝑈 ∣, ist ihm aber sehr nah. Die vier Pools stellen einen rudimentären Orientierungsrahmen bereit, der ansonsten keine Inhalte der Aufgabenanforderungen darstellt. Die Granularitätsniveaus werden für die Wiederverwendungsmodelle von der Untersuchungsleitung spezifisch ausgewählt bzw. konstruiert. Zur Differenzierbarkeit der Granularität sei Folgendes anzumerken. Für die Untersuchung wurde nach Diskussion mit Experten des Fachgebiets angenommen, dass der Granularitätsunterschied zwischen den alternativen Prozessmodellen ausreichend groß ist, so dass die Differenzierung in grobgranulares und feingranulares Prozessmodell von der überwiegenden Mehrheit der Betrachter korrekt vorgenommen werden kann. So beträgt die Granularität für die spezifische Partition des feingranularen Prozessmodells 78 Vgl. dazu Abschnitt 4.4.2. 157 𝐺(𝜋1 ) = 0, 31479 . Die Granularität für die spezifische Partition des grobgranularen Prozessmodells beträgt 𝐺(𝜋2 ) = 0, 700. Damit sind die Granularitäten der Wiederverwendungsprozessmodelle (für die jeweilige spezifische Partition entsprechend der Notation BPMN) bestimmt. Neben der Granularitätsbestimmung auf Ebene der gesamten Prozessmodelle kann sich die Granularitätsbetrachtung auch nur auf aktivitätsrelevante Granules, also Aktivitäten und deren Subaktivitäten, beziehen. Da die Abstraktion vornehmlich auf Basis von Aktivitäten vollzogen wurde, die zu umfassenderen Aktivitäten modularisiert wurden, sollte sich der Granularitätsunterschied auch aus dieser Betrachtungsperspektive deutlich zeigen. Dies soll den Granularitätsunterschied verdeutlichen und den Schwerpunkt der Granularitätsvariierung auf der Taskebene aufzeigen. Lediglich auf die Aktivitätsabstraktion bezogen beträgt die Granularität des feingranularen Prozessmodells 𝐺(𝜋𝐴 1) = 0, 602. Für das grobgranulare Prozessmodell beträgt die Granularität dagegen 𝐺(𝜋𝐴 2) = 1, 036. Bei Prozessmodellen sind die Aktivitäten häufige und dominante Anchors sowohl als Extraneous- als auch als Omission-Anchor, deswegen bietet sich die Verwendung dieser Elemente als primäre Anker in der Untersuchung an (vgl. auch Modularität von Prozessmodellen (Reijers u. Mendling 2008)). Die Verteilung der Anchortypen in den Wiederverwendungsmodellen erfolgt nach bester Möglichkeit gleichmäßig über den gesamten sequenziellen Verlauf des Prozessmodells, d.h. die Anker sind nicht konzentriert an einer bestimmten Stelle im Prozessdiagramm platziert. Dadurch wird versucht, einem möglichen Störeinfluss, der z.B. durch besonders viele Anker, die erst „spät“ im Wiederverwendungsmodell auftauchen, hervorgerufen werden könnte, entgegenzuwirken. Darüber hinaus sind die Anker über die beteiligten Pools hinweg verteilt, d.h. nicht nur eine bestimmte beteiligte Rolle vereint alle Anker auf sich, sondern die Anker sind bei allen Rollen angesiedelt. 79 Für die Granularitätsbestimmung der wiederverwendeten Prozessmodelle vgl. die Granularitätsmetrik in Abschnitt 4.4.2 und die BPMN-Wiederverwendungsmodelle im Anhang B. 158 5.2.3. Unabhängige Variable: Anwendungsdomäne Die unabhängige Variable IV2 repräsentiert die mögliche betriebliche Anwendungsdomäne AD, in der das Problem angesiedelt sein könnte und zu dessen Lösung ein wiederverwendungsbasiertes Prozessdesign durchgeführt wird. Die Anwendungsdomäne ist gekennzeichnet durch für den Wirtschaftszweig typische Arbeitsabläufe, Organisationsstrukturen, Technologien usw. Die Verlagerung eines Prozessdesignproblems in eine andere Anwendungsdomäne – bei ansonsten unveränderten Aufgabenparametern – könnte einen Einfluss auf die Modellierungsperformanz ausüben. Dieser Einfluss wäre dann auf bestimmte Wahrnehmungen der Teilnehmer zurückzuführen, die eben nicht auf Aufgabenparameter wie z.B. der Aufgabe innewohnende Komplexität gründen, da diese stabil gehalten wurden (siehe kontrollierte Faktoren in Abschnitt 5.2.5), sondern durch andere Faktoren aus der Umwelt, Sozialisationsbedingungen, Domänenkenntnis o.ä. zu erklären sind, welche den Teilnehmern diese oder jene Anwendungsdomäne als besonders schwierig bzw. einfach erscheinen lassen. Der Anwendungsdomäne wurde bisher nicht ausreichend Beachtung geschenkt. Dabei ist die Anwendungsdomäne ein Faktor, welcher maßgeblich auch die Komplexität einer Aufgabe mitprägt. Eine anzubringende Kritik ist, dass bisherige Untersuchungen nicht intensiv genug in anderen Domänen repliziert worden sind. Die Anwendungsdomäne wurde in bisher durchgeführten Untersuchungen aber häufig als hervorzuhebende Entität identifiziert (Khatri u. a. 2006). Es könnte sein, dass eine der Domänenontologie innewohnende Komplexität existiert, die zusätzlich zu strukturellen Komplexitäten hinzukommt und nicht von der Domänenkenntnis des Anwenders abhängt. Es könnte daher sein, dass Anwender ohne jegliche Domänenkenntnisse trotzdem unterschiedlich in zwei verschiedenen (gleichermaßen unbekannten) Anwendungsdomänen arbeiten. Sicherlich kann man annehmen, dass Anwendungsdomänen erlernbar sind. Nichtsdestotrotz ist es aus betrieblich-praktischer und ergonomischer Sicht interessant zu untersuchen, ob über Anwendungsdomänen hinweg tatsächlich Performanzunterschiede zu beobachten sind oder ob solche Unterschiede ausbleiben. Die Variation der Anwendungsdomäne bei ansonsten gleichbleibenden Untersuchungsbedingungen konnte in bekannten Untersuchungsarbeiten nicht identifiziert werden. Zwar wurden einzelne Untersuchungen zur Wiederverwendung von Modellen auch in Anwendungsdomänen angesiedelt, die sich stark unterschieden, wie z.B. im Luftfahrtwesen, in der Universitätsverwaltung, im Fahrzeugverleih u.a. Allerdings wurden diese speziellen Untersuchungen nicht in anderen Anwendungsdomänen repliziert. In dieser Hinsicht sind die externen Validitäten dieser Untersuchungen niedrig. Es kann daher auch nicht vollkommen ausgeschlossen werden, dass die Replikation einer Untersuchung in einer anderen Anwendungsdomäne bei ansonsten gleich bleibenden Untersuchungsbedingungen nicht eventuell zu unterschiedlichen Effekten führt. Zusammenhang mit Faktor Domänenkenntnis Es kann die Frage gestellt werden, ob sich die Domänenkomplexität unabhängig von der Domänenkenntnis fassen lässt. Domänenkenntnis bedeutet, dass man Kenntnisse von den Begriffen und der Semantik einer 159 Anwendungsdomäne hat. Domänenkenntnis (engl. domain familiarity) als Faktor in der wiederverwendungsorientierten Modellierung wurde in Allen u. Parsons (2010) identifiziert und untersucht. In diesen Untersuchungen konnte die Vermutung über einen Einfluss der Domänenkenntnis auf den Adjustment Bias in Modellierungsaufgaben unter Wiederverwendung nicht bestätigt werden (vgl. Parsons u. Saunders 2004; Allen u. Parsons 2010). Aufgrund der nicht unterstützten Hypothesen wurde in dieser Untersuchung der Faktor Domänenkenntnis nicht mehr explizit berüchsichtigt. Die Untersuchung von verschiedenen Anwendungsdomänen erschien jedoch als dennoch interessant, um zu beleuchten, ob sich Anchoring-Effekte über die Anwendungsdomänen hinweg gleichgerichtet und von gleichem Umfang zeigen oder ob nicht doch Effekte, die auf die Domäne zurückzuführen sind, auftreten. Dies hieße auch, dass die Anwendungsdomänenkenntnis bzw. die Anwendungsdomänenferne der Subjekte in der Untersuchung vermutlich nicht genau kontrolliert werden konnte und damit auch, dass Domänenkenntnis doch unterschiedliche Anchoring-Effekte hervorgerufen haben könnte. Kritik an der konstruierten Domänenverfremdung In einigen Untersuchungen wurde die Domänenverfremdung artifiziell konstruiert (z.B. in Khatri u. a. 2006; Allen u. Parsons 2010). Die in der Untersuchung erworbene Domänenkenntnis wurde häufig bei Subjekten angenommen, die in einem nicht-unternehmerischen Arbeitsverhältnis tätig waren, z.B. Studenten in einer Universität. Es kann angenommen werden, dass Angestellte in einem bestimmten Wirtschaftszweig über Jahre eine sehr spezifische Kenntnis der Anwendungsdomäne aufbauen, die bzgl. Fokus und Detailgrad die Kenntnisse von Studenten über Abläufe der Universitätsverwaltung übersteigt. So betrachtet sind diese angenommenen, erst unmittelbar erworbenen Domänenkenntnisse als solche zu hinterfragen. Ebenso ist die künstlich herbeigeführte Domänenverfremdung kritisch zu betrachten. Insgesamt soll in dieser Untersuchung ein anwendungsorientierter Untersuchungsansatz angestrebt werden, um durchschnittliche Domänenkenntnis bzw. -nichtkenntnis von Novizen in Verbindung mit real-betrieblich basierten Prozessmodellen explorativ zu untersuchen. Selektion der zwei Faktorstufen Da eine große Vielfalt an möglichen betrieblichen Anwendungsdomänen existiert, kann sich eine laborexperimentelle Studie aufgrund des realisierbaren Untersuchungsumfangs nur auf wenige Domänen beschränken (für eine Übersicht von Wirtschaftszweigen vgl. den Bericht in Statistisches Bundesamt Deutschland (2008)). Es wurden zwei Anwendungsdomänen selektiert, die sich sowohl aufgrund der kooperativen Projektarbeiten des Autors, als auch infolge der Schwerpunktsetzung des Fachgebiets als adäquat kontrollierbar gezeigt haben: 1. Energieversorgung und 2. Telekommunikation. Hiermit ist ebenso wie IV1 eine kategorische unabhängige Variable IV2 festgelegt (zwei Kategorien). 160 5.2.4. Abhängige Variablen In der Untersuchung sind zwei abhängige Variablen von Interesse. Dies ist zum einen die Adaptionsperformanz. Dies ist das Vermögen der Modellierer, die notwendigen Anpassungen an den ihnen vorgelegten und wiederzuverwendenden Prozessmodellen zur Lösung der gestellten Konstruktionsaufgabe vorzunehmen. Zum zweiten wird die semantische Qualität definiert. Diese beschreibt, inwieweit die Prozessmodelllösung den Anforderungen an Validität und Vollständigkeit in Bezug auf den abzubildenden Geschäftsprozess gerecht wird. Adaptionsperformanz Die erste abhängige Variable „Korrekt vorgenommene Anpassungen“ (im Weiteren engl. „Percentage Correct Adjustments (PCA)“) misst den Grad, mit dem Anchors, die in den Wiederverwendungsmodellen untergebracht sind, in den Lösungsmodellen beibehalten werden. Die Anchoring-Phänomene, die in den finalen Lösungsmodellen auftauchen, sind entsprechend mit Punkten kodiert (siehe Tabelle 5.1). Die Maße sind wertmäßig so kodiert, dass eine höhere Punktzahl einen höheren Grad an Anchoring widerspiegelt. Um nicht die Information zu verlieren, dass die Menge an vorgenommenen Anpassungen auch von der Zahl vorliegender Anchors beeinflusst werden kann, wird das Anchoring relativ zur Anchormenge gesetzt. Dadurch ergibt sich ein prozentualer Anteil; ein höherer Prozentsatz wird mit einem stärkeren Anchoring assoziiert. Die Kodierung sei im Folgenden kurz erläutert: Omission (Auslassungen) Auslassungen beziehen sich auf Elemente, die das Wiederverwendungsmodell nicht enthält, welche aber in der Aufgabe explizit gefordert werden und damit auch in der korrekten Lösung erwartet werden. Ein wiederverwendetes Modell muss entsprechend angepasst bzw. erweitert werden, um die Anforderungen zu erfüllen. Daher wird für das Übertragen eines im Wiederverwendungsmodell nicht vorkommenden – aber geforderten – Elements ein Punkt kodiert, da ein Anchoring eines ausgelassenen Elements stattgefunden hat. Wenn dagegen das geforderte Element korrekterweise in der Finallösung erstellt wird, dann wird kein Punkt kodiert, da die Auslassung nicht unreflektiert übernommen wurde und daher kein Anchoring stattgefunden hat. Zwischen den Modellierungselementen, die als Anchor genutzt werden, wird punktemäßig nicht unterschieden, d.h. hier wird zunächst jedes nicht eingefügte, aber geforderte, Element als gleich stark bezüglich seines Anchoring-Beitrags gewichtet. Da die Granularität hier mit der Modularität auf Basis von verschachtelten Aktivitäten gleichgesetzt wird, sind die Omission-Anchors all jene Modellierungselemente, die im Zuge der Verfeinerung einer abstrakteren Aktivität eingefügt werden müssen (also primär weitere Aktivitäten, Sequenzflüsse und fehlende Gateways). Extraneous (Irrelevantes) Irrelevante Elemente im Wiederverwendungsmodell sind Ele- 161 Tabelle 5.1.: Kodierung des Anchorings Anchoring-Variable Kodierung des Anchoring-Elements E t (I l t ) Extraneous (Irrelevantes) 0 wenn ausgelassenes Element in der Lösung doch vorkommt 1 wenn Element nicht in der Lösung aufgenommen wurde 0 wenn Element nicht in der Lösung aufgenommen wurde g g 1 Omission (Auslassung) wenn Element in der Lösung aufgenommen wurde mente, die Funktionalität beschreiben, welche aber nicht explizit vom Aufgabentext gefordert werden. Wenn ein im Wiederverwendungsmodell irrelevantes Element in die Lösung übernommen wird, obwohl es nicht benötigt wird, dann findet ein Anchoring statt. Dies wird mit einem Punkt kodiert. Wenn solch ein irrelevantes Element nicht in der Finallösung vorkommt, der Designer also aktiv das entsprechende Element aus dem wiederverwendeten Modell löscht, dann wird kein Punkt kodiert: es hat kein Anchoring stattgefunden. Bezüglich der gleichen Gewichte für alle als Anchor genutzten Modellierungselemente gilt analog die Erläuterung zu Omission (siehe oben). Die Extraneous-Anchors sind primär irrelevante Aktivitäten und angeschlossene Sequenzflüsse, die entfernt werden müssen, damit das Prozessmodell korrekt modifiziert wird. Wie auf Basis der Kodierung das Anchoring-Maß für ein Lösungsmodell ermittelt wird ist beispielhaft in Tabelle 5.2 dargestellt. Für die Anwendung des Anchoring-Maßes ist zu beachten, dass es als vergleichbare Größe nur dann herangezogen werden kann, wenn die mengenmäßige Verteilung von Anchors in den Wiederverwendungsmodellen gleich oder zumindest annähernd gleich ist. Für die beiden Treatments feine und grobe Granularität sind ähnliche Verteilungen konstruierbar und damit lassen sich Aussagen mit Hilfe des Anchoring-Maßes treffen. Für den Fall der maximalen Granularität ist die Menge an erforderlichen Einfügungsoperationen allerdings groß im Vergleich zu den Änderungsoperationen, die für die Anpassung der fein- und grobgranularen Wiederverwendungsmodelle nötig sind, da alle Anforderungen der Prozessmodellierungsaufgabe erst noch im Modell abgebildet werden müssen. 80 Für jeden Anchor im Wiederverwendungsmodell wird erhoben, ob er richtig angepasst wurde oder nicht. Es lässt sich sowohl absolut die Summe korrekt vorgenommener Anpassungen, als auch die relative Häufigkeit erheben (dafür ist die Anzahl korrekter Anpassungen durch die Gesamtanzahl der vorliegenden Anchors zu teilen). Legende. A: Activity; SF: Sequenz flow; G: Gateway; DO: Data object; Ass.: Asssociation. Aus Platzgründen sind die Anchor-Elemente teilweise mit „...“ abgekürzt. Die vollständigen Benennungen befinden sich im Anhang. 162 Tabelle 5.2.: Beispielhafte Anwendung der Anchoring-Maße an zwei Lösungsmodellen von Untersuchungsteilnehmenden (oben: grobgranular mit OmissionAnchors; unten: feingranular mit Extraneous-Anchors)80 Anchoring-Variable Anchoring-Maß bzgl. des Lösungsmodells 0 - wenn ausgelassenes Element in der Lösung doch vorkommt 1 - wenn Element nicht in der Lösung aufgenommen wurde Omission (Auslassung) A: Receive customer data SF: Receive … > Enter custo… A: Check contract documents A: Check customer Data SF: Receive ... > Check custom… SF: Check cu… > XOR-Gateway G: XOR-Gateway SF: XOR-Gateway > Error hand… A: Error handling A: … A: … Summe Anchors gesamt PCA 0 0 0 0 0 1 1 1 1 0 0 4 79 0,051 0 - wenn Element nicht in der Lösung aufgenommen wurde 1 - wenn Element in der Lösung aufgenommen wurde Extraneous (Irrelevantes) A: Search customer data Text: "only applicable …" Ass.: DO:Trans... > Search cust… DO: Transaction Text:"from Grid operator & New..." SF: Search cu... > Check custo... A: … A: … Summe Anchors gesamt PCA 163 1 1 1 1 1 0 1 0 6 76 0,079 Eine vergleichende Betrachtung von vorgenommenen Änderungen in maximal-granularem Modell bzw. grob- und feingranularem Modell ist aufgrund dieser Mengenunterschiede kaum möglich. Es ist möglich den prozentualen Anteil von tatsächlich vorgenommenen Änderungen an allen notwendigen Änderungen zu betrachten. Da aber davon ausgegangen werden kann, dass die vielen Änderungen in einer leeren Modellierungsfläche auch kognitiv höhere Anstrengungen erfordern, als die Anpassungen in einem Wiederverwendungsmodell, das bereits über viele nicht zu ändernde Inhalte verfügt, mangelt es an der mengenmäßigen Basis für einen aussagekräftigen Vergleich. Overall Semantic Quality Neben der Durchführung korrekter Anpassungen, die einen relativen Indikator für die Adaptionsqualität eines wiederverwendeten Prozessmodells darstellt, ist auch die absolute Performanz des Modellierungsprozesses von Interesse. Die Performanz des Modellierungsprozesses wird hier mittels der Qualität des Endergebnisses, d.h. des erstellten Prozessmodells, bestimmt. Neben der Beurteilung des Endresultats könnte auch der Modellierungsprozess an sich analysiert werden. D.h. es könnte näher beleuchtet werden, welche Bedingungen während der Modellierung herrschen (z.B. Ausgangsbedingungen und Aufgabe, Merkmale des Modellierungseditors, das Modelllayout, die genutzte Hardware, die direkte Arbeitsumgebung etc.) und welche Auswirkungen diese Bedingungen während der Modellierungszeit auf den Modellierer bzw. das sich entwickelnde Modell haben (z.B. mit welchen Transformationen wird begonnen, welche Transformationen kommen sehr häufig vor, wie ändert sich die Gemütslage des Teilnehmers, wie groß ist die Häufigkeit von Rückgängigmachungen etc.). In der vorliegenden Untersuchung wurde der Fokus auf das Endresultat gelegt, da die genaue Analyse von Phänomenen während der Modellierungszeit wesentlich mehr Ressourcen für die Beobachtung (und Aufzeichnung) und Auswertung der Daten in Anspruch genommen hätte. Mit der Konzentration auf das Endergebnis sind aber Aussagen bezüglich des vorangegangenen Prozesses nicht ausgeschlossen. Durch das Wissen um die Zustände vor und nach der Modellierung ist eine Bestimmung des Weges, der zwischenzeitlich zurückgelegt wurde, d.h. welche relative Veränderung des Modells stattgefunden hat, mit gewissen Einschränkungen möglich. Es ist möglich festzustellen, ob in einem Modell wesentlich mehr Veränderungen stattgefunden haben als in einem anderen – relativ betrachtet zur Ausgangslage. Es ist dagegen nicht möglich, völlig auszuschließen, dass die absolute Anzahl an Transformationsoperationen tatsächlich höher lag. Die tatsächlich vorgenommenen Änderungen, Löschungen und Rückgängigmachungen entzogen sich der expliziten Beobachtung. Es bleibt daher bei einer Schätzung. Bezugnehmend auf die in 2.2.3 diskutierten Qualitätsmerkmale von Prozessmodellen wird nun die abhängige Variable für die Untersuchung festgelegt. Dabei wird der Fokus auf die Größen Vollständigkeit und Validität gelegt. Vollständigkeit und Validität sind zentrale Dimensionen der semantischen Qualität konzeptueller Modelle (Lindland u. a. 1994; Krogstie u. a. 2006). Eine Ausprägung der pragmatischen Qualität (Lindland u. a. 164 1994, S. 45) ist mit der Adaptionsqualität im vorigen Abschnitt erfolgt. Die syntaktische Qualität steht nicht im Fokus, da durch die Verwendung eines einheitlichen Modellierungswerkzeugs automatische Korrekturmechanismen zur Verfügung stehen, welche die meisten syntaktischen Fehler an ihrer Entstehung hindern. Vollständigkeit und Validität werden wie folgt definiert. Vollständigkeit bedeutet, dass das Prozessmodell alle Aussagen aus der Aufgabendomäne enthält, die korrekt und relevant sind (Lindland u. a. 1994, S. 46). Falls das Prozessmodell Aussagen vermissen lässt, die in Bezug auf die Aufgabendomäne korrekt und relevant wären, dann ist es nicht mehr vollständig bzw. weist eine niedrige Vollständkeit auf. Bei mehr korrekten und relevanten Aussagen (bzgl. der Aufgabendomäne) im Prozessmodell steigt die Vollständigkeit entsprechend. Validität bedeutet, dass die im Modell enthaltenen Aussagen bezüglich der Aufgabendomäne korrekt und relevant sind. Ein valides Modell kann dennoch unvollständig sein, wenn eigentlich weitere relevante Aussagen im Prozessmodell benötigt würden. Umgekehrt kann ein vollständiges Prozessmodell eine niedrige Validität aufweisen, wenn über die enthaltenen korrekten und relevanten Aussagen hinaus weitere Aussagen einbezogen sind, die inkorrekt bzw. irrelevant sind (Lindland u. a. 1994, S. 46). Es kann eine analoge Beziehung der Maße des Information Retrieval, Precision und Recall, zu den Begriffen Validität und Vollständigkeit aufgestellt werden. Da die adaptive Wiederverwendung von Prozessmodellen im Kern als eine Aufgabe des Information Retrieval betrachtet werden kann, lässt sich eine Korrespondenz zwischen der Validität eines Modells und der Precision erstellen, d.h. die Elemente, welche in der Prozessmodelllösung enthalten sind, sind alle korrekt und relevant (aber nicht unbedingt vollständig, wenn relevante Information nicht einbezogen worden sind). Ebenso gibt es eine Korrespondenz zwischen der Vollständigkeit und dem Maß des Recall, d.h. ein vollständiges Prozessmodell enthält alle Elemente, welche in Bezug auf den Geschäftsprozess korrekt und relevant sind. Entsprechend drückt Recall diese Eigenschaft aus, dadurch dass ein hoher Recall möglichst viele Elemente im Ergebnis enthält, die korrekt und relevant in Bezug auf die Suchanfrage (dies entspricht der Prozessmodellierungsaufgabe) sind. Für die Overall Semantic Quality wäre ein kombiniertes Maß noch aussagekräftiger und einfacher zu handhaben. Es gibt ein Maß für die Kombination von Precision und Recall, das F-Maß. Das F-Maß kombiniert Genauigkeit (Precision) und Trefferquote (Recall) mittels des gewichteten harmonischen Mittels: 𝐹 =2⋅ 𝑃 𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 ⋅ 𝑅𝑒𝑐𝑎𝑙𝑙 𝑃 𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑅𝑒𝑐𝑎𝑙𝑙 Aufgrund der umfangreichen Prozessmodellkonstruktionsaufgaben und damit auch Wiederverwendungsmodelle, kann durch die reine Übernahme eines Wiederverwendungsmodells bereits ein hoher Recall-Wert erzielt werden, da der größere Teil im Wiederverwendungsmodell nicht angepasst werden muss, sondern bereits korrekt und relevant ist. Dies gilt insbesondere im feingranularen Wiederverwendungsmodell, da hier die Anpassungen die Entfernung von zusätzlichen, nicht aufgabenrelevanten Prozessmodellelemen- 165 ten betreffen – in Bezug auf die Vollständigkeit ist das feingranulare Modell jedoch bereits auf einem hohen Niveau. Um dieser hohen Einordnung des Recall, die durch das Untersuchungsdesign besteht, Rechnung zu tragen, soll die Präzision höher gewichtet werden. Dies ermöglich es dann auch jene validitätsmindernden Anpassungsversäumnisse (d.h. nicht gelöschte, aber überflüssige Prozessmodellelemente im feingranularen Prozessmodell) entprechend mit einem Qualitätsmaß zu reflektieren. Dazu kann das ebenfalls häufig angewandte 𝐹0,5 -Maß herangezogen werden, welches die Präzision zweifach gewichtet: 𝐹0,5 = (1 + 0, 52 ) ⋅ (𝑃 𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 ⋅ 𝑅𝑒𝑐𝑎𝑙𝑙) (0, 52 ⋅ 𝑃 𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑅𝑒𝑐𝑎𝑙𝑙) Precision und Recall können nur eingeschränkt tiefergehende semantische Inhalte wie z.B. Reihenfolgen von Prozessmodellelementen korrekt wiedergeben. Einige Aussagen im Prozessmodell können als prinzipiell korrekt und relevant für einen lokalen Ausschnitt betrachtet werden und sie würden im Sinne des Information Retrieval entsprechend berücksichtigt werden. Es ist aber möglich, dass größere Prozessmodellfragmente als Ganzes zu einem falschen Zeitpunkt innerhalb des Prozessdurchlaufs durchgeführt werden. Die Beeinträchtigung der semantischen Qualität würde durch Precision- und Recall-Maße in solch einem Fall nicht direkt reflektiert werden. Aus der Perspektive des Information Retrieval, also inwieweit Modellierer in der Lage sind aus der Geschäftsprozessbeschreibung heraus die relevanten Inhalte korrekt zu repräsentieren, erscheinen die Maße Precision, Recall und das 𝐹0,5 -Maß adäquat für den Untersuchungskontext. 5.2.5. Kontrollierte Variablen Die experimentelle Untersuchung legt den Fokus auf die Einflüsse spezifischer Faktoren (IV1 und IV2 ) auf eine (bzw. mehrere) abhängige Variable(n). Die übrigen Parameter der experimentellen Aufgabe sind bei den Untersuchungsteilnehmenden auf gleichen Ausprägungsniveaus zu halten, um eventuelle Einflüsse und Interaktionen dieser potenziellen Faktoren zu minimieren. Diese verbleibenden Faktoren aus Abbildung 5.1, die auf Anchoringverhalten und Modellierungsperformanz einwirken können (Charakteristika der Teilnehmer: Anwendungsdomänen- und Modellierungswissen; und Charakteristika der Modellierungsaufgabe: Edit distance und Aufgabenkomplexität) werden dementsprechend kontrolliert. Kontrolltechnik Da die Charakteristika der Teilnehmer, wie deren Modellierungs- und Anwendungsdomänenkenntnisse, aber auch individuelle Merkmale wie Frustrationsschwelle, Lerngeschwindigkeit usw., auf die abhängigen Variablen wirken können, müssen bestimmte Techniken angewandet werden, um diese personengebundenen Störvariablen zu kontrollieren. Bei der vorliegenden experimentellen Untersuchung kann die Technik der Randomisierung 166 angewandt werden. Hierbei werden durch die zufällige Zuweisung der Untersuchungsteilnehmer zu den Untersuchungsbedingungen die Experimental- und Kontrollgruppe auf dem Wege des statistischen Fehlerausgleichs äquivalent gemacht (Bortz u. Döring 2003, S. 525). Die Randomisierung kann hier erfolgen, da die Treatmentvariablen „Granularität“ und „Anwendungsdomäne“ vom Untersuchungsleiter gesetzt werden können. Insbesondere für die personengebundenen Faktoren Modellierungskenntnisse und Anwendungsdomänenkenntnisse wird vermutet, dass sie einen Einfluss auf die abhängigen Variablen haben. Durch die Auswahl von Teilnehmern mit bestimmten Prozessmodellierungskenntnissen soll dieser Faktor auf einem Niveau konstant gehalten werden, das dem eines Mitarbeiters in einer Einstiegsposition in der Funktion eines Prozessmodellierers ähnelt. Durch das Konstanthalten beeinflusst dieser Faktor die Unterschiedlichkeit von Vergleichsgruppen nicht (Bortz u. Döring 2003, S. 527). Für den Faktor Anwendungsdomänenkenntnisse wird ebenfalls die Technik des Konstanthaltens angewandt, allerdings mit der Abwandlung, dass einige wenige Teilnehmer pro Vergleichsgruppe über sehr viel höheres Anwendungsdomänenwissen verfügen, als die restlichen Gruppenmitglieder. Über die Kontrolltechnik der Matched Samples, kann aber auch hier der Einfluss des Faktors stark reduziert werden. Siehe dazu den folgenden Abschnitt. Charakteristika der Teilnehmer Für die Untersuchung werden spezifische Charakteristika der Teilnehmenden weitgehend kontrolliert, die einen potenziellen Einfluss auf das Anpassungsverhalten und damit die Ergebnisse der wiederverwendungsorientierten Prozessmodellierung haben könnten (vgl. Reijers u. Mendling 2011). Die Kontrolle betrifft die folgenden Merkmale: 1) Modellierungswissen, 2) Anwendungsdomänenwissen und 3) Kreis der Untersuchungsteilnehmenden. Modellierungswissen Der Fokus wurde auf fortgeschrittene Anwender gelegt, die über eine Grundausbildung in Modellierungssprachen der Softwaretechnik und der Geschäftsprozessmodellierung verfügen. Bezüglich der Modellierungskenntnisse handelte es sich hierbei also nicht um Anfänger, sondern um Teilnehmer mit wesentlichen bis fortgeschrittenen Kenntnissen. Die studentischen Teilnehmer und wissenschaftlichen Mitarbeiter der Technischen Universität Berlin hatten mindestens eine einsemestrige Vorlesung und Übung der „Grundlagen der Systemanalyse“ absolviert, in der verschiedene Modellierungsmethoden, wie Geschäftsprozess- und Datenmodellierung für die betriebliche Gestaltung in diversen Geschäftskontexten vorgestellt und trainiert wurden (darunter ereignisgesteuerte Prozessketten und BPMN). Sowohl die Studenten als auch die wissenschaftlichen Mitarbeiter haben demnach ähnliche Formen des Trainings bezüglich der Modellierung erfahren. Die Teilnehmer der anderen universitären Institute sind an ähnlichen Fachgebieten der Informatik und des Informationsmanagements angesiedelt und haben in ihren Studien 167 ebenfalls formale und praktische Grundlagen der Geschäftsprozessmodellierung kennengelernt und in Übungen erprobt. Auch die kleine Gruppe der Untersuchungsteilnehmer mit tieferen Anwendungsdomänenkenntnissen und Berufserfahrung (siehe nächster Absatz) verfügt über einen ähnlichen Kenntnisstand in der Prozessmodellierung, da diese Teilnehmer sowohl gleiche Studiengänge und damit ähnliche relevante Kurse belegt hatten wie die o.g. Teilnehmer, als auch in ihren jetzigen Positionen direkt für Themen der Prozessmodellierung und -analyse verantwortlich sind. Anwendungsdomänenwissen In einigen Forschungsarbeiten wurde angenommen, dass tiefere Anwendungsdomänenkenntnisse (domain familiarity) die Performanz in Aufgaben des Modellverständnis und der -erstellung beeinflussen würden (Khatri u. a. 2006; Allen u. Parsons 2010). In Khatri u. a. (2006) wurde die Frage untersucht, inwieweit bessere Anwendungsdomänenkenntnisse in einer Problemlösungsaufgabe bezogen auf ein konzeptuelles Schema zu besseren Ergebnissen führen, als wenn man über wenige Anwendungsdomänenkenntnisse verfügt. Für diese Frage konnte ein Effekt aufgezeigt werden, der allerdings nur mittleren Ausmaßes war. In Allen u. Parsons (2010) wurde in Anknüpfung daran die Frage beleuchtet, ob bei der Wiederverwendung von Queries in der Query-Formulierung höhere Anwendungsdomänenkenntnisse zu einem schwächeren Adjustment Bias führen (was meist eine höhere Qualität des Endmodells impliziert). Die Ergebnisse der Untersuchung konnten diese Hypothese allerdings nicht stützen – Anwendungsdomänenkenntnisse hatten keinen signifikanten Einfluss auf den Adjustment Bias im Vergleich zu Gruppen mit wenigen Kenntnissen. Auch in Wright u. Anderson (1989) wurde festgestellt, dass die Vertrautheit mit Situationen (also höhere Anwendungsdomänenkenntnisse) nicht zu geringerem Anchoring führte. In dieser Untersuchung mussten die Untersuchungssubjekte Eintrittswahrscheinlichkeiten für bestimmte Ereignisse schätzen. Trotz der geringen Hinweise auf einen Effekt der Anwendungsdomänenkenntnis auf die Performanz im model reading und model writing, wird dieser Faktor über die Konstanthaltung kontrolliert. Die Prozessmodellierungsaufgaben wurden aus Bereichen gewählt, die den meisten Studenten mit hoher Wahrscheinlichkeit als neu erscheinen durften. Zum einen handelte es sich um den Stromlieferantenwechselprozess bei Energiedienstleistern und zum anderen um den Managementprozess in Telekommunikationsunternehmen im Fall einer Verletzung der Service-Level-Vereinbarung. Die Terminologie ist nicht nicht so geartet, dass die Teilnehmer die einzelnen Begriffe nicht verstehen würden. Der professionelle Kontext ist für diese Teilnehmer jedoch als fremd zu klassifizieren. Die Studenten und wissenschaftlichen Mitarbeiter waren bezüglich ihrer Domänenkenntnisse also als Anfänger einzustufen. Das Niveau des Anwendungsdomänenwissens der Mehrheit der Untersuchungssubjekte ist als alltägliches Wissen bezogen auf den Kontext ohne professionelle, geschäftsprozessbezogene und semantische Erfahrungen einzustufen. Es soll allerdings nicht ganz auf die Betrachtung von vertieften Domänenkenntnissen 168 verzichtet werden. Deswegen werden in die Vergleichsgruppen zusätzlich zu den Teilnehmern mit konstant gehaltenen Domänenkenntnissen einige wenige (hier: drei pro Vergleichsgruppe) Teilnehmer mit einschlägiger Berufserfahrung in der jeweiligen Domäne der Aufgabenstellung aufgenommen. Um Teilnehmer mit diesen Merkmalen aufzunehmen, wurden Subjekte mit natürlich vorliegenden Eigenschaften, d.h. Berufserfahrung und aufgrund der Tätigkeit erworbene, aufgabenrelevante Domänenkenntnisse, herangezogen. Der Untersuchungsleiter konnte diesen Faktor Anwendungsdomänenkenntnis demnach den Teilnehmern nicht frei zuordnen. Aufgrund dieser Nichtmanipulierbarkeit ist dieser kleinere Teilnehmeranteil in der Vergleichsgruppenzusammensetzung daher mit Blick auf den Faktor Anwendungsdomänenwissen als quasiexperimentell einzustufen. Obwohl der Fokus nicht auf dem Einfluss von Anwendungsdomänenkenntnissen liegt, kann hier trotzdem im Falle von beobachteten Unterschieden in der Nachbetrachtung auf die einzelnen Teilnehmerunterschiede analytisch eingegangen werden. Es soll hier darauf hingewiesen werden, dass für die Schaffung von Anwendungsdomänenkenntnissen in Teilnehmern eine andere Technik als in den Arbeiten von Khatri u. a. (2006) und Allen u. Parsons (2010) eingesetzt wurde. Während in der vorliegenden Untersuchung die unterschiedliche Verteilung von Anwendungsdomänenkenntnissen auf Basis der natürlichen Vorkommnisse genutzt wird, wurde bei Allen u. Parsons (2010) eine Technik eingesetzt, die es den Untersuchungsleitern erlaubt sowohl die Teilnehmer zufällig zu einem bestimmten Niveau an Anwendungsdomänenwissen zuzuordnen ohne ein Domänentraining durchführen zu müssen, als auch die Zuordnung auf einer Zwischensubjektbasis vornehmen zu können. Dabei wurde beispielsweise ein Datenschema einer Anwendungsdomäne herangezogen, die allen Untersuchungssubjekten mit hoher Wahrscheinlichkeit fremd erschien. Dieses Schema stellte die Dömane dar, für die so gut wie keine Anwendungsdomänenkenntnisse vorlagen. Von diesem Schema wurden dann alle Tabellennamen und Attribute entfernt unter Beibehaltung der Struktur des Schemas. Diese Struktur wurde dann mit Begriffen aus einer bekannten Anwendungsdomäne aufgefüllt und stellte somit die Domäne dar, für die sehr viele Anwendungsdomänenkenntnisse vorlagen. Um die Möglichkeit zu reduzieren, dass die Teilnehmer die beiden Schemata direkt als strukturell identisch wahrnehmen konnten, wurde das zweite Schema zusätzlich gespiegelt. Somit konnten zwei strukturell identische Schemata konstruiert werden, die sich lediglich in ihrer Semantik unterschieden. Auf diese künstliche Konstruktion wurde hier verzichtet zugunsten von natürlich vorliegenden Domänenkenntnissen, die in einem langen Prozess unter real-betrieblichen Bedingungen erworben wurden. Es muss hier festgehalten werden, dass dieses quasiexperimentelle Design die Gefahr durch die Möglichkeit anderer Erklärungsalternativen zulässt, welche in weiteren Faktoren der Teilnehmer begründet liegen kann. Dies kann letztlich zu einer Schwächung der internen Validität führen. Dafür darf von realistischen Anwendungsdomänenkenntnissen bei den Teilnehmern ausgegangen werden, was wiederum die externe Validität stärkt. 169 Kreis der Untersuchungsteilnehmenden Die Untersuchungsteilnehmenden des Experiments waren überwiegend Diplom- bzw. Masterstudenten und wissenschaftliche Mitarbeiter der Fachgebiete Informatik, Technische Informatik, Wirtschaftsmathematik und Wirtschaftsingenieurwesen im letzten Abschnitt ihres Studiums der Technischen Universität Berlin, der Freien Universität Berlin, der Humboldt Universität zu Berlin, des KTH Royal Institute of Technology, Schweden und des Hasso-Plattner-Instituts (HPI) Potsdam (dies entspricht fünf europäischen Universitäten). Weiterhin wurden Teilnehmer aus zwei global tätigen Unternehmen der Energie- und Telekommunikationsbranche und lokal ansässigen Kommunikationsdienstleistungsfirmen ausgewählt (im Weiteren als Fachpersonen bezeichnet). Die Teilnehmer wurden zufällig aus der Fachgebietsdatenbank ausgewählt und angeschrieben. Zusätzlich wurden Mitglieder des lokalen Prozessmanagement-Netzwerks angeschrieben und das Teilnahmeangebot wurde über mehrere Email-Verteiler der übrigen Universitäten ausgesandt. Die Teilnehmer wurden per Zufall den drei TreatmentGruppen zugeteilt (Randomisierung): die Gruppe mit feingranularem Prozessmodell, die Gruppe mit grobgranularem Prozessmodell und die Gruppe mit maximal-granularem Prozessmodell (d.h. kein wiederverwendbares Modell bzw. leere Modellierungsfläche). Die Größe von dreizehn Teilnehmern pro Vergleichsgruppe ist vergleichbar mit denen anderer Untersuchungen im Bereich der konzeptuellen Modellierung. Beispielsweise betrugen die Vergleichsgruppengrößen bei Batra u. Wishart (2004) 13 bzw. 14 und bei Parsons u. Saunders (2004) 11 bzw. 12 Personen. Aufgrund dieser Stichprobengröße ist die Technik der Matched Samples eine adäquate Möglichkeit der Störvariablenkontrolle, die verwendet werden sollte (Bortz u. Döring 2003). Es wurde aus mehreren Gründen auf Studenten und wissenschaftliche Mitarbeiter als Experimentteilnehmer zurückgegriffen. Das Konzept der Granularität ist eng mit grundlegenden menschlichen psychologischen Aktivitäten verknüpft – Studenten sind als menschliche Wesen in dieser Hinsicht direkt qualifiziert. Weiterhin konnte aufgrund der Studienrichtungen von einer Neigung der Studenten zu zukünftigen Tätigkeiten im Feld der Prozessgestaltung im Kontext softwareintensiver Systeme ausgegangen werden. Die studentischen Teilnehmer können daher zumindest als Stellvertreter für Berufsanfänger oder zumindest wenig erfahrene Mitarbeiter in diesem Tätigkeitsbereich angesehen werden. Ein weiterer Grund für die Teilnahme von Studenten liegt in ihrer Verfügbarkeit in ausreichender Zahl (aufgrund der Nähe des Untersuchungsleitenden zur Universität), die Stichprobenumfänge für Ergebnisse mit statistischer Aussagekraft erlaubt. Charakteristika der Prozessmodellierungsaufgabe Für die Untersuchung werden spezifische Charakteristika der Prozessmodellierungsaufgabe kontrolliert, um die möglichen Auswirkungen der unabhängigen Variablen weitestgehend isoliert von anderen Einflüssen betrachten zu können. Die Merkmale umfassen: 1) die verwandte Prozessmodellierungssprache, 2) Edit Distance, 3) Aufgabenkomplexität und 4) Modellierungswerkzeug. 170 Prozessmodellierungssprache Zu den Prozessmodellierungssprachen bzw. Notationen, welche die Forderungen nach betrieblicher Verbreitung und Konstruktabdeckung erfüllen, zählen beispielsweise ereignisgesteuerte Prozessketten (und deren Varianten) und die Business Process Modeling Notation (BPMN). In zur Mühlen u. Recker (2008); Recker (2010b) wurde beschrieben, dass diese Sprachen für die Prozessmodellierung in betrieblichen Organisationen häufig eingesetzt werden. Die Untersuchung verwendet im Weiteren die BPMN. In dieser Sprache ist das Wiederverwendungprozessmodell beschrieben und in BPMN soll ebenfalls die Prozessmodelllösung über die Adaption entwickelt werden. Durch die Wahl dieser gängigen Prozessmodellierungssprache kann die Gefährdung der externen Validität aufgrund anders gearteter Effekte durch andere Prozessmodellierungssprachen zumindest teilweise entkräftet werden. Edit distance Die „edit distance“ (dt. Abstand) (z.B. Ehrig u. a. 2007; Dijkman u. a. 2009, 2010) kann als Maß für die Anzahl an Operationen aufgefasst werden, die man an einem wiederverwendeten Prozessmodell durchführen muss, um zur Prozessmodelllösung zu gelangen, welche die Anforderungen aus der Konstruktionsaufgabe widerspiegeln. Weitere Auffassungen dieses Editierungsabstands finden sich in Arbeiten zur Prozessmodellähnlichkeit (vgl. dazu den entsprechenden Abschnitt 3.2.3). Die Abstände zwischen grobgranularem Wiederverwendungsmodell und Idealprozessmodellergebnis einerseits und feingranularem Wiederverwendungsmodell und Idealprozessmodellergebnis andererseits werden kontrolliert, um den Faktor der Anpassungsoperationenanzahl im Verlauf der Prozesmodelladaption in Bezug auf mögliche Auswirkungen auf Adaptionsperformanz und semantische Qualität weitgehend auszuschließen. Die graph edit distance aus Dijkman u. a. (2009) wird zugrunde gelegt und beträgt für alle vier Abstände (2 Granularitätsstufen × 2 Anwendungsdomänen) zwischen 35 und 40 Operationen bzw. Anpassungsschritte. In Abbildung 5.3 und 5.4 sind die Abstände einmal für das feingranulare und einmal für das grobgranulare Wiederverwendungsmodell illustriert (beides in der Energiedomäne). Die gestrichelten Ellipsen stellen die zu entfernenden (bei ExtraneousAnchors) bzw. die einzufügenden (bei Omission-Anchors) Prozessmodellelemente dar. Aufgabenkomplexität Die textuellen Repräsentationen der Geschäftsprozessbeschreibungen für die zwei Anwendungsdomänen Energie und Telekommunikation müssen bezüglich ihrer textbasierten und prozessbezogenen Komplexität kontrolliert werden, um diesen Faktor als mögliche Ursache von Änderungen in der Adaptionsperformanz oder semantischen Qualität der Modellierungsergebnisse weitgehend auschließen zu können. In Abschnitt 3.2.3 wurden einschlägige Maße der Komplexitätsbeschreibung vorgestellt und für den Untersuchungskontext ausgewählt. Tabelle 3.2 zeigt die nahezu gleichen Komplexitätsausprägungen der beiden Geschäftsprozessbeschreibungen. Unter Bezugnahme auf das Knowledge Need aus dem Qualitätsmodell für aktive Prozessmodelle (Krogstie u. a. (2006), vgl. Abschnitt 2.2.3), welches die Wissenslücke zwischen dem internen Wissen über die Domäne und dem benötigten Wissen zur korrekten Repräsentation der Domäne beschreibt, werden in der Geschäftsbeschreibung solche 171 Feingranulares Wiederverwendungsmodell (Anwendungsdomäne Energie) Ideale Prozessmodelllösung (Anwendungsdomäne Energie) Abbildung 5.3.: Graphdarstellung des Übergangs von feingranularem Wiederverwendungsmodell zur Ideallösung „Deltas“ zusätzlich eingebaut. Dies geschieht, damit die Prozessmodellkonstruktion nicht nur aus einem chronologischen 1-zu-1-Mapping des Geschäftsprozesstexts besteht, sondern eine gewisse Arbeit investiert werden muss, um eine Repräsentation der vollständigen Domäne, des Soll-Prozessmodells, zu erhalten. Die Deltas beziehen sich in beiden Geschäftsprozessbeschreibungen (Energie und Telekommunikation) auf eine zusätzliche Datenprüfung, die benötigt wird, und die Änderung der Reihenfolge einer bestimmten Aktivität im Prozess (vgl. Anhang A) Modellierungswerkzeug Die Aufgabenbearbeitung im Rahmen der Untersuchung erfolgte über ein Browser-basiertes Prozessmodellierungswerkzeug. Für diesen Zweck wur- 172 Grobgranulares Wiederverwendungsmodell (Anwendungsdomäne Energie) Ideale Prozessmodelllösung (Anwendungsdomäne Energie) Abbildung 5.4.: Graphdarstellung des Übergangs von grobgranularem Wiederverwendungsmodell zur Ideallösung de der Signavio-Oryx Process Model Editor eingesetzt (Signavio GmbH 2009). Zusätzlich wurde die Aufgabenbeschreibung der Prozessmodellkonstruktion über eine Webseite bereitgestellt. Alle Untersuchungsteilnehmer haben das gleiche Modellierungswerkzeug über den Browser „Firefox“ genutzt. 5.2.6. Experimentdesign Für das Design der experimentellen Untersuchung wurden methodische Vorgaben und Richtlinien aus den Arbeiten von Wohlin u. a. (2000) und Bortz u. Döring (2003) befolgt. 173 Randomisierung Die Prozessmodellerstellungsaufgaben – entweder aus der Anwendungsdomäne Energie oder Telekommunikation – sind den Untersuchungssubjekten zufällig zugeordnet. Die Granularität des wiederzuverwendenen Prozessmodells ist den Untersuchungssubjekten ebenfalls per Zufall zugeordnet. Die Untersuchungssubjekte selbst sind nicht rein zufällig ausgewählt. Sie verfügen über bestimmte Vorkenntnisse der Geschäftsprozesssmodellierung und entstammen Tätigkeitsbereichen des Hochschulbereichs Wirtschaftsinformatik bzw. IT-nahen betrieblichen Organisationen. Balancing Hinsichtlich der kognitiven Fähigkeiten der Partizipanten konnten keine kontrollierenden Maßnahmen ergriffen werden. Bei den Partizipanten handelt es sich um Subjekte, die aus unterschiedlichen Beweggründen und mit unterschiedlichen Biografien in die Bereiche gelangt sind, aus denen die Teilnehmer für das Experiment ausgewählt wurden. Um etwaige Unterschiede aufgrund der Herkunft aus entweder einem eher akademischen Kontext oder einem eher betrieblichen Kontext auszubalancieren, wurde die Technik des matched samples angewandt. Dabei wird darauf geachtet, dass es für Teilnehmer einer Untersuchungsgruppe mit spezifischen Merkmalen – im vorliegenden Fall das Merkmal Tätigkeitsbereich – jeweils korrespondierende Teilnehmer in den anderen Untersuchungsgruppen gibt, die ähnliche Merkmale aufweisen. Designtyp Die Zieldefinition, die Hypothesen und die zu erhebenden Größen weisen auf ein spezifisches experimentelles Design hin. Es werden zwei Faktoren betrachtet, wobei der erste dreifach gestuft, der zweite zweifach gestuft ist. Der erste Faktor ist die Granularität des wiederzuverwendenen Prozessmodells (Faktor A mit den Stufen: A1 = Gfine , A2 = Gcoarse , A3 = Gmax ). Der zweite Faktor ist die Anwendungsdomäne der jeweiligen Prozesmodellierungsaufgabe (Faktor B mit den Stufen: B1 = En, B2 = Tel). Die abhängigen Variablen werden mit einer Verhältnisskala (Adaptionsperformanz) bzw. mit dem 𝐹0,5 Maß (semantische Qualität) gemessen. Überprüft werden die Hypothesen, inwieweit die Modellierungsperformanz von der Granularität des wiederverwendeten Prozessmodells und der Anwendungsdomäne abhängt. Dementsprechend wird ein vollständiger, zweifaktorieller experimenteller Plan aufgestellt, aus dem 3 × 2 = 6 Faktorstufenkombinationen resultieren. Die Variable Sij steht stellvertretend für die Teilnehmerzahl in einer jeweiligen Untersuchungsgruppe einer Faktorstufenkombination. Tabelle 5.3 zeigt das Schema dieses zweifaktoriellen Plans in der Übersicht. Auswertungsmethode Es werden mehr als eine, d.h. zwei abhängige Variablen betrachtet (PCA und OSQ). Die untersuchte Abhängigkeit steht potenziell in Beziehung zu den zwei oben genannten unabhängigen Variablen (Prozessmodellgranularität und Anwendungsdomäne). Für die statistische Überprüfung der Resultate können ANOVAs (Analysis of Variance) herangezogen werden. Die multivariate (und mehrfaktorielle) Varianzanalyse bzw. MANOVA (engl. Multiple Analysis of Variance) sollte im Zusammenhang diskutiert werden. Dieser Test kann einzelnen ANOVAs überlegen sein für den Fall, dass 174 Tabelle 5.3.: Untersuchungsschema des zweifaktoriellen Plans. Links: allgemeines Schema, rechts: Schema des vorliegenden Experiments. B1 B2 A1 S11 S12 A2 S21 A3 S31 En Tel Gfine 13 13 S22 Gcoarse 13 13 S32 Gmax 13 13 die abhängigen Variablen korrelieren. Die ANOVA kann aber bereits ausreichen, um belastbare Aussagen zu treffen (Gerstman 2010). Das statistische Signifikanzniveau wurde für alle Auswertungen auf 𝛼 = 0, 05 gesetzt. Nullhypothesen werden daher zurückgewiesen, wenn der statistische Signifikanzwert (P-Wert) das Signifikanzniveau unterschreitet. Die Gefährdung der Validität der Ergebnisse wird in Abschnitt 6.4 diskutiert. Die Durchführung aller statistischen Tests wurde mit der Software „PASW Statistics 18“ 81 vorgenommen. 5.3. Experimentdurchführung 5.3.1. Vorbereitung Allen Teilnehmern wurde mitgeteilt, dass es sich um eine experimentelle Untersuchung handelt. Sie wurden jedoch nicht darüber informiert, welche konkreten Hypothesen formuliert wurden. Für die Durchführung der einzelnen Experimente wurden Termine mit den Teilnehmern vereinbart. Für den Prozessmodellierungsteil wurde eine Modellierungssoftware benötigt, mit der sowohl die wiederzuverwendenen Prozessmodelle bereitgestellt als auch die Anpassungen an den Modellen vorgenommen werden konnten. Die Software sollte über das World Wide Web nutzbar sein, so dass Teilnehmer auch von verschiedenen Rechnern auf sie zugreifen können, solange eine Internetverbindung besteht. Die lokale Installation einer Modellierungssoftware auf Teilnehmerrechnern konnte so vermieden werden. Die webba81 Die ursprüngliche Produktbezeichung „SPSS“ wurde nach der Akquisition der SPSS Inc. durch die Firma IBM im Jahre 2009 in „PASW Statistics“ geändert. Für die Version 19 (Release 2010) wurde das Produkt erneut umbenannt in „IBM SPSS Statistics“. 175 sierte Modellierungssoftware Signavio Process Editor (Signavio GmbH 2009) erfüllt diese Bedingungen und stellt darüberhinaus mehrere Sprachen für die Geschäftsprozessmodellierung zur Verfügung. Der Signavio Process Editor diente einerseits als Repository, mit dem den teilnehmenden Modellierern die Wiederverwendungsmodelle verfügbar gemacht wurden. Diese Wiederverwendungsmodelle wurden im Vorfeld des Experiments erstellt. Andererseits wurde der Signavio Process Editor genutzt, um vorab die idealen Lösungsprozessmodelle als Musterlösung für die Prozessmodellierungsaufgaben zu erstellen. In der später erfolgenden Bewertung dienen diese als Vergleichsgrundlage. Die Prozessmodellierungsaufgaben wurden ebenfalls im Vorfeld vollständig erarbeitet und über eine Webseite verfügbar gemacht, so dass sich alle Inhalte – Aufgabe, Wiederverwendungsmodell und Modelleditor – von den Teilnehmern im Browser betrachten bzw. bearbeiten ließen. Für die Webseiten mit den Aufgabenstellungen wurde Google sites (Google Inc. 2010b) verwendet. 5.3.2. Experimenteller Ablauf Ablauf der Experimenttermine Die einzelnen Experimente wurden im Zeitraum Dezember 2009 bis September 2010 durchgeführt. Die Zeittafel in Abbildung 5.5 zeigt an, in welchen Perioden wieviele Experimente stattgefunden haben (vgl. Cruz-Lemus u. a. 2009). Teilnehmer (n = 78) 14 12 10 8 6 4 2 0 Abbildung 5.5.: Chronologie der Experimentdurchführungen (Dezember 2009 bis Oktober 2010) Die Teilnehmer wurden gebeten, entsprechend der zugeteilten textbasierten Prozessmo- 176 dellierungsaufgabe ein Geschäftsprozessmodell zu erstellen unter expliziter Zuhilfenahme eines wiederverwendbaren Prozessmodells, welches als Lösungsschätzung zu verstehen war. Das Wiederverwendungsmodell wurde vorab mit BPMN 2.0 erstellt und wurde den Teilnehmern in der webbasierten Anwendungssoftware Signavio Process Editor (akademische Version) bereitgestellt. Die Prozessmodelllösung sollte mittels Anpassungen in der gleichen Modellierungsumgebung innerhalb von 60 Minuten entwickelt werden. Damit jene Teilnehmer, die im Browser nicht ständig zwischen Aufgabenbeschreibung und Modellierungseditor wechseln wollten, nicht dazu gezwungen waren, haben alle Teilnehmer die Aufgabenbeschreibungen zusätzlich in Textform auf zwei Seiten im DIN-A4Format erhalten. Außerdem wurde ein Stift bereitgestellt, um bei Bedarf Unterstreichungen bzw. Anmerkungen im Aufgabentext vornehmen zu können. Nach Ablauf der 60 Minuten musste die Bearbeitung beendet und das Lösungsprozessmodell gespeichert werden. Diese gespeicherten Lösungsprozessmodelle stellen die hauptsächlichen im Experiment erhobenen Daten dar. Es wurden zwei Modellierungsaufgaben auf Basis von real existierenden Prozessszenarien aus zwei unterschiedlichen betrieblichen Domänen für die Untersuchung entwickelt – eine Aufgabe aus dem Energiesektor und eine Aufgabe aus dem Telekommunikationssektor. Da lediglich die inhaltliche Verortung der Aufgaben variiert werden sollte, wurden die verbleibenden Faktoren bezüglich der Aufgabenstellung vom Untersuchungsführenden kontrolliert, so dass die aufgabenbezogenen Untersuchungsbedingungen einen möglichst kleinen Einfluss auf das Untersuchungsergebnis haben würden. Die Komplexität bzw. Schwierigkeit der zwei Modellierungsaufgaben aus den zwei unterschiedlichen Domänen musste ebenfalls kontrolliert werden, um nur den Effekt der Domänenänderung auf das Modellierungsergebnis untersuchen zu können (vgl. Abschnitt 5.2.5 „Kontrollierte Variablen“). Vorgehen bei der Aufgabenpräsentation Für beide Prozessmodellierungsaufgaben wurden je zwei wiederverwendbare Prozessmodelle bereitgestellt, die einmal über Omission-Anchors (grobgranulares Wiederverwendungsmodell) und einmal über ExtraneousAnchors (feingranulares Wiederverwendungsmodell) verfügten. Diese wurden den jeweiligen Treatment-Gruppen als Modellierungshilfe zur Verfügung gestellt. Die Kontrollgruppe „erhält“ ein Wiederverwendungsmodell maximaler Granularität, d.h. sie erhält nur die leere Modellierungsfläche. Die Teilnehmenden erhalten ein wiederverwendbares Prozessmodell, dass jeweils in einer der drei möglichen Granularitäten ausgeprägt ist. Im Falle des maximal granularen Wiederverwendungsmodells wird im Weiteren auch von der Modellierungsaufgabe ohne wiederververwendbares Modell gesprochen. Dadurch ergeben sich drei Gruppen. Da eine Gruppe im engeren Sinne kein Wiederverwendungsmodell erhält, also „from-scratch“ modelliert, liegen zwei Treatment-Gruppen (feine und grobe Granularität) und eine Kontrollgruppe vor. Die Modellierungsaufgaben, die es zu bearbeiten gilt, sind für zwei verschiedene Anwendungsdomänen konzipiert, wodurch sich 3×2 = 6 experimentelle Kombinationen ergeben82 . Um eine betriebliche Projektsituation zu simulieren, wird den Teilnehmenden erklärt, dass sie annehmen sollen, das vorliegen82 Für nähere Erläuterungen zur unabhängigen Variable „Anwendungsdomäne“ vgl. Abschnitt 5.2.3. 177 de Wiederverwendungsmodell sei einem unternehmenseigenen Geschäftsprozessrepository entnommen. Dieses enthalte eine große Menge an aufbereiteten Prozessmodellen, die von anderen Unternehmenseinheiten bereits erfolgreich in prozessorientierten Softwareentwicklungsprojekten eingesetzt wurden. Über eine nicht näher spezifizierte Suche wird ein Prozessmodell identifiziert und selektiert (das den Teilnehmenden bereits vorliegt), das gewisse Ähnlichkeiten mit der vorliegen Prozessdesignaufgabe aufweist. Dieses vorliegende Prozessmodell solle als Lösungsnäherung angesehen und entsprechend angepasst werden, um innerhalb der Bearbeitungszeit alle Anforderungen aus der Prozessbeschreibung im Lösungsmodell zu repräsentieren. 5.4. Ergebnisanalyse Insgesamt haben alle Teilnehmenden Anpassungen an den ihnen vorgegebenen Wiederverwendungsprozessmodellen vorgenommen. Es folgen die Beschreibung des relevanten Datenmaterials einschließlich interessanter deskriptiver Maße wie Mittelwert, Varianz u.w. und anschließend die Überprüfung der Hypothesen. 5.4.1. Deskriptive Statistik In einem ersten Schritt der Datenanalyse werden deskriptive Statistiken herangezogen, um einen ersten Überblick über das Datenmaterial zu gewinnen. Diese deskriptiven Statistiken können zudem anschaulich visualisiert werden. Auf Basis der gesamten Modellierungsergebnisse werden zunächst die Werte der abhängigen Variablen Adaptionsperformanz (PCA) und semantische Qualität (OSQ) dargestellt (siehe Tabelle 5.4). Granularität vs. Adaptionsperformanz Abbildung 5.6 zeigt die Adaptionsperformanz für die Treatments Gfine und Gcoarse bzgl. der Wiederverwendungsmodelle, wobei die Teilnehmerpopulation in adaptionsperformanzbasierte Klassen eingeteilt wurde. Die erste Klasse beinhaltet alle Teilnehmer mit einer Adaptionsperformanz von 0-10%, die zweite Klasse von 10-20% usw. In Abbildung 5.6 ist zu erkennen, dass bei der Wiederverwendung des grobgranularen Prozessmodells eine Konzentration der Adaptionsperformanz um den Bereich 30-40% vorliegt. Bei der Wiederverwendung von feingranularen Prozessmodellen ist dagegen auffällig, dass Häufungen bei sehr niedriger bzw. bei sehr hoher Adaptionsperformanz auftreten. Dies spricht auch für eine stärkere Varianz im Gegensatz zum grobgranularen Fall. Insgesamt haben 26 Teilnehmer ein feingranulares und 26 Teilnehmer ein grobgranulares Prozessmodell wiederverwendet. Der Mittelwert für den feingranularen Fall beträgt 0,2827 mit einer Standardabweichung von 0,3416. Für den grobgranularen Fall beträgt der Mittelwert 0,4867 mit einer Standardabweichung von 0,2944. Diese deskriptive Statistik ist auch Tabelle 5.5 zu entnehmen. 178 Tabelle 5.4.: Daten aus den Modellierungsergebnissen IV2: Supplier switch IV1: Fine Coarse SLA violation Maximal Fine Coarse Maximal DV1,2: PCA OSQ PCA OSQ PCA OSQ PCA OSQ PCA OSQ PCA OSQ 01 02 03 04 05 06 07 08 09 10 11 12 13 0,129 0,000 0,000 0,032 0,000 0,096 0,225 0,225 0,096 0,161 0,419 0,935 0,903 0,821 0,786 0,796 0,786 0,779 0,846 0,822 0,832 0,756 0,725 0,849 0,951 0,945 0,452 0,484 0,774 0,323 0,323 0,903 0,516 0,516 0,000 0,419 0,258 0,323 0,323 0,915 0,888 0,951 0,867 0,867 0,984 0,915 0,890 0,769 0,891 0,871 0,846 0,831 n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. 0,741 0,705 0,392 0,608 0,737 0,787 0,534 0,838 0,898 0,841 0,808 0,769 0,736 0,130 1,000 0,130 0,130 0,043 0,000 0,957 0,913 0,087 0,130 0,174 0,304 0,130 0,812 0,998 0,835 0,751 0,727 0,803 0,935 0,967 0,708 0,747 0,848 0,712 0,743 1,000 0,960 0,680 0,240 0,960 0,200 0,200 0,120 0,400 0,400 1,000 0,680 0,200 1,000 0,995 0,924 0,801 0,995 0,813 0,817 0,785 0,900 0,863 0,938 0,812 0,904 n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. n.a. 0,853 0,840 0,811 0,867 0,805 0,778 0,884 0,818 0,720 0,805 0,799 0,781 0,735 μ 0,248 0,823 0,432 0,883 n.a. 0,723 0,317 0,814 0,542 0,888 n.a. 0,807 ,6 - ,7 ,7 - ,8 ,8 - ,9 ,9 - 1 Teilnehmerzahl erzahl G_fine G_coarse 10 9 8 7 6 5 4 3 2 1 0 0 - ,1 ,1 - ,2 ,2 - ,3 ,3 - ,4 ,4 - ,5 ,5 - ,6 Adaptionsperformanzklassen (in %) Abbildung 5.6.: Häufigkeitsverteilung der Adaptionsperformanz (in Klassen) für Gfine und Gcoarse 179 Tabelle 5.5.: Deskriptive Statistik Granularität vs. Adaptionsperformanz G_fine G_coarse Gültige Werte (Listenweise) N 26 26 Minimum 0,00 0,00 Maximum 1,00 1,00 Mittelwert 0,2827 0,4867 Standardabweichung 0,3416 0,2944 Varianz 0,117 0,087 26 Anwendungsdomäne vs. Adaptionsperformanz Abbildung 5.7 zeigt die Adaptionsperformanz für die Treatments En und Tel bzgl. der Wiederverwendungsmodelle, wobei die Teilnehmerpopulation in adaptionsperformanzbasierte Klassen eingeteilt wurde (siehe Absatz „Granularität vs. Adaptionsperformanz“). Es ist zu erkennen, dass für fast alle Klassen Ausprägungen vorliegen. Anzumerken ist, dass sich für die Klasse 80-90% weder für die Energie- noch für die Telekommunikationsdomäne Werte ergeben haben. Teilnehmerzahl erzahl En Tel 8 7 6 5 4 3 2 1 0 0 - ,1 ,1 - ,2 ,2 - ,3 ,3 - ,4 ,4 - ,5 ,5 - ,6 ,6 - ,7 ,7 - ,8 ,8 - ,9 ,9 - 1 Adaptionsperformanzklassen (in %) Abbildung 5.7.: Häufigkeitsverteilung der Adaptionsperformanz (in Klassen) für En und Tel Der Mittelwert für die Energiedomäne beträgt 0,3398 mit einer Standardabweichung von 0,2878. Für die Telekommunikationsdomäne beträgt der Mittelwert 0,4295 mit einer Standardabweichung von 0,3714. Diese deskriptive Statistik ist auch Tabelle 5.6 zu entnehmen. Granularität vs. semantische Qualität Abbildung 5.8 zeigt die Wertausprägungen der semantischen Qualität der Modellierungsergebnisse für die Treatments Gfine , Gcoarse und Gmax (Treatment ohne Wiederverwendungsmodell) bzgl. der wiederverwendeten Prozessmodelle. Die Werte konzentrieren sich im Bereich ab 70% und höher. Die Werte für Gmax 180 Tabelle 5.6.: Deskriptive Statistik Anwendungsdomäne vs. Adaptionsperformanz En Tel Gültige Werte (Listenweise) N 26 26 Minimum 0,00 0,00 Maximum 0,94 1,00 Mittelwert 0,3398 0,4295 Standardabweichung 0,2878 0,3714 Varianz 0,0830 0,1380 26 sind stärker verteilt und es finden sich vereinzelte Ergebnisse auch unterhalb von 70%. Gcoarse weist besonders in den beiden höchsten Klassen viele Ausprägungen auf. G_fine G_coarse G_max 14 Teilnehmerzahl 12 10 8 6 4 2 0 ,3 - ,4 ,4 - ,5 ,5 - ,6 ,6 - ,7 ,7 - ,8 ,8 - ,9 ,9 - 1 Klassen der semantischen Qualität (als Verhältnis) Abbildung 5.8.: Häufigkeitsverteilung der semantischen Qualität (in Klassen) für Gfine und Gcoarse Der Mittelwert für den feingranularen Fall beträgt 0,8185 mit einer Standardabweichung von 0,0822. Für den grobgranularen Fall beträgt der Mittelwert 0,8858 mit einer Standardabweichung von 0,0663. Im Fall ohne Wiederverwendungsmodell beträgt der Mittelwert 0,7650 mit einer Standardabweichung von 0,1104. Diese deskriptive Statistik ist auch Tabelle 5.7 zu entnehmen. Anwendungsdomäne vs. semantische Qualität Abbildung 5.9 zeigt die klassenbasierte Häufigkeitsverteilung der semantischen Qualität der Modellierungsergebnisse für die Energiedomäne einerseits und die Telekommunikationsdomäne andererseits. Es ist eine klare Konzentration der Werte im Wertebereich ab 70% zu verzeichnen. Die Ergebnisse, die in den Aufgaben der Energiedomäne erstellt wurden, weisen vereinzelt Werte unterhalb der 70% auf. 181 Tabelle 5.7.: Deskriptive Statistik Granularität vs. semantische Qualität N 26 26 26 G_fine G_coarse G_max Gültige Werte (Listenweise) Minimum 0,71 0,77 0,39 Maximum 1,00 1,00 0,90 Standardabweichung 0,0822 0,0663 0,1104 Varianz 0,0070 0,0040 0,0120 26 En Teilnehmerzahl Mittelwert 0,8185 0,8858 0,7650 Tel 18 16 14 12 10 8 6 4 2 0 ,3 - ,4 ,4 - ,5 ,5 - ,6 ,6 - ,7 ,7 - ,8 ,8 - ,9 ,9 - 1 Klassen der semantischen Qualität (als Verhältnis) Abbildung 5.9.: Häufigkeitsverteilung der semantischen Qualität (in Klassen) für En und Tel Der Mittelwert für die Energiedomäne beträgt 0,8096 mit einer Standardabweichung von 0,1134. Für die Telekommunikationsdomäne beträgt der Mittelwert 0,8366 mit einer Standardabweichung von 0,0844. Diese deskriptive Statistik ist auch Tabelle 5.8 zu entnehmen. Tabelle 5.8.: Deskriptive Statistik Anwendungsdomäne vs. semantische Qualität En Tel Gültige Werte (Listenweise) N 39 39 Minimum 0,39 0,71 Maximum 0,98 1,00 39 182 Mittelwert 0,8096 0,8366 Standardabweichung 0,1134 0,0844 Varianz 0,0130 0,0070 Haupteffekte und Interaktionen Die Untersuchung eines möglichen Haupteffekts A, d.h. die Granularitäten der wiederverwendeten Prozessmodelle wirken unabhängig von der Anwendungsdomäne unterschiedlich auf die abhängigen Variablen, kann durch Inspektion der Zeilenmittelwerte in Tabelle 5.9 erfolgen. Der Haupteffekt der Prozessmodellgranularität auf die Adaptionsperformanz beträgt von der Faktorstufe Gfine zu Gcoarse ∣0, 283 − 0, 487∣ = 0, 204. Er ist damit wesentlich größer als der Haupteffekt der Anwendungsdomäne (dies kann mittels Inspektion der Spaltenmittelwerte untersucht werden, ∣0, 340 − 0, 430∣ = 0, 09). Tabelle 5.9.: Datenschema für die Varianzanalyse B2 Tel 0,129 0,130 0,043 0,087 0,096 0,161 1,000 0,000 0,130 0,000 0,225 0,419 0,130 0,957 0,174 0,032 Fine 0,096 0,000 A1 B1 En 0,000 0,225 0,935 0,130 0,913 0,304 0,903 Ai 0,130 0,452 0,323 0,000 1,000 0,960 0,400 0,484 Coarse 0,774 0,903 0,419 0,960 0,200 0,400 0,516 0,258 0,680 0,200 1,000 0,323 A2 0,283 0,516 0,323 0,240 0,120 0,680 0,200 0,323 Bj 0,340 0,430 0,487 0,385 Tabelle 5.10.: Datenschema mit Zellenmittelwerten B1 B2 En Ai Tel A1 Fine 0,248 0,317 0,283 A2 Coarse 0,432 0,542 0,487 0,340 0,430 0,385 Bj Um die Art des Zusammenwirkens der Faktoren G und AD sichtbar zu machen, kön- 183 nen die Mittelwerte der Faktorstufenkombinationen (vgl. Tabelle 5.10) oder auch Interaktionsdiagramme analysiert werden. Dazu werden die Werte der abhängigen Variablen (hier: Adaptionsperformanz) auf der y-Achse und die Stufen der Faktoren (hier: Prozessmodellgranularität bzw. Anwendungsdomäne) auf der x-Achse abgetragen. Für jede Stufe des jeweils anderen Faktors wird ein Linienzug angefertigt, der die Mittelwerte der entsprechenden Faktorstufenkombinationen verbindet (Bortz u. Döring 2003, S. 534). Man erhält zwei Interaktionsdiagramme (siehe Abbildung 5.10). In beiden Diagrammen verlaufen die Interaktionsgraphen gleichsinnig aufsteigend und nahezu parallel, was auf eine rein additive Wirkung der Treatmentkombinationen hinweist. Es kann daher von einer ordinalen Interaktion ausgegangen werden. Es gibt keine Hinweise auf gegensinnige Verläufe der Graphen. Eine besondere sich gegenseitig verstärkende bzw. abschwächende Wirkung zwischen den Faktoren Prozessmodellgranularität und Anwendungsdomäne ist daher nicht angezeigt. En Tel G_fine 0,60 0,60 0,50 0,50 0,40 0,40 0,30 0,30 0,20 0,20 0,10 G_coarse 0,10 0,00 0,00 G_fine G_coarse En Tel Abbildung 5.10.: Abhängige Variable: PCA. Links: Interaktionsdiagramm für Faktor G. Rechts: Interaktionsdiagramm für Faktor AD. En G_fine Tel 0,95 0,90 0,85 0,85 0,80 0,80 0,75 0,75 0,70 0,70 0,65 G_max 0,95 0,90 G_coarse 0,65 0,60 0,60 G_fine G_coarse G_max En Tel Abbildung 5.11.: Abhängige Variable: OSQ. Links: Interaktionsdiagramm für Faktor G. Rechts: Interaktionsdiagramm für Faktor AD. 184 5.4.2. Test der Hypothesen Effekte auf die Adaptionsperformanz Für die Hypothesen H1.-H3. soll analysiert werden, ob die Haupt- bzw. Interaktionseffekte bzgl. der Adaptionsperformanz signifikant sind. Um eine Varianzanalyse vornehmen zu können muss das Vorliegen bestimmter Voraussetzungen geprüft werden. Es wird daher zunächst geprüft, inwieweit Varianzhomogenität in den Stichprobenvariablen vorliegt. Die Varianzhomogenität kann mit dem Levene-Test überprüft werden. Dieser Test prüft die Nullhypothese, dass die Fehlervarianz der abhängigen Variablen über die Gruppen hinweg gleich ist. Da die Irrtumswahrscheinlichkeit nicht gering genug ist – sie liegt über dem Signifikanzwert von 0,10 bei 0,143 – darf die Nullhypothese beibehalten und Varianzhomogenität angenommen werden (vgl. Tabelle 5.11). Somit liegt die Voraussetzung für die Anwendung einer zweifaktoriellen ANOVA (engl. Analysis of Variance) vor. Sowohl der Levene-Test, als auch die zweifaktorielle ANOVA wurden mit PASW Statistics 18 berechnet. Die Testresultate der zweifaktoriellen ANOVA sind Tabelle 5.12 zu entnehmen. Tabelle 5.11.: Levene-Test auf Gleichheit der Fehlervarianzen Abhängige Variable: PCA F 1,898 df1 3 df2 48 Sig. 0,143 Tabelle 5.12.: Tests der Zwischensubjekteffekte Abhängige Variable: PCA Quelle Korrigiertes Modell Konstanter Term G AD G * AD Fehler Gesamt Korrigierte Gesamtvariation a Quadratsumme vom Typ III a ,651 7,695 0,541 0,105 0,005 4,974 13,319 5,625 df 3 1 1 1 1 48 52 51 Mittel der Quadrate 0,217 7,695 0,541 0,105 0,005 0,104 F 2,094 74,257 5,223 1,01 0,05 Sig. 0,113 0 0,027 0,32 0,824 R-Quadrat = ,116 (korrigiertes R-Quadrat = ,060) Der Haupteffekt G der Granularität der Wiederverwendungsmodelle ist klar signifikant bei einem Signifikanzwert von 0,027. Das heißt, dass die höhere Adaptionsperformanz bei Wiederverwendung von grobgranularen Prozessmodellen überzufällig zustande 185 gekommen ist und wahrscheinlich auf die Modellgranularität (bzw. andere Faktoren) zurückzuführen ist. Die Nullhypothese von H1. kann daher verworfen werden. Der Haupteffekt AD der Anwendungsdomäne weist einen Signifikanzwert von 0,32 auf und liegt damit über dem Signifikanzniveau von 0,05. Es darf daher davon ausgegangen werden, dass der Unterschied in der Adaptionsperformanz zwischen Energie- und Telekommunikationsdomäne zufällig zustandegekommen ist und daher nicht signifikant ist. Da die Nullhypothese von H2. einen signifikanten Unterschied angenommen hat, kann auch sie verworfen werden. Zu überprüfen bleibt, ob etwaige signifikante Interaktionseffekte aufgetreten sind, die in der Interpretation des Haupteffekts G zu berücksichtigen wären. Die Analyse ergibt einen Signifikanzwert von 0,824, was deutlich über dem Signifikanzniveau von 0,05 liegt. Die geringen Unterschiede, die aufgetreten sind (vgl. die Differenzen der Zellenmittelwerte in Tabelle 5.10), sind also höchstwahrscheinlich dem Zufall zuzuschreiben und nicht der kombinierten Wirkung von Modellgranularität und Anwendungsdomäne. Die Nullhypothese von H3., die solch einen signifikanten Interaktionseffekt annahm, kann dementsprechend ebenfalls abgelehnt werden. Da eine rein ordinale Interaktion (vgl. den gleichsinnigen Verlauf der Interaktionsdiagramme) vorliegt, kann der signifikante Haupteffekt G als global, d.h. zumindest über die Faktorstufen der Energie- und Telekomunikationsdomäne hinweg, interpretiert werden. Es lässt sich also sagen, die Wiederverwendung grobgranularer Prozessmodelle weist im Rahmen von Prozessmodellierungsaufgaben im Durchschnitt eine höhere Adaptionsperfomanz auf, als die Wiederverwendung feingranularer Prozessmodelle. Effekte auf die semantische Qualität Für die Hypothesen H4.-H6. soll analysiert werden, ob die Haupt- bzw. Interaktionseffekte bzgl. der semantischen Qualität signifikant sind. In dieser Analyse ist die Hinzunahme der dritten Faktorstufe für den Faktor Prozessmodellgranularität – Gmax (kein Wiederverwendungsmodell) – zu berücksichtigen. Der Levene-Test auf gleiche Fehlervarianzen kann hier nicht zugunsten der Varianzhomogenität bestätigt werden. Die ANOVA ist jedoch nicht besonders sensitiv gegenüber Verletzungen der Annahme der Varianzgleichheit, wenn die Stichprobengruppengrößen in etwa gleich groß sind und Standardabweichungen sich in ähnlichen Größenregionen befinden (Gerstman 2010). Da dies hier der Fall ist kann die Varianzanalyse daher ebenfalls mit einer zweifaktoriellen ANOVA durchgeführt werden. Die Testresultate sind Tabelle 5.14 zu entnehmen. Der Haupteffekt G bzgl. der Zielvariablen OSQ ist klar signifikant bei einem Signifikanzwert von 0. Das heißt, dass die Unterschiede in der semantischen Qualität bei Wiederverwendung von verschieden granularen Prozessmodellen überzufällig zustande gekommen sind und wahrscheinlich auf die Modellgranularität (bzw. andere Faktoren) zurückzuführen ist. Die Nullhypothese von H4. kann daher verworfen werden. Da für den Faktor G drei Stufen betrachtet wurden, stellt sich die Frage, von welchen paarweisen Unterschieden der gesamte signifikante Unterschied in der semantischen Qualität 186 Tabelle 5.13.: Levene-Test auf Gleichheit der Fehlervarianzen Abhängige Variable: OSQ F 3,025 df1 5 df2 72 Sig. 0,016 Tabelle 5.14.: Tests der Zwischensubjekteffekte Abhängige Variable:OSQ Quelle Korrigiertes Modell Konstanter Term G AD G * AD Fehler Gesamt Korrigierte Gesamtvariation a Quadratsumme vom Typ III a ,238 52,845 0,191 0,014 0,033 0,536 53,619 0,774 df 5 1 2 1 2 72 78 77 Mittel der Quadrate 0,048 52,845 0,095 0,014 0,017 0,007 F 6,395 7099,307 12,809 1,921 2,217 Sig. 0 0 0 0,17 0,116 R-Quadrat = ,308 (korrigiertes R-Quadrat = ,259) herrührt. Es könnte nämlich sein, dass nur bestimmte Paare zu den Unterschieden beitragen. Diese Frage lässt sich mit Hilfe von Mehrfachvergleichen überprüfen. Entsprechend geeignete statistische Post-hoc-Tests sind der Bonferroni-Test und der Scheffé-Test. Die Testresultate sind in Tabelle 5.15 abgebildet. Hier zeigt sich, dass nicht alle Vergleiche unter dem Signifikanzniveau von 0,05 bleiben (die signifikanten Vergleiche sind mit einem Stern gekennzeichnet). Dies bedeutet, dass insbesondere die Unterschiede zwischen Gfine und Gmax nicht so groß sind wie erwartet. Ein Blick auf die Interaktionsdiagramme in Abbildung 5.11 reflektiert dieses Testergebnis. Die Unterschiede in Bezug auf OSQ zwischen Gcoarse und Gfine bzw. Gcoarse und Gmax sind klar zu erkennen. Dies zeigt sich durch eine Spitze im Graphen bei Gcoarse . Die Unterschiede zwischen Gfine und Gmax sind dagegen nicht eindeutig. Nur für den Graph der Energiedomäne ist ein erkennbarer Abfall bei Gmax im Vergleich zu Gfine zu verzeichnen. Die Nullhypothese H4.1 kann demnach verworfen werden, die Nullhypothese H4.2, welche zumindest ein gleiches (oder höheres) Niveau der Qualitätsergebnisse bei Gmax und Gfine annahm, muss dagegen beibehalten werden. Der Haupteffekt AD der Anwendungsdomäne weist einen Signifikanzwert von 0,17 auf und liegt damit über dem Signifikanzniveau von 0,05. Es darf daher davon ausgegangen 187 Tabelle 5.15.: Mehrfachvergleiche innerhalb des Faktors G Abhängige Variable:OSQ (I)G 95%-Konfidenzintervall (J)G Mittlere Differenz (I-J) Scheffé G_fine G_coarse G_max Bonferroni G_fine G_coarse G_max Standardfehler -,0674* 0,0535 ,0674* ,1208* -0,0535 -,1208* -,0674* 0,0535 ,0674* ,1208* -0,0535 -,1208* 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 0,02393 G_coarse G_max G_fine G_max G_fine G_coarse G_coarse G_max G_fine G_max G_fine G_coarse Sig. Untergrenze 0,02 0,09 0,02 0,00 0,09 0,00 0,02 0,09 0,02 0,00 0,09 0,00 -0,1272 -0,0064 0,0076 0,061 -0,1133 -0,1807 -0,126 -0,0052 0,0087 0,0622 -0,1121 -0,1795 Obergrenze -0,0076 0,1133 0,1272 0,1807 0,0064 -0,061 -0,0087 0,1121 0,126 0,1795 0,0052 -0,0622 Grundlage: beobachtete Mittelwerte. Der Fehlerterm ist Mittel der Quadrate(Fehler) = ,007 * Die mittlere Differenz ist auf dem ,05-Niveau signifikant. werden, dass der Unterschied in der semantischen Qualität zwischen Energie- und Telekommunikationsdomäne zufällig zustandegekommen ist und daher nicht signifikant ist. Da die Nullhypothese von H5. einen signifikanten Unterschied angenommen hat, kann auch sie verworfen werden. Zu überprüfen bleibt, ob etwaige signifikante Interaktionseffekte bzgl. der semantischen Qualität aufgetreten sind, die in der Interpretation des Haupteffekts G zu berücksichtigen wären. Die Analyse ergibt einen Signifikanzwert von 0,116, was über dem Signifikanzniveau von 0,05 liegt (siehe Tabelle 5.14). Die geringen Unterschiede, die also aufgetreten sind (vgl. die Differenzen der Zellenmittelwerte in Tabelle 5.10), sind höchstwahrscheinlich dem Zufall zuzuschreiben und nicht der kombinierten Wirkung von Modellgranularität und Anwendungsdomäne. Die Nullhypothese von H6., die solch einen signifikanten Interaktionseffekt annahm, kann dementsprechend ebenfalls abgelehnt werden. In Tabelle 5.16 sind die Ergebnisse der Hypothesentests zusammengefasst. Diskussion der multivariaten Analyse In den vorangegangenen Absätzen wurden zum einen Effekte auf die abhängige Variable Adaptionsperformanz und zum anderen Effekte auf die abhängige Variable semantische Qualität untersucht. Die vorgenommenen Ana- 188 Tabelle 5.16.: Zusammenfassung der Ergebnisse der Hypothesentests Hypothese Ergebnis H1. Bei Wiederverwendung grobgranularer Prozessmodelle ist die Adaptionsperformanz höher als bei feingranularen (Haupteffekt G). Unterstützt H2. Bei der Prozessmodellwiederverwendung weist die Adaptionsperformanz keine Unterschiede auf in Bezug auf die Anwendungsdomäne, in der die Aufgabe bearbeitet wurde (kein Haupteffekt AD). Unterstützt Hinsichtlich der Adaptionsperformanz ist kein Interaktionseffekt zwischen Granularität und Anwendungsdomäne zu beobachten (kein Interaktionseffekt G*AD) Unterstützt H3. H4. H4.1 H4.2 H5. H6. Bei Wiederverwendung grobgranularer Prozessmodelle ist die semantische Qualität der Ergebnisse höher als bei feingranularen (Haupteffekt G). Die semantische Qualität der Ergebnisse bei grobgranularer Prozessmodellwiederverwendung ist höher, als im feingranularen Fall oder ohne Prozessmodellwiederverwendung. Die semantische Qualität der Ergebnisse bei feingranularer Prozessmodellwiederverwendung ist höher, als ohne Prozessmodellwiederverwendung. Bei der Prozessmodellwiederverwendung weist die semantische Qualität der Ergebnisse keine Unterschiede auf in Bezug auf die Anwendungsdomäne, in der die Aufgabe bearbeitet wurde (kein Haupteffekt AD). Hinsichtlich der semantischen Qualität der Ergebnisse ist kein Interaktionseffekt zwischen Granularität und Anwendungsdomäne zu beobachten (kein Interaktionseffekt G*AD) 189 Teilweise unterstützt Unterstützt Nicht unterstützt Unterstützt Unterstützt lysen erfolgten mit einzelnen univariaten ANOVAs. Da aber zwei abhängige Variablen im Experiment betrachtet und gemessen wurden, könnte prinzipiell auch eine MANOVA (engl. Multivariate Analysis of Variance) durchgeführt werden, welche auch die Einflüsse von unabhängigen Variablen auf eine Kombination von abhängigen Variablen berücksichtigen kann. Dadurch ließen sich zusätzliche Informationen gewinnen, insbesondere wenn die abhängigen Variablen in einer theoretischen Beziehung stehen, um bspw. ein schwierig fassbares, abstrakteres Konstrukt zu operationalisieren. Weiterhin besteht die Gefahr bei der mehrfach angewendeten ANOVA, beoabachtbare Unterschiede zwischen Treatmentgruppen auf die Manipulation der unabhängigen Variablen zurückzuführen, wohingegen sie eigentlich zufällig entstanden sind, weil sich die die Wahrscheinlichkeit, einen Typ 1 Fehler zu begehen, bei Mehrfachvergleichen immer erhöht (Arbeitskreis Statistik 2010). Um dieses Risiko abzuwenden wurde ebenfalls eine MANOVA durchgeführt. Die Ergebnisse stehen im Einklang mit den zuvor erhaltenen. 190 6. Diskussion Die in Abschnitt 4.5 hergeleiteten Hypothesen können mit Hilfe der in Kapitel 5 durchgeführten experimentellen Untersuchung und der dort erzielten Ergebnisse zum großen Teil unterstützt werden. Die Hauptergebnisse sollen hier vor dem Hintergrund der im Theorieteil erörterten Untersuchungen und im Zusammenhang mit dem Untersuchungsablauf diskutiert werden. Es folgen daher zunächst die 1) Ergebnisdiskussion, gefolgt von den Implikationen für die 2) Wissenschaftsgemeinschaft, 3) die betriebliche Praxis und der Abschnitt schließt ab mit 4) Erläuterungen zu möglichen Gefährdungen der Validität. 6.1. Ergebnisdiskussion Die Ergebnisse werden im Folgenden nach den Hypothesen gegliedert vorgestellt und diskutiert. Dabei werden nach Möglichkeit Untersuchungen anderer Forschungsvorhaben herangezogen, um eventuelle Übereinstimmungen oder Widersprüche zu erörtern. Bemerkenswerte Beobachtungen aus der Untersuchungsdurchführung werden vor dem Hintergrund der Ergebnisse ebenfalls beleuchtet. Es wurde angenommen, dass es bei der Wiederverwendung von Prozessmodellen, die unterschiedliche Granularitäten aufweisen – aber ansonsten mit einem ähnlichen Umfang an Anpassungsoperationen in die Lösung überführt werden könnten – zu signifikanten Unterschieden in der Adaptionsperformanz kommen würde (H1.). Diese Annahme des Haupteffekts der Granularität hinsichtlich der Adaptionsperformanz hat sich für den Anwendungsbereich der Untersuchung bestätigt. Die Modellierer, die ein grobgranulares Prozessmodell zur Wiederverwendung eingesetzt haben, konnten im Mittel deutlich mehr korrekte Anpassungen am Prozessmodell vornehmen, als die Modellierergruppe mit den feingranularen Prozessmodellen. Nach der CFT kann hier also von einem höheren Cognitive-Fit zwischen grobgranularem Wiederverwendungsmodell und den mentalen Repräsentationen zur Lösungsbildung ausgegangen werden im Vergleich zum niedrigeren Fit zwischen feingranularem Wiederverwendungsmodell und den mentalen Repräsentationen. Dieses Ergebnis legt nahe, dass der Anker- und Anpassungseffekt, der die Modellierer dazu bewegt, vorhandene Prozessmodellelemente nicht anzupassen, obwohl sie angepasst werden müssten, im feingranularen Fall stärker ausgeprägt ist, als im grobgranularen Fall. Im Zusammenhang mit den Ankertypen, die mit den jeweiligen Granularitätsstufen assoziiert wurden, kann dies so interpretiert werden, dass der Ankereffekt bezüglich der Extraneous-Anchors schwerer ausfällt (d.h. im feingranularen Fall), als in Bezug auf die Omission-Anchors (d.h. im grobgranularen Fall). Die kognitive Ladung im Sinne einer 191 Belastung, die den Modellierer daran hindert eine notwendige Anpassung vorzunehmen, scheint sich daher nicht primär aus dem Umfang der erforderlichen Anpassungsoperationen zu bilden, sondern scheint sich stärker auf den Typ der Anpassung – Einfügen bzw. Entfernen – und die Menge an vorliegender visueller Information, welche im feingranularen Fall größer ist, zu beziehen. Aufgrund dieses möglichen Unterschieds in der kognitiven Ladung sind Modellierer, die mit eher gröber granularen Prozessmodellen konfrontiert werden, evtl. stärker stimuliert, Modifikationen vorzunehmen. Die Basis für diese Stimulierung könnte evtl. in der höheren Motivation vermutet werden, die bei der Durchführung von einfügenden oder verfeinernden Operationen entsteht und weniger bei löschenden Anpassungen auftritt. Dass überhaupt Ankereffekte in beiden Wiederverwendungsfällen auftraten, steht im Einklang mit den Studienergebnissen von Parsons u. Saunders (2004), die deutliche Ankereffekte bezüglich Extraneous- aber auch Omission-Anchors bei der Wiederverwendung von ER-Modellen beobachten konnten. Die Unterscheidung von Anchoring, welches sich auf das Wiederverwendungsmodell oder aber auf das allgemeine Domänenwissen beziehen könnte (siehe auch Parsons u. Saunders 2004, S. 885), konnte in dieser Untersuchung aufgrund des Designs nicht differenziert werden. Daher ist es möglich, dass nicht allein auf dem Wiederverwendungsprozessmodell und den Extraneousbzw. Omission-Anchors ein Anchoring stattfindet, sondern dass sich das Anchoring evtl. auch über das Gedächtnis und dem darin eingebetten Domänenwissen vollzieht. Ein weiteres sehr interessantes Ergebnis stellt die Verteilung der Adaptionsperformanz in den feingranularen Wiederverwendungsfällen dar. Obwohl die statistische Analyse keine besondere Verteilung nahegelegt hat, ist durch einfache Betrachtung der Häufigkeiten in der Stichprobe eine Häufung bei der niedrigen Adaptionsperformanz und eine Häufung bei der sehr hohen Adaptionsperformanz augenscheinlich. Bei den mittleren Performanzwerten sind dagegen nur wenige Fälle zu verzeichen. Es kann hier die Frage gestellt werden, ob dies nicht nur zufällig entstanden ist, sondern vielleicht ebenfalls auf charakteristische kognitive Prozesse zurückzuführen ist. Unter Umständen haben einige Modellierer hier ein Muster der Anchorverteilung erkannt bzw. erwartet, auf das sie sich dann kognitiv eingestellt haben. Diese kognitive Adaption konnte dann evtl. dazu führen, dass Anpassungen entsprechend effizienter durchgeführt werden konnten. Hier weisen einige Modellierer scheinbar individuelle Eigenschaften auf, evtl. Auffassungsgabe, Lerntempo etc., die ihnen diese Reaktion ermöglicht, die andere Modellierergruppen nicht in dieser Weise ausführen können. Die Erwartbarkeit solcher Anchorverteilungsmuster könnte in Untersuchungsdesigns durch entsprechend verschiedene Verteilungen reduziert werden. Eine alternative Erklärung wäre evtl. auch, dass die Konstruktionsaufgabe unter Wiederverwendung von einigen Modellierern – trotz genauer Erklärung – nicht ausreichend verstanden wurde und deshalb notwendige Anpassungen versäumt wurden. Die hier diskutierten Ergebnisse liefern einige Charakterisierungen, die der Näherung der eingangs formulierten Fragen F3., F4. und F5. dienen (siehe Abschnitt 1.1). Es wurde ebenfalls angenommen, dass auch die semantische Qualität signifikante Unterschiede aufweisen wird, wenn Modellierergruppen Prozessmodelle unterschiedlicher Granularität in der Aufgabenbearbeitung wiederverwenden (H4, H4.1, H4.2). Diese Annahme des Haupteffekts der Granularität hinsichtlich der semantischen Qualität hat sich 192 für den Anwendungsbereich der Untersuchung bestätigt. In Erweiterung des rein paarweisen Vergleichs von grobgranularem und feingranularem Treatment bei der Adaptionsperformanz wurde hier ein drittes Treatment – die Kontrollgruppe ohne Wiederverwendungsmodell – mit hinzugenommen. Dies ermöglichte zusätzlich den qualitätsbasierten Vergleich mit Prozessmodelllösungen der Arbeitssituation, die gar kein Wiederverwendungsmodell bereitstellte. Sowohl die Modellierergruppen mit feingranularem Wiederverwendungsmodell, als auch die Gruppen ohne ein wiederverwendbares Prozessmodell haben gegenüber dem grobgranularen Treatment eine signifikant niedrigere semantische Qualität in ihren Lösungen erreicht. Dieser Trend ist über beide Anwendungsdomänen (En und Tel) hinweg zu beobachten. Dieses Ergebnis stimmt mit der Intuition überein, dass wenn sich bereits Unterschiede in der Adaptionsperformanz gezeigt haben – und diese Versäumnisse von notwendigen Anpassungen wirken sich konsequent qualitätsmindernd aus – es auch zu entsprechenden Fortpflanzungen dieser Unterschiede in die semantische Qualität der Ergebnisse kommt. Nichtsdestotrotz bestand die Möglichkeit, durch Modifikationen der Wiederverwendungsmodelle über die eingebetteten Anchors hinaus – also falsche, zusätzliche Einfügungen, falsche Löschungen usw. – die Prozessmodellergebnisqualität zusätzlich zu schmälern. Bis auf einige wenige Ausnahmen konnten jedoch keine zusätzlichen, unerwarteten Adaptionen in den Gruppen beobachtet werden, weswegen auch in Bezug auf die semantische Qualität das grobgranulare Treatment ein besseres Ergebnis als das feingranulare Treament aufweist. Als interessant kann das Ergebnis der Kontrollgruppe (kein Wiederverwendungsmodell) erachtet werden, welches hinsichtlich der semantischen Qualität relativ nah an die Qualitätsergebnisse der feingranularen Gruppen herankommt. Dies ist auf die Verwendung des 𝐹0,5 -Maßes aus dem Bereich des Information Retrieval als Maß für die semantische Qualität zurückzuführen, welches die Präzision, also wie valide ein erstelltes Prozessmodellergebnis ist, stärker gewichtet. Bei den Kontrollgruppen ist es zwar zu erheblichen Qualitätseinbrüchen in der Dimension der Vollständigkeit gekommen. Für viele Modellierer reichte hier schlicht der vorgegebene Zeitrahmen für die Anfertigung eines bezüglich der Anforderungen vollständigen Geschäftsprozessmodells nicht aus. Die Prozessmodelle, die aber erstellt wurden, enthielten in der Regel überwiegend korrekte und relevante Modellelemente, so dass die Validität für sich genommen recht hoch war. Durch die Gewichtung des 𝐹0,5 -Maßes werden für die Ergebnisse aus den Gruppen trotz recht unvollständiger Prozessmodelle Qualitätswerte erzielt, die zum Teil an jene der feingranularen Gruppen heranreichen. Bewertet man die Kontrollgruppen jedoch rein aus der an der Vollständigkeit orientierten Perspektive, so kann festgehalten werden, dass beide Wiederverwendungsansätze dem From-scratch-Ansatz – im Anwendungsbereich dieser Untersuchung – klar überlegen sind. In zukünftigen Studien darf überlegt werden, das 𝐹0,5 -Maß um weitere Qualitätsmaße zu ergänzen, um ein umfassenderes Bild der Qualitätsunterschiede zu erhalten. Die hier vorliegenden Ergebnisse liefern einige Charakterisierungen, die der Näherung der eingangs formulierten Frage F1. dienen (siehe Abschnitt 1.1). Desweiteren wurde angenommen, dass sich durch die Replikation der Untersuchung in einer weiteren Anwendungsdomäne in Bezug auf die Adaptionsperformanz keine signifikanten Unterschiede zeigen würden (H2.). Dieses Ausbleiben eines Haupteffekts der 193 Anwendungsdomäne konnte in der Untersuchung bestätigt werden und gibt damit Auskunft in Bezug auf die einleitend formulierte Forschungsfrage F6. (vgl. Abschnitt 1.1). Es sind zwar leicht höhere Werte der Adaptionsperformanz für die Untersuchungsaufgabe in der Telekommunikationsdomäne zu vermerken, diese sind jedoch nicht signifikant und sind zufällig oder durch einen nicht weiter beachteten Faktor zustandegekommen. Zumindest für diese zwei untersuchten Anwendungsdomänen kann in diesem Kontext von einem relativ robusten Effekt des granularitätsabhängigen Anchoring ausgegangen werden, der unbeeinflusst von Domänenänderungen ist. Erst weitere Replikationen können hier mehr Aufschluss über die Robustheit des Effekts geben. Analog wurde für die Ergebnisvariable der semantischen Qualität ebenfalls keine Beeinflussung durch eine Änderung der Anwendungsdomäne erwartet (H5.). Diese Annahme konnte nur zum Teil bestätigt werden. Während für die Modellierergruppen mit Wiederverwendungsmodellen die semantische Qualität der Ergebnisse über die Anwendungsdomänen hinweg nahezu keine Unterschiede aufweist, ist in den From-scratch-Gruppen ein Qualitätsvorteil in der Telekommunikationsgruppe gegenüber der Energiegruppe zu vermerken (vgl. dazu das rechte Interaktionsdiagramm in Abbildung 5.11). Es sind aber alternative Erklärungen denkbar, um diesen Unterschied in der semantischen Qualität zu deuten. Leichte Komplexitätsdifferenzen, die beim Design der Prozessmodellkonstruktionsaufgaben entstanden sein könnten, haben evtl. dazu geführt, dass die in der Telekommunikationsdomäne angesiedelte Modellierungsaufgabe den Teilnehmern im Vergleich zur Energieaufgabe etwas leichter fiel. Eine weitere Erklärung könnte dann doch auch in einem Erfahrungsunterschied in der Prozessmodellierung (z.B. durch mehr Modellierungsübungen) zu suchen sein83 . Es kann auch eine Kombination aus beiden Faktoren zu der beobachteten Wirkung geführt haben. Die Möglichkeit der Interaktion der Faktoren Granularität und Anwendungsdomäne wurde zur vollständigen Betrachtung aller potenziell wirkenden Effekte ebenfalls berücksichtigt, aber nicht erwartet (H3. und H6.). Signifikante Interaktionseffekte wurden in der Untersuchung weder für die Adaptionsperformanz noch für die semantische Qualität beobachtet, d.h. die Erwartung konnte in dieser Hinsicht bestätigt werden. Festzuhalten bleibt, dass der Faktor Granularität des Wiederverwendungsmodells einen globalen Effekt in Bezug auf Adaptionsperformanz und semantische Qualität hervorruft bzw. mindestens mit den entsprechenden signifikanten Ausprägungsunterschieden korreliert. 6.2. Implikationen für die Wissenschaftsgemeinschaft Die nähere Untersuchung des Adaptionsverhaltens von Modellierern vor dem Hintergrund des kognitiven Ankereffekts im Rahmen der Prozessmodellwiederverwendung und die empirischen Ergebnisse stiften verschiedene Nutzen für die wissenschaftliche Gemeinschaft. Zunächst wurde in dieser Arbeit eine Differenzierung der Auffassung der pragmati83 Vgl. dazu die Diskussion zur Rolle des Domänen- und Modellierungswissens in Abschnitt 3.2.2. 194 schen Qualität von wiederverwendeten Geschäftsprozessmodellen vorgenommen. Dies ermöglicht eine stärker ins Detail gehende Betrachtung der spezifischen Arbeitssituation, in welcher externe Repräsentationen, insbesondere Prozessmodelle, systematisch und adaptiv wiederverwendet werden. Hierdurch kann eine abgestuftere Auffassung darüber entwickelt werden, was es bedeutet, wenn sich bestimmte Prozessmodelle für bestimmte Konstruktionsaufgaben besonders gut bzw. eher weniger eignen. Sie wurde zudem in den Zusammenhang existierender Qualitätsframeworks (Lindland u. a. 1994; Krogstie u. a. 2006) gestellt. Dieser Ansatz geht über den oft vorgenommenen Schritt, Prozessmodelle zu konstruieren und für die Wiederverwendung lediglich zu deklarieren, hinaus und unternimmt den Versuch, spezifische Bedingungen der wiederverwendeten Prozessmodelle im Sinne externer Repräsentationen (insbesondere die Eigenschaft der Granularität) näher zu untersuchen. Forscher können diese differenzierte Auffassung als Ausgangspunkt verwenden, um performanzbasierte und an der Pragmatik orientierte Untersuchungen im Kontext der Wiederverwendung von Prozessmodellen durchzuführen. Weiter wurde der Kontext der Geschäftsprozessmodellierung in Verbindung mit einer fundierten theoretischen Basis für Lösungsvorgehen der allgemeinen Problembearbeitung unter Nutzung extern repräsentierter Artefakte, der Cognitive-Fit-Theorie (Vessey u. Galletta 1991), in Verbindung gebracht und für die Prozessmodellwiederverwendung spezialisiert. Pragmatisch orientierte Forscher, die Untersuchungen in Bezug auf die Wiederverwendbarkeit von Geschäftsprozessmodellen vornehmen oder dies beabsichtigen, sollten diese kognitionsorientierte Perspektive, welche von der CFT explizit berücksichtigt wird, in ihren Forschungsdesigns in Erwägung ziehen. Da das Verständnis über die Bildung von mentalen Repräsentationen von Geschäftsprozessen kritisch ist in Bezug auf die erfolgreiche Konstruktion und Nutzung von externen Repräsentationen wie Prozessmodellen, würde die Nichteinbeziehung der grundlegenden Prozesse der Wahrnehmung menschlicher Modellierer zu kurz greifen. Zukünftig ist eine weiter differenzierte Verwendung des Cognitive-Fit-Modells anzustreben, so dass die mentalen Prozesse der internen Repräsentationsbildung für verschiedene Artefakte (z.B. Geschäftsprozesskontext und Wiederverwendungsmodell, vgl. Abschnitt 3.2.1) berücksichtigt werden können. Es wurde die prinzipielle Möglichkeit der Übertragung des Anker- und Anpassungseffekts aus der Kognitionspsychologie auf die Prozessmodellwiederverwendung demonstriert. Diese Arbeit ergänzt somit den Wissensstand über adaptives Verhalten und kognitive Heuristiken in der Modellwiederverwendung, welcher bisher für statische Modelle aufgebaut wurde (Parsons u. Saunders 2004), um erste explorative Ergebnisse im Kontext der Prozessmodellwiederverwendung. Das Verständnis der mentalen Prozesse, die während der Prozessmodellwiederverwendung ablaufen, befindet sich hier noch in einem Anfangsstadium. Der Ankereffekt konnte im Rahmen dieser Arbeit aufgezeigt werden. Dies bedeutet, dass ein besseres Verständnis des Adaptionsverhaltens wichtig ist in Bezug auf eine erfolgreichere Prozessmodellwiederverwendung, da die nicht angepassten Modellelemente potenziell eine Störung der Kommunikation zwischen dem Konstrukteur (bzw. Anpasser) und dem nächsten Konsumenten darstellen. Eventuell müssen bestimmte Gegenmaßnahmen getroffen werden, die einem zu starken Anchoring entgegenwirken, 195 z.B. Hinweis- bzw. Dokumentationsassistenten in einem Prozessmodellierungswerkzeug. Zusätzlich konnte auch eine differenzierte Betrachtung des Ankereffekts in verschieden granularen Wiederverwendungprozessmodellen vorgenommen werden. Die bessere Adaptionsperformanz im grobgranularen Fall legt nahe, dass wiederverwendende Modellierer eher auf grobgranulare Prozessmodelle zurückgreifen sollten, als auf zu feingranulare, viele Extraneous-Anchors enthaltende Prozessmodelle. Nichtsdestotrotz kam es vereinzelt zu hohen Performanzwerten auch bei feingranularen Wiederverwendungsmodellen. Die Möglichkeit individueller und weiterer Faktoren müsste hier zukünftig überprüft werden. Wird jedoch von einer Modellierungssituation ausgegegangen, die in Organisationen zunehmend kollaborativ und in Teams stattfindet, dann sind diese einzelnen positiven Anpassungsfähigkeiten in Bezug auf feinganulare Wiederverwendungsmodelle vermutlich zu vernachlässigen, da im Durchschnitt diese Anpassungsleistung nicht erbracht werden und dann zu Missverständnissen führen kann. Das unterschiedliche Auftreten des Ankereffekts in Abhängigkeit von Eigenschaften des wiederverwendeten Prozessmodells (z.B. Granularität) kann zudem in der Wissenschaftsgemeinschaft als Ausgangspunkt für weitere, detailliertere Fragestellungen dienen. Die Arbeit hat im Weiteren die Konzeptualisierung des Granularitätsbegriffs für Prozessmodelle fortgeführt. Dazu wurde ein allgemeines, mengentheoretisch fundiertes Granularitätskonzept (vgl. Yao 2004) herangezogen und die Übertragbarkeit auf Geschäftsprozessmodelle demonstriert. Diese Übertragung ermöglichte die Einführung eines formalen Maßes zur Bestimmung der Granularität von Prozessmodellen. Im Zusammenhang mit dem Konzept des Anchoring (welches die oben genannten Ankereffekte herbeiführt) konnte eine Verbindung zwischen spezifischen Ankertypen und bestimmten Granularitätsniveaus – in Bezug auf die Lösung einer Prozessmodellkonstruktionsaufgabe – aufgezeigt werden. Diese Beiträge ergänzen Arbeiten der Geschäftsprozessmodellabstraktion und können in eine fortzuführende Konzeptualisierung der Geschäftsprozessmodellgranularität eingehen. Abschließend liefert die vorliegende Arbeit ein formal spezifiziertes Forschungsmodell, ein detailliertes Untersuchungsdesign und zugehörige empirische Ergebnisse, welche die aufgestellten Hypothesen zu einem großen Teil bestätigen. Das Forschungsmodell kann von Forschern genutzt werden, um Replikationen beispielsweise in anderen Anwendungsdomänen durchzuführen, welche die bisherigen Ergebnisse auf den Prüfstand stellen können. Ebenso kann das Forschungsmodell für mögliche Variationen der Fragestellung entsprechend angepasst werden. Dem Untersuchungsdesign lag ein Laborexperiment zugrunde, welches gewisse Einschränkungen der Validität mit sich bringt (vgl. Abschnitt 6.4). In zukünftigen Arbeiten können Versuche unternommen werden, die Arbeitssituation der Prozessmodellwiederverwendung unter realbetrieblichen Bedingungen, z.B. Systementwicklungsprojekten, zu analysieren. 196 6.3. Implikationen für die betriebliche Praxis Insgesamt muss für den betrieblichen Einsatz von wiederzuverwendenden Prozessmodellen bemerkt werden, dass es zu Ankereffekten im Zuge der Anpassung von Wiederverwendungsmodellen kommen kann. Dies bedeutet im Endergebnis, dass die durch adaptive Wiederverwendung konstruierten Prozessmodelle im Mittel nicht die Validität und Vollständigkeit aufweisen, die eine ideale Repräsentation des jeweiligen Geschäftsprozesses erkennen ließe. Dies ist auf die Beibehaltung von irrelevanter Information bzw. die unterlassene Anpassung von notwendigen Modellelementen zurückzuführen, welche die semantische Qualität der Lösungsmodelle reduzieren. Bei der weiteren Nutzung dieser konstruierten Prozessmodelle kann es daher zu unstimmigen Interpretationen der Inhalte kommen, welche die effektive Kommunikation mittels der Geschäftsprozessmodelle potenziell stören. Dies ist für Entscheidungsträger, die gestalterisch auf die organisatorische Praxis der Prozessmodellwiederverwendung einwirken können, eine wichtige Information. In Abhängigkeit davon wie kritisch die Störungen der betrieblichen Kommunikation aufgrund von qualitativ geminderten Prozessmodellen zu bewerten sind, sollten Organisationen bzw. ihre Führung entsprechend steuernd eingreifen, was in besonders sensiblen Arbeitskontexten gegebenenfalls eine starke Einschränkung der Wiederverwendungsansätze an sich bedeuten könnte. Den Untersuchungsergebnissen nach treten die Ankereffekte bei verschieden granularen Wiederverwendungsprozessmodellen unterschiedlich stark auf. Die Ergebnisse der Untersuchung legen deswegen nahe, dass bei Prozessmodellkonstruktionsaufgaben unter Wiederverwendung, besonders feingranulare Modelle, welche auch über große Anteile an Extraneous-Anchors, d.h. in Bezug auf die Aufgabe irrelevante Prozessmodellelemente, verfügen, mit Vorsicht einzusetzen sind, da hier signifikante „Verwässerungen“ der Prozessmodellergebnisse stattfinden können. Für die betriebliche Praxis bedeutet dies, dass die Aktivitäten und ausführenden Rollen innerhalb des Wiederverwendungsprozesses für dieses Potenzial sensibiliert werden müssen. Konkrete Hinweise könnten z.B. den Prozessmodellierern für die Phase der Aufbereitung gegeben werden, bevor Prozessmodelle für die Wiederverwendung in neuen Konstruktionsaufgaben freigegeben werden. Diese Hinweise könnten bestimmte Filterregeln umfassen, welche nur bestimmten Prozessmodellen nach Überprüfung von festgelegten Kriterien (z.B. unkritische Anwendungsdomänen, potenzielle Adressatenkreise, Granularität usw.) die Aufnahme und Freigabe im Repository erlauben. Weitere Regeln können sich auf das explizite Vorgehen in der Phase der Aufbereitung beziehen, die beispielweise die Entfernung von hochspezifischen Prozessmodellinhalten (und damit potenziellen Extraneous-Anchors in Bezug auf andere Kontexte) verlangen. Die beobachteten Ankereffekte können sogar auf eine noch früher gelagerte Phase des Wiederverwendungsprozesses Implikationen haben: die der Konstruktion der Prozessmodelle an sich. Hier könnten Regeln aufgestellt werden, die bereits in der Phase der Erstellung Überprüfungen verlangen, welche z.B. akzeptierte Granularitätsniveaus und vereinbarte Vokabulare bezüglich der Prozessmodellbeschriftungen berücksichtigen. Dies 197 stellt eine schwierige Form der Governance dar, da die Einführung von Prüfmaßnahmen typischerweise den Arbeitsfluss der Prozessmodellkonstruktion stört und aus diesem Grund die Ergonomie des Erstellungsprozesses vermindert wird. Das Ergebnis der Untersuchung, dass bestimmte Granularitätniveaus von Wiederverwendungsmodellen eine verbesserte Anpassungsergonomie aufweisen, hat Bedeutung für das Management von Prozessmodellrepositories und ihrer Funktionen. Da die Granularität eventuell einen kritischen Faktor für den Anpassungserfolg und damit die semantische Qualität der Prozessmodelllösung darstellt (die Untersuchungsergebnisse legen dies zumindest nahe), kann diese Information in die Affinitätsgröße mit aufgenommen werden, welche maßgeblich für das Matching einer Suchanfrage mit den verfügbaren Prozessmodellen im Repository ist. In die ähnlichkeitsbasierte Suche kann auf diesem Wege auch die Größe der Anpassungsergonomie fließen. Auf diese Weise kann der Möglichkeit, dass hohe wahrgenommene Ähnlichkeiten zwischen wiederverwendbaren Prozessmodellen und dem Geschäftsprozesskontext nicht unbedingt mit dem erforderlichen Adaptionsaufwand korrelieren müssen, Rechnung getragen werden. Aufgrund der Sensivität von menschlichen Modellierern gegenüber der Granularität von wiederverwendbaren Prozessmodellen in Bezug auf adaptive Prozessmodellkonstruktionen, erscheinen darüber hinaus Repositorybzw. Editorfunktionen, welche die Steuerung des Granularitätsniveaus ermöglichen (vgl. die vorgeschlagenen Funktionen des Zoom-in und Zoom-out in Smirnov u. a. (2010b)) als sehr sinnvoll. Diese Steuerungsmöglichkeit erhöht die Flexibilität von Prozessmodellierern in ihrem Vorgehen der adaptiven Prozessmodellerstellung vermutlich zusätzlich und Ankereffekte wären in dieser Arbeitssituation in geringerem Umfang zu erwarten. 6.4. Gefährdung der Validität 6.4.1. Diskussion der internen Validität Die Untersuchungsergebnisse sind bezüglich ihrer internen Validität kritisch zu beurteilen (Bortz u. Döring 2003, S. 504). Eine hohe interne Validität liegt dann vor, wenn die Varianz der Modellierungsperformanz eindeutig auf die Manipulation der Granularität zurückzuführen wäre. Campbell u. Stanley (1963) stellen potenzielle Gefährdungen der internen Validität vor, wovon die hier relevanten im Kontext der Untersuchungsergebnisse diskutiert werden. Testübung Die Situation einer Testübung entsteht, wenn sich die Untersuchungsteilnehmer aufgrund der Testsituation anders verhalten, als wenn sie sich in ihrer normalen Arbeitsumgebung befinden würden. Da die Teilnehmer eine konkrete Prozessmodellierungsaufgabe im Rahmen einer laborexperimentellen Untersuchung zu bewältigen hatten, konnte möglicherweise eine Testsituation entstehen, welche einen Einfluss auf das Modellierungsverhalten und damit auf das Endresultat hatte. Insgesamt kann vermutet werden, dass im laborexperimentellen Aufbau die Anzahl der Außeneinflüsse geringer 198 ist, als in einem realen betrieblichen Szenario. Zu diesen Einflüssen zählen beispielweise Bürogeräusche, Unterbrechungen und Gespräche mit Kollegen. Das Laborexperiment mag daher die ruhigere Arbeitsatmosphäre und die potenziell bessere Umgebung für die Konzentration darstellen. Es könnte daher angenommen werden, dass die Performanzeffekte in einer diffuseren Arbeitssituation, als der des Laborexperiments, möglicherweise noch stärker ausfallen würden. Dies wäre im Einklang mit den Untersuchungsergebnissen. Um jedoch die Effekte eines völlig anders gerichteten Modellierungsverhaltens, aufgrund des Getestetwerdens, gänzlich auszuschließen, müsste das Modellierungsverhalten von Prozessarbeitern in einer Feldstudie mittels nichtinvasiver Beobachtungsmethoden untersucht werden. Zeitbeschränkung In der Untersuchung erfolgte eine künstliche Manipulation der Arbeitssituation durch eine Zeitbeschränkung auf 60 min. Diese wurde für alle Untersuchungsgruppen eingehalten. Die Zeitbeschränkung könnte eine Gefahr für die interne Validität bedeuten, wenn es innerhalb der Teilnehmer stark unterschiedliche zeitliche Verteilungen der Leistungsfähigkeit geben würde. D.h. dass einige Modellierer beispielsweise in der ersten Stunde große Schwierigkeiten mit der Aufgabenbearbeitung haben könnten, um dann in der zweiten Stunde leistungsmäßig aufzuholen und alle erforderlichen Anpassungen vorzunehmen – ingesamt wäre die Performanz dann gleich den „normalen“ Prozessmodellierern. Nur die Zeitbeschränkung würde die Performanzunterschiede erklären. Hinweise für solch extreme zeitlich versetzte Leistungspotenziale waren jedoch nicht zu erkennen. Darüber hinaus ist angesichts der knappen Fristen in realen betrieblichen Projektszenarien die Zeitbeschränkung als Proxy für Arbeiten unter Zeitdruck eine Möglichkeit der Manipulation in laborexperimentellen Untersuchungen. Weiterhin kann in Projekten der Zeitdruck noch größer und die interpersonelle Konfusion noch stärker sein, so dass die Modellierungsperformanz unter Wiederverwendung sogar noch schlechter ausfallen kann, als die hier vorgestellten Ergebnisse. Dies könnte z.B. auf weitere kognitive Effekte zurückzuführen sein, die sich besonders bei Stress einstellen. Selektionseffekte Die Gefährdung der internen Validität durch Selektionseffekte wird durch Unterschiede in den Untersuchungsgruppen hervorgerufen, die bereits vor der Einführung der unabhängigen Variable bestehen. Übertragen auf die durchgeführte Untersuchung würde dies bedeuten, dass die ausgewählten Untersuchungsgruppen (Gfine , Gcoarse und Gmax ) sich bereits vor der Untersuchung – z.B. im Merkmal Erkennungsfähigkeit – unterschieden haben und (auch) deswegen die Modellierungsperformanzunterschiede so ausgefallen sind. Es wurde im Vorfeld versucht, aus einem möglichst breiten Pool an potenziellen Teilnehmern randomisiert Untersuchungssubjekte auszuwählen, um etwaige Verzerrungen aufgrund der Selektion weitestgehend zu reduzieren. Bezüglich des Modellierungswissens konnte aufgrund der Ausbildungen und Erfahrungen von sehr ähnlichen Kenntnisständen ausgegangen werden. 199 6.4.2. Diskussion der externen Validität Die Untersuchungsergebnisse müssen auch hinsichtlich ihrer externen Validität kritisch überprüft werden. Eine hohe Validität liegt dann vor, wenn sich die Ergebnisse auf die Grundgesamtheit verallgemeinern lassen, für welche die Untersuchung konzipiert wurde (Bortz u. Döring 2003, S. 504). Campbell u. Stanley (1963) stellen potenzielle Gefährdungen der externen Validität vor, wovon die hier relevanten im Kontext der Untersuchungsergebnisse diskutiert werden. Stichprobenfehler Die Stichproben von 6 × 13 (= 78) Teilnehmern könnten in ihren Merkmalen deutlich von den Grundgesamtheitsparametern abweichen und deshalb nicht repräsentativ sein. Dieser Gefährdung wurde mit Maßnahmen einer weitgehenden Randomisierung nach den Möglichkeiten der verfügbaren Ressourcen begegnet. Experimentelle Reaktivität Die Bedingungen des Laborexperiments könnten eine spezifische Reaktion bei den Teilnehmenden hervorrufen, die das Modellierungsverhalten und -resultat auf eine Weise beeinflusst, die unter normalen Arbeitsbedingungen so nicht stattfinden würde. Prinzipiell wäre es denkbar, dass eine Untersuchungsgruppe von der unterschiedlichen Behandlung mit grob- und feingranularen Wiederverwendungsmodellen erführe und beispielsweise aus Frustration eine schlechter als mögliche Modellierungsperformanz leistet. Die Teilnehmenden wurden über die unterschiedliche Manipulation der Gruppenartefakte im Unklaren gelassen, so dass die Möglichkeit einer wahrgenommenen Benachteilung im Vergleich zu anderen Teilnehmenden weitestgehend reduziert werden konnte. Eine negative Reaktion auf ein experimentelles Treatment könnte auch durch die Einfachheit des Treatments hervorgerufen werden, so dass die ernsthafte Auseinandersetzung mit der Aufgabe ausbleiben würde. Da die experimentellen Aufgaben jedoch realen betrieblichen Anforderungen entnommen wurden und von entsprechender Komplexität sind (vgl. 5.2.5), war diese Einfachheit nicht gegeben. Dafür bestand die Gefahr des Ausschlags in die entgegengesetzte Richtung: die Aufgabe ist zu komplex. Diese zu hohe Komplexität wiederum könnte ebenfalls zu Frustrationen führen aufgrund der Wahrnehmung einer in der gegebenen Zeit nicht lösbaren Aufgabe. Die Beobachtung der Untersuchungsteilnehmenden zeigte jedoch keine offensichtlichen Anzeichen von Frustration bzw. Unlust, sich kontinuierlich mit der Aufgabe auseinanderzusetzen. Nichtdestotrotz bleibt die Generalisierbarkeit aufgrund des experimentellen Aufbaus eingeschränkt. Die Untersuchungsergebnisse sind als erste explorative Hinweise zu werten, die durch weitere Replikationen dieses Experimentdesigns und neue, verfeinerte Tests zu einer vollständigeren Erkenntnissammlung erweitert werden können. Hawthorne-Effekt Der „Hawthorne-Effekt“ (Draper 2010) bezeichnet das Phänomen, dass, wenn Untersuchungsteilnehmenden bewusst ist, dass sie Teil einer Untersuchung 200 sind, sie ihr Verhalten ändern. Dies äußert sich häufig in einer besonderen Zuwendung der Teilnehmenden zur Aufgabe und ihrer Bearbeitung, was zu einer besseren Performanz, als unter normalen betrieblichen Umständen, führen kann. Andererseits könnten im experimentellen Aufbau gerade jene Impulse fehlen, die in real-betrieblichen Umgebungen eben diese Performanzniveaus erst ermöglichen. Darunter fallen z.B. Gruppendruck und -dynamik, Inspiration aus Gesprächen, andere externe Stimuli etc. Dies würde bedeuten, dass die Ergebnisse aus dem Experiment bezüglich der Performanz regelmäßig unter natürlichen Ergebnissen bleiben könnten (vgl. dazu Testübung in Abschnitt 6.4.1). Spezifität der Partitionierung der Wiederverwendungsmodelle Die Wiederverwendungsmodelle der experimentellen Untersuchung weisen jeweils Granularitäten auf, die auf spezifischen Partitionierungen beruhen, die von den Experimentleitern vorgenommen wurden. Dies führt zu wenigen (zwei) Faktorstufen des Faktors Granularität, die zudem an konkrete Partitionierungen gekoppelt sind. Die Partitionierungen ergaben sich aus den Vorgaben bzw. Richtlinien der Praxisfälle eines Unternehmens und eines Industriestandards, können aber in Bezug auf die möglichen Ausprägungen der Modellgranularitäten als willkürlich festgelegt angesehen werden. Um ein geschlosseneres Bild von den qualitativen Effekten variierter Granularität bzw. Partitionierung auf die Modellierungsperformanz zu erhalten, müssten weitere Faktorstufen für den Faktor Granularität eingeführt werden. Anhand der Ergebnisse ließen sich dann die hier aufgestellten Hypothesen nochmals überprüfen. Da die theoretisch Zahl von möglichen Partitionierungen eines Modells sehr groß sein kann, sollte sich die Betrachtung von unterschiedlich granularen Wiederverwendungsmodellen an praktisch vorgenommenen Partitionierungen und Granularitätsniveaus orientieren, um die Untersuchungen übersichtlich und arbeitsrelevant zu halten. Existierende Methoden der Transformation von Prozessmodellen in hierarchische Strukturen können herangezogen werden, um wohldefinierte Partitionierungen von Prozessmodellen vorzunehmen und damit unterschiedlich granulare Modelle zu konstruieren (z.B. Vanhatalo u. a. 2008). Beschränkung auf BPMN Die Untersuchung konzentriert sich auf die Verwendung einer spezifischen Notation, namentlich auf die der BPMN. Dass BPMN für die Untersuchung von Prozessmodellierung hinsichtlich Repräsentativität und Verbreitung eine geeignete Notation darstellt, wurde in Abschnitt 5.2.5 begründet. Trotzdem muss die Möglichkeit eingeräumt werden, dass sich in wiederverwendungsorientierten Prozessdesignaufgaben unter Einsatz anderer Prozessnotationen als der BPMN gegensätzliche Resultate ergeben bzw. von den Ergebnissen der vorliegenden Untersuchung abweichen könnten. Diese Möglichkeiten müssten in weiterführenden Untersuchungen exploriert werden, um die hier aufgezeigten Tendenzen zu validieren. Laborsituation Die Arbeitssituation, die für die Bearbeitung der Modellierungsaufgabe hergestellt wurde, konnte aufgrund des Laborcharakters nicht alle Bedingungen einer realen Arbeitsumgebung nachbilden. Insbesondere sind hier mögliche Einfluss nehmende 201 Faktoren wie kollaboratives Arbeiten, Zugriff auf mehrere Formate (ansonsten strukturell gleicher Daten), Multitasking während der Modellierung, zusätzliche Informationsaufnahme während des Modellierungsprozesses u.a. zu nennen. Da diese Faktoren, wie z.B. Multitasking, zum Teil erheblichen Einfluss auf die Konzentration und damit letztlich auf die Qualität der zu erstellenden Modelle haben können, sind die vorliegenden Ergebnisse diesbezüglich mit großer Vorsicht zu interpretieren bzw. auf reale betriebliche Arbeitssituationen zu übertragen. 202 7. Zusammenfassung und Ausblick Nachdem im vorangegangenen Kapitel die Ergebnisse der experimentellen Untersuchung einer kritischen Diskussion in Bezug auf theoretische und hypothesenbezogene Aspekte unterzogen wurden, erfolgt abschließend eine Zusammenfassung der Arbeit und ihrer Resultate mit einem daran anschließenden Ausblick auf zukünftige Fragen und forschungsmethodische Erweiterungsmöglichkeiten. 7.1. Zusammenfassung Die vorliegende Arbeit motiviert sich aus dem Kontext der potenziellen Wiederverwendung von Geschäftsprozessmodellen im Rahmen von Ansätzen der Informationssystementwicklung in betrieblichen Organisationen. Den oft geäußerten pauschalen Vorteilen hinsichtlich der Effektivität und Effizienz, welche sich vermeintlich durch die Prozessmodellwiederverwendung in Systemgestaltungsvorhaben ergeben, wird eine kritische Perspektive entgegengesetzt. Dieser Perspektive liegt die Feststellung zugrunde, dass über das Anpassungsverhalten menschlicher Modellierer bezüglich der wiederverwendeten Prozessmodelle – typischerweise müssen Prozessmodelle in neuartigen Problemstellungen der Geschäftsprozessmodellierung modifiziert werden – nur ein relativ geringes Verständnis besteht. Hinsichtlich der Anpassungsleistung, die von Prozessmodellnutzern erbracht werden muss, um aus den wiederverwendeten Modellen qualitative Prozessmodelle zu erstellen, werden die kognitiven Kapazitäten, die für diese Leistung erforderlich wären, häufig zu optimistisch eingeschätzt. Wahrnehmungsbasierte Grenzen bzw. kognitive Bias menschlicher Prozessmodellierer, insbesondere der Anker- und Anpassungseffekt, welche in wiederverwendungsbasierten Systementwicklungskontexten beobachtet wurden, legen die Vermutung nahe, dass diese Effekte auch im Zusammenhang mit der Prozessmodellwiederverwendung in Erscheinung treten könnten. Zusätzlich treten betriebliche Erfahrungen hinzu, nach denen verschiedene Niveaus der Granularität verfügbarer Wiederverwendungsmodelle zu unterschiedlichen Anpassungsleistungen führen, was auf interessante Unterschiede in der kognitiven Ergonomie dieser wiederverwendeten Prozessmodelle schließen lassen könnte. Diese Verständnislücken verlangen daher nach einer systematischen Untersuchung, welche diese Phänomene über eine differenzierte Betrachtung näher charakterisieren kann. Diese Arbeit unternimmt diesen Versuch. Im ersten Kapitel wird dazu zunächst die grundlegende Motivation dargelegt mit einer anschließenden Aufstellung der adressierten Forschungsfragen. Diese beziehen sich im Kern auf die Frage nach den Auswirkungen von variierter Granularität in wiederverwen- 203 deten Prozessmodellen (für die Prozessmodellkonstruktion) auf die Anpassungsleistung und Prozessmodelllösungsqualität unter besonderer Berücksichtigung des kognitiven Ankereffekts. Die zugrunde gelegte Forschungsmethodik des Information Systems Research Framework (Hevner u. a. 2004) wird erläutert und auf den Untersuchungskontext bezogen und die Kernbeiträge der Arbeit werden kompakt dargestellt. Das zweite Kapitel liefert die grundlegende Einordnung der Prozessmodellwiederverwendung in allgemeine Gestaltungsansätze von IT-gestützen, betrieblichen Organisationen und nimmt eine terminologische Vorstrukturierung vor. Der Ansatz des Geschäftsprozessmanagements wird hervorgehoben als Ansatz mit einer explizit geschäftsprozessorientierten Perspektive, welcher Geschäftsprozessmodelle als zentrale Artefakte in den Phasen des Entwurfs, der Implementierung und der Ausführung benötigt. Die Definition des Geschäftsprozessmodells erfolgt über die Explikation des allgemeinen Modellbegriffs und anschließenden Übertragung auf die Repräsentation von Geschäftsprozessphänomenen. Weiter werden zur konkreten Verortung in betrieblichen Kontexten beispielhaft prozessmodellbasierte Systementwicklungsansätze aufgeführt und Auffassungen der Qualität von Geschäftsprozessmodellen differenziert aufgezeigt. In diesem Zusammenhang wird eine spezifische Facette der pragmatischen Qualität, welche sich explizit auf die Wiederverwendung bzw. die Nutzerfreundlichkeit der Wiederverwendung bezieht, genannt Adaptionsqualität, erörtert. Eine konkrete Eingrenzung des Untersuchungsschwerpunkts wird schließlich vorgenommen, indem die Prozessmodellwiederverwendung in das Spektrum von allgemein verfügbaren Ansätzen der Artefaktwiederverwendung in der Informationssystementwicklung eingeordnet wird. Abschließend erfolgt eine zusätzliche Abrenzung der rein modellbezogenen Prozessmodellwiederverwendung, um Ansätze, die sich auf die Wiederverwendung von Konstrukten in Prozessmodellierungssprachen bzw. auf andere extern repräsentierte Assistenzartefakte beziehen, aus dem Untersuchungsbereich auszuschließen. Kapitel 3 nimmt eine weitere Strukturierung der Arbeitssituation der Geschäftsprozessmodellwiederverwendung vor. Dazu wird der Wiederverwendungsprozess mit seinen Phasen der Konstruktion, Aufbereitung, Verteilung und eigentlichen Wiederverwendung expliziert. Der Untersuchungsfokus wird hierbei weiter eingegrenzt auf die Aktivitäten des Vergleichs und der Adaption eines zuvor aufgefundenen Prozessmodells. Weiter werden Rollen definiert, die von Mitarbeitern in der Organisation eingenommen werden, und welche den Wiederverwendungsprozess (bw. einzelne Aktivitäten darin) ausführen. Ebenso wird das Repository als Speicherort und Editierwerkzeug in seinem möglichen Funktionsumfang beschrieben. Die Wiederverwendung von Prozessmodellen unter Beteiligung verschiedener Rollen und unterschiedlicher Organisationszugehörigkeit kann in verschiedene Szenarien klassifiziert werden, wobei das Szenario der sekundären adaptiven Prozessmodellwiederverwendung für die Untersuchung fokussiert wird. Im zweiten Teil von Kapitel 3 wird eine kognitionstheoretische Einordnung der Geschäftsprozessmodellwiederverwendung vorgenommen, welche sich maßgeblich an der Cognitive-Fit-Theorie (CFT) (Vessey u. Galletta 1991; Zhang u. Norman 1994) orientiert. Die Spezialisierung eines CFT-basierten Modells für die Prozessmodellwiederverwendung ermöglicht die struk- 204 turierte Betrachtung der einzelnen, am adaptiven Wiederverwendungsprozess beteiligten Entitäten, wobei der Hauptfokus auf die Konstrukte der externen Aufgabenbeschreibung bestehend aus Geschäftsprozessbeschreibung und Wiederverwendungsmodell und der mentalen Repräsentation für die Prozessmodellkonstruktion bzw. -adaption gelegt wird. Neben anderen vorgestellten Faktoren im Rahmen der Prozessmodellwiederverwendung wird auf die Eigenschaften, welche sich aus dem Untersuchungsinteresse ableiten, besonders eingegangen: die Granularität des Wiederverwendungsprozessmodells und der Anker- und Anpassungseffekt, welcher potenziell Einfluss auf die Bildung der geeigneten mentalen Repräsentationen zur Lösung des Prozessmodellierungsproblems nimmt. In Kapitel 4 werden die zuvor charakterisierten Konstrukte der Prozessmodellgranularität und des Ankereffekts im Kontext der konkreten adaptiven Prozessmodellwiederverwendung betrachtet. Dazu werden zunächst die adaptive Prozessmodellwiederverwendung allgemein aus einer Perspektive des Information Retrieval charakterisiert und die Möglichkeiten der Anpassungen, die auf dem Wege zur Prozessmodelllösungsbildung durchgeführt werden können, aufgezeigt. Mit Größen des Information Retrieval, die sich auf die Korrektheit und Relevanz von Elementen des Prozessmodellergebnisses im Verhältnis zu den Anforderungen der Geschäftsprozessmodellierungsaufgabe beziehen, werden potenzielle Anpasungsszenarien skizziert. Im Weiteren wird der Ankereffekt auf den Kontext der Prozessmodellwiederverwendung übertragen. Hierbei werden unterschiedliche Effekte, die bei der Prozessmodellwiederverwendung im Gegensatz zur Wiederverwendung von anderen Modellen auftreten können, diskutiert. Für die weitere Charakterisierung des Ankereffekts werden spezielle Ankertypen, die für den Untersuchungskontext als relevant eingestuft werden, klassifiziert. Diese Ankertypen werden mit der Eigenschaft der Granularität von Prozessmodellen in Beziehung gesetzt. Diese Perspektive geht der Argumentation folgend von typischen Verteilungen von spezifischen Ankertypen in jeweils eher grobgranularen bzw. eher feingranularen Prozessmodellen aus. Der bis hier intuitiv genutzte Granularitätsbegriff wird mit existierenden Konzepten zu einer Prozessmodellgranularitätsauffassung formalisiert und es wird ein zugehöriges Maß vorgeschlagen, mit welchen granulare Prozessmodelle quantitativ bestimmt werden können. Unter Bezugnahme auf die erfolgten Konstruktcharakterisierungen werden spezifische Hypothesen gebildet, die im Kern eine signifikante Wirkung ausgehend von Prozessmodellgranularitätsunterschieden, in Verbindung mit einem Ankereffekt, auf Adaptionsperformanz und semantische Qualität erwarten. Kapitel 5 stellt das abgeleitete Forschungsmodell mit den operationalen Hypothesen vor und strukturiert das empirische Vorgehen nach den Richtlinien experimenteller Forschung in der Softwaresystementwicklung und der konzeptuellen Modellierung. Dazu werden die betrachtete unabhängige Variable Prozessmodellgranularität bzw. Anchoringtyp und die zusätzliche unabhängige Variable der Anwendungsdomäne (auch im Sinne einer Replikation zu verstehen) dargestellt. Ebenso erfolgt die Operationalisierung der abhängigen Variablen der Adaptionsperformanz und semantischen Qualität und der Kontrollvariablen. Das Experimentdesign entspricht einem zweifaktoriellen Experiment mit 3 × 2 Faktorstufenkonstellationen. Die Vorbereitungsmaßnahmen für die experimentelle Un- 205 tersuchung und der eigentliche experimentelle Ablauf werden im Einzelnen geschildert. Im Rahmen der Ergebnisanalyse werden mittels deskriptiver Statistiken die Resultate der Untersuchung dargestellt und auf auffällige Muster geprüft. Hierbei zeichnet sich bereits eine Bestätigung der Hypothesen mit einzelnen Ausnahmen ab. Unter Einsatz der gebotenen statistischen Testverfahren werden abschließend die Untersuchungsergebnisse auf ihre statistische Signifikanz überprüft. Die aufgestellten Hypothesen werden hiernach zum großen Teil bestätigt. Kapitel 6 widmet sich der kritischen Diskussion der Untersuchungsergebnisse. Dabei kann der beobachtete Unterschied in der Adaptionsperformanz und semantischen Qualität mit einem Cognitive-Fit in Beziehung gesetzt werden, welcher zwischen dem Wiederverwendungsmodell grober Granularität und den mentalen Repräsentationen des Modellierers in höherem Ausmaß bestand, als im Falle des feingranularen Wiederverwendungsmodells. Dies hängt höchstwahrscheinlich auch mit der höheren kognitiven Ladung zusammen, die Modellierern im Wege der Wahrnehmung der feingranularen Prozessmodelle auferlegt wird. Ebenso können die Ergebnisse mit einem stärkeren Ankereffekt in der Wiederverwendung des feingranularen Prozessmodells assoziiert werden. Dieser Effekt hat sich als robust gegenüber Änderungen in der Anwendungsdomäne gezeigt. Aus den diskutierten Ergebnissen werden im Weiteren Implikationen für die wissenschaftliche Gemeinschaft und für die betriebliche Praxis abgeleitet. Das sechste Kapitel schließt mit der Diskussion von potenziellen Gefährdungen der internen und externen Validität der Untersuchungsergebnisse. In Kapitel 7 efolgt die hier aufgeführte Zusammenfassung der vorliegenden gesamten Arbeit und beendet diese mit einem Ausblick auf zukünftige Fragen, welche sich aus der Ergebnisdiskussion ergeben haben und schlägt forschungsmethodische Erweiterungsmöglichkeiten vor, auf die aufgrund des gebotenen Untersuchungsfokus verzichtet worden ist. 7.2. Ausblick Auf Basis der Untersuchungsergebnisse ergeben sich weitere Möglichkeiten, im Kontext der Geschäftsprozessmodellierung tiefergehende Fragen zu stellen und alternative Untersuchungsansätze zur Klärung dieser Fragen anzuwenden. Einige dieser Möglichkeiten, die dem Autor im Verlauf der Untersuchungsanstrengungen aufgefallen sind, sollen hier aufgeführt werden und mögen zukünftigen Forschern als mögliche Einstiegspunkte in Forschungsvorhaben bzw. als Inspiration für denkbare methodische Erweiterungen bzw. Modifikationen bestehender Untersuchungen dienen. Die Art und Weise wie sich der Aufgabenbereich, d.h. der zu modellierende Geschäftsprozess, in der Untersuchung dem Prozessmodellierer präsentiert, erfolgt auf dem Wege einer textbasierten Geschäftsprozessbeschreibung, die als Stellvertreter für eine in den betrieblichen Alltag eingebettete Arbeitssituation fungiert. Um näher an die Kom- 206 plexität und Mehrdimensionalität dieser Arbeitssituation unter realbetrieblichen Umständen heranzureichen, kann die Beschreibung des Geschäftsprozesses in zukünftigen Untersuchungsdesigns auf verschiedene Medien – nicht ausschließlich Text – verteilt werden. Beispielsweise wären hier andere visuelle Prozessrepräsentationen oder auch Interviews mit Geschäftsprozessverständigen denkbar, die sich verbal mitteilen. Zu beachten sei hierbei die ebenfalls steigende Komplexität des erforderlichen Untersuchungsdesigns, um die höhere Anzahl an Faktoren berücksichtigen zu können. In Folgeuntersuchungen könnten ebenfalls feinere Abstufungen der Granularität betrachtet werden, um ein vollständigeres Bild der Auswirkungen von veränderter Granularität auf die Modellierungs- und Anpassungsleistung zu erhalten. In diesem Kontext wäre auch die Variation von verschiedenen Partionierungen von Wiederverwendungsmodellen eine interessante Treatment-Alternative, d.h. die Grobheit bzw. Feinheit von Prozessmodellfragmenten wird über das Prozessmodell stärker variiert. Die kognitive Ladung, die bei Prozessmodellierern in Anbetracht der Prozesmodellkonstruktionsaufgabe und der externen Repräsentationen, insbesondere des Wiederverwendungsmodells, mental entsteht, wurde in dieser Arbeit nicht näher quantifiziert, außer dass Ableitungen aus den notwendigen Vergleichs- und Anpassungsoperationen vorgenommen und mit möglichem kognitiven Aufwand asssoziiert wurden. Zukünftige Arbeiten können diese Quantifizierung der kognitiven Ladung vornehmen, um Hinweise darauf zu erhalten, in welcher Beziehung die verschiedenen Granularitäten der Wiederverwendungsmodelle (innerhalb von bestimmten Prozessmodellkonstruktionsaufgaben) zu Größen der kognitiven Ladung stehen. In Paas u. a. (2010) wird beispielsweise ein Ansatz für die quantitative Bestimmung von kognitiver Ladung vorgeschlagen, der auf den Kontext der Prozessmodellwiederverwendung übertragen werden könnte. Im Zuge der Anpassungen der Wiederverwendungsmodelle wurden vereinzelt Operationen durchgeführt, die sich nicht auf die Ankeranpassung bezogen, sondern eine anderweitige Anpassung des Prozessmodells vornahmen. Beispielsweise wurden in einigen wenigen Fällen irrelevante Funktionalitäten eingebracht und teilweise auch relevante Prozessmodellelemente fälschlicherweise gelöscht. Diese falschen, jedoch nicht ankerbezogenen Anpassungen wurden in dieser Untersuchung nicht näher analysiert. Diese unerwarteten Operationen könnten aber interessante zusätzliche Informationen über das Adaptionsverhalten von Prozessmodellierern liefern. Weiterhin ist es eine interessante Frage, welche Operationstypen zu einer höheren Ergonomie bei der Modellanpassung führen können. In der vorliegenden Untersuchungen wurden die Basisoperationen (Elemente einfügen, löschen usw.) untersucht, die in Prozessmodelleditoren typischerweise verfügbar sind. Mächtigere Naivgationen über Granularitätsniveaus hinweg stellen eine interessante Möglichkeit dar, Anpassungsverhalten und -fähigkeiten noch detaillierter zu untersuchen (vgl. Process Quick View in Smirnov u. a. 2010b). Die durchgeführte Untersuchung hat sich auf die Auswertung der Ausgangsvariablen Adaptionsperformanz und semantische Qualität der Prozessmodelllösungen konzentriert. Was das tatsächliche Verhalten der konkreten Anpassungsmaßnahmen der Prozessmodel- 207 lierer betrifft, kann auf diese Weise nur indirekt über die Modellierungsendergebnisse darauf geschlossen werden. Um ein differenzierteres Bild des Modelliererverhaltens während der Prozessmodelladaption zu erhalten, müssten die Modellierungs- bzw. Adaptionsaktivitäten über den Zeitraum der Aufgabenbearbeitung erfasst werden. Über Mechanismen des Logging können diese Daten erhoben werden. Diese Daten wären eine äußerst interessante Grundlage, um etwaige Muster in den Anpassungsstrategien verschiedener Prozessmodellwiederverwender aufzudecken. In der Untersuchung wurden die Ankertypen (d.h. Omission- und Extraneous-Anchors) jeweils in dem einen und dem anderen Wiederverwendungsmodell platziert (nahezu ausschließlich). Interessant wäre demnach die Frage, wie sich die Adaptionsperformanz verhält, wenn verschiedene Anchors gemischt in einem Wiederverwendungsmodell vorhanden wären. Ob sich die verschiedenen Anchortypen auf eine bestimmte Weise gegenseitig beeinflussen oder ob evtl. die Anpassung nur bestimmter Ankertypen stark überwiegen würde, muss in weiteren Untersuchungen überprüft werden. Desweiteren ist die wahrgenommene Ähnlichkeit zwischen einem Prozessmodell (im Sinne einer Lösungsnäherung) und einem Prozessdesignkontext ein interessantes Forschungsgebiet und es ist nicht davon auszugehen, dass die Wahrnehmung dieser Ähnlichkeiten zwischen verschiedenen Prozessmodellierern sehr konsistent repräsentiert ist. Hier sind existierende Arbeiten fortzuführen, die geeignete Maße der Prozessmodellähnlichkeit untersuchen (Dijkman u. a. 2009, 2010). In diesem Zusammenhang ist es eine legitime Frage, inwieweit die wahrgenommene Prozessmodellähnlichkeit mit dem tatsächlich notwendigen Anpassungsaufwand, der bei der wirklichen Anpassung des Wiederverwendungsmodells hin zur Prozesmodelllösung entsteht, negativ korreliert – d.h. ob eine höhere Ähnlichkeit tatsächlich einen geringeren Anpassungsaufwand bedeuten würde – oder nicht. 208 Anhang A. Modellierungsaufgaben A.1. Prozessbeschreibung für „Supplier switch“ Process description Context and task: In the course of the deregulation of European energy markets customers of electric utility (i.e. power) have the opportunity to switch to a different power supplier because the new supplier may better meet customers’ requirements (e.g. lower rates, better services, etc.). This supplier switch process is therefore initiated by the customer himself. This process involves the interaction between process stakeholders for the case of a new supplier being assigned to a customer’s power gauge 84 . From the supplier’s perspective who is contacted by a new customer who is willing to terminate the contract with the old supplier the process is called ‘Winning customers’(because a new customer is acquired). You are asked to model the process ‘Winning customers’in BPMN (the model will be used as the main specification in subsequent implementation activities). You are provided with a reference business process model as an assistant artifact that you should reuse and adapt as needed. Your process model should focus on the Customer Service department of the new power supplier. Activities taking place at the customer and at the grid operator 85 should also be detailed for clarity. The old supplier (the 4th stakeholder) does not have to include procedural details other than basic message-based interactions with the grid operator and the – about-to-be-lost – customer. Process goal: A customer who uses a specific power gauge wishes to switch to a different power supplier. The goal of the process then is to assign a new power supplier to a customer’s power gauge. Process: The process is initiated by a switch-over request. In doing so, the customer transmits his data to the customer service department of the company. Customer service is a shared service center between the departments Sales and Distribution. The customer 84 85 The power gauge is the measuring point at home from which the customer sources the power from. The grid operator is the organization that manages distribution of power over a network. 210 data is received by customer service and based on this data a customer data object is entered into the CRM system. This object consists of data elements such as the customer’s name and address and the assigned power gauge. The generated customer object is then used, in combination with other customer data to prepare the contract documents for the power supplier switch (including data such as bank connection, information on the selected rate, requested date of switch-over). In the following an automated check of the contract documents is carried out within the CIS (customer information system) in order to confirm their successful generation. In case of a negative response, i.e. the contract documents are not (or incorrectly) generated, the causing issues are being analyzed and resolved. Subsequently the contract documents are generated once again. In case of a positive response a confirmation document is sent out to the customer stating that the switch-over to the new supplier can be executed. The customer then has the chance to check the contract details and based on this check may decide to either withdraw from the switch contract or confirm it. Depending on the customer’s acceptance/rejection the process flow at customer service either ends (in case of withdrawal) or continues (in case of a confirmation). An additional constraint is that the customer can only withdraw from the offered contract within 7 days - after the 7th day the contract will be regarded as accepted and the process continues. The confirmation message by the customer is therefore not absolutely necessary (as it will count as accepted after 7 days in any way) but it can speed up the switch process. After the customer has confirmed the planned switch, a request to the grid operator is automatically sent out by the CIS. It puts the question whether the customer may be supplied by the selected supplier in the future. The switch-over request is checked by the grid operator for supplier concurrence 86 , and the grid operator transmits a response comment. In the case of supplier concurrence the grid operator would inform all suppliers involved and demand the resolution of the conflict. The grid operator communicates with the old supplier and carries out the termination of the sales agreement between the customer and the old supplier, i.e. the customer service (of the ‘new’supplier) does not have to interact with the old supplier regarding termination. If there are not any objections by the grid operator (i.e. no supplier concurrence), customer service creates a CIS contract. On the switch-date, but no later than 10 days after power supply has begun, the grid operator transmits the power meter data to the customer service and the old supplier via messages containing a services consumption report. At the same time, the grid operator computes the final billing based on the meter data and sends it to the old supplier. Likewise the old supplier creates and sends the final billing to the customer. For the customer as well as the grid operator the process ends then. After receiving the meter data customer service imports the meter data to systems 86 Supplier concurrence is the situation when multiple suppliers are assigned during the same period to the same power gauge. 211 that require the information. The process of "winningä new customer ends here. Requested changes for the to-be process: The process to be modeled should be extended in an early phase of the process by a customer data check. After customer data has been entered it should then be compared with the internal customer data base and checked for completeness and plausibility. In case of any errors these should be corrected on the basis of a simple error list. The comparison of data is done to prevent individual customer data being stored multiple times. In case the customer does not exist in the customer data base, a new customer object is being created which will remain the data object of interest during the rest of the process flow. A second change concerns the customer confirmation which currently happens before the supplier concurrence check. The to-be process model should be altered in the way that the customer’s confirmation is requested after supplier concurrence has been checked, as only then it is safe to inform the customer of a possible execution of the requested switch. 212 A.2. Prozessbeschreibung für „SLA violation“ Process description Context and Task: As the liberalization of telecommunication markets progresses, companies are required to react rapidly, i.e. near real-time, to customer demands in order to retain their client base. The case examined here is when the conditions of a provided service (this could be e.g. a DSL subscription service, a mobile phone service, etc.) exceed - or fall below, respectively - the parameters specified in the Service Level Agreement (SLA) (i.e. the contractual agreement between customer and telco company is violated). The customer detects this SLA violation and reports it to the telco company. The reported problem may be corrected by the company, but it will lead to a billing rebate given to the customer. You are asked to model this process ‘Execution of SLA violation’in BPMN (the model will be used as the main specification in subsequent implementation activities). You are provided with a reference business process model as an assistant artifact that you should reuse and adapt as needed. Your process model should encompass the stakeholders ‘Customer’, the ‘Customer Service’of the telco company as well as the company’s ‘Service Management’and ‘Resource Provisioning’departments. Process goal: The process is seen from the perspective of the telco company’s (TELECO) departments that interact with a customer. A customer will detect deviances from the agreed service quality parameters and report this to TELECO. The goal of the process is then to record, analyze and fix the problem, inform the customer about it and let the billing department know about a given rebate. Process: At the beginning the customer perceives that her subscribed service has degraded. A list with all the problem parameters is then sent to the Customer Service department of TELECO. At the customer service an employee enters - based on the received data - a problem report into system T. Then the problem report is compared to the customer SLA to identify what the extent and the details of the service degradation are. Based on this, the necessary counter measures are determined including their respective priorities. An electronic service then determines the significance of the customer based on information that has been collected during the history of the contractual relationship. In case the customer is premium, the process will link to an extra problem fix process (this process will not be detailed here). In case the customer is of certain significance which would affect the counter measures previously decided upon, the process goes back to re-prioritize these measures - otherwise the process continues. Taking together the information (i.e. contract commitment data + prioritized actions) a detailed problem report is created. The detailed problem report is then sent to Service Management. Service 213 Management deals on a first level with violations of quality in services that are provided to customers. After receiving the detailed problem report, Service management investigates whether the problem is analyzable at the level of their department or whether the problem may be located at Resource Provisioning. In case Service Management assesses the problem to be not analyzable by themselves, the detailed problem report is sent out to Resource Provisioning. If Service Management is sure they can analyze it, they perform the analysis and based on the outcome they create a trouble report that indicates the type of problem. After Resource Provisioning receives the detailed problem report, it is checked whether there are any possible problems. If no problems are detected a notification about the normal service execution is created. If a problem is detected this will be analyzed by Resource Provisioning and a trouble report is created. Either trouble report or the ’normal execution’ notification will be included in a status report and sent back to Service Management. Service Management then prepares the final status report based on the received information. Subsequently it has to be determined what counter measures should be taken depending on the information in the final status report. Three alternative process paths may be taken: i) for the case that no problem was detected at all; ii) for the case that minor corrective actions are required; and iii) for the case that automatic resource restoration from Resource Provisioning is required. In i) the actual service performance is sent back to the Customer Service. In ii) Service Management will undertake corrective actions by themselves. Subsequently the problem resolution report is created and then sent out to Customer Service. After sending, this process path of Service Management ends. If iii) is the case, Service Management must create a request for automatic resource restoration. This message is then sent to Resource Provisioning. Resource Provisioning has been on-hold and waiting for a restoration request - but this must happen within 2 days after the status report was sent out, otherwise Resource Provisioning terminates the process. After the restoration request is received, all possible errors are tracked. Based on the tracked errors, all necessary corrective actions are undertaken by Resource Provisioning. Then a trouble-shooting report is created. This report is sent out to Service Management; then the process ends. The trouble-shooting report is received by Service Management and this information goes then into the creation of the problem resolution report just as described for ii). Customer Service either receives the actual service performance (if there was no problem) or the problem resolution report. Then, two concurrent activities are triggered, i.e. i) a report is created for the customer which details the current service performance and the resolution of the problem, and ii) an SLA violation rebate is reported to Billing & 214 Collections who will adjust the billing. The report for the customer is sent out to her. After all three activities are completed the process ends within Customer Service. After the customer then receives the report about service performance and problem resolution from Customer Service, the process flow at the customer also ends. Requested changes for the to-be-process: The process to be modeled should be extended in an early phase of the process by a plausibility check of the entered problem report: the entered report is therefore checked for completeness and validity. In case of any errors the problem report must be entered again. Otherwise the process continues as-is. A second requirement concerns the determination of customer significance which currently happens after Customer Service determines and prioritizes the first counter measures. The to-be process model should be altered in the way that customer significance is determined before customer SLA and problem report are compared. ‘Premium’customers are then branched out to a different process for special handling; the others stay in the path of the as-is process. 215 B. Wiederverwendungsmodelle Insgesamt wurden vier verschiedene Wiederverwendungsmodelle als Treamtments erstellt: zwei in der Anwendungsdomäne Energie und zwei in der Anwendungsdomäne Telekommunikation (jeweils grob- und feingranular). Sie sind in den Abbildungen B.1, B.2, B.3 und B.4 dargestellt. 216 es n requ ratio t 217 Receive supplier concurrence check result Supplier concurrence check result Check for supplier concurrence Supplier concurrence Resolve situation Check offered switch contract At switch date (max . 10 d after) Check supplier concurrence check result Create and send switch offer Customer service h Wit dr al aw Wait for withdrawal Wait for confirmation Wait for 7 d Confirm switch contract Withdraw from switch contract 1 of 1 Receive meter data Send meter data & compute final billing Meter data No supplier concurrence Switch offer Abbildung B.1.: Wiederverwendungsmodell Energie+grobgranular Contract preparation, check and send out al Oliver Holschke Request switchover Check entered data (errors in data?, is it a new customer?) Reject Receive and enter customer data Import meter data Meter data ReuseModel_wcrc regi st Customer Gr id Grid operator io n Old supplier irm at Accept Co nf Meter data, Final billing Wi thd raw 09.07.2010 Oliver Holschke Error list Data complete and plausible? Yes Enter customer data object Search customer data Check customer data No Check customer's first registration Request switchover Trans action Yes No Error handling Customer data Grid registration request Grid registration request Prepare contract documents Termination of sales agreement Send documents Check for supplier concurrence Supplier concurrence? to 'Resolve situation' At switch date (max . 10 d after) from 'Resolve situation' Check outcome of supplier concurrence check Create CIS contract Send switch offer aw al Check offered switch contract Wi th dr Send contract copies to federal board of regulation Contract copies Reject Supplier concurrence check result Wait for withdrawal Wait for confirmation Wait for 7 d Confirm switch contract Withdraw from switch contract Meter data Send meter data 1 of 1 Abbildung B.2.: Wiederverwendungsmodell Energie+feingranular Termination of sales agreement New customer? Create customer negative positive to regulation board Meter data from Grid operator and New supplier Switch offer Compute final billing File meter statistics to regulation board Import meter data Create internal statistics report Check whether new custo mer new Create invoice New customer? Activate customer for billing Run post connection gauge analysis old only applicable in case of "Losing Customers" process Invoice ReuseModel_wcf Customer service Customer Grid operator Old supplier ment inatio n of sa les ag ree Term io n irm at Co nf 218 Accept at ion Meter data Withdr awal Final billing Co nf irm Final billing 09.07.2010 Oliver Holschke Service degradation perceived List of problem parameters Send list of problem parameters Problem report ReuseModel_slavc Enter problem, check plausibility and determine customer significance Problem report Go to problem fix process for premium customers Premium customer? Detailed problem report Investigate whether problem is analyzable at this level Check for possible problems Analyzable here? Detailed problem report If problem detected, analyze problems in details + create trouble report; otherwise send "normal service ex ecution" Perform problem analysis + create trouble report trouble report note normal service ex ecution Trouble report Create status report Status report Final status report Final status report + determine counter measures Send out actual service performance What problem was detected? Create request for automatic resource restoration Minor corrective actions required Actual service performance Wait 2 days Undertake corrective actions Request Error- tracking & correct problem & create troubleshooting report trouble shooting report 1 of 1 Abbildung B.3.: Wiederverwendungsmodell Telko+grobgranular Compare SLA & problem + determine counter measures NO Customer service (TELECO) Customer Service management (TELECO) Resource provisioning (TELECO) NONE Resource restoration required 219 YES Trouble shooting report Create problem resol ution report Problem resolution report Report SLA violation rebate to Billling & Colections for billing adjustment Create report for customer about performance and problem resolution Customer problem resolution report 09.07.2010 Service degradation perceived Send list of problem parameters List of problem parameters Determine significance of the customer (based on customer data in the problem report) Premium customer? NO Problem report Determine counter measures inclu. priorities Detailed problem report Go to problem fix process for premium customers Compare customer SLA and problem report Detailed problem report YES Analyzable here? Perform problem analysis Send a copy to Strategic Planning Check for possible problems Create trouble report indicating the type of problem Trouble report NO Analyze in detail problem causes Problem detected? Trouble report Notify customer of identified troubles Create trouble report Create notification of normal service ex ecution Trouble report Create status report Status report Prepare final status report Determine counter measures based on the final status report to Strategic Planning Send update to Strategic Planning Final status report Send out actual service perfo rmance What problem was detected? Create request for automatic resource restoration Minor corrective actions required Actual service perf ormance Wait 2 days Undertake corrective actions Track errors Request Undertake corrective actions Notify Service Quality Management to update statistics Generate updates for Resource Inventory Management Create troubleshooti ng report to Service Quality Management Abbildung B.4.: Wiederverwendungsmodell Telko+feingranular Detailed problem report Investigate whether problem is analyzable at this level Product offering price Detailed problem report Product offering price Create detailed problem report incl. contract commitment data + prioritized actions NO Enter problem rep ort Problem report YES Customer service (TELECO) ReuseModel_slavf NONE Resource restoration required Customer Service management (TELECO) Resource provisioning (TELECO) 220 YES Update data for Service Quality Mgmt. (statistics) Run complete system test Create problem resolution report Problem resolution report Report SLA violation rebate to Billling & Colections for billing adjustment Update customer information for retention & loyalty purposes Create report for customer about performance and problem resolution Customer problem resolution report C. Lösungsbeispiele Im Folgenden sind beispielhaft Prozessmodellergebnisse aus den sechs Treatment-Gruppen (3 Granularitätsausprägungen × 2 Anwendungsdomänen) dargestellt. 221 Enter customer data no errors 222 Compare data with ex isting customer data customer object in db Resolve problems Create customer object no customer object in db Contract preparation Check for supplier concurrence Supp lier conc urren ce check resul t Send respnse comment Send out request Create contract h Wit dr al aw Send switch offer no success Check offered switch contract At switch date (max . 10 d after) Resolve conflict Check supplier concurrence check result No supplier concurrence Receive supplier concurrence check result success Wait for withdrawal Wait for confirmation Wait for 7 d Send meter data Compute final billing Confirm switch contract Withdraw from switch contract 1 of 1 Abbildung C.1.: Beispielergebnis En+grob, Teilnehmer C_SWI_06 Correct data errors Check customer data for errors al Oliver Holschke Request switchover Receive customer data Reject Solution Markus Albrecht Customer Service Customer Grid operator io n Old supplier t requ es at ion Gr id re gi str er o ff ch Sw it irm at Accept Co nf data Meter Wi thd raw Send findal billing Receive meter data Import meter data 07.01.2011 Customer Data Customer Data Request switch- over Switch- over request Enter customer data object Check customer data Yes No Error list Error handling (Customer Data) Data complete and plausible? Check customer's first registrati on Yes No Create customer Supplier concurrence? At switch date (max . 10 d after) it Sw ch re qu es t Send switch offer Wi th dr aw al Check offered switc h contract Wait for withdrawal Wait for confirmation Wait for 7 d al Confirm switch contract Withdraw from switch contract Request switching Meter data Send meter data Abbildung C.2.: Beispielergebnis En+fein, Teilnehmer F_SWI_11 Check for supplier concurrence positive to 'Resolve situation' Check outcome of supplier concurrence check from 'Resolve situation' Supplier concurrence check response Check supplier concurrence Contract documents complete and plausible? Yes Error handling (Contract Docuents) Customer Information System Contract documents Check contract docu ments Supplier concurrence check request Switchover Request Customer Data Prepare contract documents New customer? CRM System No Customer database Switch offer Customer Data Meter data CRM System Reject Compute final billing File meter statistics to regulation board Import meter data Final billing Activate customer for billing Run post connection gauge analysis Create invoice New customer? Signavio GmbH Create internal statistics report Check whether new customer new old Customer Data Invoice PhilippGelpke_ReuseModel_wcf (Copy) Customer service Customer Grid operator 223 Old supplier io n Accept dr aw With Meter data rm at Final billing fi Con 224 Grid operator Customer Service Department Customer Receiving customer request Customer Data Customer Data Sedding switch over request anatol_solution Old supplier Custome r data objec Enter data in CRM system Internal customer data err or correct Error list Complete customer data Create customer in customer data base Prepare contract documents Contract Automated check of contract documents Analyse and t ac resolve issues n tr t co rr ec in co corrrect contract Receive switch request Send out switch request Switch request Switch request Check fpr concurrence Inform old and new supplier Termination of sales agreement between customer and old supplier Response comment Send out confirmation corrrect contract Contract Confirm ation Abbildung C.3.: Beispielergebnis En+keine Wiederverwendung, Teilnehmer M_SWI_06 Custome r data objec Check customer data with internal customer data Check contract details corrrect contract 7 days Confirmation Withdrawl Oliver Holschke Service degradation perceived List of problem parameters Send list of problem parameters Problem report ReuseModel_stefan Enter problem, determine customer significance Problem report Go to problem fix process for premium customers Premium customer? Detailed problem report Compare SLA & problem Analyzable here? Detailed problem report Check for possible problems Investigate whether problem is analyzable at this level YES analyse problem create normal service ex ectuion note determin customer significance create trouble report Perform problem analysis + create trouble report determine counter measures trouble report note normal service ex ecution Trouble report history of contractual relationship Create status report custostomer is of certein siginificance Status report contract commitmen t data + prioritized actions Final status report Final status report + determine counter measures create detailed problem report Send out actual service performance What problem was detected? Create request for automatic resource restoration Minor corrective actions required Actual service performance Wait 2 days Request Error- tracking & correct problem & create troubleshooting report Undertake corrective actions trouble shooting report 1 of 1 Abbildung C.4.: Beispielergebnis Tel+grob, Teilnehmer C_SLA_09 check plausibility NO Customer service (TELECO) Customer Service management (TELECO) Resource provisioning (TELECO) NONE Resource restoration required 225 YES Trouble shooting report Create problem resol ution report Problem resolution report Report SLA violation rebate to Billling & Colections for billing adjustment Create report for customer about performance and problem resolution Customer problem resolution report 10.06.2010 226 Service degradation perceived check validity Send list of problem parameters Enter problem report not valid List of problem parameters Determine significance of the customer (based on customer data in the problem report) Premium customer? NO Problem report Compare customer SLA and problem report Detailed problem report Investigate whether problem is analyzable at this level Product offering price Product offering price Create detailed problem report incl. contract commitment data + prioritized actions Perform problem analysis Strategic Planing Analyzable here? YES Detailed problem report Send a copy to Strategic Planning Check for possible problems Create trouble report indicating the type of problem Trouble report NO Analyze in detail problem causes Problem detected? Notify customer of identified troubles Trouble report normal report Create trouble report Create notification of normal service ex ecution Service Quality Managem ent Trouble report trouble report Create status report Status report Prepare final status report Send update to Strategic Planning Determine counter measures based on the final status report Final status report Send out actual service performance What problem was detected? Create request for automatic resource restoration Minor corrective actions required Actual service performance Wait 2 days Undertake corrective actions Track errors Request Undertake corrective actions Notify Service Quality Management to update statistics Generate updates for Resource Inventory Management Create troubleshooti ng report Update data for Service Quality Mgmt. (statistics) Abbildung C.5.: Beispielergebnis Tel+fein, Teilnehmer F_SLA_05 Determine counter measures inclu. priorities Detailed problem report Go to problem fix process for premium customers Detailed problem report NO Problem report YES Customer service (TELECO) Customer Service management (TELECO) Resource provisioning (TELECO) NONE Resource restoration required ReuseModel_new valid YES report Run complete system test Create problem resol ution report Problem resolution report Report SLA violation rebate to Billling & Colections for billing adjustment Update customer information for retention & loyalty purposes Create report for customer about performance and problem resolution Customer problem resolution report check possible problems investigate if the problem is analyzable by themselves detailed problem report enter problem report list with problem parameters perceives service has degraded plausibility check analyze problem create notification trouble report include prior document in status report compare problem report to customer SLA prepare final status report status report ex tra problem fix process for premiums create trouble report trouble report create trouble report determine customer significance history of contractual relationship notification perform analysis receive report track all possible errors request document determine counter measures send actual service performance 1 of 1 undertake all necessary corrective actions report SLA violation rebate create troubleshooting report create customer report create detailed problem report create problem resolu tion report troubleshooting report problem resolution report receive report undertake corrective actions service performance create request for automatic ressource restoration identify ex tent and details of service degradation determine counter measures incl. priorities report Abbildung C.6.: Beispielergebnis Tel+keine Wiederverwendung, Teilnehmer M_SLA_04 Tobias Fickinger Customer Service Customer ProcessModel Service Management Resource Provisioning 227 Literaturverzeichnis van der Aalst 1998 Aalst, Wil van d.: The application of Petri nets to workflow management. In: Journal of Circuits Systems and Computers 8 (1998), S. 21–66 van der Aalst u. van Hee 2004 Aalst, Wil van d. ; Hee, Kees van: Workflow management: models, methods and systems. MIT Press, 2004 Aguilar-Savén 2004 Aguilar-Savén, Ruth S.: Business process modelling: Reviewand framework. In: International Journal of Production Economics 90 (2004), S. 129–149 Alexander 1964 Alexander, Christopher: Notes on the Synthesis of Form. Harvard University Press, Cambridge, MA, 1964 Allen u. Parsons 2010 Allen, Gove ; Parsons, Jeffrey: Is Query Reuse Potentially Harmful? Anchoring and Adjustment in Adapting Existing Database Queries. In: Information Systems Research 21 (2010), Nr. 1, S. 56–77 Allweyer 1998 Allweyer, Thomas: Adaptive Geschäftsprozesse. Dr. Th. Gabler Verlag, 1998 Alter 2008 Alter, Steven: Defining information systems as work systems: implications for the IS field. In: European Journal of Information Systems 17 (2008), S. 448–469 APQC 2010 APQC: Process Classification Framework. Version: 2010. http://www.apqc.org/ process-classification-framework, Abruf: 18.10.2010 Arbeitskreis Statistik 2010 Arbeitskreis Statistik: Statistik Wiki - MANOVA. Website. http: //www2.hu-berlin.de/psychologie/ingpsycscw/MethWiki/pmwiki.php?n= Guidelines.MANOVA. Version: 2010 Atkinson u. Kühne 2003 Atkinson, Colin ; Kühne, Thomas: Model-driven development: A metamodeling foundation. In: IEEE Software 20 (2003), Nr. 5, S. 36–41 228 Augier u. March 2008 Augier, Mie ; March, James G.: A retrospective look at A Behavioral Theory of the Firm. In: Journal of Economic Behavior & Organization 66 (2008), S. 1–6 Austin 1962 Austin, John L.: How to Do Things with Words. Harvard University Press, Cambridge, Massachusetts, 1962 Awad 2007 Awad, Ahmed: BPMN-Q: A language to query business processes. In: Proceedings of EMISA 2007, St. Goar, Germany. Gesellschaft für Informatik (GI), 2007 (Lecture Notes in Informatics), S. 115–128 Baddeley 1992 Baddeley, Alan: Working Memory. In: Science 255 (1992), Nr. 5044, S. 556–559 Baeza-Yates u. Ribeiro-Neto 1999 Baeza-Yates, Ricardo ; Ribeiro-Neto, Berthier: Modern information retrieval. Addison-Wesley, 1999 Baldwin u. Clark 2000 Baldwin, Carliss Y. ; Clark, Kim B.: Design rules: The power of modularity. Bd. 1. The MIT Press, 2000 Bandara u. a. 2005 Bandara, Wasana ; Gable, Guy G. ; Rosemann, Michael: Factors and measures of business process modelling: model building through a multiple case study. In: European Journal of Information Systems 14 (2005), S. 347–360 Bashein u. Markus 2000 Bashein, Barbara J. ; Markus, M. L.: Data Warehouses: More Than Just Mining / Morristown, NJ: Financial Executives Research Foundation, Inc. 2000. – Forschungsbericht Batra u. Wishart 2004 Batra, Dinesh ; Wishart, Nicole A.: Comparing a rule-based approach with a pattern-based approach at different levels of complexity of conceptual data modelling tasks. In: Int. J. Hum.-Comput. Stud. 61 (2004), Nr. 4, S. 397–419 Bauer u. Johnson-Laird 1993 Bauer, Malcolm I. ; Johnson-Laird, Philip N.: How diagrams can improve reasoning. In: Psychological Science 4 (1993), S. 372–378 Beach u. Mitchell 1987 Beach, Lee R. ; Mitchell, Terence R.: Image Theory: Principles, Goals, and Plans in Decision Making. In: Acta Psychologica 66 (1987), S. 201–220 229 Becker u. a. 2000 Becker, Jörg ; Rosemann, Michael ; Uthmann, Christoph von: Guidelines of Business Process Modeling. In: Aalst, Wil M. P. d. (Hrsg.) ; Desel, Jörg (Hrsg.) ; Oberweis, Andreas (Hrsg.): Business Process Management Bd. 1806, Springer, 2000 (Lecture Notes in Computer Science), S. 30–49 Becker u. a. 2004 Becker, Jörg ; Delfmann, Patrick ; Knackstedt, Ralf: Konstruktion von Referenzmodellierungssprachen - Ein Ordnungsrahmen zur Spezifikation von Adaptionsmechanismen für Informationsmodelle. In: Wirtschaftsinformatik 46 (2004), Nr. 4, S. 251–264 Becker u. Kahn 2005 Kapitel Der Prozess im Fokus. In: Becker, Jörg ; Kahn, Dieter: Prozessmanagement: Ein Leitfaden zur prozessorientierten Organisationsgestaltung. 5. SpringerVerlag, 2005 Bernstein u. Dayal 1994 Bernstein, Philip A. ; Dayal, Umeshwar: An overview of repository technology. In: Proceedings of VLDB 1994, Santiago de Chile, Chile, 1994, S. 707–713 Bittner u. Smith 2001 Bittner, Thomas ; Smith, Barry: A Unified Theory of Granularity, Vagueness, and Approximation. In: Proceedings of COSIT Workshop on Spatial Vagueness, Uncertainty, and Granularity, 2001 Boehm 1999 Boehm, Barry: Managing software productivity and reuse. In: Computer 32 (1999), Nr. 9, S. 111–113 Boland 2002 Boland, Richard J.: Design in the Punctuation of Management Action. In: Boland, R. (Hrsg.) ; Frontiers of Management Workshop, Weatherhead School of Management (Veranst.): Managing as Designing: Creating a Vocabulary for Management Education and Research Frontiers of Management Workshop, Weatherhead School of Management, 2002 Bortz u. Döring 2003 Bortz, Jürgen ; Döring, Nicola: Forschungsmethoden und Evaluation. 3. SpringerVerlag Berlin Heidelberg New York, 2003 vom Brocke 2003 Brocke, Jan vom ; Becker, Jörg (Hrsg.) ; Grob, Heinz L. (Hrsg.) ; Klein, Stefan (Hrsg.) ; Kuchen, Herbert (Hrsg.) ; Müller-Funk, Ulrich (Hrsg.) ; Vossen, Gottfried (Hrsg.): Advances in Information Systems and Management Science. Bd. 4: Referenzmodellierung - Gestaltung und Verteilung von Konstruktionsprozessen. Logos Verlag Berlin, 2003 230 Bröder u. Schiffer 2003 Bröder, Arndt ; Schiffer, Stefanie: Take The Best Versus Simultaneous Feature Matching: Probabilistic Inferences From Memory and Effects of Representation Format. In: Journal of Experimental Psychology: General 132 (2003), Nr. 2, S. 277–293 Bunge 1977 Bunge, Mario: Treatise on Basic Philosophy.. Bd. 3. Ontology I. The Furniture of theWorld. D. Reidel Publishing, New York, 1977 Burkhardt u. a. 2002 Burkhardt, Jean-Marie ; Détienne, Francoise ; Wiedenbeck, Susan: Objectoriented program comprehension: Effect of expertise, task and phase. In: Empirical Software Engrg. 7 (2002), Nr. 2, S. 115–156 Burton-Jones u. Weber 1999 Burton-Jones, Andrew ; Weber, Ron: Understanding relationships with attributes in entity-relationship diagrams. In: De, P. (Hrsg.) ; DeGross, J. (Hrsg.) ; Association for Information Systems (Veranst.): Proc. 20th Internat. Conf. Inform. Systems. Atlanta, GA, 1999, S. 214–228 Cabeza u. Nyberg 2000 Cabeza, Roberto ; Nyberg, Lars: Imaging Cognition II: An Empirical Review of 275 PET and fMRI Studies. In: Journal of Cognitive Neuroscience 12 (2000), Nr. 1, S. 1–47 Campbell 1988 Campbell, Donald J.: Task Complexity: A Review and Analysis. In: Academy of Management Review 13 (1988), Nr. 1, S. 40–52 Campbell u. Stanley 1963 Campbell, Donald T. ; Stanley, Julian C.: Experimental and quasi-experimental designs for research. Rand Mc-Nally, Chicago, 1963 Cardoso u. a. 2006 Cardoso, Jorge ; Mendling, Jan ; Neumann, Gustaf ; Reijers, Hajo A.: A Discourse on Complexity of Process Models. In: Eder, Johann (Hrsg.) ; Dustdar, Schahram (Hrsg.): Business Process Management Workshops, 2006, S. 117–128 Choi u. a. 2007 Choi, Injun ; Kim, Kwangmyeong ; Jang, Mookyung: An xml-based process repository and process query language for integrated process management. In: Knowledge and Process Management 14 (2007), Nr. 4, S. 303–316 Coad u. a. 1995 Coad, Peter D. ; North, David ; Mayfield, Mark: Object Models: Strategies, Patterns, and Applications. Prentice Hall, Upper Saddle River, NJ, 1995 231 Cohen u. a. 1977 Cohen, Jonathan D. ; Perlstein, William M. ; Braver, Todd S. ; Nystrom, L. E. ; Noll, D. C. ; Jonides, J. ; Smith, E. E.: Temporal dynamics of brain activation during a working memory task. In: Nature 386 (1977), S. 604–608 Cowan 2000 Cowan, Nelson: The magical number 4 in short-term memory: A reconsideration of mental storage capacity. In: Behavioral and Brain Sciences 24 (2000), S. 87–185 Croft 1987 Croft, W. B.: Approaches to intelligent information retrieval. In: Information Processing and Management 25 (1987), Nr. 4, S. 249–254 Cruz-Lemus u. a. 2009 Cruz-Lemus, José A. ; Genero, Marcela ; Manso, M. E. ; Morasca, Sandro ; Piattini, Mario: Assessing the understandability of UML statechart diagrams with composite states—A family of empirical studies. In: Empir Software Eng 14 (2009), Nr. 6, S. 685–719 Curtis u. a. 1992 Curtis, Bill ; Kellner, Marc I. ; Over, Jim: Process modeling. In: Commun. ACM 35 (1992), Nr. 9, S. 75–90 Cyert u. March 1963 Cyert, Richard M. ; March, James G.: A Behavioral Theory of the Firm. Prentice Hall, Endlewood Cliffs, NJ, 1963 Davenport 1993 Davenport, Thomas H.: Process innovation: reengineering work through information technology. Harvard Business School Press, 1993 Davenport 1995 Kapitel Business Process Reengineering: Where It’s Been, Where It’s Going. In: Davenport, Thomas H.: Business Process Change: Concepts, Methods and Technoiogies. Idea Publishing, Harrisburg, PA, USA, 1995, S. 1–13 Davies u. a. 2006 Davies, Islay ; Green, Peter ; Rosemann, Michael ; Indulska, Marta ; Gallo, Stan: How do practitioners use conceptual modeling in practice? In: Data & Knowledge Engineering 58 (2006), S. 358–380 Davis 2000 Kapitel Information systems conceptual foundations: looking backward and forward. In: Davis, Gordon B.: Organizational and Social Perspectives on Information Technology. Kluwer Academic Publishers, Boston, 2000, S. 61–82 232 Delfmann 2006 Delfmann, Patrick ; Becker, Jörg (Hrsg.) ; Grob, Heinz L. (Hrsg.) ; Klein, Stefan (Hrsg.) ; Kuchen, Herbert (Hrsg.) ; Müller-Funk, Ulrich (Hrsg.) ; Vossen, Gottfried (Hrsg.): Advances in Information Systems and Management Science. Bd. 25: Adaptive Referenzmodellierung. Logos Verlag Berlin, 2006 Denning 1997 Denning, Peter J.: A New Social Contract for Research. In: Communications of the ACM 40 (1997), Nr. 2, S. 132–134 Dennis u. Carte 1998 Dennis, Alan R. ; Carte, Traci A.: Using geographical information systems for decision making: Extending cognitive fit theory to map-based presentations. In: Information Systems Research 9 (1998), Nr. 2, S. 194–203 Dietz 1999 Dietz, Jan L.: DEMO : towards a discipline of Organisation Engineering. In: European Journal of Operations Research 128 (1999), Nr. 2, S. 351–363 Dijkman u. a. 2010 Dijkman, Remco ; Dumas, Marlon ; Dongen, Boudewijn van ; Käärik, Reina ; Mendling, Jan: Similarity of business process models: Metrics and evaluation. In: Information Systems 36 (2010), Nr. 2, S. 498–516 Dijkman u. a. 2009 Dijkman, Remco ; Dumas, Marlon ; Garcia-Banuelos, Luciano: Graph Matching Algorithms for Business Process Model Similarity Search. In: Dayal, Umeshwar (Hrsg.) ; Koehler, Jana (Hrsg.) ; Reijers, Hajo (Hrsg.): Business Process Management (BPM’09) Bd. 5701/2009, 2009 (Lecutre Notes of Computer Science), S. 48–63 Dixon 2000 Dixon, Nancy M.: Common knowledge: how companies thrive by sharing what they know. Harvard Business School Press, 2000 van Dongen u. a. 2008 Dongen, Boudewijn F. ; Dijkman, Remco M. ; Mendling, Jan: Measuring Similarity between Business Process Models. In: CAiSE, 2008, S. 450–464 Draper 2010 Draper, Stephen W.: The Hawthorne, Pygmalion, Placebo and other effects of expectation: some notes. Version: 2010. http://www.psy.gla.ac.uk/~steve/hawth. html, Abruf: 14. November 2010. Electronic Document Dumas u. a. 2005 Kapitel Introduction. In: Dumas, Marlon ; Hofstede, Arthur ter ; Aalst, Wil van d.: Process Aware Information Systems: Bridging People and Software Through Process Technology. Wiley, Chichester, 2005, S. 3–20. 233 Earl 1994 Earl, Michael J.: The New and Old of Business Process Redesign. In: Journal of Strategic Information Systems 3 (1994), Nr. 1, S. 5–22 Ehrig u. a. 2007 Ehrig, Marc ; Koschmider, Agnes ; Oberweis, Andreas: Measuring Similarity between Semantic Business Process Models. In: Roddick, John F. (Hrsg.) ; Hinze, Annika (Hrsg.): Fourth Asia-Pacific Conference on Conceptual Modelling (APCCM 2007), Ballarat, Victoria, Australia Bd. 67, Australian Computer Society, Inc., January 2007 Elhadad u. a. 2008 Elhadad, Michael ; Balaban, Mira ; Sturm, Arnon: Effective Business Process Outsourcing: The Prosero Approach. In: International Journal of Interoperability in Business Information Systems (IBIS) 3 (2008), Nr. 1 Fettke 2006 Fettke, Peter ; Loos, Peter (Hrsg.): Referenzmodellevaluation. Logos Verlag Berlin, 2006 Fettke u. Loos 2002 Fettke, Peter ; Loos, Peter: Methoden zur Wiederverwendung von Referenzmodellen - Übersicht und Taxonomie. In: Becker, Jörg (Hrsg.) ; Knackstedt, Ralf (Hrsg.): Referenzmodellierung 2002 - Methoden - Modelle - Erfahrungen. Tagungsband zur 6. Fachtagung Referenzmodellierung 2002 (RefMod 2002) im Rahmen der MKWI 2002 in Nürnberg, 2002, S. 9–33 Fettke u. Loos 2003 Fettke, Peter ; Loos, Peter: Classification of reference models: a methodology and its application. In: Information Systems and E-Business Management 1 (2003), January, Nr. 1, S. 35–53 Fettke u. Loos 2004 Fettke, Peter ; Loos, Peter: Referenzmodellierungsforschung - Langfassung eines Aufsatzes / Johannes Gutenberg Universität Mainz. 2004. – Paper Fettke u. Loos 2005 Fettke, Peter ; Loos, Peter: Der Beitrag der Referenzmodellierung zum Business Engineering. In: HMD – Praxis der Wirtschaftsinformatik 241 (2005), S. 22 Fettke u. Loos 2007a Fettke, Peter (Hrsg.) ; Loos, Peter (Hrsg.): Reference Modeling for Business Systems Analysis. Idea Group Publishing, 2007 Fettke u. Loos 2007b Kapitel Perspectives on Reference Modeling. In: Fettke, Peter ; Loos, Peter: Reference Modeling for Business Systems Analysis. Idea Group Publishing, 2007, S. 1–21 234 Fiedler 1988 Fiedler, Klaus: The dependence of the conjunction fallacy on subtle linguistic factors. In: Psychological Research 50 (1988), S. 123–129 Fodor 1983 Fodor, Jerry A.: Modularity of Mind: An Essay on Faculty Psychology. MIT Press, Cambridge, Mass, 1983 Fowler 1997 Fowler, Martin: Analysis Patterns: Reusable Object Models. Addison-Wesley, Reading, MA, 1997. – Siehe auch http://martinfowler.com/ Frank 2007 Kapitel Evaluation of Reference Models. In: Frank, Ulrich: Reference Modeling for Business Systems Analysis. Idea Group, 2007, S. 118–140 Frederiks u. van der Weide 2006 Frederiks, Paul J. M. ; Weide, Theo P. d.: Information modeling: The process and the required competencies of its participants. In: Data & Knowledge Engineering 58 (2006), S. 4–20 Garcia-Retamero u. a. 2007 Garcia-Retamero, Rocio ; Wallin, Annika ; Dieckmann, Anja: Does causal knowledge help us be faster and more frugal in our decisions? In: Memory & Cognition 35 (2007), Nr. 6, S. 1399–1409 Gemino u. Wand 2004 Gemino, Andrew ; Wand, Yair: A framework for empirical evaluation of conceptual modeling techniques. In: Requirements Engineering 9 (2004), S. 248–260 Gerstman 2010 Gerstman, Bud: StatPrimer (Version 6.4). Version: 2010. http://www.sjsu.edu/ faculty/gerstman/StatPrimer/, Abruf: 12. November 2010. Electronic Document Gigerenzer 1997 Gigerenzer, Gerd: Bounded rationality: Models of fast and frugal inference. In: Swiss Journal of Economics and Statistics 133 (1997), S. 201–218 Gigerenzer u. a. 1999 Gigerenzer, Gerd (Hrsg.) ; Todd, Peter M. (Hrsg.) ; ABC Research Group (Hrsg.): Simple heuristics that make us smart. Oxford University Press, New York, 1999 Gobet u. a. 2001 Gobet, Fernand ; Lane, Peter C. ; Croker, Steve ; Cheng, P. C. H. ; Jones, G. ; Oliver, I. ; Pine, J. M.: Chunking mechanisms in human learning. In: Trends in Cognitive Sciences 5 (2001), Nr. 6, S. 236–243. – ISSN 1364–6613 235 Goodhue 1995 Goodhue, Dale L.: Understanding user evaluations of information systems. In: Management Science 41 (1995), Nr. 12, S. 1827–1844 Goodhue u. Thompson 1995 Goodhue, Dale L. ; Thompson, Ronald L.: Task-technology fit and individual performance. In: MIS Quarterly 19 (1995), Nr. 2, S. 213–236 Google Inc. 2010a Google Inc.: Google. http://www.google.com. Version: 2010 Google Inc. 2010b Google Inc.: Google sites. 31.10.2010 Version: 2010. http://sites.google.com, Abruf: Gray u. Durcikova 2006 Gray, Peter H. ; Durcikova, Alexandra: The Role of Knowledge Repositories in Technical Support Environments: Speed Versus Learning in User Performance. In: Journal of Management Information Systems 22 (2006), Nr. 3, S. 159–190 Green u. Petre 1996 Green, Thomas R. G. ; Petre, Marian: Usability Analysis of Visual Programming Environments: a ‘cognitive dimensions’ framework. In: Journal of Visual Languages and Computing 7 (1996), Nr. 2, S. 131–174 Gregor 2006 Gregor, Shirley: The Nature of Information Systems. In: MIS Quarterly 30 (2006), September, Nr. 3, S. 611–642 Grätzer 1998 Grätzer, George: General Lattice Theory. 2. Birkhauser, 1998 Gruhn u. Laue 2006 Gruhn, Volker ; Laue, Ralf: Complexity metrics for business process models. In: 9th international conference on Business Information Systems Bd. 85, 2006, S. 1–12 Gschwind u. a. 2008 Gschwind, Thomas ; Koehler, Jana ; Wong, Janette: Applying Patterns during Business Process Modeling. In: Dumas, M. (Hrsg.) ; Reichert, M. (Hrsg.) ; Shan, M.-C. (Hrsg.): BPM 2008 Bd. 5240/2008, Springer-Verlag Berlin Heidelberg, 2008 (Lecture Notes in Computer Science), S. 4–19 Gutzwiller 1994 Gutzwiller, Thomas A.: Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen. Heidelberg : Physica-Verlag, 1994 236 Habermas 1995 Habermas, Jürgen: Theorie des kommunikativen Handelns. Suhrkamp Verlag, 1995 Hammer 1990 Hammer, Michael: Reengineering work: Don’t automate, obliterate. In: Harvard Business Review 68 (1990), Nr. 4, S. 104–112 Heilmann u. a. 1996 Kapitel Die Integration der Aufbauorganisation in Workflow-Management-Systemen. In: Heilmann, Heidi ; Heinrich, Lutz J. ; Roithmayr, Friedrich: Information Engineering. 1996, S. 147–165 Henderson u. Venkatraman 1993 Henderson, John C. ; Venkatraman, N.: Strategic Alignment: Leveraging Information Technology for Transforming Organizations. In: IBM Systems Journal 32 (1993), Nr. 1, S. 472–484 Hess u. Biggam 2004 Hess, Karin ; Biggam, Sue: A Discussion of Ïncreasing Text Complexity"/ National Center for the Improvement of Educational Assessment, produced in partnership with the New Hampshie, Rhode Island, and Vermon Departments of Education. Version: 2004. http://www.nciea.org/publications/TextComplexity_KH05.pdf. 2004. – Forschungsbericht Hevner u. a. 2004 Hevner, Alan R. ; March, Salvatore T. ; Park, Jinsoo ; Ram, Sudha: Design Science in Information System Research. In: MIS Quarterly (2004) Hochstein u. a. 2004 Hochstein, Axel ; Zarnekow, Rüdiger ; Brenner, Walter: ITIL als CommonPractice-Referenzmodell für das IT-Service-Management: Formale Beurteilung und Implikationen für die Praxis. In: Wirtschaftsinformatik 46 (2004), Nr. 5, S. 382–389. Hollingsworth 1995 Hollingsworth, David: The Workflow Reference Model / Workflow Management Coalition. 1995 (Document Number TC00-1003). – Forschungsbericht Holten u. Melchert 2002 Kapitel Das Supply Chain Operations Reference (SCOR)-Modell. In: Holten, Roland ; Melchert, Florian: Wissensmanagement mit Referenzmodellen. Konzepte für die Anwendungssystem- und Organisationsgestaltung,. Physica, Heidelberg, 2002, S. 207–226 Hornung u. a. 2008 Hornung, Thomas ; Koschmider, Agnes ; Lausen, Georg: Recommendation Based Process Modeling Support: Method and User Experience. In: ER, 2008 237 Huber u. a. 2007 Huber, Mark W. ; Piercy, Craig A. ; McKeown, Patrick G.: Information Systems: Creating Business Value. John Wiley & Sons, Hoboken, NJ, 2007 IBM Software Group 2008 IBM Software Group: IBM Business Process Management Suite V6.1.2. Version: August 2008. http://publib.boulder.ibm.com/infocenter/ieduasst/ v1r1m0/index.jsp?topic=/com.ibm.iea.wpi_v6/wpswid/6.1.2/Overview/ WPIv612_BPMOverview/player.html, Abruf: 26.10.2010. – Key Roles in BPM Ingwersen 1996 Ingwersen, Peter: Cognitive Perspectives of Information Retrieval Interaction: Elements of a Cognitive IR Theory. In: Journal of Documentation 52 (1996), Nr. 1, S. 3–50 Jacoby u. a. 1989 Jacoby, Larry L. ; Woloshyn, Vera ; Kelley, Colleen: Becoming famous without being recognized: Unconscious influences of memory produced by divided attention. In: Journal of Experimental Psychology: General 118 (1989), S. 115–125. Johannesson 1995 Johannesson, Paul: Representation and communication - a speech act based approach to information systems design. In: Information Systems 20 (1995), Nr. 4, S. 291–303 Johnson-Laird u. a. 1972 Johnson-Laird, Philiip N. ; Legrenzi, Paolo ; Sonino-Legrenzi, Maria: Reasoning and a sense of reality. In: British Journal of Psychology 63 (1972), S. 395–400 Kahneman u. Tversky 1979 Kahneman, Daniel ; Tversky, Amos: Prospect theory: An analysis of decision under risk. In: Econometrica 47 (1979), Nr. 2, S. 263–291 Kettinger u. a. 1997 Kettinger, William J. ; Teng, James T. ; Guha, Subashish: Business Process Change: A Study of Methodologies, Techniques, and Tools. In: MIS Quarterly 21 (1997), Nr. 1, S. 55–98 Khatri u. a. 2006 Khatri, Vijay ; Vessey, Iris ; Ramesh, V. ; Clay, Paul ; Park, Sung-Jin: Understanding Conceptual Schemas: Exploring the Role of Application and IS Domain Knowledge. In: Information Systems Research 17 (2006), March, Nr. 1, S. 81–99 Kühne 2006 Kühne, Thomas: Matters of (Meta-) Modeling. In: Journal on Software and Systems Modeling, 5 (2006), Nr. 4, S. 369–385 238 Kindler 2009 Kindler, Ekkart: Model-Based Software Engineering and Process-Aware Information Systems. In: Jensen, Kurt (Hrsg.) ; Aalst, Wil M. d. (Hrsg.): Transactions on Petri Nets and Other Models of Concurrency II Bd. 5460/2009, Springer, 2009 (Lecture Notes in Computer Science), S. 27–45 Klauer u. a. 2000 Klauer, Karl-Christoph ; Musch, Jochen ; Naumer, Birgit: On belief bias in syllogistic reasoning. In: Psychological Review 107 (2000), S. 852–884 Koedinger u. Anderson 1990 Koedinger, Kenneth R. ; Anderson, John R.: Abstract planning and perceptual chunks: elements of expertise in geometry . In: Cognitive Science 14 (1990), S. 511–550 Koehler u. a. 2006 Koehler, Jana ; Hauser, Rainer ; Ksenia Ryndina, Jochen K. ; Vanhatalo, Jussi ; Wahler, Michael: The Role of Visual Modeling and Model Transformations in Business-driven Development. In: Bruni, Roberto (Hrsg.) ; Varró, Dániel (Hrsg.): Graph Transformation and Visual Modeling Techniques, Electronic Notes in Theoretical Computer Science, April 2006, S. 1–12 Koperski 2010 Koperski, Jeffrey: Models. Version: Oktober 2010 Website. http://www.iep.utm.edu/models/. Koschmider u. a. 2009a Koschmider, Agnes ; Song, Minseok ; Reijers, Hajo A.: Advanced Social Features in a Recommendation System for Process Modeling. In: Business Information Systems 2009, 2009 Koschmider u. a. 2009b Koschmider, Agnes ; Song, Minseok ; Reijers, Hajo A.: Social Software for Modeling Business Processes. In: Business Process Management 2008 Wprkshops, 2009 Kosslyn 1994 Kosslyn, Stephen M.: Image and brain: The resolution of the imagery debate. Cambridge, MA : MIT Press, 1994 Krallmann u. a. 2007 Krallmann, Hermann (Hrsg.) ; Schönherr, Marten (Hrsg.) ; Trier, Matthias (Hrsg.): Systemanalyse im Unternehmen. Bd. 5. Oldenbourg, 2007 Krogstie u. a. 1995 Krogstie, John ; Lindland, Odd I. ; Sindre, Guttorm: Defining quality aspects 239 for conceptual models. In: Proceedings of the 3rd IFIP international working conference on information system concepts: Towards a consolidation of views, Marburg, Germany, 1995, S. 216–231 Krogstie u. a. 2006 Krogstie, John ; Sindre, Guttorm ; Jørgensen, Håvard D.: Process models representing knowledge for action: a revised quality framework. In: European Journal of Information Systems 15 (2006), S. 91–102 Küster u. a. 2008 Küster, Jochen M. ; Gerth, Christian ; Förster, Alexander ; Engels, Gregor: A Tool for Process Merging in Business-Driven Development. In: CAiSE Forum, 2008, S. 89–92 Küster u. a. 2006 Küster, Jochen M. ; Koehler, Jana ; Ryndina, Ksenia: Improving Business Process Models with Reference Models in Business-Driven Development. In: Eder, Johann (Hrsg.) ; Dustdar, Schahram (Hrsg.): Business Process Management Workshops, BPM 2006 International Workshops, BPD, BPI, ENEI, GPWW, DPM, semantics4ws, Springer, September 2006, S. 35–44 Lane u. a. 2000 Lane, Peter C. R. ; Cheng, Peter C.-H. ; Gobet, Fernand: CHREST: investigating how humans learn to solve problems using diagrams. In: Artificial Intelligence Simulation Behavior Quarterly 103 (2000), S. 24–30 Langlois 2002 Langlois, Richard N.: Modularity in Technology and Organization. In: Journal of Economic Behavior and Organization 49 (2002), Nr. 1, S. 19–37 Larkey 1998 Larkey, Leah S.: Automatic essay grading using text categorization techniques. In: Proceedings of the 21st annual international ACM SIGIR conference on Research and development in information retrieval, ACM New York, NY, USA, 1998, S. 90–95 Larkin u. Simon 1987 Larkin, Jill H. ; Simon, Herbert A.: Why a diagram is (sometimes) worth ten thousand words. In: Cognitive Science 11 (1987), S. mo Laub u. a. 2006 Laub, Julian ; Macke, Jakob ; Müller, Klaus-Robert ; Wichmann, Felix A.: Inducing Metric Violations in Human Similarity Judgements. In: Schölkopf, Bernhard (Hrsg.) ; Platt, John (Hrsg.) ; Hofmann, Thomas (Hrsg.): Neural Information Processing Systems (NIPS’06), Vancouver, BC, Canada, 4-9 December 2006 Bd. 19, MIT Press, Cambridge, MA, 2006 (Advances in Neural Information Processing Systems), S. 777–784 240 Lea 1994 Lea, Doug: Christopher Alexander: An introduction for OO designers. In: Software Engineering Notes 19 (1994), Nr. 1, S. 39–46 Lewandowsky u. a. 2009 Lewandowsky, Stephan ; Oberauer, Klaus ; Brown, Gordon D.: No temporal decay in verbal short-term memory. In: Trends in Cognitive Sciences 13 (2009), March, Nr. 3, S. 120–126 Lindland u. a. 1994 Lindland, Odd I. ; Sindre, Guttorm ; Sølvberg, Arne: Understanding quality in conceptual modeling. In: IEEE Software 11 (1994), March, Nr. 2, S. 42–49 Lindsay u. a. 2003 Lindsay, Ann ; Downs, Denise ; Lunn, Ken: Business processes—attempts to find a definition. In: Information and Software Technology 45 (2003), Nr. 15, S. 1015–1019 Maes u. Poels 2007 Maes, Ann ; Poels, Geert: Evaluating quality of conceptual modelling scripts based on user perceptions. In: Data & Knowledge Engineering 63 (2007), S. 701–724 Maes u. a. 2000 Maes, Rik ; Rijsenbrij, Daan ; Truijens, Onno ; Goedvolk, Hans: Redefining business – IT alignment through a unified framework / Universiteit van Amsterdam, Department of Information Management. 2000. – Working Paper Majchrzak u. a. 2000 Majchrzak, Ann ; Rice, Ronald E. ; Malhotra, Arvind ; King, N. ; Ba, S.: Technology adaptation: The case of a computer-supported inter-organizational virtual team. In: MIS Quarterly 24 (2000), Nr. 4, S. 569–600 Markus 1994 Markus, M. L.: Electronic mail as the medium of managerial choice. In: Organization Science 5 (1994), November, Nr. 4, S. 502–527 Markus 2001 Markus, M. L.: Toward a Theory of Knowledge Reuse: Types of Knowledge Reuse Situations and Factors in Reuse Success. In: Journal of Management Information Systems 18 (2001), Nr. 1, S. 57–93 Mayer 1975 Mayer, Richard E.: Different problem-solving competencies established in learning computer programming with and without meaningful models. In: J. Ed. Psych. 67 (1975), Nr. 6, S. 725–734 Mayer 1989 Mayer, Richard E.: Models for Understanding. In: Review of Educational Research 59 (1989), Nr. 1, S. 43–64 241 Mayer 2001 Mayer, Richard E.: Multimedia Learning. Cambridge University Press, Cambridge, MA, 2001 McMaster u. Shea 1992 McMaster, Robert B. ; Shea, K. S.: Generalization in digital cartography. Association of American Geographers, Washington, D.C., 1992 (Resource publications in geography) Melao u. Pidd 2000 Melao, Nuno ; Pidd, Michael: A conceptual framework for understanding business processes and business process modelling. In: Information Systems Journal 10 (2000), Nr. 2, S. 105–129 Mendling 2007 Mendling, Jan: Detection and Prediction of Errors in EPC Business Process Models, Vienna University of Economics and Business Administration, Doctoral Thesis, 2007 Mendling 2008 Mendling, Jan: Lecture Notes in Business Information Processing.. Bd. 6: Metrics for Process Models: Empirical Foundations of Verification, Error Prediction, and Guidelines for Correctness. Springer, 2008, 2008 Mendling u. a. 2010a Mendling, Jan ; Reijers, Hajo A. ; Aalst, Wil van d.: Seven process modeling guidelines (7PMG). In: Information and Software Technology 52 (2010), Nr. 2, S. 127– 136. http://dx.doi.org/http://dx.doi.org/10.1016/j.infsof.2009.08.004. – DOI http://dx.doi.org/10.1016/j.infsof.2009.08.004. – ISSN 0950–5849 Mendling u. a. 2010b Mendling, Jan ; Reijers, Hajo A. ; Recker, Jan: Activity labeling in process modeling: Empirical insights and recommendations. In: Information Systems 35 (2010), Nr. 4, S. 467–482 Mendling u. a. 2008 Mendling, Jan ; Verbeek, H. ; Dongen, Boudewijn ; Aalst, Wil van d. ; Neumann, Gustaf: Detection and prediction of errors in EPCs of the SAP reference model. In: Data and Knowledge Engineering 64 (2008), Nr. 1, S. 312–329 Merriam-Webster Online Dictionary 2010 Merriam-Webster Online Dictionary: „granularity“. Version: 2010. http: //www.merriam-webster.com/dictionary/granularity, Abruf: 8. Mai 2010 Mervis u. Rosch 1981 Mervis, Carolyn B. ; Rosch, Eleanor: Categorization of Natural Objects. In: Ann. Rev. of Psychology, 32 (1981), S. 89–115 242 zur Mühlen 1999 Mühlen, Michael zur: Evaluation of Workflow Management Systems Using Meta Models. In: Proceedings of the 32nd Hawaii International Conference on System Sciences (HICSS), IEEE, 1999 zur Mühlen 2004 Mühlen, Michael zur: Workflow-based Process Controlling. Foundation, Design, and Implementation of Workflow-driven Process Information Systems. Bd. 6. Logos, Berlin, 2004 zur Mühlen u. Recker 2008 Mühlen, Michael zur ; Recker, Jan: How much language is enough? Theoretical and practical use of the business process modeling notation. In: Advanced Information Systems Engineering (CAISE ’08), Springer, 2008, S. 465–479 Microsoft Corporation 2010 http://www.bing.com Miller 1956 Miller, George A.: The magical number seven, plus or minus two: Some limits on our capacity for processing information. In: Psychological Review 63 (1956), S. 81–97 Miller u. Mukerji 2001 Miller, Joaquin ; Mukerji, Jishnu: Model Driven Architecture (MDA) / Object Management Group, Architecture Board ORMSC. 2001 (Document number ormsc/2001-07-01). – Public document Missier u. a. 2007 Missier, Fabio D. ; Ferrante, Donatella ; Costantini, Erica: Focusing effects in predecisional information acquisition. In: Acta Psychologica 125 (2007), S. 155–174 Mitra 2005 Mitra, Tilak: Business-driven development. developerWorks Article. http:// www.ibm.com/developerworks/webservices/library/ws-bdd. Version: December 2005. – Abruf: 19. Dezember 2010 Molzberger 1985 Molzberger, Peter: Systemanalyse als therapeutischer Prozess / Universität der Bundeswehr München, Fakultät für Informatik. Neubiberg, August 1985 (8513). – Bericht Moody 2009 Moody, Daniel L.: The “Physics” of Notations: Toward a Scientific Basis for Constructing Visual Notations in Software Engineering. In: IEEE Transactions on Software Engineering 35 (2009), Nr. 6, S. 756–779 243 Moody u. a. 2002 Moody, Daniel L. ; Sindre, Guttorm ; Brasethvik, Terje ; Sølvberg, Arne: Evaluating the Quality of Process Models: Empirical Testing of a Quality Framework. In: Conceptual Modeling - ER 2002: 21st International Conference on Conceptual Modeling Tampere, Finland, October 7-11, 2002. Proceedings, Springer Berlin / Heidelberg, 2002 (Lecture Notes in Computer Science), S. 380–396 Mucksch 2006 Kapitel Das Data Warehouse als Datenbasis analytischer Informationssysteme. In: Mucksch, Harry: Analytische Informationssysteme. Springer Berlin Heidelberg, 2006, S. 129–142 Neumann u. a. 2003 Kapitel Continuous Process Management. In: Neumann, Stefan ; Probst, Christian ; Wernsmann, Clemens: Process Management: A Guide for the Design of Business Processes. Springer, Berlin, 2003, S. 233–250 Newell u. Simon 1972 Newell, Allen ; Simon, Herbert A.: Human Problem Solving. Prentice-Hall, Englewood Cliffs, N.J., 1972 Nonaka u. Takeuchi 1995 Nonaka, Ikujiro ; Takeuchi, Hirotaka: The Knowledge-Creating Company: How Japanese Companies Create the Dynamics of Innovation. Oxford University Press, New York, 1995 Nordsieck 1934 Nordsieck, Fritz: Grundlagen der Organisationslehre. C.E. Poeschel Verlag, Stuttgart, 1934 Nunamaker u. a. 1990 Nunamaker, Jay F. ; Chen, Minder ; Purdin, Titus D. M.: Systems Development in Information Systems Research. In: Journal of Management Information Systems 7 (1990), Nr. 3, S. 89–106 OASIS Universal Business Language (UBL) TC 2006 OASIS Universal Business Language (UBL) TC: Universal Business Language v2.0. Version: 2006. http://docs.oasis-open.org/ubl/os-UBL-2.0/UBL-2.0. html, Abruf: 12. Oktober 2010. Website OMG 2002 OMG: MOF 2.0 Query / Views / Transformations RFP / Object Management Group. Version: April 2002. http://www.omg.org/cgi-bin/doc?ad/2002-4-10. Needham, MA, USA, April 2002 (ad/2002-04-10). – OMG Document OMG 2003 OMG: MDA Guide Version 1.0.1 / Object Management Group. 2003. – Forschungsbericht 244 OMG 2006 OMG: Meta Object Facility (MOF) Core Specification, 2.0 edition / Object Management Group. 2006. – Forschungsbericht OMG 2008 OMG: Business Process Definition MetaModel, Volume II: Process Definitions, Version 1.0. Version: 2008. http://www.omg.org/spec/BPDM/1.0/volume2/PDF/, Abruf: 8. November 2010 Orlikowski u. Iacono 2001 Orlikowski, Wanda J. ; Iacono, C. S.: Research Commentary: Desperately Seeking the ’IT’ in IT Research - A Call to Theorizing the IT Artifact. In: Information Systems Research 12 (2001), June, Nr. 2, S. 121–134 Paas u. a. 2010 Paas, Fred ; Gog, Tamara van ; Sweller, John: Cognitive Load Theory: New Conceptualizations, Specifications, and Integrated Research Perspectives. In: Educational Psychology Review 22 (2010), Nr. 2, S. 115–121. http://dx.doi.org/10. 1007/s10648-010-9133-8. – DOI 10.1007/s10648–010–9133–8 Pant u. Juric 2008 Pant, Kapil ; Juric, Matjaz B.: Business Process Driven SOA using BPMN and BPEL. PACKT Publishing, 2008 Parnas 1972 Parnas, David L.: On the Criteria for Decomposing Systems into Modules. In: Communications of the ACM 15 (1972), Nr. 12, S. 1053–1058 Parsons u. Saunders 2004 Parsons, Jeffrey ; Saunders, Chad: Cognitive Heuristics in Software Engineering: Applying and Extending Anchoring and Adjustment to Artifact Reuse. In: IEEE Trans. Software Eng. 30 (2004), Nr. 12, S. 873–888 Plous 1993 Plous, Scott: The Psychology of Judgement and Decision Making. McGraw Hill, 1993 Polyvyanyy u. a. 2009 Polyvyanyy, Artem ; Smirnov, Sergey ; Weske, Mathias: The Triconnected Abstraction of Process Models. In: Dayal, Umeshwar (Hrsg.) ; Koehler, Jana (Hrsg.) ; Reijers, Hajo (Hrsg.): Business Process Management (BPM) Bd. 5701/2009, Springer-Verlag Berlin Heidelberg, 2009 (Lecture Notes in Computer Science), S. 229–244 Porter 1985 Porter, Michael E.: Competitive Advantage: Creating and Sustaining Superior Performance. The Free Press, New York, 1985 245 Poulton 1954 Poulton, E. C.: Eye-hand span in simple serial tasks. In: Journal of Experimental Psychology 47 (1954), S. 403–410 Prabhu 1987 Prabhu, N.: Second Language Pedagogy. Oxford University Press, Oxford, 1987 Prieto-Díaz 1993 Prieto-Díaz, Ruben: Status report: Software reusability. In: lEEE Software 10 (1993), Nr. 3, S. 61–66 Purao u. a. 2001 Purao, Sandeep ; Bush, Ashley ; Rossi, Matti: Problem and design spaces during object-oriented design: An exploratory study. In: Proc. of the 34th Annual Hawaii Internat. Conf System Sci., Maui, 2001 Purao u. a. 2003 Purao, Sandeep ; Storey, Veda C. ; Han, Taedong: Improving analysis pattern reuse in conceptual design: Augmenting automated processes with supervised learning. In: Information Systems Research 14 (2003), Nr. 3, S. 269–290 Qu u. a. 2008 Qu, Chen ; Zhou, Liming ; Luo, Yue jia: Electrophysiological correlates of adjustment process in anchoring effects. In: Neuroscience Letters 445 (2008), S. 199–203 Recker 2007 Recker, Jan: A socio-pragmatic constructionist framework for understanding quality in process modelling. In: Australasian Journal of Information Systems 14 (2007), Nr. 2, S. 43–63 Recker 2010a Recker, Jan: Continued use of process modeling grammars: the impact of individual difference factors. In: European Journal of Information Systems 19 (2010), Nr. 1, S. 76–92 Recker 2010b Recker, Jan: Opportunities and constraints: the current struggle with BPMN. In: Business Process Management Journal 16 (2010), Nr. 1, S. 181–201. – ISSN 1463–7154 Recker u. a. 2010 Recker, Jan ; Rosemann, Michael ; Indulska, Marta ; Green, Peter: Business Process Modeling – A Comparative Analysis. In: Journal of the Association of Information Systems 10 (2010), Nr. 4, S. 333–363 Recker u. a. 2007 Recker, Jan ; Rosemann, Michael ; Krogstie, John: Ontology- versus pattern- 246 based evaluation of process modeling languages: A comparison. In: Communications of the Association for Information Systems 20 (2007), Nr. 48, S. 774–799 Reijers u. Mendling 2008 Reijers, Hajo ; Mendling, Jan: Modularity in Process Models: Review and Effects. In: Dumas, Marlon (Hrsg.) ; Reichert, Manfred (Hrsg.) ; Shan, M.-C. (Hrsg.): Business Process Management Bd. 5240/2008, Springer Berlin Heidelberg, 2008 (Lecture Notes in Computer Science), S. 20–35 Reijers u. Mendling 2011 Reijers, Hajo A. ; Mendling, Jan: A Study into the Factors that Influence the Understandability of Business Process Models. In: IEEE Transactions on Systems, Man, and Cybernetics (2011). – Accepted paper Reinhartz-Berger u. a. 2005 Reinhartz-Berger, Iris ; Soffer, Pnina ; Sturm, Arnon: A Domain Engineering Approach to Specifying and Applying Reference Models. In: Desel, Jörg (Hrsg.) ; Frank, Ulrich (Hrsg.): Proceedings of the Workshop on Enterprise Modelling and Information Systems Architectures, 2005, S. 50–63 van Rijsbergen 2004 Rijsbergen, Cornelis J.: The geometry of information retrieval. Cambridge University Press, Cambridge, UK, 2004 Robinson 2001 Robinson, Peter: Task complexity, task difficulty, and task production: exploring interactions in a componential framework. In: Applied Linguistics 22 (2001), Nr. 1, S. 27–57 Rolland u. Prakash 1993 Rolland, Colette ; Prakash, Naveen: Reusable process chunks. In: Database and Expert Systems Applications Bd. 720/1993, Springer Berlin / Heidelberg, 1993 (Lecture Notes in Computer Science), S. 655–666 Rosa u. a. 2010 Rosa, Marcello L. ; Reijers, Hajo A. ; Aalst, Wil M. d. ; Dijkman, Remco M. ; Mendling, Jan ; Dumas, Marlon ; García-Bañuelos, Luciano: APROMORE: An Advanced Process Model Repository. In: Expert Systems with Applications (2010). – Preprint submitted Rosemann u. a. 2006 Rosemann, Michael ; Recker, Jan ; Indulska, Marta ; Green, P.: A Study of the Evolution of the Representational Capabilities of Process Modeling Grammars. In: Dubois, E. (Hrsg.) ; Pohl, K. (Hrsg.): Advanced Information Systems Engineering (CAiSE ’06), Springer, 2006, S. 447–461 247 Rousu u. Aarts 1996 Rousu, Juho ; Aarts, Robert J.: Adaptation cost as a criterion for solution evaluation. In: Advances in Case-Based Reasoning, Springer Verlag Berlin, Heidelberg, 1996 (Lecture Notes in Computer Science), S. 354–361 Scaife u. Rogers 1996 Scaife, Mike ; Rogers, Yvonne: External cognition : how do graphical representations work? In: International Journal Human-Computer Studies 45 (1996), S. 185–213 Schaffhauser 2010 Schaffhauser, Dian: BPM Roles and Responsibilities. Version: Oktober 2010. http://www.bpmenterprise.com/content/c060626a.asp, Abruf: 26.10.2010 Schilling 2000 Schilling, Melissa A.: Towards a general modular systems theory and its application to inter-firm product modularity. In: Academy of Management Review 25 (2000), S. 312–334 Schlagheck 2000 Schlagheck, Bernhard: Objektorientierte Referenzmodelle für das Prozess- und Projektcontrolling : Grundlagen, Konstruktion, Anwendungsmöglichkeiten. - XXIII, 253 S. . -. Gabler Edition Wissenschaft : Informationsmanagement und Controlling. Wiesbaden : Dt. Univ.-Verl.; Wiesbaden : Gabler , 2000, 2000 Schrepfer 2010 Schrepfer, Matthias: Modeling Guidelines for Business Process Models, HumboldtUniversität zu Berlin, Masterarbeit, 2010 Schütte 1998a Schütte, Reinhard: Grundsätze ordnungsmäßiger Modellierung - Über Konstruktivisten, Handels-H’s und Referenzmodelle. Arbeitspapier, 1998. – Institut für Wirtschaftsinformatik Schütte 1998b Schütte, Reinhard: Grundsätze ordnungsmäßiger Referenzmodellierung – Konstruktion konfigurations- und anpassungsorientierter Modelle. Dr. Th. Gabler Verlag, 1998 Searle 1969 Searle, John: Speech Acts: An Essay in the Philosophy of Language. Cambridge University Press, Cambridge, Massachusetts, 1969 Shaft u. Vessey 2006 Shaft, Teresa M. ; Vessey, Iris: The Role of Cognitive Fit in the Relationship between Software Comprehension and Modification. In: MIS Quarterly 30 (2006), Nr. 1, S. 29–55 248 Shannon u. Weaver 1963 Shannon, Claude E. ; Weaver, Warren: The Mathematical Theory of Communication. University of Illinois Press, 1963 Siau u. Rossi 2007 Siau, Keng ; Rossi, Matti: Evaluation techniques for systems analysis and design modelling methods – a review and comparative analysis. In: Information Systems Journal (2007), Dezember. http://dx.doi.org/10.1111/j.1365-2575.2007. 00255.x. – DOI 10.1111/j.1365–2575.2007.00255.x. – Wiley Online Library Siau u. Rossi 2010 Siau, Keng ; Rossi, Matti: Evaluation techniques for systems analysis and design modelling methods – a review and comparative analysis. Online in advance of print. http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2575.2007. 00255.x/full. Version: August 2010 Signavio GmbH 2009 Signavio GmbH: Signavio. Version: 2009. http://academic.signavio.com, Abruf: 17.3.2010 Silver 2007 Silver, Bruce: BPMN and the Business Process Expert, Part 6: Choreography and Multi-Pool Processes. http://www.sdn.sap.com/irj/scn/go/ portal/prtroot/docs/library/uuid/90f6b04c-fb9b-2a10-ba80-a7924bc7b954. Version: Dezember 2007 Simon 1996 Simon, Herbert A.: The sciences of the artificial. MIT press, 1996 Simon u. Hayes 1976 Simon, Herbert A. ; Hayes, John R.: The understanding process: Problem isomorphs. In: Cognitive Psychology 8 (1976), S. 165–190 Smelcer u. Carmel 1997 Smelcer, John B. ; Carmel, Erran: The effectiveness of different representations for managerial problem solving: Comparing maps and tables. In: Decision Sciences 28 (1997), Nr. 2, S. 391–420 Smirnov u. a. 2010a Smirnov, Sergey ; Dijkman, Remco ; Mendling, Jan ; Weske, Mathias: Meronymy-Based Aggregation of Activities in Business Process Models. In: Parsons, Jeffrey (Hrsg.) ; Saeki, Motoshi (Hrsg.) ; Shoval, Peretz (Hrsg.) ; Woo, Carson (Hrsg.) ; Wand, Yair (Hrsg.): Conceptual Modeling – ER 2010 Bd. 6412/2010, Springer Berlin Heidelberg New York, 2010 (Lecture Notes in Computer Science), S. 1–14 249 Smirnov u. a. 2010b Smirnov, Sergey ; Reijers, Hajo A. ; Nugteren, Thijs ; Weske, Mathias: Business Process Model Abstraction: Theory and Practice / Hasso-Plattner-Institut. 2010 (Nr. 35). – Technischer Bericht Soffer u. a. 2007 Soffer, Pnina ; Reinhartz-Berger, Iris ; Sturm, Arnon: Facilitating Reuse by Specialization of Reference Models for Business Process Design. In: Proceedings of the 8th Workshop on Business Process Modeling, Development, and Support (BPMDS’07) in conjunction with the 19th International Conference on Advanced Information Systems Engineering (CAiSE’07), 2007 Stachowiak 1973 Stachowiak, Herbert: Allgemeine Modelltheorie. Springer-Verlag Wien, 1973 Statistisches Bundesamt Deutschland 2008 Statistisches Bundesamt Deutschland: Klassifikation der Wirtschaftszweige (WZ 2008) / Statistisches Bundesamt Deutschland. Version: 2008. http://www.destatis.de/jetspeed/portal/cms/Sites/destatis/Internet/DE/ Content/Klassifikationen/GueterWirtschaftklassifikationen/Content75/ KlassifikationWZ08,templateId=renderPrint.psml. 2008 (Ausgabe 2008). – Forschungsbericht Steinmüller 1993 Steinmüller, Wilhelm: Informationstechnologie und Gesellschaft: Einführung in die Angewandte Informatik. Wissenschaftliche Buchgesellschaft, Darmstadt, 1993 Stemler 2001 Stemler, Steve: An overview of content analysis. In: Practical Assessment, Research & Evaluation 7 (2001), Nr. 17, S. 1–11 Stenning u. Oberlander 1995 Stenning, Keith ; Oberlander, Jon: A cognitive theory of graphical and linguistic reasoning : logic and implementation. In: Cognitive Science 19 (1995), S. 97–140 Sturm u. Reinhartz-Berger 2004 Sturm, Arnon ; Reinhartz-Berger, Iris: Applying the Application-based Domain Modeling Approach to UML Structural Views. In: 23rd International Conference on Conceptual Modeling (ER’2004) Bd. LNCS 3288, 2004, S. 766–779 Sutcliffe 2002 Sutcliffe, Alistair: The Domain Theory: Patterns for Knowledge and Software Reuse. Lawrence Erlbaum Associates, 2002 Sweller 1988 Sweller, John: Cognitive Load During Problem Solving: Effects on Learning. In: Cognitive Science 12 (1988), S. 257–285 250 Sweller 1994 Sweller, John: Cognitive Load Theory, Learning Difficulty, and Instructional Design. In: Learning and Instruction 4 (1994), S. 295–312 Thomas 2006 Thomas, Oliver ; Loos, Peter (Hrsg.): Management von Referenzmodellen - Entwurf und Realisierung eines Informationssystems zur Entwicklung und Anwendung von Referenzmodellen. Logos Verlag Berlin, 2006 (Wirtschaftsinformatik - Theorie und Anwendung) TM Forum 2005 TM Forum: enhanced Telecom Operations Map (eTOM) - The Business Process Framework. Release 6.0. TM Forum, November 2005 TM Forum 2008 TM Forum: Business Process Framework (eTOM) - GB921 Addendum F: Process Flow Examples. July 2008 Tomaz u. a. 2009 Tomaz, Luiz F. C. ; Rodrigues, José A. ; Xexeo, Geraldo B. ; Souza, J. M.: Collaborative process modeling and reuse evaluation. In: Collaborative Computing: Networking, Applications and Worksharing, 2009, IEEE, 2009, S. 1–9 Tversky u. Kahneman 1974 Tversky, Amos ; Kahneman, Daniel: Judgment under uncertainty: Heuristics and biases. In: Science 185 (1974), Nr. 4157, S. 1124–1131 Umapathy u. Purao 2008 Umapathy, Karthikeyan ; Purao, Sandeep: Representing and Accessing Design Knowledge for Service Integration. In: Proceedings of the 2008 IEEE International Conference on Services Computing Bd. 1, IEEE Computer Society, Washington, DC, USA, 2008, S. 67–74 Umapathy u. a. 2008 Umapathy, Karthikeyan ; Purao, Sandeep ; Barton, Russell R.: Designing enterprise integration solutions: effectively. In: European Journal of Information Systems 00 (2008), S. 1–14 Vakkari 1999 Vakkari, Pertti: Task complexity, problem structure and information actions Integrating studies on information seeking and retrieval. In: Information Processing and Management 35 (1999), S. 819–837 Vanderfeesten u. a. 2008 Vanderfeesten, Irene ; Reijers, Hajo A. ; Mendling, Jan ; Aalst, Wil van d. ; Cardoso, J.: On a Quest for Good Process Models: The Cross-Connectivity Metric. In: Advanced Information Systems Engineering Bd. 5074„ 2008 (Lecture Notes in Computer Science,), S. 480–494 251 Vanhatalo u. a. 2008 Vanhatalo, Jussi ; Völzer, Hagen ; Koehler, Jana: The Refined Process Structure Tree. In: Dumas, M. (Hrsg.) ; Reichert, M. (Hrsg.) ; Shan, M.-C. (Hrsg.): Business Process Management Bd. 5240, Springer Berlin Heidelberg, 2008 (Lecture Notes in Compute Science), S. 100–115 Venkatesh 2000 Venkatesh, Viswanath: Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model. In: Information Systems Research 11 (2000), Nr. 4, S. 342–365 Venkatesh u. Morris 2000 Venkatesh, Viswanath ; Morris, Michael G.: Why Don’t Men Ever Stop to Ask for Directions? Gender, Social Influence, and Their Role in Technology Acceptance and Usage Behavior. In: MIS Quarterly 24 (2000), Nr. 1, S. 115–139 Verner 2001 Verner, Miroslav: The Pyramids: The Mystery, Culture, and Science of Egypt’s Great Monuments. Grove Press, 2001. – ins Englische übersetzt von Steven Rendall Vessey 1991 Vessey, Iris: Cognitive fit: A theory-based analysis of the graphs versus tables literature. In: Decision Sciences 22 (1991), Nr. 2, S. 219–240 Vessey u. Galletta 1991 Vessey, Iris ; Galletta, Dennis: Cognitive Fit: An Empirical Study of Information Acquisition. In: Information Systems Research 2 (1991), Nr. 1, S. 63–84 Wager u. Smith 2003 Wager, Tor D. ; Smith, Edward E.: Neuroimaging studies of working memory: A meta-analysis. In: Cognitive, Affective, & Behavioral Neuroscience 3 (2003), Nr. 4, S. 255–274 Walls u. a. 1992 Walls, Joseph G. ; Widmeyer, George R. ; El Sawy, Omar A.: Building an Information System Design Theory for Vigilant EIS. In: Information Systems Research 3 (1992), Nr. 1, S. 36–59 Wand u. Weber 1989 Kapitel An Ontological Evaluation of Systems Analysis and Design Methods. In: Wand, Yair ; Weber, Ron: Information Systems Concepts: An In-Depth Analysis. North-Holland, 1989, S. 79–107 Wand u. Weber 1995 Wand, Yair ; Weber, Ron: On the Deep Structure of Information Systems. In: Information Systems Journal 5 (1995), Nr. 3, S. 203–223 252 Wand u. Weber 2002 Wand, Yair ; Weber, Ron: Research Commentary: Information Systems and Conceptual Modeling - A Research Agenda. In: Information Systems Research 13 (2002), Nr. 4, S. 363–376 Weber u. Reichert 2008 Weber, Barbara ; Reichert, Manfred: Refactoring process models in large process repositories. In: Bellahsène, Zohra (Hrsg.) ; Léonard, Michel (Hrsg.) ; Springer (Veranst.): Advanced Information Systems Engineering Bd. 5074/2008 Springer, 2008 (Lecture Notes in Computer Science), S. 124–139 Weber u. a. 2008 Weber, Barbara ; Reichert, Manfred ; Rinderle-Ma, Stefanie: Change patterns and change support features – Enhancing flexibility in process-aware information systems. In: Data & Knowledge Engineering 66 (2008), S. 438–466 Weber u. a. 2007 Weber, Barbara ; Rinderle, Stefanie ; Reichert, Manfred: Change Patterns and Change Support Features in Process-Aware Information Systems. In: Krogstie, J. (Hrsg.) ; Opdahl, A.L. (Hrsg.) ; Sindre, G. (Hrsg.): Advanced Information Systems Engineering Bd. 4495/2007, Springer Berlin / Heidelberg, June 2007 (Lecture Notes in Computer Science), S. 574–588 WFMC 1994 WFMC: The Workflow Reference Model / Workflow Management Coalition. Brüssel, Belgien, 1994 (TC00-1003). – Document Wiktionary 2010 Wiktionary: „granular“. Version: 2010. granular, Abruf: 9. Mai 2010 http://en.wiktionary.org/wiki/ Wohed 2000 Wohed, Petia: Conceptual patterns for reuse in information systems analysis. In: Proc. 72th Internat. Conf. Adv. Inform. Systems, Stockholm, Sweden, 2000, S. 157– 175 Wohlin u. a. 2000 Wohlin, Claes ; Runeson, Per ; Höst, Martin ; Ohlsson, Magnus C. ; Regnell, Björn ; Wesslén, Anders: Experimentation in software engineering: an introduction. Kluwer Academic Publishers, Norwell, MA, Dordrecht, Netherlands, 2000 (The Kluwer international series in software engineering) Workflow Patterns Initiative 2010 Workflow Patterns Initiative: Workflow Patterns. Version: 2010. http:// www.workflowpatterns.com/, Abruf: 20. Oktober 2010 253 Wright u. Anderson 1989 Wright, William F. ; Anderson, Urton: Effects of situation familiarity and financial incentives on use of the anchoring and adjustment heuristic for probability assessment. In: Organ. Behav. Human Decision Processes 44 (1989), Nr. 1, S. 68–82 Wyssusek 2004 Wyssusek, Boris: Methodologische Aspekte der Organisationsmodellierung in der Wirtschaftsinformatik - Ein soziopragmatisch-konstruktivistischer Ansatz, Technische Universität Berlin, Diss., 2004 Xu u. Ramesh 2009 Xu, Peng ; Ramesh, Balasubramaniam: Impact of Knowledge Support on the Performance of Software Process Tailoring. In: Journal of Management Information Systems 25 (2009), Nr. 3, S. 277–314 Yan u. a. 2011 Yan, Zhiqiang ; Dijkman, Remco ; Grefen, Paul: Business Process Model Repositories - Framework and Survey. In: Information and Software Technology In press (2011) Yang 1997 Yang, Shu C.: Information seeking as problem-solving using a qualitative approach to unfover the novice learners’ information-seeking process in a perseus hypertext system. In: Library and Information Science Research, 19 (1997), Nr. 1, S. 71–92 Yao 2003 Yao, Yiyu: Probabilistic approaches to rough sets. In: Expert Systems 20 (2003), S. 287–297 Yao 2004 Yao, Yiyu: A partition model of granular computing. In: Transactions on Rough Sets Bd. 1, Springer, 2004 (Lecture Notes in Computer Science), S. 232–253 Zadeh 1997 Zadeh, Lotfi A.: Towards a theory of fuzzy information granulation and its centrality in human reasoning and fuzzy logic. In: Fuzzy Sets and Systems 19 (1997), S. 111–127 Zhang u. Norman 1994 Zhang, Jiajie ; Norman, Donald A.: Representations in distributed cognitive tasks. In: Cognitive Science 18 (1994), S. 87–122 Zigurs u. Buckland 1998 Zigurs, Ilze ; Buckland, Bonnie K.: A theory of task/technology fit and group support systems effectiveness. In: MIS Quarterly 22 (1998), Nr. 3, S. 313–334 Zmud u. Cox 1979 Zmud, Robert W. ; Cox, James F.: The implementation process: a change approach. In: MIS Quarterly 3 (1979), Nr. 2, S. 35–43 254