In den letzten Jahren ist durch Arbeiten unserer Heidelberger Forschergruppe ein Ansatz zur Erfassung des Problemlösens stark gemacht worden, der unter dem Stichwort „minimal complex systems“ (Greiff & Funke, 2009) zur Entwicklung von Testaufgaben geführt hat, die mit dem Namen „MicroDYN“ und „MicroFIN“ verknüpft sind: Aufgaben, die nach dem Konstruktionsprinzip linearer Strukturgleichungen oder dem Formalismus finiter Automaten in der Tradition von Funke (2001) konstruiert wurden und ihrer Komplexität nach am unteren Rand des Spektrums komplexer Probleme rangieren. Solche Aufgaben wurden in der weltweiten Untersuchung PISA 2012 zur Erfassung von Problem Solving Competence eingesetzt (siehe früheren Post).
In einer gerade erschienenen Arbeit habe ich versucht, das Verhältnis solcher minimal komplexen Systemen (minimal complex systems, MCS) zum großen Bereich des Umgangs mit komplexen Systemen (complex problem solving, CPS) näher zu bestimmen. Nach fünf Jahren Forschung mit diesen Instrumenten ist eine Einordnung der neuen Werkzeuge in die große Werkzeugkiste der Problemlöseforschung sicher noch verfrüht, dennoch lassen sich Tendenzen und Schwerpunkte schon jetzt erkennen.
Anlass zu dieser Einordnung der Instrumente war die Frage nach kulturellen Unterschieden: Bei den „kleinen“ MCS-Aufgaben wird argumentiert, dass die semantische Einkleidung unbedeutend sei, während komplexe Szenarien wie „Tailorshop“ in großem (und unbekanntem) Ausmass auch auf Weltwissen zurückgreifen. Kulturelle Unterschiede im kausalen Danken, das zur Problembestimmung und -lösung nötig ist, werden nur mit CPS explizit erfassbar, bei MCS sind sie dagegen ausgeblendet.
Während die reduzierten MCS-Systeme ideal zur Erfassung der Strategie isolierter Bedingungsvariation sind und dabei exzellente psychometrische Eigenschaften aufweisen, greifen CPS-Systeme weiter aus (insbesondere bei der simultanen Erfassung der fünf Facetten operativer Intelligenz sensu Dörner) und ermöglichen dadurch – zumindest prinzipiell – die Diagnose weiterer Strategien (faktisch kommt es nur selten dazu, weil die Auswertung anhand einfacher Performanz-Kriterien verlockender ist).
Die Einordnung neuer diagnostischer Instrumente wie MCS in den großen Werkzeugkasten der Problemlöseforschung ist ein andauernder Prozeß der Rückversicherung zwischen Testentwicklung einerseits mit ihren ganz spezifischen psychometrisch begründeten Anforderungen und intendierter Konstruktvalidität andererseits. Das klassische Reliabilitäts-Validitäts-Dilemma tritt auch in dieser Debatte in ähnlicher Form zu Tage: Homogene MicroDYN-Items zeigen z.B. bessere Reliabilitäten als die heterogeneren MicroFIN-Items. Heterogenität der Anforderungen: Die Idee einer „Anforderungssymphonie“ zum Zweck des Trainings, wie bei Dörner (1998) angesprochen, gilt natürlich auch für die Assessment-Situation. Neben „more of the same“ brauchen wir zusätzlich Diversität und Mix in den Anforderungen.
Hier sind meine Überlegungen dazu nachzulesen: Funke, J. (2014). Analysis of minimal complex systems and complex problem solving require different forms of causal cognition. Frontiers in Psychology, 5 (739), 1-3. doi: 10.3389/fpsyg.2014. (Open Access)