Harsche Kritik an DGPs-Statement zur Reproduzierbarkeit

(click to see the article)

Einer der langjährigen Verfechter von reproduzierbaren psychologischen Experimenten, Uwe Schimmack (aka „Dr. R“ – R steht wohl für den von ihm propagierten Replicability Index), hat in einer aktuellen Stellungnahme die abschliessende Kommentierung des DGPs-Vorstands zu den ersten Ergebnissen des OSF-Reproduzierbarkeitsprojekts (siehe meinen früheren Blog-Eintrag) und zu der Diskussion im Diskussionsforum der DGPs seinerseits harsch kritisiert („… it [=the Board, der Vorstand] ignores some solid scientific insights into the causes of the replicability crisis and it makes no concrete suggestions how German psychologists should change their behaviors to improve the credibility of psychology as a science. … I hope that the next election will elect a candidate that will promote open science, transparency, and above all scientific integrity.“).

Schimmacks Kritik will ich hier nicht im Detail wiederholen. Im wesentlichen fordert er, die Ergebnisse des Science-Artikels nicht schönzureden und endlich Konsequenzen zu ziehen. Das kann ich insofern gut verstehen, als wir seit mehr als 50 Jahren von den Problemen empirischer Studien mit mangelnder Power wissen. Jacob Cohen hat sich Zeit seines Lebens dafür ausgesprochen; die deduktivistische Theorie des Experiments meines früheren Chefs Jürgen Bredenkamp (veröffentlicht 1972 unter dem Titel „Der Signifikanztest in der psychologischen Forschung„, übrigens als Habilitationsschrift am Psychologischen Institut der Uni Heidelberg!) hat das auch in Deutschland bekannt gemacht. Meine damaligen Bonner Kollegen und Mit-Bredenkamp-Schüler Edgar Erdfelder und Axel Buchner sind nicht grundlos Entwickler des heute weltweit genutzten Tools zur Teststärkenberechnung G*Power geworden (die Begleitartikel dazu sind längst „citation classics“), um bei der Herstellung teststarker Untersuchungen zu helfen. Mit Edgar Erdfelder zusammen habe ich 2004 ein Buch herausgegeben „Allgemeine Psychologie und deduktivistische Methodologie“, in dem teststarke Theorietestung gefordert wird. Hat alles nicht geholfen, wir wir heute feststellen müssen.

Dass wir endlich handlungswirksame Konsequenzen ziehen müssen, scheint mir unvermeidlich. Dass die Forderung nach einem neuen DGPs-Vorstand allerdings Unfug ist, scheint mir unübersehbar: Es hiesse den Einfluss der DGPs auf die konkrete Gestaltung eigener Forschung überschätzen. Hier ist jede einzelne Forscherin, jeder einzelne Forscher gefordert, sich in den verschiedenen Rollen (als Autor, Antragsteller, Betreuer, Herausgeber, Gutachter, etc.) Gedanken zu machen und daraus Taten resultieren zu lassen. Natürlich können auch Institute Selbstverpflichtungen eingehen, wie dies in München durch die Einrichtung eines Open Science Committee an der LMU erfolgt ist (siehe hier).

Was für mich daraus folgt: Wir brauchen mehr Reflexion über die „Philosophy of Psychology“, mehr (erkenntnis)theoretische Fundierung empirisch-experimenteller Arbeiten, mehr Methodologie. In den Methoden sind wir gut, in der Methodologie schlecht – mich würde interessieren, wieviele unserer Psychologischen Institute noch eine Veranstaltung „Erkenntnistheorie für Psychologen“ anbieten (wir tun das in Heidelberg). Innehalten und nachdenken ist sicher sinnvoller als zu sagen „weiter mit business as usual„.

Kategorien:

Archive
Kategorien