(“Guest Publication” / Tobias von der Haar / cc-by-2.0)
Immer mehr Studien, immer mehr Erfolgsmeldungen. Aber am Ende halten die Forschungsergebnisse einer Überprüfung oft nicht stand. Wissenschaftler schlagen nun einen Weg vor, die Qualität zu verbessern.
Wie so oft, wenn es um China geht, spielen Rekorde eine Rolle. So auch auf dem Feld wissenschaftlicher Publikationen. Insgesamt 107 Beiträge chinesischer Autoren musste das Journal “Tumor Biology” letzthin zurückziehen. Im April dieses Jahres begann die Untersuchung der Hintergründe.
Sie enthüllte, dass die Verfehlung der meisten Forscher darin besteht, für Gefälligkeitsgutachten gesorgt zu haben. Neun Studien wurden allerdings des Betrugs überführt, und bei zwölf Papers waren die Daten gekauft. Die Versuchung ist groß. Denn auch die Belohnung erfolgreicher Forscher ist in China rekordverdächtig: Gewährt werden Bonuszahlungen zwischen 43000 und 165.000 Dollar für Veröffentlichungen in den einflussreichsten Journalen der Welt. Prämien existieren laut dem Blog von Retraction Watch auch in Großbritannien, den USA oder Australien. Hier geht es zwar nur um Beträge zwischen 5000 und 7000 Dollar, aber hochrangig publizierte Studien bedeuten für die Autoren außerdem mehr Forschungsgelder, größere Labors und zusätzliche Mitarbeiter.
Die Qualität muss stimmen
Das ist gerechtfertigt, wenn auch die Qualität stimmt. Hier mehren sich jedoch die Zweifel angesichts der vielen zurückgezogenen Studien und der publik gewordenen Betrugsfälle. Ein Komitee der Universität Tokio wies etwa dem Zellbiologen Yoshinori Watanabe ein Fehlverhalten bei fünf Veröffentlichungen nach. Die Papers des Japaners handeln von Proteinen, die bei der Zellteilung die Teilung der Chromosomen begleiten. Das Forschungsfeld sei durch dieses Ergebnis erschüttert, sagte Iain Cheeseman vom Whitehead Institute for Biomedical Research im amerikanischen Cambridge der Zeitschrift “Nature”.
Aber der handfeste Betrug verweist vielleicht nur auf ein grundsätzlicheres Problem. Schon die schiere Zahl an Publikationen bringt die gängigen Mechanismen der Qualitätssicherung an ihre Grenzen. Als beste Methode gilt derzeit noch das Peer Review, also die Begutachtung durch Experten des jeweiligen Forschungsfeldes. Aber Top-Wissenschaftler ersticken mittlerweile an der Menge der Anfragen ? bis zu 1000 sollen es jährlich sein.
TR 10/2017
Dieser Artikel stammt aus der Oktober-Ausgabe von Technology Review. Das Heft war ab dem 14. September 2017 im Handel und ist im heise shop erhältlich.
So rutschen selbst renommierten Journalen bisweilen zweifelhafte Studien durch. Ein gutes Beispiel ist eine Veröffentlichung in “Nature Methods”. Das Paper von Forschern dreier angesehener US-Universitäten ? der Stanford University, der Columbia University und der University of Iowa ? hatte im Mai Bedenken an der Sicherheit von CRISPR geweckt und erntete starken Protest. Denn für diese Studie waren nur zwei Mäuse untersucht worden, während eine dritte Kontrolldaten lieferte. Ein Stein des Anstoßes war, dass die Veröffentlichung nicht durch Fachkollegen begutachtet worden war.
Wissenschaftler tricksen
Die wachsende Zahl der Veröffentlichungen geht allerdings nicht nur auf vermehrte Forschungsanstrengungen zurück. Auch ein Trick trägt dazu bei: Wissenschaftler verteilen die Ergebnisse eines Experiments auf mehrere Papers. So verschaffen sie sich einen größeren Fußabdruck. Was also wirkt wie Produktivität, ist in Wahrheit nur deren Simulation. Der tatsächliche Fortschritt ist geringer, als die Zahl der Studien nahelegt.
Auch einem zweiten Qualitätstest halten viele publizierte Studien nicht stand. Einem Artikel im Journal “Nature Human Behaviour” zufolge konnten die Ergebnisse von 24 Prozent der Studien im Fach Psychologie sowie in 44 Prozent der Publikationen der Wirtschaftswissenschaften nicht in weiteren Experimenten bestätigt werden.
Die Autoren, 72 Gelehrte von Institutionen auf der ganzen Welt, wollen nun die Notbremse ziehen. Sie schlagen vor, die Schwelle des p-Werts für “signifikante” Ergebnisse von 0,05 auf 0,005 zu senken. Oberhalb dieser Schwelle gelten Ergebnisse als zufällig, darunter als berichtenswert. Die Wissenschaftler um John List von der University of Chicago hoffen, so die Glaubwürdigkeit von Forschung wieder erhöhen zu können. Der Vorschlag der Gelehrten scheint ein gangbarer Weg zu sein. Denn weniger publizierte Studien dürften im Schnitt zu mehr Qualität führen.
(Inge Wünnenberg) / (bsc)
Dieser Text ist der Zeitschriften-Ausgabe 10/2017 von Technology Review entnommen. Das Heft kann, genauso wie die aktuelle Ausgabe, hier online bestellt werden.