Transparency Index wissenschaftlicher Journale

Marcus Adams und Ivan Oransky, Betreiber des Blogs Retraction Watch, das über zurückgezogene Journalartikel informiert, fordern mehr Transparenz in der Wissenschaft durch den Transparency Index. Mehr dazu in meinem Telepolis-Artikel „Transperancy Index für wissenschaftliche Journale“ oder im Scientist unter dem Titel „Bring on the Transparency Index“:

Marcus, A., & Oransky, I. (2012). Bring On the Transparency Index. The Scientist, (1. August). Online: http://the-scientist.com/2012/08/01/bring-on-the-transparency-index

Auswahlbibliographie zur Qualitätssicherung in (geistes-)wissenschaftlichen Zeitschriften

Bei der Recherche nach Literatur zur Qualitätssicherung wissenschaftlicher Publikationen stieß ich auf diese recht interessante Veröffentlichung der Herzog August Bibliothek Wolfenbüttel:
Bergemann, Hans: Auswahlbibliographie zur Qualitätssicherung in (geistes-)wissenschaftlichen Zeitschriften. Fassung Juni 2010, zusammengestellt im Auftrag der Herzog August Bibliothek, Wolfenbüttel, online unter: http://www.hab.de/forschung/qualitaetssicherung/Bibliographie.pdf

Alternative Metrik: ResearchGate launcht RG Score

Vergangene Woche begann das Social Network für Wissenschaftler ResearchGate mit der schrittweisen Freigabe einer eigenen Metrik zur Bestimmung der wissenschaftlichen Wirkung eines Forschers. Klassischerweise wird der Journal Impact Factor (JIF) genutzt, um wissenschaftliche Reichweite und Bedeutung zu beschreiben. Allerdings handelt es sich beim JIF um eine sehr umstrittene Metrik: Sie wird aus Zitationsraten wissenschaftlicher Journale ermittelt wird und kann so, wenn überhaupt, die Wirkung dieser Zeitschriften in der Wissenschaftskommunikation erfassen. Aufgrund seiner Methodik ist der JIF allerdings ungeeignet die wissenschaftliche Reputation eines Forschers zu beschreiben. Der RG Score, die neue Metrik des 2 Millionen User zählenden Forscher-Facebooks, wählt einen umfassenderen Ansatz und konstruiert ein facettentenreicheres Modell des wissenschaftlichen Impacts einer einzelnen Person. Er bezieht alle erdenklichen Beiträge und Interaktionen innerhalb des Social Networks mit ein, um die wissenschaftliche Reputation eines Forschers zu bestimmen. Ausgewertet werden alle Aktionen, die User im Netzwerk ausüben können, wie das Stellen oder Beantworten von Fragen, sowie alle nur möglichen Interaktionen mit Items, die Wissenschaftler in ResearchGate verwalten können, wie etwa Rohdaten, Grafiken, Publikationen oder Resultate: Jedes Bookmarking eines Datensatzes oder einer Publikation, jedes Drücken des „Vote“-Button, jedes Teilen oder Followen im internen Microblogging erhöht den Score des ursprünglich publizierenden oder teilenden Forschers. Die Höhe der erworbenen Reputation hängt dabei von der bestehenden Reputation des bewertenden, bookmarkenden oder folgenden Forschers ab. Jeder Nutzer kann im eigenen Profil prüfen, wie sich der RG Score durch bestimmte Interaktionen, wie etwa durch Fragen und Antworten in Foren oder die Bewertung von Publikationen, verändert. Um Manipulationen und Missbrauch zu vermeiden, werden weder die exakte Gewichtung einzelner Komponenten, noch die Formel des Scores als Ganzes von ResearchGate öffentlich gemacht.
Ziel ist es für alle Schritte des Forschungsprozesses eine Gratifikationsmöglichkeit zu schaffen, um über diese Reputation zuweisen und erwerben zu können. ResearchGate Mitbegründer und CEO Dr. Ijad Madisch beschreibt den RG Score als interaktives Bewertungssystem: „Es spiegelt die Meinungen der Menschen wider, auf die es ankommt: die der Wissenschaftler selbst”. Die Metrik soll, anders als der JIF, den Stellenwert eines Forschers innerhalb seiner Community beschreiben und könnte perspektivisch vielfältige Verwendung finden. So könnte er als Entscheidungshilfe bei der etwaigen Förderungen von beantragten Drittmittelprojekten dienen oder Berufungsentscheidungen beeinflussen. Madisch beschreibt den RG Score, im Gegensatz zum JIF, als Impact Metrik für das digitale Forschungszeitalter: „Das etablierte Journal System hat sehr viel für Qualität und Verbreitung von Forschungsergebnissen getan. Es ist in seiner Struktur aber nicht geeignet das massive Potenzial digitaler Medien für die Forschung zu nutzen. Wir wollen mit dem RG Score eine Erweiterung des bestehenden Systems schaffen und es Forschern ermöglichen alle Resultate – ob positiv oder negativ, ob Rohdaten oder Troubleshooting Communications – zu publizieren, transparent Feedback zu geben und dies in einer vergleichbaren Metrik zu evaluieren.“
Neben dem Score gibt ResearchGate peu à peu einen weiteren Relevanzindikator frei: Hinter den Traffic Stats verbergen sich Statistiken, die  Aufschluss über die Häufigkeit geben, mit der Forscherprofile und Publikationen aufgerufen wurden sowie Publikationen und Daten heruntergeladen wurden.

taz zu Elsevierboykott & Open Access

ElsevierNachdem die Süddeutsche, brand eins und viele andere die Problematik des knappen Zugangs zu wissenschaftlicher Information und speziell den Elsevierboykott schon abgegrast haben, kommt auch die taz auf den Trichter und titelt schief „Papier ist Macht. Wissenschaftler boykottieren Verlage“ – was ja nun nicht so ganz stimmt: Welcher Verlag publiziert denn nur im Print? Zudem boykottieren Wissenschaftler nicht generell Verlage, sondern wenn überhaupt solche, die keinen attraktiven Publikationsort darstellen, oder solche, deren Geschäftsgebahren sie abschreckt – wie Elsevier. Genug der taz-Schelte, es ist ja schön, wenn viele Medien über das Thema berichten, aber der Artikel ist leider nicht mehr als ein Teaser für einen vermutlich schon sehr interessanten, längeren Artikel der Aussagen von Angelika Lux (für Elsevier in der Funktion der Vice President of Academic and Government Relations tätig) und des Wissenschaftlers und Open Access Befürworters Björn Brembs gegenüberstellt – aber so wie ich es verstehe nicht frei zugänglich sein wird.

 

Update 19.08.2012

Jürgen Plieninger wies mich darauf hin, dass der vollständige taz-Artikel „Aufstand der Forscher“ doch online steht (vielen Dank an ihn dafür!). Interessant an dem Text sind vor allem

  1. eine Innenperspektive der Wissenschaftler zum Publikationswesen durch Björn Brembs und seine uneitle, geradezu lakonische Einschätzung zur Verquickung von Publikationsverhalten und Karrieren
    sowie
  2. die Tatsache, dass Angelika Lux zwischen dem Veröffentlichen von „Papier ist Macht“ und „Aufstand der Forscher“ geheiratet hat und nun Lex heißt.

Retractions und Fehlerpersistenz in der Wissenschaft

Ein im Journal of the Medical Library Association (JMLA) erschienener Artikel von Philip Davis (Referenz s. unten) untersucht, ob und wo in wissenschaftlichen Zeitschriften erschienene, dann aber zurückgezogene Artikel trotz Retraction (also offizieller Tilgung aus der Wissenschaftskommunikation) durch den Verlag noch verfügbar sind. Gründe für das Zurückziehen bereits publizierter Artikel gibt es viele: Nachgewiesener Plagiarismus, Datenfälschungen, methodische Fehler sind nur wenige Beispiele. Verlage tun sich schwer damit, bereits publizierte Artikel zurückzuziehen, zieht doch jede Retraction die Qualitätskontrolle der Verlage in Frage. Ringt man sich verlagsseitig zu einer Retraction durch, wird das Zurückziehen daher oft eher heimlich, still und leise durchgeführt, um den eigenen Ruf nicht zu schädigen. Diese Strategie führt aber leider auch dazu, dass zurückgezogene Artikel weiterhin Teil des wissenschaftlichen Diskurses sind und diesen prägen – schließlich wurden sie bereits rezipiert, ausgedruckt oder finden sich in privaten Volltextsammlungen oder Literaturverwaltungen. Davis ging diesem Phänomen der Persistenz zurückgezogener wissenschaftlicher Publikationen nun nach und fand heraus, dass von 1.779 in MEDLINE als zurückgezogen markierten Artikeln 289 (in 321 Kopien) auf Internetseiten (die keine Verlagswebsites waren) gefunden wurden. Davon handelte es sich in 304 Fällen um die Verlagsversion. 138 der Dateien (43%) fanden sich in PubMed Central, 94 (29%) auf Websites von Bildungseinrichtungen, 24 (7%) auf kommerziellen Internetseiten, 16 (5%) auf Advocacy-Websites und 10 (3%) in institutionellen Open Access Repositories. Nur 15 in der Dateien (5%) fand sich ein Hinweis, dass ihr Inhalt vom Verlag zurückgezogen wurde. Im Online Literaturverwaltungssystem Mendeley fanden sich Referenzen auf 1.340 der zurückgezogenen Artikel (75% der Gesamtzahl). Leider überprüfte der Autor nicht, ob (und ggf. in welchem Umfang) zurückgezogene Artikel noch auf offiziellen Verlagsseiten oder in Angeboten von Publikationsaggregatoren kursieren.

Davis zieht aus seiner Untersuchung den Schluss der dezentrale Zugang zu wissenschaftlichen Informationen gefährde deren Vertrauenswürdigkeit. Als Lösung schwebt ihm ein automatisierter Dienst vor, der Leser über Retractions von Artikeln informiert. Datenbanken wie das Web of Science taugen wohl nicht als Lösung, denn sie weisen nicht oder schleppend nach, wenn ein Artikel zurückgezogen wurde. Darüber berichtet unter anderem Ralph Neumann im Laborjournal mit dem Beitrag Schlecht gepflegt und dann noch frech.

Einen von Davis vorgeschlagenen Updatedienst, der jeden Nutzer, der einen zurückzogenen Artikel als Datei auf seinem PC oder als Referenz in seiner Literaturverwaltung führt, erscheint mir technisch kaum machbar. Meine Hoffnung ruhen eher auf Community-Lösungen, wie sie etwa von den Machern des Blogs Retraction Watch betrieben werden. Mehr dazu in meinem Telepolis-Artikel über Retraction Watch.