Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik

Nachdem ich kürzlich an dieser Stelle von einer Veröffentlichung zu Open Metrics im Young Information Scientist (YIS) berichtete, hier nun ein weiterer Hinweis zu einer Publikation, die auf Teilen meiner Dissertation beruht.

Im Kongressband des Soziologie-Kongresses der Österreichischen Gesellschaft für Soziologie (ÖGS) im Jahr 2015 erschien mein Beitrag Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik. Der Artikel ist Open Access verfügbar. Thematisch ist der Beitrag dem YIS-Text mit dem Titel Impactmessung, Transparenz & Open Science: Open Metrics verwandt, konzentiert sich aber stärker auf die Altmetrics und die Frage, ob diese Momente der Freiheit in die Wissenschaft tragen und ob sie als Verfahren der Kontrolle, Evaluierung und Ökonomisierung der Wissenschaft taugen.

Hier die bibliographischen Daten zum Artikel, gefolgt vom Abstract und Schlagworten:

Ulrich Herb (2016). Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik. In H. Staubmann (Hrsg.), Soziologie in Österreich – Internationale Verflechtungen. Kongresspublikation der Österreichischen Gesellschaft für Soziologie (S. 387–410). Österreichische Gesellschaft für Soziologie ÖGS. DOI:10.15203/3122-56-7 oder http://webapp.uibk.ac.at/ojs2/index.php/oegs-publikation/article/view/35/713

 

Herb, Ulrich. Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik

Abstract

Alternative Impact Metriken (Altmetrics) gelten oft als demokratisierende oder gar revolutionäre Verfahren zur Messung wissenschaftlicher Resonanz. Dieser Nimbus wird ihnen vor allem zuteil, da sie regelmäßig als den bekannten zitationsbasierten Verfahren der Impact-Messung (Journal Impact Factor, Hirsch-Index/ h-Index) überlegen angesehen werden. Dies wiederum vor allem, weil sie die Resonanz-Messung von wissenschaftlichen Texttypen erlauben, die von den Zitationsmetriken nicht erfasst werden (z.B. Bücher oder Sammelbände) oder sogar von Objekttypen (z.B. wissenschaftliche Daten und Software), die bisher per se von der Impact-Messung ausgeschlossen waren. Dieser Beitrag prüft, inwiefern Altmetrics aktuell dem Anspruch, eine demokratisierende Revolution, die immer auch eine rabiate Veränderung von Strukturen und Regeln bedeutet, auszulösen, gerecht werden kann oder ob sie nicht doch einfach eine der äußerst kritischen Reflexion bedürfende Dienstleistung sind, da sie neue Verfahren der Kontrolle, Evaluierung und Ökonomisierung der Wissenschaft erlauben.

Schlagworte: Impact, Metriken, Zitationen, Altmetrics, Evaluierung, Ökonomisierung, Wissenschaft

 

Herb, Ulrich: Altmetrics between Revolution and Service: A Methodical and Conceptual Criticism

Abstract

Alternative impact metrics (Altmetrics) are often considered to be democratizing or even revolutionary methods for measuring scientific resonance. This nimbus mainly surrounds them because they are regarded as metrics that outclass the well-known citation-based metrics (e.g. the Journal Impact Factor or Hirsch-Index/h-Index). This in turn happens mainly due to the fact that Altmetrics allow the resonance measurement of scientific document types (e.g. books or anthologies) or even object types (e.g. scientific data and software) that were previously excluded from the impact measurement. This contribution examines to what extent Altmetrics are sparking off a democratizing revolution, which necessarily always implies a rigorous change in structures and rules, or whether they are simply not more than a service that has to be considered highly critical as they offer new tools to control, evaluate and economize science.

Keywords: impact, metrics, citations, altmetrics, evaluation, economization, science

Share This:

Whistleblowing & die Wissenschaft

Stefan Heßbrüggen hat eine interessante Petition gestartet, die sich gegen die Erschwernis und Reglementierung des akademischen Whistleblowings richtet. Ein Blogpost des Initiators findet sich bei hypothesis.org. Anlass ist eine Empfehlung der Hochschulrektorenkonferenz HRK, dort heißt es: „Zum Schutz der Hinweisgeber (Whistle Blower) und der Betroffenen unterliegt die Arbeit der Ombudspersonen höchster Vertraulichkeit. Die Vertraulichkeit ist nicht gegeben, wenn sich der Hinweisgeber mit seinem Verdacht an die Öffentlichkeit wendet. In diesem Fall verstößt er regelmäßig selbst gegen die Regeln der guten wissenschaftlichen Praxis. Dies ist auch bei leichtfertigem Umgang mit Vorwürfen wissenschaftlichen Fehlverhaltens der Fall sowie bei der Erhebung bewusst unrichtiger Vorwürfe“. Ulrike Beisiegel, Vizepräsidentin der HRK, hat zu diesem Thema bereits am 11. Juni ein Interview gegeben, das mich nicht von der vorgeschlagenen Strategie überzeugen konnte. Diese Empfehlung der HRK, so ist zu vermuten, wird auch als Ergänzung in die Empfehlungen zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft DFG eingehen, eine entsprechende Information seitens der DFG wird heute anläßlich ihrer Jahrespressekonferenz erwartet.  Übernimmt die DFG diese Empfehlungen, so vemutet Heßbrüggen, entfaltet dies normative Ausstrahlung auf lokale Hochschulordnungen, in welche die Vorgaben im Wesentlichen übernommen werden dürften. Ich gebe Heßbrüggen Recht, wenn er HRK und DFG eine vereinfachte und weitgehend unzutreffende Vorstellung von Whistleblowing unterstellt, er zitiert in diesem Zusammenhang DFG-Justitiarin Kirsten Hüttemann, die auf academics.de eher emotionale Gründe für Whistleblowing ausmacht, sie benennt diese als Ausdruck von Unstimmigkeit, Querulanz und Konkurrenzdenken. Auch hier teile ich Heßbrüggens eher phänomenologische Sicht: Wenn eine Täuschung aufgedeckt wird, ist es mir gleich, ob die Motivation des Whistleblowers wissenschaftlich rational oder emotional war. Auch die, im Statement Hüttemanns anklingende, Psychologisierung des Whistleblowing erinnert leider an eine in der Politik verbreitete rhetorische Strategie, strukturelle Probleme (hier: Fehlverhalten in der Wissenschaft), derer man nicht Herr wird, durch Reduktion auf Idiosynkrasien zu banalisieren. Schärfer beschreibt Gerhard Fröhlich (Universität Linz) diesen Reflex in seinem Artikel Plagiate und unethische Autorenschaften bezugnehmend auf ein konkretes Ereignis: „Wichtig ist an diesem Fall – wie bei so vielen anderen – nicht die Person des Fälschers oder Plagiators, sondern das offenkundige Versagen der wissenschaftlichen Institutionen und ihr Unwillen, eindeutig nachgewiesene Plagiate bzw. Fälschungen bekanntzugeben, sondern sie als ‚persönliches Problem‘ zwischen dem Plagiator und dem Aufdecker sozialpsychologisch herunterzuspielen.“

Die Empfehlung der HRK mag der Angst geschuldet sein, Verleumdung könne in der Wissenschaft um sich greifen. Dieser empfundenen Gefahr will man offensichtlich entgegen treten, indem Informationen über wissenschaftliches Fehlverhalten monopolistisch von Ombudsleuten verfolgt werden sollen bis die Vorwürfe untersucht und beurteilt werden konnten. Vielleicht trägt die Empfehlung allerdings auch uneingestanden die Befürchtung in sich, nicht fälschlicherweise vorgetragene, verleumderische Manipulationsvorwürfe könnten das Wissenschaftssystem diskreditieren, sondern eine Flut sich bewahrheitender Anschuldigungen könnte es in Verruf bringen. Um dem letzten Verdacht zu entgehen, hilft aber nur ein offeneres Verfahren, das Willen zur Transparenz zeigt und nicht, wie im Falle der HRK-Empfehlungen, dem Whistleblower mit Sanktion droht und ihm (s.o. obiges Zitat aus den Empfehlungen) einen Verstoß gegen die Regeln guter wissenschaftlicher Praxis unterstellt – denn diese Strategie immunisiert Wissenschaftler, die unethische Praktiken verfolgen.

Folglich stimme ich Heßbrüggens Argumentation weitgehend zu, vor etwas mehr als einem Jahr habe ich bereits in einem Interview eine Art WikiLeaks für Wissenschaftler gefordert. Wie das System der Ombudsleute ins Bild passt, ist offen. Ich frage mich, ob Nachwuchswissenschaflter, die z.B. Fälschungen ihres Vorgesetzen, von dem das Zustandekommen ihres nächsten befristeten Vertrages abhängt, berichten wollen, sich immer einem Ombudsmann anvertrauen wollen. Ein Verlust ihrer Anonymität hat für sie, auch wenn ihre Vorwürfe begründet sind, meist katastrophale Folgen (s. dazu auch den Artikel Gerhard Fröhlichs). Vielleicht wäre wirklich ein Postfachsystem wie Wikileaks zeitgemäßer, in dem Whisteblower sich durchaus zu erkennen geben und konkrete Beweise für wissenschaftliches Fehlverhalten dokumentieren sollen. Die Weitergabe der Information an Prüfer (die mehr oder minder analog der Ombudsleute fungieren könnten) müsste hingegen anonym erfolgen – auch wenn diese Verborgenheit in der Überschaubarkeit der Wissenschaft trügerisch sein kann. Jedoch sollte man ein solches System überregional anlegen (um Cliquenwirtschaft zu erschweren) und immer mehr als einen Prüfer vorsehen, um Voreingenommenheiten zu entgegnen und, wie es heute bereits bei Plagiatsplattformen geschieht, ab Beweis des Fehlverhaltens dieses öffentlich dokumentieren. Letzteres auch zum Schutz der Beklagten, die den Vorwürfen öffentlich entgegnen können.

Update: Die DFG hat, wie vermutet, am 04. Juli die Empfehlungen der HRK übernommen, s. dazu die Ergänzung der Empfehlungen der Deutschen Forschungsgemeinschaft zur Sicherung guter wissenschaftlicher Praxis (dort Empfehlung 17) sowie die darauf bezugnehmende Pressemitteilung der DFG. Heßbrüggen ruft unterdessen dazu auf, die Petition weiterhin zu unterstützen, um Widerspruch gegen die HRK-/DFG-Empfehlungen zu dokumentieren.

Zuletzt hier noch

  1. der Link zur Petition: https://www.change.org/de/Petitionen/deutsche-forschungsgemeinschaft-hochschulrektorenkonferenz-preserve-the-freedom-to-publish-findings-of-academic-misconduct-in-germany
  2. die bibliographischen Angaben zum zitierten Artikel:
    Fröhlich, G. (2006). Plagiate und unethische Autorenschaft. Information – Wissenschaft & Praxis, 57(2), 81–89. Online unter http://eprints.rclis.org/7416/1/plagiate.pdf

Share This:

Im Auge des Betrachters: Wie will man die Qualität wissenschaftlicher Publikationen beschreiben?

Im Auge des Betrachters: Wie will man die Qualität wissenschaftlicher Publikationen beschreiben?

Ebenfalls erschienen im Newsletter budrich @cademic (budrich intern) 09/2012

Wer wissenschaftlich publizieren will, wählt den Publikationsort, den Verlag oder die Fachzeitschrift mit Bedacht. Neben inhaltlich-fachlichen Aspekten sind meist Fragen der Qualität des Publikationsortes für die Entscheidung auschlaggebend. Die Qualität wissenschaftlicher Publikationen zu messen ist leider nicht so einfach, wie es auf den ersten Blick scheint. Dennoch blüht in Zeiten von leistungsorientierter Mittelvergabe und Hochschulevaluierungen das Geschäft mit Zitationsinformationen, wird doch weithin angenommen, Zitate wären ein Indikator für die Qualität wissenschaftlicher Leistungen.

 

Zitate und die Qualität wissenschaftlicher Zeitschriften

So wird zum Beispiel vielfach der Journal Impact Factor (JIF) als Kennziffer für die Qualität wissenschaftlicher Zeitschriften interpretiert. Er dividiert die Zahl der Zitate im laufenden Jahr auf Artikel eines Journals der vergangenen zwei Jahre durch die Zahl der Artikel des Journals der vergangenen zwei Jahre. Vereinfacht: Er gibt die Zitationsrate einer Fachzeitschrift innerhalb eines Zweijahresfensters an. Schon das Zeitfenster ist delikat: Der Parameter verhindert einen hohen JIF-Wert für Zeitschriften aus Disziplinen, in denen die Zitationen über viele Jahre recht gleich verteilt sind oder sehr spät ansteigen (wie Sozialwissenschaften, Geisteswissenschaften oder Mathematik) und bevorzugt Zeitschriften aus den Naturwissenschaften und der Medizin, in denen Artikel meist innerhalb kurzer Zeit nach Publikation sehr häufig zitiert werden. Zudem ist die Datenbasis, aus der der JIF berechnet wird, recht willkürlich gestaltet: Zugrunde liegt die Datenbank Journal Citation Reports (JCR), in der längst nicht alle Fachzeitschriften enthalten sind und ausgewertet werden. Schlimmer noch: JCR und JIF schließen komplette Dokumentgattungen, wie Konferenzberichte oder Monographien, aus, auch wenn diese je nach Fach einen höheren Stellenwert für die interne Wissenschaftskommunikation haben als es bei Zeitschriften der Fall ist. Zudem weisen beide einen deutlichen Sprachbias zugunsten englischsprachiger Fachzeitschriften auf, Zeitschriften in anderen Sprachen haben einen niedrigeren JIF, da sie im Sample unterrepräsentiert sind. Zuguterletzt bezieht sich der JIF auf Fachzeitschriften, nicht Artikel: Meist führt aber eine geringe Anzahl sehr häufig zitierter Artikel zu einem hohen Wert für die Zeitschrift, mehrere Studien belegen Verteilungen von 70:30 oder 80:20 zwischen selten und häufig zitierten Artikeln. Dennoch wird bei Evaluierungsverfahren meist nur der JIF-Wert der Fachzeitschriften erfasst und nicht die Häufigkeit, mit der einzelne Artikel eines Wissenschaftlers in einer Zeitschrift zitiert wurden – die erwähnten Verteilungen zwischen viel und selten zitierten Artikeln legen daher den Eindruck nahe, dass man bei einem solchem Vorgehen mit einem eigenen kaum zitierten Artikel von den high-cited Papers weniger Kollegen profitieren dürfte. Vor diesem Hintergrund fällt es überdies schwer zu behaupten eine Fachzeitschrift habe als Ganzes wegen eines hohen JIF-Wertes Qualität, dieser Wert lässt einzig die Aussage zu, dass sie meist wenige Artikel publiziert, die häufig zitiert werden.

Die Folge: Artefakte in der Wissenschaft

Trotz dieser und anderer Mängel ist der JIF eine soziale Tatsache, er beeinflusst Handlungen und Haltungen, vor allem weil er nicht unerheblicher Faktor bei der Evaluierung wissenschaftlicher Leistung ist. Er provoziert damit Verhaltensweisen, die ohne seine Existenz ausblieben, Artefakte, die zudem nicht selten dysfunktionaler Art sind. Informatikern in den USA etwa wird von Fachgesellschaften geraten, in Zukunft in Fachzeitschriften und nicht wie sie es traditionell tun, in Konferenzbänden zu publizieren. Bislang bevorzugen Informatiker Veröffentlichungen in Konferenzbänden, da die Zeitspanne zwischen Einreichung und Publikation in den meisten Fachzeitschriften für ihre schnelllebigen Erkenntnisse zu groß ist. Befolgen sie nun die Vorschläge der Fachgesellschaften, werfen die damit die fachadäquate Publikationskultur über Bord, werden aber bei Evaluierungen besser abschneiden, da Konferenzbände wie erwähnt per definitionem keinen JIF-Wert haben können.

Der Fetisch um den JIF führt, so Alfred Kieser, zur Tonnenideologie der Forschung, die oft einzig auf die Generierung einer möglichst hohen Zahl an Zitationen zielt und dem planwirtschaftlerischen Irrglauben erliegt eine hohe Quantität an Zitation beweise eine hohe Leistungsfähigkeit. Dieser Trugschluss führt zu grotesken Strategien, teils werben Fachbereiche und Hochschulen vielzitierte Wissenschaftler an, um kurzfristig bessere Rankingpositionen oder Evaluierungsergebnisse zu erreichen. Journalherausgeber und Verlage finden auch Gefallen am Frisieren des leicht manipulierbaren JIF, es kursieren wahre Anleitungen mit erstaunlich einfachen Tricks dazu. Da Reviews im Zähler der JIF-Division berücksichtigt werden, nicht aber im Nenner, führt z.B. eine Erhöhung der Anzahl an Reviews unweigerlich zu einem höheren JIF, immer wieder werden Autoren auch dazu angehalten, die publizierende Fachzeitschrift zu zitieren, in manchen Fällen werden sie dafür sogar mit Jahresabos der Zeitschrift belohnt.

Der dominante Akteur im Geschäft mit Zitationsinformationen ist der Konzern Thomson Scientific, der neben den erwähnten Journal Citation Reports (und dem JIF) sowie dem Social Science Citation Index (SSCI) neuerdings auch den Book Citation Index und den Data Citation Index auflegt. In Zeiten leistungsorientierter Mittelvergabe und Hochschulevaluierung steigt das Interesse an Zitationsdaten, dabei wurde nie methodisch sauber evaluiert und belegt, ob Zitationen Qualität ausdrücken und nicht vielleicht eher Popularität oder Relevanz.
Warum macht ein Wissenschaftler eigentlich Karriere?

Von dieser Unschärfe ist aber nicht nur der JIF betroffen, sondern auch andere zitationsbasierte Metriken wie etwa der Hirsch- oder h-Index, dessen Formel wie folgt lautet: Ein Autor hat einen Index h, wenn h von seinen insgesamt N Veröffentlichungen mindestens jeweils h Zitierungen haben und die anderen (N-h) Publikationen weniger als h Zitierungen. Ein Autor hat demnach einen h-Index von 8, wenn er 8 Schriften veröffentlicht hat, die jeweils mindestens 8 Mal zitiert worden sind. Der h-Index ist so etwas wie der Shooting-Star der Impact-Maße, sehen doch nicht wenige in ihm ein Maß für die Qualität eines Forschers und die soll ja unter anderem für Beförderungen maßgeblich sein. Allerdings kamen Jensen, Rouquier und Croissant 2008 zu einem anderen Schluss: Sie untersuchten den statistischen Zusammenhang zwischen den Werten verschiedener zitationsbasierter Metriken (darunter JIF der Fachzeitschriften, in denen man publizierte, h-Index und eine Vielzahl anderer Maße) für einzelne Forscher an der angesehenen französischen Forschungseinrichtung Centre national de la recherche scientifique (CNRS) und der Häufigkeit mit der diese Forscher befördert wurden. Von den untersuchten Verfahren war der h-Index am besten geeignet, Beförderungen am CNRS zu erklären, allerdings nur in 48% der Fälle. Kurzum: Auch das genauste Maß konnte in mehr als der Hälfte der Fälle Beförderungen nicht vorhersagen.

Qualität: Ein mehrdimensionales Konstrukt?

Was bleibt sind viele Fragen: Misst der h-Index doch die Qualität eines Forschers, auch wenn er Beförderungen nicht vorhersagen kann, weil für diese andere Faktoren als die rein wissenschaftliche Qualität ausschlaggebend sind? Oder war für die Beförderungen am CNRS doch Qualität verantwortlich und h-Index, JIF und Co. messen gar keine Qualität, sondern Popularität oder eine völlig andere Dimension? Johan Bollen beschrieb Qualität in der Wissenschaft 2009 als mehrdimensionales Konstrukt, das nicht durch eine einzige Metrik oder Zahl beschrieben werden könne und fügt bezüglich des JIF an, dieser sage wenig über Qualität aus. Wer Qualität messen will, muss dazu demnach ein ganzes Set an Eigenschaften erheben und ausgeklügelt in Relation zueinander setzen. Eine dieser Eigenschaften sind Zitationswerte, auch wenn diese laut Bollen für das Konstrukt Qualität weniger ausschlaggebend sind als andere Eigenschaften. JIF und h-Index hingegen begnügen sich letztlich mit dem „Messen des leicht Messbaren„, wie Gerhard Fröhlich 1999 feststellte. Man könnte noch weitergehen und fragen, ob Qualität nicht zudem individuell definiert wird. Wenn man das tut, müsste auch jeder Leser wissenschaftlicher Literatur in autonomer und souveräner Art für sich entscheiden, welche Texte und Artikel für ihn Qualität haben und welche nicht und dabei nicht auf einen kruden Zitationswert schielen, sondern auf das Urteil von Experten und Kollegen vertrauen – und nicht zuletzt auch auf das eigene.

Literatur:

Bollen, J., Van De Sompel, H., Hagberg, A., & Chute, R. (2009). A principal component analysis of 39 scientific impact measures. PloS one, 4(6), e6022. doi:10.1371/journal.pone.0006022http://www.plosone.org/article/info:doi/10.1371/journal.pone.0006022

Fröhlich, G. (1999). Das Messen des leicht Meßbaren : Output-Indikatoren, Impact-Maße: Artefakte der Szientometrie? In J. Becker & W. Göhring (Eds.), Kommunikation statt Markt : Zu einer alternativen Theorie der Informationsgesellschaft (pp. 27–38). GMD- Forschungszentrum Informationstechnik GmbH. http://eprints.rclis.org/archive/00008982/

Herb, U. (2012). Pimp my Impact Factor. Telepolis, (06.02.2012). http://www.heise.de/tp/blogs/10/151361

Jensen, P., Rouquier, J.-B., & Croissant, Y. (2008). Testing bibliometric indicators by their prediction of scientists promotions. Scientometrics, 78(3), 467–479. http://www.springerlink.com/content/u4467542442h1544doi:10.1007/s11192-007-2014-3

Kieser, A. (2010). Die Tonnenideologie der Forschung. Frankfurter Allgemeine Zeitung, (130), N5. http://www.faz.net/aktuell/feuilleton/forschung-und-lehre/akademische-rankings-die-tonnenideologie-der-forschung-1997844.html

Cite this article as: Ulrich Herb, Im Auge des Betrachters: Wie will man die Qualität wissenschaftlicher Publikationen beschreiben?, in scinoptica, 20. September 2012, https://www.scinoptica.com/2012/09/im-auge-des-betrachters-wie-will-man-die-qualitaet-wissenschaftlicher-publikationen-beschreiben/.

Share This:

Prekäre Exzellenz? Vom Alptraum zum Traumjob Wissenschaft

Knapp ein halbes Jahr nachdem ich für Telepolis ein Interview mit Mathias Neis über „Prekäre Arbeitsbedingungen an deutschen Hochschulen“ führte, fand am 24.10.2011 an der Universität des Saarlandes (UdS) eine Diskussionsrunde mit dem Titel „Prekäre Exzellenz? Vom Alptraum zum Traumjob Wissenschaft“ statt. Organisiert wurde die Veranstaltung von der Kooperationsstelle Wissenschaft und Arbeitswelt (KoWA).

Mathias Neis zeichnete im erwähnten Interiew ein düsteres Bild der wissenschaftlichen Arbeitswelt, die von äußerst unattraktiven Arbeitsbedingungen geprägt ist. Die von Neis geschilderten Phänomene (etwa überdurchschnittlich viele befristete Beschäftigungsverhältnisse, unbezahlte Mehrarbeit und hierarchische Immobilitäten) sind den meisten Wissenschaftlerinnen und Wissenschaftlern wohl vertraut. Kürzlich wurde mir selbst wieder berichtet, dass Lehraufträge an einer Fakultät einer doch sehr reputierten deutschen Hochschule zu 75% unentgeltlich erbracht würden. So irritierend und aufschlussreich solche Informationen sind, sie sind Anekdoten und zur Erarbeitung einer Diskussionsposition taugen sie daher leider nicht. Mathias Neis und andere hingegen erforschen diese Thematik und lieferen so eine valide Diskussionsbasis, fundiert durch empirische Daten. Und empirische Daten spielten auch bei der Saarbrücker Runde eine bedeutende Rolle.

Andreas Keller, aus dem Bundesvorstand der Gewerkerschaft Erziehung und Wissenschaft (GEW), schilderte die Perspektive seiner Gewerkschaft auf die prekären Arbeitsbedingungen in der Wissenschaft und belegte diese mit einigen Statistiken: Zwischen 1997 und 2009 stieg die Zahl der Studierenden um 16,3%, die der Professoren aber nur um 2,8%, die Anzahl der Lehrbeauftragten verdoppelte sich im gleichen Zeitraum annähernd. Keller bemängelte auch den international nahezu einzigartigen Status des wissenschaftlichen Nachwuchses in Deutschland: Wer promoviert ist, aber keine Professorenstelle ergattert, steckt dauerhaft in der Sackgasse des wissenschaftlichen Nachwuchses – gleich wie alt er ist. Entkommen wird er dieser Sackgasse in der Regel nur durch das Ausscheiden aus der Wissenschaft. Nachwuchs an deutschen Hochschulen (Universitäten und FHs) arbeitet in der Regel befristet und so kamen 2009 auf einen unbefristet Beschäftigten neun befristet Beschäftigte, 53% der befristeten Verträge hatten eine Laufzeit von maximal 12 Monaten. Genau wie Neis moniert auch Keller die Chancenungleichheit zwischen den Geschlechtern ab der Promotion: Je näher die Statusposition der C3-/W4-Professur rückt, desto seltener sind auf diesen Positionen Frauen zu finden.

Refomvorschläge finden sich im Templiner Manifest: Es kritisiert die Forderung der Hochschulen nach exzellenter Forschung & Arbeit zu mehr oder minder ausbeuterischen Arbeitsbedingungen und verlangt eine Refomation der Personalstruktur und der Berufswege an Hochschulen. Das Manifest fordert eine bessere Absicherung der Promotionsphase, die Gestaltung verlässlicher Perspektiven für Postdocs, die Schaffung von Daueraufgaben und unbefristeten Beschäftigungsverhältnissen, die Reduzierung prekärer Beschäftigung, tarifvertraglichen Schutz aller Beschäftigungsverhältnisse an Hochschulen (derzeit durch das Wissenschaftszeitvertragsgesetz eingeschränkt) sowie die Ausgleichung der Geschlechterverhältnisse. Für Keller schließen diese Forderungen die Akzeptanz der Doktoranden als Wissenschaftler und nicht als Studierende im dritten Studienabschnitt (nach Bachelor und Master) ein. Zudem kritisierte Keller das Fehlen von Personalentwicklungskonzepten an Hochschulen, diese Konzepte sind in der Privatwirtschaft Usus, an den Hochschulen aber weitgehend unbekannt. Sicher auch ein Grund, warum sich Hochschulen den Luxus leisten, Experten über mehrere Jahre auszubilden, um sie anschließend nicht weiterzubeschäftigen.

Share This:

Online: Folien zum Workshop Publikationsstrategien an der Fakultät Gesellschaftswissenschaften der Universität Duisburg – Essen

Im Rahmen der Graduiertenförderung in den Gesellschaftswissenschaften an der Universität Duisburg-Essen moderierte ich am 17.06.2011 einen Workshop zum Thema „Publikationsstrategien“, die Folien stehen unter einer Creative Commons Lizenz (CC BY) zum freien Download bereit: Wer mag, kann Sie unter Namensnennung des Urhebers weiterverbreiten, verändern oder anderweitig verwerten. Teilnehmer des Workshops waren Promovierende aus den Fächern Soziologie und Politikwissenschaft. Auf besonderes Interesse stießen die Qualitätssicherung wissenschaftlicher Dokumente, die Wahl des passenden Publikationsortes und erfreulicherweise das Thema Open Access, das (von wenigen lobenswerten Ausnahmen abgesehen) in den Sozialwissenschaften stiefmütterlich behandelt wird: So hat die Deutsche Gesellschaft für Soziologie es bis heute nicht geschafft, die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen zu unterzeichnen – genausowenig wie die Fachgesellschaft für Politikwissenschaft. Ebenfalls mehr als erfreulich: Die Aufgeschlossenheit der Nachwuchswissenschaftler zum offenen Zugang zu Forschungsdaten in den Sozialwissenschaften. Vielleicht legen die Digital Natives doch einen intuitiven Umgang mit immateriellen Gütern an den Tag.

Share This: