Altmetric.com tracks discussions about books listed in Amazon

Altmetric.com Logo
Altmetric.com Logo, downloaded from https://www.altmetric.com/about-us/logos/

The Altmetrics service Altmetric.com announced yesterday that it tracks now discussions about books listed on Amazon in social media and other not primarily scientific publications. According to altmetric.com’s posting this new data source produces „huge volumes of attention data – in just a few days Altmetric has found over 145,000 new mentions of 3,000 Amazon-listed books from Twitter, and over 20,000 mentions from other sources such as news, blogs and policy documents. Around 2 million mentions a year that relate directly to an Amazon record for a book are expected.“

Since the impact measurement for book publications is considered to be complicated and as citations are considered to be of little use for this purpose, Altmetric. com integrated an important impact source for books. It should be noted, however, that smaller publishers in particular are struggling with the use of Amazon as a sales platform due to its high service fees. Should Altmetric. com gain in importance, this could lead authors to opt out of publishing with smaller publishers if these don’t use Amazon as a sales platform.

 

 

 

Wissenschaftliches Publizieren – Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer Beobachtung

Kürzlich publizierten Peter Weingart und Niels Taubert einen Sammelband, der Lesern dieses Blogs und meiner Arbeiten wohl interessant erscheinen dürfte, die Beiträge im Open-Access-Werk befassen sich mit der Diversität wissenschaftlichen Publizierens, Open Access, Open Science, Qualitätssicherung, Peer Review, Predatory Publishing, der Evaluierung von Wissenschaft, Impact und verwandten Themen.

Die bibliographischen Angaben lauten:

Weingart, Peter; Taubert, Niels (Hrsg): Wissenschaftliches Publizieren –
Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer
Beobachtung. De Gruyter, 2016.
https://www.degruyter.com/viewbooktoc/product/463455

Hier das Inhaltsverzeichnis:

 

 

Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik

Nachdem ich kürzlich an dieser Stelle von einer Veröffentlichung zu Open Metrics im Young Information Scientist (YIS) berichtete, hier nun ein weiterer Hinweis zu einer Publikation, die auf Teilen meiner Dissertation beruht.

Im Kongressband des Soziologie-Kongresses der Österreichischen Gesellschaft für Soziologie (ÖGS) im Jahr 2015 erschien mein Beitrag Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik. Der Artikel ist Open Access verfügbar. Thematisch ist der Beitrag dem YIS-Text mit dem Titel Impactmessung, Transparenz & Open Science: Open Metrics verwandt, konzentiert sich aber stärker auf die Altmetrics und die Frage, ob diese Momente der Freiheit in die Wissenschaft tragen und ob sie als Verfahren der Kontrolle, Evaluierung und Ökonomisierung der Wissenschaft taugen.

Hier die bibliographischen Daten zum Artikel, gefolgt vom Abstract und Schlagworten:

Ulrich Herb (2016). Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik. In H. Staubmann (Hrsg.), Soziologie in Österreich – Internationale Verflechtungen. Kongresspublikation der Österreichischen Gesellschaft für Soziologie (S. 387–410). Österreichische Gesellschaft für Soziologie ÖGS. DOI:10.15203/3122-56-7 oder http://webapp.uibk.ac.at/ojs2/index.php/oegs-publikation/article/view/35/713

 

Herb, Ulrich. Altmetrics zwischen Revolution und Dienstleistung : Eine methodische und konzeptionelle Kritik

Abstract

Alternative Impact Metriken (Altmetrics) gelten oft als demokratisierende oder gar revolutionäre Verfahren zur Messung wissenschaftlicher Resonanz. Dieser Nimbus wird ihnen vor allem zuteil, da sie regelmäßig als den bekannten zitationsbasierten Verfahren der Impact-Messung (Journal Impact Factor, Hirsch-Index/ h-Index) überlegen angesehen werden. Dies wiederum vor allem, weil sie die Resonanz-Messung von wissenschaftlichen Texttypen erlauben, die von den Zitationsmetriken nicht erfasst werden (z.B. Bücher oder Sammelbände) oder sogar von Objekttypen (z.B. wissenschaftliche Daten und Software), die bisher per se von der Impact-Messung ausgeschlossen waren. Dieser Beitrag prüft, inwiefern Altmetrics aktuell dem Anspruch, eine demokratisierende Revolution, die immer auch eine rabiate Veränderung von Strukturen und Regeln bedeutet, auszulösen, gerecht werden kann oder ob sie nicht doch einfach eine der äußerst kritischen Reflexion bedürfende Dienstleistung sind, da sie neue Verfahren der Kontrolle, Evaluierung und Ökonomisierung der Wissenschaft erlauben.

Schlagworte: Impact, Metriken, Zitationen, Altmetrics, Evaluierung, Ökonomisierung, Wissenschaft

 

Herb, Ulrich: Altmetrics between Revolution and Service: A Methodical and Conceptual Criticism

Abstract

Alternative impact metrics (Altmetrics) are often considered to be democratizing or even revolutionary methods for measuring scientific resonance. This nimbus mainly surrounds them because they are regarded as metrics that outclass the well-known citation-based metrics (e.g. the Journal Impact Factor or Hirsch-Index/h-Index). This in turn happens mainly due to the fact that Altmetrics allow the resonance measurement of scientific document types (e.g. books or anthologies) or even object types (e.g. scientific data and software) that were previously excluded from the impact measurement. This contribution examines to what extent Altmetrics are sparking off a democratizing revolution, which necessarily always implies a rigorous change in structures and rules, or whether they are simply not more than a service that has to be considered highly critical as they offer new tools to control, evaluate and economize science.

Keywords: impact, metrics, citations, altmetrics, evaluation, economization, science

Journal zahlt Autoren für Zitate ihrer Artikel

Jeffrey Beall, dessen Pauschalisierungen zu Predatory Open Access ich nicht teile und dessen Injurien gegen integre Open-Access-Journale mich oft stören, liefert in seinem Blog Scholarly Open Access immer wieder Hinweise auf Auswüchse im wissenschaftlichen Publikationswesen. Das International Journal of Emerging Technology and Advanced Engineering (IJETAE) ist nun Thema eines Beall-Postings.

Vorab: Das Journal nutzt Article Processing Charges (APCs) als Einnahmequelle, für die Publikation eines zehnseitigen Artikels werden 170 US-Dollar fällig. Die Issues erscheinen in kurzen Intervallen, nämlich im Monatsabstand, und sind prall gefüllt – Issue 9 des Volume 6 umfasst 54 Artikel.

Beall verweist jedoch auf ein anderes Merkmal, welches das IJETAE meiner Kenntnis nach von anderen Journalen abhebt: Es zahlt seinen Autoren Geld für Zitationen auf ihre IJETAE-Artikel. Er zitiert als Beleg aus einer Mail, die das Journal an potentielle Autoren schickte:

All published articles from  September 2016 onwards will be applicable for “Research Paper Royalty Scheme” in which  corresponding author will get a reimbursement of 100 USD/6000 INR if his/her paper is cited by any 20 researchers in any reputed International Journal/Conferences in a year. If you are confident about your Research work then IJETAE will be honoured to appreciate it. Author can also keep track on Citation Count using Google Scholar.

Ich muss anmerken, dass die Google-Suche nach einzelnen Phrasen der Mail mich nicht zu Archiven von Mailinglisten führte, in denen ich den Inhalt der Mail verifizieren konnte. Allerdings finden sich in einem anderen Blog gleichfalls Nachrichten über diese Mails. Da derartige Informationen in der Regel direkt an Wissenschaftler gehen und nicht über Listen versendet werden, scheinen die Schilderungen über die in Aussicht gestellte Belohnung nicht zweifelhaft.

Von der Homepage des International Journal of Emerging Technology and Advanced Engineering
Von der Homepage des International Journal of Emerging Technology and Advanced Engineering

Warum nun die Entlohnung? Zwar schmückt sich das IJETAE mit einem Fake Impact Factor, auch auf der Grafik zu sehen, ein echter Journal Impact Factor (JIF) dürfte dennoch perspektivisch lukrativer sein. Da die Aufnahme eines Journals in das Web of Science (WoS), anhand dessen der Original-JIF berechnet wird, maßgeblich von Zitationszahlen abhängt, könnte man die Strategie verfolgen durch hohe Zitationszahlen den Weg ins WoS zu finden. Die Aufnahme in WoS hängt zwar auch von anderen Kriterien ab, aber die ließen sich mit ein bisschen Kosmetik womöglich auch noch erfüllen. Der Verweis auf Google Scholar legt auch die Vermutung nahe, man wolle durch gesteigerte Zitationszahlen in den Fächer-Rankings Google Scholars steigen.

Egal, ob das Ziel die Aufnahme ins WoS oder die höhere Position im Google Scholar Ranking ist – beides würde das IJETAE für Autoren attraktiver machen, damit zugleich zahlungsfreudiger und bereit höhere Gebühren zu zahlen.

Impact messen in den Sozialwissenschaften und der Soziologie – mit Web of Science, Scopus, Google Scholar oder Altmetrics?

Am 23.09.2016 hielt ich im Rahmen der Tagung Forschungsmetriken als Dienstleistung: Herausforderungen und institutionelle Wirkungen am Wissenschaftszentrum Berlin für Sozialforschung WZB einen Vortrag mit dem Titel Forschungsmetriken und Impact in den Sozialwissenschaften. Im Mittelpunkt stand die Frage, ob Altmetrics besser als Zitationsdaten geeignet sind, den Impact (was immer man darunter verstehen mag)  sozialwissenschaftlicher Literatur zu erfassen. Meine Bilanz ist ernüchternd:  Zwar sind Altmetrics prinzipiell den Zitationsdatenbanken Web of Science oder Scopus insofern überlegen als sie auch nicht in Journalen erschienene Werke erfassen. Allerdings dominieren in den Altmetrics-Datenquellen, genau wie im Web of Science oder Scopus, englischsprachige Journalartikel. Folglich findet sich das Problem der fragmentarischen Impact-Erfassung speziell deutschsprachiger sozialwissenschaftlicher Literatur auch bei Altmetrics. Es wird verstärkt durch die seltene Verwendung der DOI in deutschsprachiger sozialwissenschaftler Literatur, denn die Altmetrics-Werte werden zumeist mittels DOI-Parsing ermittelt. Eher als Altmetrics scheint hingegen Google Scholar geeignet, den Impact sozialwissenschaftlicher Literatur zu beschreiben – zu diesem Schluss kam ich auch in meiner Dissertation.

Der besagte Vortrag findet sich in Slideshare unter http://www.slideshare.net/uherb/forschungsmetriken-und-impact-in-den-sozialwissenschaften

 

Impactmessung, Transparenz & Open Science: Open Metrics

An sich plante ich, wie es üblich ist, meine voluminöse Dissertation zu filetieren und häppchenweise in Journalen zu publizieren, gelungen ist mir dies mangels Zeit bislang noch nicht so recht. Aber ein Anfang ist gemacht: In Young Information Scientist (YIS) erschien nun mein Beitrag Impactmessung, Transparenz & Open Science, der auf Befunden meiner Dissertation beruht und sich mit Open Metrics befasst. Darin gehe ich der Frage noch, ob Altmetrics nun wirklich offener, transparenter und fairer sind als die heftig kritisierten Zitationsmaße. Zudem versuche ich einen Kriterienaktalog für offene Metriken, sprich solche, die den Ansprüchen offener Wissenschaft genügen können, zu entwickeln.

Hier die bibliographischen Daten zum Artikel, gefolgt vom Abstract und Schlagworten:

Ulrich Herb (2016). Impactmessung, Transparenz & Open Science. In: Young Information Scientist, Vol. 1 (2016), S. 59–72. Online: https://yis.univie.ac.at/index.php/yis/article/view/1420

Herb, Ulrich: Impactmessung, Transparenz & Open Science

Zielsetzung — Der Beitrag diskutiert, inwiefern es genügt, Open Science, die offene Wissenschaft, auf die rein entgeltfreie Verfügbarkeit von Objekten, z.B. wissenschaftlichen Publikationen im Open Access zu kaprizieren, und welche Rolle Impact-Informationen, die Wissenschaft und Wissenschaftler reaktiv steuern, zukommt sowie, ob diese ebenfalls im Sinne der offenen Wissenschaft neu modelliert werden müssen.
Forschungsmethoden — Altbekannte, zitationsbasierte Impact-Metriken und neue, alternative Metriken werden anhand folgender Kriterien daraufhin überprüft, ob sie offene Metriken sind: Wissenschaftliche Überprüfbarkeit und Modellierung, Transparenz in ihrem Zustandekommen und ihrer Methodik, Übereinstimmung mit den Prinzipien des offenen Wissens.
Ergebnisse — Weder Zitationsmetriken noch alternative Metriken verdienen das Etikett offen. Es fehlt ihnen allen an wissenschaftlichem Gehalt, meist aber auch an Transparenz und Überprüfbarkeit. Insbesondere können die alternativen Metriken die von ihnen teils erwartete Demokratisierung der Wissenschaftsbewertung nicht bewirken.
Schlussfolgerungen — Da weder Zitationsmetriken noch alternative Metriken als offen zu bezeichnen sind, erscheint es notwendig, einen Kriterienkatalog offener Metriken zu erarbeiten. Dieser Katalog umfasst Aspekte wie Begründungen und Dokumentationen bei Auswahl an Datenquellen, offene Bereitstellung der Daten, die der Berechnung der Impact-Scores zugrunde liegen, Möglichkeiten, die Daten und die daraus ermittelten Werte automatisiert abzufragen, logische, wissenschaftliche und dokumentierte Begründungen, anhand welcher Formel oder Parameter die Werte berechnet wurden.

Schlagwörter — Wissenschaftsbewertung, Zitate, Alternative Metriken, Offene Wissenschaft, Transparenz, Methodik, Offenes Wissen, Szientometrie

Herb, Ulrich: Impact Metrics, Transparency & Open Science

Objective — The article discusses if it is sufficient to scale down Open Science to a free availability of objects, for example scientific publications (open access), or whether impact metrics that steer science and scientists must also be re-modeled under open science principles.
Methods — Well-known, citation-based impact metrics and new, alternative metrics are reviewed using the following criteria to assess whether they are open metrics: Scientific verifiability and modeling, transparency in their construction and methodology, consistency with the principles of open knowledge.
Results — Neither citation-based impact metrics nor alternative metrics can be labeled open metrics. They all lack scientific foundation, transparency and verifiability.
Conclusions — Since neither citation-based impact metrics nor alternative metrics can be considered open, it seems necessary to draw up a list of criteria for open metrics. This catalog includes aspects such as justifications and documentation for the selection of data sources, open availability of the data underlying the calculation of the impact scores, options to retrieve the data automatically via software interfaces, logical, scientific and documented justifications about the formula or parameters used to calculate impact values.

Keywords — impact, citations, altmetrics, open science, transparency, methodology, open knowledge, scientometrics

 

Open Science in der Soziologie – Eine interdisziplinäre Bestandsaufnahme zur offenen Wissenschaft und eine Untersuchung ihrer Verbreitung in der Soziologie

Am 18.09. ist meine Dissertation zum Thema „Open Science in der Soziologie – Eine interdisziplinäre Bestandsaufnahme zur offenen Wissenschaft und eine Untersuchung ihrer Verbreitung in der Soziologie“ erschienen. Sie ist sowohl im Print zu einem Preis von 36,80 € bestellbar (Bestellmöglichkeit beim Verlag Werner Hülsbusch oder via u1_hi67_herb_rgb_72dpi_400px_breitAmazon) als auch im Open Access via Zenodo oder SciDok verfügbar. Dem Verlag will ich für seine Unterstützung und unbürokratische Open-Access-Politik danken und kann ihn Kolleginnen und Kollegen nur empfehlen.

Die bibliographischen Angaben lauten:

Ulrich Herb (2015). Open Science in der Soziologie: Eine interdisziplinäre Bestandsaufnahme zur offenen Wissenschaft und eine Untersuchung ihrer Verbreitung in der Soziologie.  Schriften zur Informationswissenschaft; Bd. 67 [Zugleich: Diss., Univ. des Saarlandes, 2015]. Verlag Werner Hülsbusch : Glückstadt. ISBN 978-3-86488-083-4. DOI: 10.5281/zenodo.31234 oder URN: urn:nbn:de:bsz:291-scidok-62565. Hardcover, Fadenheftung, VIII + 492 S., zahlr. teilw. farb. Abb.
Hier auch der Klappentext:
Open Science, die offene Wissenschaft, zielt auf die möglichst umstandslose Nutzbarkeit und Verfügbarkeit weitgehend aller im Forschungsprozess anfallenden Informationen, in erster Linie von Textpublikationen, Forschungsdaten und Forschungssoftware. Überdies soll sie auch Transparenz in wissenschaftliche Arbeit moderierende Prozesse (wie die Begutachtung bzw. den Review von Textpublikationen) und in die Gewinnung von zur Bewertung von Wissenschaft herangezogenen Parainformationen (Impact-Metriken) bringen. Open-Science-Befürworter versprechen sich hiervon eine effizientere, innovationsfreundlichere und transparentere Wissenschaft, denn offene Informationen können schneller und leichter verbreitet und nachgenutzt sowie überprüft werden als nicht-offene.
Die Arbeit basiert auf einer fachübergreifenden Bestandsaufnahme der Open-Science-Elemente Open Access zu Textpublikationen, Open Access zu Forschungsdaten, Open Access zu Forschungssoftware, Open Review und Open Metrics, die allesamt typischerweise eher in den STM-Fächern (Science, Technology, Medicine) zu finden sind als in den Sozial- oder Geisteswissenschaften. Ausgehend von dieser Synopse widmet sie sich weitergehend den fachinhärenten Spezifika der Soziologie, die gemeinhin als Nachzüglerin der Open Science betrachtet wird, und untersucht empirisch die Prävalenz und Relevanz von Open Access zu Textpublikationen, Open Access zu Forschungsdaten, Open Access zu Forschungssoftware, Open Review und Open Metrics in der Soziologie.

Impact-Lotterie mit Impactstory

Tendenziell sympathisiere ich mit den Altmetrics, den alternativen Metriken, ermöglichen sie es Wissenschaftlern doch Resonanz auf Werke zu dokumentieren, die sich nicht in Zitationen manifestiert. Zudem können Altmetrics auch Referenzen auf Daten und Software (oder allgemeiner Nicht-Text-Objekte) in Social Media oder anderen Datenspeichern erfassen und so Wissenschaftlern Credit für die Publikation dieser Objekte verschaffen. Theoretisch. Die Datenerhebung zu meiner Dissertation lehrte mich allerdings gewisse Vorbehalte bei der Nutzung einiger Altmetrics-Dienste (Impactstory, altmetric.com, PLUM Analytics) – und ein kurzer Blick in mein Impactstory-Profil nährt diese Skepsis.

In diesem Profil, zu finden unter https://impactstory.org/UlrichHerb, habe ich vor einiger Zeit fünf Publikationen als Selected Works gekennzeichnet. Ich habe darauf verzichtet, meine höchstzitierten Artikel als Selected Works zu kennzeichnen, sondern habe eher solche Publikationen ausgewählt, von denen entweder ich denke, dass sie  – unabhängig von Zitationen, Downloads oder anderen Indikatoren – gelungen sind, oder von denen mir durch andere Personen vemittelt wurde, sie seien nützlich. Diese Publikationen und die Gründe, warum ich sie zu Selected Works kürte, will ich kurz darstellen, zudem werde ich Impact-Werte, die Impactstory für die Items ermittelt, diskutieren.

  1. Herb, Ulrich (2010): Sociological implications of scientific publishing: Open access, science, society, democracy, and the digital divide. In: First Monday. Volume 15 (2010), Issue 2.
    Online: http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/2599/2404 
    doi:10.5210/fm.v15i2.2599

    Diesen Artikel halte ich für den besten, den ich geschrieben habe. Er ist zugleich (laut Google-Scholar-Autorenprofil) mein meist zitierter Artikel (21 Zitate), zu dem weist auch Sopus ihn als meinen höchstzitierten Artikel aus (fünf Zitate). Das Twitter-Archiv topsy fördert bei einer Suche über die Artikel-DOI, mit dem String „Sociological implications of scientific publishing“ oder mittels der Artikel-URL überraschender Weise keinen Tweet auf den Artikel zu Tage. Twitter selbst liefert hingegen bei der String-Suche mit Titelworten durchaus Treffer (s. Screenshot ). Der Artikel hat zudem 74 Mendeley User Counts (MUC), sprich 74 Nutzer haben ihn in ihrer Mendeley-Bibliothek gespeichert. Impactstory weist allerdings keinen einzigen Tweet oder einen MUC auf den Artikel nach. Der Artikel wurde einmal in der englischsprachigen Wikipedia zitiert, doch auch diese Referenz erfasst Impactstory nicht, gleiches gilt für die Scopus-Zitationen und das, obwohl Impactstory angeblich Wikipedia und Scopus auswertet. Inwiefern die Werte in den restlichen Impactstory-Datenquellen korrekt erfasst wurden, prüfe ich nicht, gehe aber auch von einer unvollständigen Erfassung aus.
  2. Eisfeld-Reschke, Jörg: Herb, Ulrich & Wenzlaff, Karsten (2014): Research Funding in Open Science. In S. Bartling & S. Friesike (Hrsg.), Opening Science (S. 237–253). Heidelberg: Springer.
    Diesen Buchbeitrag, den Jörg Eisfeld-Reschke und Karsten Wenzlaff zusammen mit mir verfassten, halte ich für meine zweitbeste Publikation. Er wurde laut Google Scholar nicht zitiert, ebenso laut Scopus. Dies mag daran liegen, dass er erst  2014 publiziert wurde und daran, dass es sich bei ihm nicht um einen Journalartikel handelt. In Scopus, das vorwiegend Journale auswertet, ist der Sammelband erst gar nicht indiziert. Die ausbleibenden Zitationen können aber auch der Thematik geschuldet sein: Der Artikel reflektiert derzeitige Verfahren der Forschungsförderung sehr kritisch und diskutiert neue, experimentelle Alternativen. In einer Wissenschaftswelt, die am Tropf der Drittelmittelgeber hängt, ist es vielleicht nicht zu erwarten, dass ein kontroverser Artikel zur Praxis der Geldgeber mit Zitationen bedacht wird. Topsy weist keinen Treffer für das Dokument nach, weder bei einer Suche nach dem Titel, der URL oder dem DOI. Twitter findet bei einer Titel-Suche drei Treffer, keinen bei einer DOI- oder URL-Suche. Impactstory weist allerdings neun Tweets aus, klicke ich auf das Twitter-Icon in der detaillierten Ansicht des Artikels bei Impactstory gelange ich zum Anbieter altmetric.com, von dem Impactstory die Twitter-Daten bezieht. Überraschenderweise erwähnt altmetric.com aber nur acht Tweets auf den Artikel und nicht neun wie Impactstory. Als MUC-Wert gibt Impactstory zwei Mendeley-Nutzer an, die den Artikel in ihrer Bibliothek vorhalten, altmetric.com hingegen einen einzigen. Bedauerlicher Weise sind beide Werte falsch: Mendeley selbst weist fünf Vorkommen in Nutzerbibliotheken nach. Impactstory und altmetric.com geben eine Wikipedia-Referenz auf den Text an. Tatsächlich wird er aus der englischsprachigen Wikipedia sowie der deutschsprachigen zitiert. Vermutlich werten die Dienste nur die englischsprachige Wikipedia aus, mit Sicherheit kann ich das nicht sagen. Allerdings denke ich nicht, dass sich Impactstory und altmetric.com die Mühe machen zu prüfen, ob Referenzen aus verschiedenen Wikipedia-Lokalisierungen aus Artikeln zum gleichen Thema stammen oder aus Artikeln zu unterschiedlichen Themen. Im ersten Fall wäre es womöglich sinnvoll zwei Referenzen als einen Impact-Event zu werten, im zweiten Fall sollte man wohl von zwei Events ausgehen.
  3. Herb, Ulrich (2014). Total numbers and shares of Open Access Journals using Creative Commons Licenses as listed by the Directory of Open Access Journals. Zenodo. doi:10.5281/zenodo.8327
    Hierbei handelt es sich um Daten, die ich während der Arbeit an meiner Dissertation gewann und über die ich ein Blog-Posting schrieb. Während ich den Artikel, den ich im vorherigen Absatz erwähnte, sehr gut finde, er aber wenig Aufmerksamkeit erhält, verhält es sich mit diesen Daten exakt umgekehrt: Ihr Gehalt ist meiner Meinung nach an Banalität kaum zu überbieten, dennoch war das Echo auf Posting und Datendeposit groß. Aus diesem Grund fügte ich sie auch zu den Selected Works hinzu: Anscheinend sehen andere einen Nutzen in den Daten, den ich nicht sehe. Impactstory weist für die Daten keine Tweets nach, altmetric.com hingegen 38. Topsy liefert keine Treffer, weder für eine Titel-Suche ohne Stopwords, noch für DOI- oder URL-Suche. Twitter liefert zwei Treffer für eine Titel-Suche ohne Stopwords, vier Treffer für eine URL-Suche, keinen Treffer bei einer DOI-Suche. Impactstory weist keinen MUC aus, altmetric.com hingegen einen, was sich mit den Mendeley-Informationen deckt. Die Daten finden keine Erwähnung in Wikipedia, folglich können auch keine Angaben zu Referenzen aus der Enzyklopädie überprüft werden.
  4. Herb, Ulrich (2013). Szientometrie 2.0: Zitate, Nutzung, Social Media Impact – Gütekriterien oder Messung des leicht Messbaren?
    Online: http://de.slideshare.net/uherb/2013-0208vdbkarlsruhe

    Diesen Vortrag hielt ich anlässlich einer Veranstaltung des Vereins Deutscher Bibliothekare (VDB) sowie des Berufsverbandes Information Bibliothek (BIB), Landesgruppe Baden-Württemberg, am KIT in Karlsruhe. Kurz nach der Veranstaltung stellte ich die Folien über die Plattform slideshare bereit. Impactstory gibt für die Folien neun Slideshare-Downloads, vier Slideshare-Favourites (sprich: vier Nutzer markierten die Präsenation als Favorit) und 760 Slideshare-Views (sprich: die Folien wurden 760 Mal in Slideshare betrachtet) aus. Die Angaben stimmen im Wesentlichen mit den Werten, die Slideshare selbst ausgibt, überein, nur bei den Views nennt Slideshare eine höhere Zahl, 761. Diese Diskrepanz dürfte aber bei der nächsten Aktualisierung der Impactstory-Daten behoben sein. Tweets wurden von Impactstory nicht nachgewiesen, ebenso wenig von Topsy (für eine Titel- und URL-Suche), Twitter selbst wies bei einer URL- und Titel-Suche einen Tweet (wie ich gestehen muss, meinen eigenen) mit vier Retweets und zwei Favorisierungen nach. In Mendeley und Wikipedia (englisch-/deutschsprachig) ist der Vortrag nicht zu finden.

  5. Herb, Ulrich (2014). Predatory Publishing & Open Access: Verdirbt Geld die Wissenschaftskommunikation?
    Online: http://www.slideshare.net/uherb/2014-0318dpgherb-32450408

    Es handelt sich hierbei um einen weiteren Vortrag, diesen hielt ich anlässlich der 78. Jahrestagung der Deutschen Physikalischen Gesellschaft DPG in Berlin. Er findet sich unter den Selected Works, weil ich ihn für gut halte und weil es eine große Freude war, ihn zu halten – was vorrangig am immens interessierten und diskutierfreudigen Publikum lag. Genau wie im vorher erwähnten Fall stellte ich den Vortrag via Slideshare bereit. Laut Impactstory weist er in Slideshare 1.143 Views und fünf Downloads auf; beides deckt sich ungefähr mit den Slideshare-Informationen (1.144 bzw. fünf). Impactstory und Topsy weisen keine Tweets auf die Präsentation nach, Twitter selbst zwei. In Mendeley und Wikipedia (englisch-/deutschsprachig) ist der Vortrag nicht zu finden.

Mein Fazit fällt recht düster aus: Für meine Selected Works gelingt es Impactstory bei keinem der Items Impact-Werte exakt zu ermitteln. Impactstory erfasst Daten, zumindest für die Selected Works meines Profils, ungeheuer unvollständig. Auch werden anscheinend mitunter verschiedene Datenquellen für den selben Parameter genutzt: In der Regel wird die Anzahl der Tweets offensichtlich über Topsy bezogen (dies deckt sich mit Informationen, die ich über Impactstroy habe), teils aber, z.B. bei Item zwei, von altmetric.com. Jedoch scheint es auch nicht so, dass Impactstory immer Daten von altmetric.com nutzt, wenn altmetric.com diese anbietet: Zu Item drei kennt altmetric.com Daten, diese nutzt Impactstory aber nicht. Werden die Daten von altmetric.com übernommen, können sie aber (wie bei Item zwei) in Impactstory von den Werten in altmetric.com abweichen. Überdies war Topsy als Datenquelle völlig untauglich: Es konnten keine Tweets (weder über Titel- oder DOI- noch URL-Suche) gefunden werden, wohingegen Twitter selbst Werte für die Items lieferte. Auch die Anzahl der Wikipedia-Referenzen wurde in Impactstory falsch erfasst. Ähnlich verhält es sich mit den MUCs: Es gelingt Impactstory nicht, das Vorkommen der Items in Mendeley-Bibliotheken zu beschreiben. Hier patzt auch altmetric.com, das für Item zwei ebenfalls einen zu niedrigen Wert ausgibt. Allgemein könnte die falsche Erfassung zum Teil damit zu erklären sein, dass Impactstory Impact-Events vorrangig über das Auftauchen von DOIs zu ermitteln versucht. Allerdings ist nicht anzunehmen, dass Item eins in keiner der 74 Mendeley-Nutzerbibliotheken unter Erwähnung der DOI gespeichert wurde. Zumindest in meiner eigenen Mendeley-Bibliothek findet sich der Artikel unter Erwähung der DOI. Folglich sind die fehlerhaften Zahlen kaum alleine durch die mangelnde Nutzung von DOIs in Referenzdatensätzen zu erklären. Aber selbst wenn die Erfassung des Impacts über die DOI exakt wäre, hätte die Fokussierung auf die DOI fatale Folgen, unter anderem für Texte, die keine DOI kennen, weil sie nicht elektronisch vorliegen, oder für Werke, die zwar elektronisch vorliegen, aber nicht mit einer DOI versehen werden. Zweites dürfte vor allem Publikationen aus kleineren Verlagen betreffen, wie man sie häufig in Sozial- und Geisteswissenschaften findet. Eine der unbestritten wichtigsten Zeitschriften der deutschsprachigen Soziologie, die Zeitschrift für Soziologie ZfS, etwa nutzt keine DOIs für Artikel. Für solche Artikel können Altmetrics-Dienste, die Resonanz über DOI-Parsing erfassen wollen, niemals Impact-Werte ermitteln, egal wie wertvoll ein Werk ist.

 

[cite]

 

 

Fingierte Journal-Homepages, Konferenzen und Metriken

Declan Butler berichtete bereits im März dieses Jahres in Nature von irreführenden und betrügerischen Journal-Homepages, die zwei seriöse Wissenschaftsjournale imitierten. Opfer des Schwindels wurden die Zeitschriften Archives des Sciences sowie Wulfenia. Beide Journals verfügten über keine Websites – zumindest bis in betrügerischer Absicht Homepages online gingen und vorgaben offizielle Internetpräsenzen der Zeitschriften zu sein. Zugleich wurde auf diesen Websites eine Möglichkeit zur Artikeleinreichung und zur Zahlung von Publikationsgebühren gegeben. Autoren, die diese Gebühren entrichteten, warteten jedoch vergeblich auf eine Veröffentlichung ihrer Artikel in den Journals, denn es gab keine Verbindung zwischer den Websites und den Zeitschriften.

In der Informatik, in der Kommunikation in Konferenzen und via Konferenzbänden vorherrscht, haben sich findige Geschäftemacher dieser Disziplinspezifika angepasst und legen keine fingierten Journals oder fingierte Websites zu existierenden Journals auf, sondern veranstalten gefakte Konferenzen. Listen verdächtiger Veranstaltungen finden sich unter http://fakeconference.blogspot.de/ oder http://academic-spam.blogspot.de/. Auch Prof. Debora Weber-Wulff berichtet in ihrem Blog an verschiedenen Stellen (z.B. sehr interessant hier http://copy-shake-paste.blogspot.de/2008/12/fake-conferences.html – bitte auch die Kommentare lesen) von diesem unerfreulichen Phänom. In besonderem Maß betroffen sind Konferenzen des vormals angesehenen Verbandes IEEE (Institute of Electrical and Electronics Engineers). Anders als im Fall der eingangs erwähnten Journals erfolgt bei den täuscherischen Konferenzen kein Idenditätsdiebstahl, sondern die Veranstalter rufen schlicht neue Konferenzen ins Leben oder kapern existierende Konferenzreihen, um dann gegen Zahlung einer Registrierungsgebühr jedwede Einreichung zu akzeptieren. Das Halten des Vortrags wird oft ausdrücklich als nicht notwendig dargestellt, vermutlich wird ein Teil der Konferenzen gar nicht durchgeführt.

Sky News formulierte im Zusammenhang mit dem Verkauf eines mächtigen Wissenschaftsverlags einmal sehr zutreffend: „The market for scientific, technical and medical publishing has historically been lucrative„. Das ist wohl wahr und daher will die Scharade auf die Spitze und die Wertschätzungskette fortgesetzt werden – und was steht noch aus? Nach dem Verkauf von Publikationsmöglichkeiten und Konferenzteilnahmen bleibt z.B. die Impact Messung und so schickte das Global Institute for Scientific Information (GISI) vor einiger Zeit den Journal Impact Factor (JIF) ins Rennen, man kann die Ausführungen dazu unter http://www.jifactor.com/index.asp einsehen. Der JIF des GISI hat selbstredend nichts mit dem JIF des Datenbankanbieters Thomson Scientific zu tun, soll aber diesem ähnlich erscheinen und diesen ganz offensichtlich imitieren. So heißt es zur Berechnung des GISI JIF:

„Journal Impact Factor (JIF) is a measure reflecting the average number of citations to articles published in journals, books, patent document, thesis, project reports, news papers, conference/ seminar proceedings, documents published in internet, notes and any other approved documents. It is measure the relative importance of a journal within its field, with journals of higher journal impact factors deemed to be more important than those with lower ones. Journal Impact factors are calculated in yearly/half- yearly/ Quarterly/Monthly for those journals that are indexed in Journal Reference Reports (JRR).“

Zwar finden sich Abweichungen zwischen dem GISI JIF und Thomson Scientifics JIF, wie etwa den Scope der indizierten Dokumente und die Gewichtung der Quellen je nach Zitationshäufigkeit, andererseits erfolgt aber sogar eine Annäherung der Namensgebung zwischen den zur Berechnung der JIF-Werte dienenden Datenbanken (Journal Reference Reports JRR bei GISI und Journal Citation Reports JCR bei Thomson Scientific). Herausgeber und Verlage, die ihre Journals in den JRR indizieren lassen wollen, können dies hier tun und müssen – dies dürfte keine Überraschung sein – dafür zahlen, denn so das GISI: „We are charging nominal fee for processing your journal to get Journal Impact Factor“. Jeffrey Beall, der auch die Liste der Predatory Open Access Publishers pflegt, hat für Anbieter wie das GISI eine eigene Liste der Bogus Impact Factor Companies eingerichtet, die weitere, dem JIF des GISI ähnliche Angebote aufführt: Den Global Impact Factor  des Institute for Information Resources, den Universal Impact Factor (der Name verheißt Großes, zumindest Größeres als der Global Impact Factor oder der schlicht daherkommende Journal Impact Factor) und den IndexCopernicus.

 

Mindmap: Acceptance of AltMetrics

As moderators of the OAI Breakout Group on AltMetrics Daniel Beucke and I would like to invite the Twitter Community to contribute ideas to our discussion. The Breakout Group focusses on steps to improve the acceptance of Altmetrics. We will record the discussion with a mindmap (s. below). Whoever wants to follow the discussion live should reload this page regularly. Whoever wants to contribute ideas via Twitter should use the hashtag #altmetricsmap. Please note: The discussion will probably not start before 4:45 pm. The introducing presentations from the Breakout Group are embedded below.

Update, 2013-06-21: We updated the map according to the results of the discussion, you are still invited to give us further feedback via email oder twitter (@scinoptica or @dmetje).  You may also download an export of the map here. This news might also be of interest: The NISO announced to develop Standards and Recommended Practices for AltMetrics.

 

Als Moderatoren der Breakout Group zu Altmetrics möchten Daniel Beucke und ich die Twitter-Community zu Beiträgen einladen. Im Mittelpunkt der Diskussion sollen Maßnahmen zur Verbesserung der Akzeptanz von AltMetrics stehen. Den Verlauf der Diskussion werden wir versuchen in einer Mindmap zu dokumentieren. Die Mindmap findet sich unten auf dieser Seite, wer die Entwicklung der Diskussion verfolgen will, kann regelmäßig die Seite aktualisieren, um den aktuellen Stand der Map zu sehen. Wer via Twitter beitragen will, sollte den Hashtag #altmetricsmap nutzen. Die aktive Diskussion in der Gruppe wird vermutlich erst um 16.45 Uhr beginnen. Kurze einführende Präsentationen sind unter der Map eingebettet.

Update, 21.06.2013: Wir haben die Map gemäß der Diskussionergebnisse aktualisiert, freuen uns aber weiterhin auf Anregungen via Mail oder Twitter (@scinoptica oder @dmetje). Ein Export der Map steht hier zum Download bereit. Übrigens kündigte die NISO an, Standards und Empfehlungen zu AltMetrics entwickeln zu wollen.