Handreichung zu Predatory Journals

Erstellt von Dr. Katrin Frisch; publiziert am 11.12.2024.

Hinweise: Eine englische Version ist in Arbeit. Wenn Sie Feedback bzw. Änderungsvorschläge für diese Handreichung haben, kontaktieren Sie mich gern per E-Mail: katrin.frisch[at]ofdw.de.

Einleitung

Predatory Journals sind profit-orientierte Publikationskanäle, die suggerieren nach wissenschaftlichen Qualitätsstandards arbeitende Fachzeitschriften zu sein, doch in der Realität gegen die Zahlung von Gebühren Artikel ohne (richtiges) Peer Review veröffentlichen. Oft zeichnen sie sich durch falsche oder widersprüchliche Informationen auf der Website, aggressive sowie beliebige Werbung und auch fehlende Angaben zu Journal Policies, Kostenstrukturen und Publikationsprozessen aus (siehe auch Grudniewicz et al. 2019). Als ein spezieller Subtyp von Predatory Journals können hijacked Journals angesehen werden (siehe unten).

Eine offizielle Liste von Predatory Journals existiert nicht und es gibt in den Fachcommunities durchaus Debatten darüber, welche Journals unter diesen Begriff subsumiert werden sollten. Auch der Begriff bzw. das Konzept selbst ist Gegenstand von Debatten: so suggeriert der Begriff „Predatory Journal“, dass es sich um Journals handelt, die fehlendes Wissen bzw. Unvertrautheit von Forschenden mit dem Publikationssystem ausnutzen würden. Jedoch zeigen Studien auch eine andere Seite des Phänomens auf, nämlich dass Forschende wissentlich in Predatory Journals/Verlagen veröffentlichen (siehe Frandsen 2018).

Eine wesentliche Kritik am Konzept „Predatory Journal“ besteht darin, dass es ein großes Spektrum unterschiedlicher Journals gibt, die unter den Begriff gefasst werden und dass dabei z.B. legitime Journals mit geringer Qualität neben Journals mit klaren Täuschungsabsichten (fake und deceptive Journals) stehen. Zielführender sei es, „Predatory Practices“ in den Fokus zu nehmen und gleichwohl alle Journals/Verlage daraufhin zu bewerten (siehe IAP 2022). Fokus dieser Handreichung soll allerdings nicht die theoretische Debatte zu Predatory Journals sein, sondern der praktische Umgang mit ihnen.

Grundsätzlich gilt, dass Forschende ihre Ergebnisse nicht, schon gar nicht wissentlich, in Predatory Journals veröffentlichen sollten. Predatory Journals täuschen nicht nur das Vorhandensein wissenschaftlicher Qualitätsstandards vor, die in ihnen veröffentlichte Artikel sind zudem schlechter auffindbar, da sie oft von Literaturdatenbanken nicht erfasst werden (Kurt 2018; neuere Studien zeigen jedoch, dass Predatory Journals mitunter auch gelistet werden, siehe Macháček/Srholec 2022 am Beispiel Scopus[1]). Insbesondere Wissenschaftler:innen in Leitungsfunktion sollten dem wissenschaftlichen Nachwuchs Orientierung bieten, welche die in einer Fachcommunity einschlägigen Journals sind, gerade weil eine eindeutige Identifizierung von Predatory Journals und Verlagen nicht immer möglich ist und auch die Bewertung von Journals abhängig von Fachcommunity, Statusgruppe und individuellen Erfahrungshintergrund variieren kann (siehe Beispiel MDPI weiter unten).

Wahl des Publikationsorgans

Forschende sollten sorgfältig das für sie richtige Publikationsorgan aussuchen. Das Gespräch mit Peers der eigenen Community kann helfen, ein geeignetes Journal zu finden. Predatory Journals zeichnen sich oft durch irreführende Informationen, aufdringliche Anwerbung sowie Angaben über extrem kurze Zeitspannen von Artikeleinreichung bis zur Publikation aus. Auch Versprechen über priorisierte Handhabung eingereichter Manuskripte sollten kritisch gesehen bzw. können als Indiz eines unseriösen Publikationsorgans angesehen werden. Die Höhe der sog. APC (Article Processing Charges) stellen hingegen keinen hinreichenden Beleg dar, dass es sich um ein Predatory Journal handelt. Die Profitorientierung ist zwar ein gängiges Merkmal von Predatory Journals, aus Sicht der GWP aber kein relevantes Kriterium für die Beurteilung eines Publikationsorgans. Ausschlaggebend ist das Vortäuschen wissenschaftlicher Qualitätsstandards.

Zudem lassen sich Ratgeber und Empfehlungen finden, die Forschenden helfen Predatory Journals zu identifizieren. Die sog. Beall’s List (ursprünglich erstellt vom US-amerikanischen Bibliothekar Jeffrey Beall, auf den auch der Begriff „Predatory Journal“ zurückgeht) ist die bekannteste Sammlung von Predatory Journals. Sie wird von ihm seit 2017 jedoch nicht mehr aktualisiert und es ist u.a. deswegen nicht unbedingt empfehlenswert, diese zu nutzen (siehe z.B. Swauger 2017). Einen kostenpflichtigen Dienst stellt die Firma Cabells mit ihren Predatory Reports zur Verfügung. Es sei darauf hingewiesen, dass alle bestehenden Listen von Predatory Journals/Verlagen teils unterschiedliche Kriterien haben und somit auch zu unterschiedlichen Einschätzungen kommen (siehe auch  Grudniewicz et al. 2019). Sie sollten daher nicht als alleiniger Anhaltspunkt zur Bewertung eines Journals/Verlags herangezogen werden.  

Forschende können auch prüfen, ob der betreffende Verlag Mitglied beim Committee on Publication Ethics (COPE) ist oder ob das betreffende Open Access Journal im Directory of Open Access Journals (DOAJ) gelistet wird. Hier gilt es ebenfalls zu beachten, dass allein die Listung eines Journals/Verlags nicht unbedingt ein hinreichendes Kriterium zur Beurteilung darstellt, da es manchen Journals gelingt, die Standards nur scheinbar durch Imitation seriöser Journals zu erfüllen.

Bei fragwürdigen Fällen ist es daher nötig, das Journal bzw. den Verlag auf bestimmte Details hin zu überprüfen. Auf der Website des Journals/Verlags sollten z.B. alle wichtigen Informationen zum Publikationsprozess, zu anfallenden Kosten, Angaben zum Editorial Board sowie die Policies für Autor:innen einsehbar sein. Die Think.Check.Submit Checkliste, die Informationen zur Beurteilung eines Journals anführt, kann dafür als Hilfsmittel dienen. Auch Bibliothekspersonal sowie Mitarbeiter:innen von Open Access-Förderstellen können bei der Beurteilung von Journals und Verlagen hilfreich sein. Es gibt jedoch auch Journals und Verlage, deren Bewertung schon länger Gegenstand von Diskussionen ist. Eine Beurteilung ist sehr schwierig, da die Publikationspraktiken dieser Publikationsorgane in den Disziplinen teilweise sehr unterschiedlich wahrgenommen werden. Eine Umfrage an der Universität Kassel hat dies am Beispiel des Verlags MDPI aufgezeigt.

Hijacked Journals

Hinzu kommt das Phänomen der sog. hijacked Journals. Dies sind Webseiten, die renommierte Journals imitieren, z.B. durch die Nutzung der gleichen ISSN, des gleichen Namens oder eines leicht abgewandelten Namens (siehe Hegedűs et al. 2024). Teilweise werden weitere Angaben vom Originaljournal komplett übernommen. Möglich ist jedoch auch, dass trotz Übernahme von Namen und ISSN die Ausrichtung des hijacked Journal eine komplett andere ist (aus der deutschen Zeitschrift für Sprache und Kultur Gehörloser Das Zeichen wird auf der Seite des hijacked Zeichen Journal (mit gleicher ISSN) eine Fachzeitschrift für „Engineering & technology“). So können hijacked Journals, selbst wenn sie komplett unterschiedliche (disziplinäre) Zielgruppen ansprechen, über die ISSN des Original Journals vorgeben, dass sie z.B. in Scopus oder im Web of Science gelistet sind.

Wissenschaftler:innen sollten Ihnen unbekannte Journals sorgfältig prüfen. Unregelmäßigkeiten und konfligierende Informationen auf der Website können gute Indikatoren darstellen, dass es sich um ein hijacked Journal handelt. Das hijacked Journal Diagnosis listet in „seinen“ alten Ausgaben Artikel, die aus anderen Journals entnommen wurden. Die dazugehörigen Abstracts passen inhaltlich nicht zu den angeführten Titeln und teilweise findet sich das gleiche Abstract für mehrere Artikel (sog. fiktive Archive, siehe Abalkina 2021). Der Preis für das Herunterladen eines Artikels als PDF beträgt 200$. All dies macht deutlich, dass es sich hier nicht um ein legitimes Journal handelt. Das hijacked Journal Research hat vom legitimen Journal Research fast alle Websiteangaben (Name, ISSN, About Section, Editorial Board) wortwörtlich übernommen, für ein Journal im Bereich Lebens- und Naturwissenschaften enthält es aber auffällig viele Beiträge aus den Geisteswissenschaften.

Hilfreich kann auch der von Retraction Watch bereitgestellte Hijacked Journal Checker sein, der von Abalkina erstellt wurde. Auch in der Forschungsliteratur zum Thema finden sich Listen mit Titeln (z.B. Abalkina 2023, Jalalian and Dadkhah 2015). Da die Entwicklung in diesem Feld dynamisch ist, sollten immer mehrere Kriterien bei der Beurteilung von Journals angewandt werden.

Bewertung

Auch bei der Literaturrecherche sollten Forschende Journals kritisch bewerten. Der Publikationsort ist jedoch kein ausschlaggebendes Kriterium für die Güte eines dort veröffentlichten Artikels. Die Beurteilung von Fachartikeln sollte also nicht vom Publikationsort abhängig gemacht werden. Forschende müssen auf individueller Fallbasis, insbesondere auch bei Meta-Studien, entscheiden, ob Artikel aus Predatory Journals in eigenen Projekten und Publikationen einbezogen, zitiert bzw. referenziert werden sollen. Eine Möglichkeit könnte es sein, die Entscheidung für bzw. gegen die Nutzung bzw. Einbeziehung bestimmter Artikel transparent im eigenen Paper zu begründen. Werden Artikel, die Teil einer kumulativen Dissertation sind, in Predatory Journals veröffentlicht, kann dies prüfungsrechtliche Konsequenzen haben. So ist fraglich, ob die geforderte Prüfungsleistung – die Veröffentlichung von Artikeln in peer-reviewed Journals – überhaupt erbracht worden ist. Häufen sich bei einzelnen Forschenden Publikationen in nachweislichen Predatory Journals und fällt dies Expert:innen auf, z.B. bei eingereichten Literaturlisten bei Bewerbungen oder im Rahmen des Konkurrierens um leistungsorientierte Mittelzuweisung (LOM), könnte dies in die  Bewertung einfließen. Es könnte ggf. eruiert werden, ob eine solche Praktik (insbesondere wenn sie wiederholt und wider besseres Wissen erfolgt) gegen Leitlinie 15 des DFG-Kodex „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ verstößt.

Predatory Conferences

Ein weiteres Problem in der Wissenschaft ist der wachsende Markt von Predatory Conferences, also Konferenzen, die sich analog zu Predatory Journals durch fehlende wissenschaftliche Qualitätsstandards auszeichnen. Predatory Conferences können in verschiedenen Ausprägungen daherkommen, von schlecht organisierten, stark von den Ankündigungen abweichenden Veranstaltungen bis hin zu Betrugsmaschen, bei denen trotz hoher Gebühren gar keine Konferenz stattfindet. Ähnlich wie bei Predatory Journals sollten Forschende bei der Wahl von Konferenzen daher auf Qualitätsstandards achten und insbesondere Einladungen von ihnen unbekannten Organisationen kritisch prüfen. Wichtige Informationen zum Veranstalter, zum Veranstaltungsort und zu Fristen und Gebühren sind bei seriösen Anbietern i.d.R. transparent auf der Website angegeben. Ist dies nicht der Fall, sollte die Konferenz besonders kritisch geprüft werden, bevor man sich für sich die Teilnahme oder die Einreichung eines Beitrags entscheidet. Insbesondere Nachwuchswissenschaftler:innen sollten bei Verdacht oder bestehender Unsicherheit bzgl. der Legitimität einer Veranstaltungsankündigung oder
-einladung Rat bei ihren Peers und bei etablierten Kolleg:innen einholen. Auch für Predatory Conferences existiert eine Checkliste namens Think.Check.Attend, die bei der Einordnung helfen kann.

Weiterführende Literatur

Abalkina, Anna (2021). Detecting a network of hijacked journals by its archive. Scientometrics 126; S. 7123-7148. https://doi.org/10.1007/s11192-021-04056-0

Abalkina, Anna (2024). Challenges posed by hijacked journals in Scopus. Journal of the Association for Information Science and Technology, 75(4); S. 395-422. https://doi.org/10.1002/asi.24855

Beall, Jeffrey (2017). What I learned from predatory publishers. Biochemia Medica, 27(2); S. 273-278. https://doi.org/10.11613/BM.2017.029.

Dony, Christophe; Raskinet, Maurane; Renaville, François; Simon, Stéphanie and Thirion, Paul (2020). How Reliable and Useful Is Cabell’s Blacklist? A Data-Driven Analysis. LIBER Quarterly: The Journal of the Association of European Research Libraries 30 (1); S. 1-38. https://doi.org/10.18352/lq.10339

Frandsen, Tove Faber (2019). Why do researchers decide to publish in questionable journals? A review of the literature. Learned Publishing, Vol 32; S. 57-62.  https://onlinelibrary.wiley.com/doi/epdf/10.1002/leap.1214

Grudniewicz, Agnes; Moher, David; Cobey, Kelly D.; Bryson, Gregory L.; Cukier, Samantha; Allen, Kristiann; Ardern, Clare; Balcom, Lesley; Barros, Tiago; Berger, Monica; Ciro, Jairo Buitrago; Cugusi, Lucia; Donaldson, Michael R.; Egger, Matthias; Graham, Ian D.; Hodgkinson, Matt; Khan, Karim M.; Mabizela, Mahlubi; Manca, Andrea; Milzow, Katrin; Mouton, Johann; Muchenje, Marvelous; Olijhoek, Tom; Ommaya, Alexander; Patwardhan, Bhushan; Poff, Deborah; Proulx, Laurie; Rodger, Marc; Severin, Anna; Strinzel, Michaela; Sylos-Labini, Mauro; Tamblyn, Robyn; van Niekerk, Marthie; Wicherts, Jelte M. and Lalu, Manoj M (2019). “Predatory Journals: No Definition, No Defence; Nature, Vol 576, S. 210-212. https://doi.org/10.1038/d41586-019-03759-y

Hegedűs, Mihály; Dadkhah, Mehdi and Dávid, Lóránt D. (2024). Masquerade of authority: hijacked journals are gaining more credibility than original ones. Diagnosis, vol. 11, no. 3; S. 235-239. https://doi.org/10.1515/dx-2024-0082

Jalalian, Mherdad and Dadkhah, Mehdi (2015). The full story of 90 hijacked journals from August 2011 to June 2015. Geographica Pannonica, 19(2), 73-87. https://doi.org/10.18421/GP19.02-06

Kurt, Serhat (2018). Why do authors publish in predatory journals? Learned Publishing, 31: S. 141-147. https://doi.org/10.1002/leap.1150

Macháček, Vít and Srholec, Martin (2022). Predatory publishing in Scopus: Evidence on cross-country differences. Quantitative Science Studies 3 (3); S. 859–887. https://doi.org/10.1162/qss_a_00213

Moher, David; Shamseer, Larissa; Cobey, Kelly D.; Lalu, Manoj M.; Galipeau, James; Avey, Marc T.; Ahmadzai, Nadera; Alabousi, Mostafa; Barbeau, Pauline; Beck, Andrew; Daniel, Raymond; Frank, Robert; Ghannad, Mona; Hamel, Candyce; Hersi, Mona; Hutton, Brian; Isupov, Inga; McGrath, Trevor A.; McInnes, Matthew D. F.; Page, Matthew J.; Pratt, Misty; Pussegoda, Kusala; Shea, Beverley; Srivastava, Anubhav; Stevens, Adrienne; Thavorn, Kednapa; van Katwyk, Sasha; Ward, Roxanne; Wolfe, Dianna; Yazdi, Fatemeh; Yu, Ashley M. and Ziai, Hedyeh (2017). Stop this Waste of People, Animals and Money. Nature, Vol 549; S. 23-25. https://doi.org/10.1038/549023a

Pohlmann, Tobias (2023). Auswertung einer Umfrage zur Wahrnehmung des Open-Access-Verlags MDPI an der Universität Kassel. https://doi.org/10.17170/kobra-202304057786

Ro, Christine (2024); How to Spot a Predatory Conference. Nature, Vol 632; S. 219-220.  https://doi.org/10.1038/d41586-024-02360-2

Swauger, Shea (2017). Open Access, power, and privilege: A response to “What I learned from predatory publishing.” College & Research Libraries News, 78(11); S. 603-606. https://doi.org/10.5860/crln.78.11.603 The InterAcademy Partnership (IAP) (2022). Combatting Predatory Academic Journals and Conferences. https://www.interacademies.org/publication/predatory-practices-report-English


[1] Die Studie von Macháček/Srholec 2022 war Gegenstand mehrerer Diskussionen. Ursprünglich 2021 veröffentlicht bei Scientometrics, wurde sie nach Einspruch durch Frontiers, die insbesondere die starke Zentrierung auf die Beall’s List kritisierten, und weiterer Peer Review vom zuständigen Editor-in-Chief retracted. Nach einer Überarbeitung wurde sie bei Quantitative Science Studies wiederveröffentlicht.

Photo by Yaroslav Zotov via Unsplash