Shining Diamond?
Zum Publizieren bei Bibliotheken als Ausweg aus der Krise des wissenschaftlichen Publikationssystems von Petra GehringZum Publizieren bei Bibliotheken als Ausweg aus der Krise des wissenschaftlichen Publikationssystems
Das wissenschaftliche Publizieren steckt in einer katastrophalen Lage. Auch diejenigen, die Open Access (OA) über Jahre emsig propagierten, bestreiten es nicht mehr. Die Stichworte sind bekannt: Fehlanreize durch bibliometrische Rankings, dramatisch wachsende Menge der Publikationen, immer weniger Leser für das einzelne Paper, einbrechende Qualitätssicherungen durch überforderte Gutachter, Plagiate, Pseudoforen (»Predatory Journals«, »Papermills«) oder sogar ganze Broker-Netzwerke. Und hinter allem ein Oligopol nur noch weniger Verlage. Sie diktieren der öffentlichen Hand Bedingungen und Preise. Als Datenhändler vermarkten sie auch gar nicht mehr primär den »Content«, den man bei ihnen publiziert, sondern Daten über Wissenschaftlerverhalten. Generative KI treibt den Automatisierungsgrad der für das öffentliche Wissenschaftssystem ruinösen Über- und Fehlproduktivität wie auch das Verwertungskarussell weiter voran. Parallel schwinden für Wissenschaftsautorinnen und -autoren die Spielräume, Publikationsformen und -formate auszuwählen oder die Vertragsbedingungen überhaupt zu beeinflussen.
Was man mit hochwertigen, aus der Wissenschaft abgezogenen Daten alles tun kann, sah in den ersten Jahren des digitalen Wandels noch niemand voraus. Stattdessen gab es eine Phase rückblickend gesehen naiver Euphorie: Digitalität versprach in erster Linie erleichterte Wissenszirkulation. Zugleich schienen digitale Publikationen perspektivisch womöglich kostengünstiger zu sein als solche aus Papier. »Offener« Zugang wurde zum wissenschafts- und bildungspolitischen Leitbild. Beachtliche Mengen an Fördergeldern wurden in Transformationsprozesse investiert, wobei man sich Digitalisierung sozusagen als Einmalvorgang dachte: Analoge Medien werden in digitale verwandelt. Wissen wird schneller, globaler, vernetzter, während ansonsten das meiste gleichbleibt. Jahr für Jahr sah man im Bibliotheksbereich dann zu, wie die Abhängigkeiten – und zwar auch die fürs Gesamtsystem – wuchsen. Zu echtem organisatorischem Lernen kam es jedoch nicht.
Inzwischen ist klar: Digitalität ist im Kern weniger ein technisches als ein ökonomisches und letztlich machtpolitisches Phänomen. Gesammelte Datenspuren (also das Auslesen von Nutzerverhalten) wie auch die Besonderheiten eines »nichtrivalisierenden Gutes« (geschicktes Kopieren erübrigt klassische Wertschöpfungsketten) begünstigen disruptive Ansätze – nicht nur im Bereich der netzbasierten Kommunikation, sondern auch bei der Verschaltung von Dingen, Prozessen, Sensoren. So sind es feinmaschige Mechanismen der Nutzerüberwachung und auch Nutzersteuerung sowie datengetriebene Geschäftsmodelle, die die Welt verändern, nicht etwa vernetztes »Wissen«.
Wer aber hat dies – und wann – im Wissenschaftssystem verstanden? Und überschaut heute jemand, wie man in die geschilderte Entwicklung eingreifen kann – zugunsten der Rettung der essenziellen Funktionen, die das Publikationssystem für das Wissenschaftssystem hat?
Für die 2000er und 2010er Jahre wird man sich eingestehen müssen: nein, niemand. Wissenschaftspolitisch fehlte es schon an der Wahrnehmung des Problems. Als die Publikationskrise sich abzuzeichnen begann, waren der kennzahlenbasierte Wettbewerb, die Flut an Publikationen, das globale Oligopol von Großverlagen und das Sterben der kleinen Verlage bereits Fakt. Die Umstellung auf autorenseitig zu zahlende, seitens der Wissenschaftssysteme dann erstattete Gebühren (»Article Processing Charge«, kurz: »APC«) hatte alle Züge einer Flucht nach vorn, sie brachte die Bibliotheken in eine vermeintlich aktivere Rolle, wobei sich bald schon zeigte, dass das im Auftrag der Hochschulrektorenkonferenz ausgehandelte deutsche Lizenzierungsmodell DEAL die Kostenspirale erst recht weitertreibt. Das neue Regime privilegierte die ganz Großen, kleinere Verlage erhielten keine vergleichbaren Erstattungszusagen. Dazu erlaubte es Verlagen wie Elsevier oder Springer Nature, sich weiterhin konsequent zu Digitalkonzernen umzubauen, die ungehemmt Daten über Forscherhandeln sammeln und Analysen aller Art vermarkten. Denn auch Forschende lieben schnelles Feedback und geben sich, solange das der Reputation hilft, mit Spielgeld wie dem berüchtigten »H-Faktor« zufrieden. Heute trägt es zur Krise bei, dass echte Resonanz gelesener Papers als persönliches Qualitätsmaß von dem Moment an kaum wieder eingeführt werden kann, wo eine Fachcommunity es verlor.
Insgesamt ist die Lage komplexer geworden. Die Verlagerung von Wissenschaftlerkommunikation in schnelle, resonanzreiche, aber kaum qualitätsgesicherte soziale Netzwerke hat für zusätzliche Eskalationsstufen gesorgt: Halbprivate Club-Kommunikation ersetzt Publizität im klassischen Sinn. Meinungen und vorläufig angelegte Preprints überlagern geprüftes Wissen. Und dann kam die »LLM«-basierte, generative KI, also die Simulierbarkeit wissenschaftlicher Aussagen. Seither kämpft wissenschaftliches Publizieren nicht nur gegen Trash an seinen Grenzen, sondern auch mit Trash von innen.
Verlust öffentlicher Resonanz
Die fehlende Resilienz des vormals als »System« halbwegs auf kritische Selbstkontrolle, Gedächtnisbildung, Integrität und Fortschritt angelegten wissenschaftlichen Publizierens lässt sich unterschiedlich beschreiben. Zum einen als klassischer Vendor Lock-In: Die öffentliche Hand ist von kostentreibenden Geschäftsmodellen abhängig, die »Open Access« sicherstellen sollen – während man faktisch aber den Einstieg in eine doppelte Finanzierung der dazu bereitstehenden Intermediäre ratifiziert. Einerseits nämlich subventioniert man den Publikationsvorgang, andererseits die Übernahme der Kosten für die bibliotheksseitige Lizenzierung. Dabei gerieten die Produkte kleinerer Verlage wie auch die für einige Fachkulturen unvermindert relevanten nichtdigitalen Medien aus dem Blick. Zugleich hat man nicht die Spur von Gefühl für die aggressive Fortentwicklung digitaler Märkte bewiesen – was sich inzwischen mit der multiplen Verwendung von Daten für eine Fülle von nicht nur wissenschaftsfernen, sondern sogar wissenschaftsgefährdenden Zwecken bitter zeigt.
Mit Blick auf die politischen Optionen wird man ebenfalls von einer kritischen Lage sprechen. Denn die Preisdiktate lassen sich offenkundig nicht abwenden, und die parasitäre Umnutzung des wissenschaftlichen Publizierens – Datengeschäfte, Datenraub, Tracking, Datenverfälschung, Datensabotage – scheint sich jeder wissenschaftspolitischen Steuerung zu entziehen. Forschungsförderer in Deutschland, namentlich die Deutsche Forschungsgemeinschaft (DFG), hören in der Frage des Publizierens nach wie vor maßgeblich auf die Bibliotheken, die ihrerseits von der OA-Alimentierung (und ihren an Literaturversorgung kaum noch erinnernden Rollen rund um Artikelgebühren, also APC-Refinanzierung) abhängig sind.
In der Krise ist aber auch das sich primär auf dem Weg geeigneter Publikationen als wissenschaftlich manifestierende Wissen selbst. Der Wissenschaftsrat (2025) hat kürzlich, um die Aufgabe zu umreißen, unerwünschte Datenabflüsse aus der Forschung künftig wirksamer als bisher zu verhindern, den Begriff »Wissenssicherheit« vorgeschlagen. Man könnte also auch von einer Sicherheitskrise der Wissenschaft sprechen. Denn Archivierungsroutinen fürs Netz funktionieren nicht gut. Viele digitale Publikationen, solche direkt im World Wide Web, also ohne Verlag, wie auch solche, die Verlage zu verantworten hatten, sind mittlerweile verloren.
Es gibt Wissenschaftsautorinnen und -autoren, deren Publikationen sich nur an einen klar umgrenzten Kreis von Ihresgleichen richten. Dies ist vor allem in spezialisierten Bereichen der Naturwissenschaften und in den Life Sciences der Fall. Publikationen haben hier den Charakter von vorläufigen Ergebnismeldungen. Es wird »Neues« annonciert – wobei der eigentliche Forschungsprozess anderswo stattfindet (er ist etwa im Laborbuch dokumentiert). Publikationen dieses Typs veralten nicht selten sehr, sehr schnell.