Schnelleinstieg:

Direkt zum Inhalt springen (Alt 1)Direkt zur Sekundärnavigation springen (Alt 3)Direkt zur Hauptnavigation springen (Alt 2)

Neue Publikationsformate
Die Zukunft wissenschaftlichen Publizierens

Stefan Gradmann
Stefan Gradmann | Foto (Ausschnitt): © privat

Teile der Wissenschaft verabschieden sich von der Printkultur. Stefan Gradmann, der Präsident der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis, skizziert die Zukunft des wissenschaftlichen Publizierens.

Herr Gradmann, was denken Sie: Wie sieht die Zukunft des wissenschaftlichen Publizierens aus?

Das ist natürlich sehr stark abhängig von den verschiedenen Fächerkulturen. Es ist schon jetzt erkennbar, dass einige die Gutenberg-Galaxie, wie wir sie in den letzten Jahrhunderten aufgebaut haben, verlassen.

Wie sieht das konkret aus?

Die prominentesten Beispiele dafür kommen aus der Biomedizin. Da gibt es inzwischen ein Paradigma, das der niederländische Verleger Jan Velterop ins Leben gerufen hat und das „Nanopublications“ genannt wird. Das sind Aussagensysteme, die als Linked Data veröffentlicht werden.

Die Aussagen werden dort gar nicht mehr zu einer artikelartigen Erzählung zusammengeführt; es werden schlicht die Forschungsdaten publiziert – zusammen mit den Methoden, die über diese Daten operieren können. Damit wird letztlich auch die Unterscheidung zwischen Publikation und Primärdaten obsolet. Das ist das eine Extrem.

Und das andere?

Das sind die klassischen hermeneutischen Geisteswissenschaften, die noch sehr stark mit den traditionellen Publikationsformaten wie etwa Monografien verwoben sind. Solche Formate sind – auch wenn sie inzwischen elektronisch erscheinen – druckanalog gedacht und konzipiert. Dort wird die Printkultur wohl noch eine lange Zeit vor sich haben.

Ist dieses Nebeneinander problematisch?

Das Problem dabei ist: Je ausgedünnter das Print-Paradigma wird, desto teurer wird es. Es wird – publikationsökonomisch gesehen – zunehmend einen Druck zur Veränderung geben. Und dieser Druck wird sicher auch deutlich darüber hinausgehen, was wir heute Open access nennen. Das heutige Open-access-Modell ist ja eigentlich nur eine Veränderung der Finanzierungsströme; der Publikationsvorgang hat sich damit qualitativ nicht geändert.

Welche Vorteile haben denn die neuen Publikationsformate?

Jede Menge. Der wichtigste ist: Die Dinge werden maschinell prozessierbar. Es gibt einen schönen Aufsatz von Gregory Crane, der die Perseus Digital Library aufgebaut hat. Er hat den Titel: What Do You Do with a Million Books?. Wenn Sie eine Million Bücher digitalisiert haben, können Sie die nicht alle lesen; aber Sie können eine Maschine darüber operieren lassen und Auswertungen machen, die mit dem traditionellen analogen Lesen nicht möglich wären.

Ein weiterer Vorteil ist die einfache, schnelle und preiswerte Reproduzierbarkeit. Die Publikation ist für viel mehr Menschen gleichzeitig zugänglich. Und es ist damit auch möglich, viel mehr zu veröffentlichen.

Werden diese Formate die Rolle der Verlage verändern?

Ich könnte mir vorstellen, dass Verleger zunehmend ein Geschäftsmodell im Bereich der Selektions- und Aggregationsdienste aufbauen. Wir werden in allernächster Zukunft eher zu viele Ressourcen digital verfügbar haben, so dass wir sie nicht alle händisch rezipieren können. Das heißt: Irgendwer muss diese Informationen zusammenführen und so aufbereiten, dass das Resultat von Menschen verarbeitet werden kann. Das könnten Verleger tun – und große Wissenschaftsverlage wie Elsevier und de Gruyter investieren bereits in diesem Bereich.

Welche Ausgabemedien werden denn eine Rolle spielen?

Es werden alles webbasierte digitale Ausgaben sein und die Frage der Medienformate wird sich zunehmend erübrigen. Da unsere Lesegeräte immer besser werden, glaube ich, dass man ganz vieles an wissenschaftlicher Literatur auch nur noch digital rezipieren wird.

Welche technischen Probleme müssen noch gelöst werden?

Es fängt damit an, dass es zum Beispiel im Linked-Data-Standard RDF schwer ist, auszudrücken, wer etwas wann gesagt hat. Dafür wird gerade eine Lösung entwickelt. Ein weiteres großes Thema ist Vertrauenswürdigkeit: Ist eine Ressource verändert worden oder nicht? Webformate sind sehr dynamisch. Sicherzustellen, dass eine Publikation genau so vorliegt, wie ihr Autor es intendiert hat, ist nicht trivial.

Und dann die Frage der Autorisierungsszenarien. Es gibt Inhalte, die sollen zunächst nur für ganz wenige sichtbar sein; später aber, wenn der Forschungsprozess abgeschlossen ist, sollen alle sie sehen können. Solche Szenarien waren in der Vergangenheit nicht erforderlich, weil es immer einen Medienbruch gab, der sichergestellt hat, dass nur das auf Papier Gedruckte öffentlich zugänglich war.

Und gibt es auch rechtliche Probleme?

Ja, das ist ein schwieriges Thema. Unser Urheberrecht ist immer noch nationalstaatlich verfasst, und so etwas funktioniert im Web einfach nicht. Wir müssen heftig darüber nachdenken, wie wir ein web-implementierbares Urheberrecht schaffen können. Denn mit der jetzigen Strategie, das aus der analogen Zeit stammende Urheberecht einfach ins Digitale zu übersetzen, werden wir wohl nicht weiterkommen.

Top