Computergestützte Text-Edition lässt sich von zwei Seiten anschauen: von der editorischen der Herstellung und von der anwenderischen der Nutzung solcher Editionen. Merkmal der Tagung Computergestützte Text-Edition am Deutschen Literaturarchiv in Marbach im Mai 1998, zu dem das editio-Beiheft 12 den Tagungsband darstellt, war eine weitgehende Konzentration auf die Anwenderseite und somit eine Fokussierung der Schnittstelle von Herstellung und Nutzung computergestützter Editionen. Mit einem Programmbeitrag freilich wurde auch der Problembereich der Editionserstellung unter den Bedingungen der Datenverarbeitung angerissen: einer Podiumsdiskussion unter dem als Frage formulierten Thema Hypermedia – Brauchen wir eine neue Editionswissenschaft? Die Frage wurde im Wesentlichen verneint – klugerweise, da die Marbacher Tagung weder die Zeit noch den Ort und intellektuellen Rahmen bot, differenzierend potenzielle Innovationen der Editionswissenschaft aus dem integrierenden Einbezug der Datenverarbeitung auszuloten. Lediglich verwiesen wurde auf aus diesem Einbezug resultierende neue Formen der Wissensorganisation. Im Übrigen behauptete sich auch bei diesem Podium die tagungsbestimmende Fokussierung der Anwender-Schnittstelle. Ausgehend von der elementaren Unterscheidung des Computers als Werkzeug bei der Editionserstellung und als Medium für die Editionsvermittlung, wurden die Erfordernisse und Möglichkeiten der Ausstattung der ›Hypermedia-Edition‹ für die Nutzung im elektronischen Medium umrissen, und die Ausgangsfragestellung wurde am Ende zur Feststellung moduliert, dass wir eine neue Editionspraxis brauchen.
Die Tagung wurde – und die publizierten Tagungsbeiträge werden – somit von einer gesunden Pragmatik des Denkens und der Erörterungen geleitet. Einführend wurden SGML-Kodierung (Michael Sperberg-McQueen, Referat nicht mitpubliziert) und die Text Encoding Initiative (TEI) (Winfried Bader), der Stand der Urheberrechtsdiskussion (Elmar Mittler) und Metadata/Dublin Core: die Bildung von Metadaten zur Verwaltung von Dokumenten oder Objekten (Volker Henze) vor- und dargestellt. In breiter Streuung wurden sodann Fallstudien vorgetragen.
Gunter Hille präsentierte das von ihm progressiv realisierte digitale Literaturarchiv Projekt Gutenberg-DE im Überblick seiner Anlage und Organisation. Herbert Wender und Robert Peter diskutierten unter der Leitfrage »Wie verlässlich sind eigentlich die Texte, die auf dem Computer zur Verfügung stehen?« die auch im Titel ihres Beitrags so benannten Probleme der Wiederverwendung elektronisch gespeicherter Texte. Ein Kafka-Text (Das Urteil) und ein Goethe-Brieftext (aus den Briefen aus der Schweiz) boten ihre Fälle. Von Interessen der Unterrichtssituation ebenso wie der re-editorischen Integration geleitet, boten sie Einblicke in eigene Programmierungen, die Schwachstellen und Fehler der bezogenen Datenspeicherungen aufdeckten und auszumerzen suchten und verlässliche elektronische Weiterverwendungen anstrebten.
Fotis Jannidis stellte das Konzept des Münchener Internet-Projekts <http://computerphilologie.uni-muenchen.de> vor, einer Fachzeitschrift im Netz, die Fachkommunikation zur Computerphilologie als Serviceleistung mit dem Status einer Computerzeitschrift als wissenschaftliches Publikationsorgan zu verknüpfen anstrebt. Nüchtern gegeneinander abgewogen stellte er Vor- und Nachteile des Organs und seines Mediums einander gegenüber: die Vorteile der Aktualität, des direkten Zugriffs und der vernetzten Einbindung in elektronische Informationssysteme, die Nachteile aufwändiger Datenpflege, der Instabilität elektronischer Speicherung, der Zitierunsicherheiten und vor allem der geringen Motivation zur elektronischen Publikation und deren zögernder Akzeptanz in der Wissenschaftswelt.
Den Schwerpunkt unter den Fallstudien aus der Sicht wissenschaftlicher Editorik bildeten der Beitrag von Karl Eibl, Fotis Jannidis und Marianne Willems zu der von ihnen realisierten ›Hybrid-Edition‹ des Jungen Goethe sowie die Ausführungen von Tobias Ott, welche die Umsetzung der computerunterstützt für die Buchpublikation erstellten Leibniz-Edition in eine Computeredition zum Anlass nahmen, Datenaufbereitung für elektronische Publikationen als eine systematische Aufgabe zu thematisieren. Diese Darstellung ist für jeden Editor relevant, der für eine mit dem Computer als Werkzeug erstellte Edition im Zuge des Fortschritts in der Datenverarbeitung den Computer für sie auch als Medium hinzugewinnen möchte. Eibl/Jannidis/Willems gingen von dieser Funktionalisierung des Mediums bereits aus und nutzten es damit zur Wissensorganisation. Sie haben Kontexte umfangreich und vielfältig angebunden und bieten so eine reiche, und in der Fülle nur in der elektronischen Speicherung realisierbare, Kommentierung des Werktextes des Jungen Goethe. Als Ankertext liegt dieser nicht nur im elektronischen Medium zugriffsbereit. Er wird zwar als digitalisierter Text geboten, doch stellt er sich ebenfalls in Buchform in den Mittelpunkt der Edition. ›Hybrid‹ ist die Edition in dieser Verbindung von Druck- und elektronischem Medium. Das Buch ist, bleibt, und wird neu zum stets greif- und durchblätterbaren Grundstock der Ausgabe.
Abgerundet wurden die Fallstudien weiterhin mit Bernt Karaschs Vorstellung des Critical Edition Typesetter (CET). Dieser stellt ein leistungsfähiges Werkzeug dar zur computertechnischen Erstellung des Satz- und Druckbildes einer in herkömmlicher Anschauung gewohnten kritischen Edition. Er ist am eigenen PC leicht handhabbar und wird schon vielfach besonders von Alt- und Mittelalterphilologen benutzt. Manfred Koltes stellte schließlich die Bewältigung der Regestausgabe der Briefe an Goethe mit Hilfe der EDV, und unter Einsatz des Textdatenverarbeitungssystems TUSTEP, dar.
Zur eingangs genannten Podiumsdiskussion zum Thema Hypermedia – Brauchen wir eine neue Editionswissenschaft? (referiert vom Bandherausgeber, Roland Kamzelak) gesellten sich noch zwei weitere Podiumsdiskussionen hinzu, welche die Konsequenzen computergestützter Text-Edition für das Publikationswesen und für die Archivierung erörterten. Über das erste dieser Podien referiert Michael Kienecker unter dem Titel E-Pub – Wird das Verlagswesen durch ›selfpublishing‹ abgelöst?. ›Selfpublishing‹ ist eine neue Möglichkeit der Informationsverbreitung, und sie wird auch genutzt. Verlagskompetenzen werden aber nach wie vor gebraucht, wobei Verlage über ihre traditionellen, auf das Buch ausgerichteten Aufgaben der Herstellung, der Rechtssicherung und der organisierten Kommerzialisierung jedoch dringend Kompetenzzuwachs im elektronischen Bereich benötigen. Hartmut Weber referiert abschließend über das Podium Archiv-Server/Server-Archive – Wie sehen die Kulturspeicher der Zukunft aus? Unter dieser Frage erhebt sich zentral das Problem der Stabilisierung elektronischer Information. Die technisch zu lösenden Verfahren sind die der Migration, der Emulation und der Konversion der solche Information repräsentierenden Daten. Die Zukunftssicherung wird so zu einer wesentlich neu zu konzipierenden Aufgabe der Archive und der Archivwissenschaft.
Insgesamt ist bei seiner pragmatischen Anlage der Tagungsband reich an Informationen und Denkanregungen. Er kann einem weiten Kreis an Nutzern – Editoren, Bibliothekaren, Archivaren, Verlegern – zur Lektüre nur empfohlen werden.
Hans-Walter Gabler (München)
Prof. Dr. Hans-Walter Gabler
Institut für Englische Philologie
Schellingstr. 9
80799 München
Hans-Walter.Gabler@anglistik.uni-muenchen.de
(16. Juni 2001)