SÖREN A. STEDING: COMPUTER-BASED SCHOLARLY EDITIONS: CONTEXT, CONCEPT, CREATION, CLIENTELE. BERLIN: LOGOS VERLAG 2002. [PREIS: 40,50 EUR][1]

Sören Steding setzt sich in seiner Dissertation Computer-based scholarly editions. Context, concept, creation, clientele mit dem computerphilologischen Thema elektronische Editionen aus Sicht des Literaturwissenschaftlers auseinander. Die vorliegende Arbeit liefert somit einen wichtigen Beitrag zur neueren Editionsforschung. Sie versucht, einen für die Editionsphilologie und Literaturwissenschaft gleichermaßen aktuellen Bezug zwischen der Herstellung elektronischer Editionen und der Berücksichtigung von literaturwissenschaftlichen Anforderungen unter einer medienadäquaten Verwendung des Computers herzustellen. Mit der Eingrenzung auf computer-based scholarly editions konzentriert sich der Verfasser ausschließlich auf elektronische, wissenschaftliche Editionen, die explizit für das Internet produziert sind und dort publiziert werden. Er befasst sich nicht mit Druckeditionen, die lediglich mit Hilfe eines Computers hergestellt wurden oder den so genannten Hybrid-Editionen, die Druckeditionen mit digitalen Medien ergänzen. Da Steding die Zukunft des Computers alleine im Internet und dessen Äquivalenzen sieht, gleichzeitig aber auch die Anforderung stellt, nicht die unterschiedlichen Medientypen und deren Ausprägungen zu untersuchen, sondern alleine deren Internettauglichkeit beziehungsweise den Text als binäres Datenmaterial zu beachten, stellt er die explizite Beschäftigung mit Merkmalen von CD-ROM-Publikationen in den Hintergrund (vergleiche S. 23).[2] Die Untersuchung gliedert sich dadurch in den Kontext der Forscher ein, die von einer medialen Ablösung des Buches im Sinne einer natürlichen Medienevolution ausgehen und diese Entwicklung in Bezug auf die Möglichkeiten der Neuen Medien auch ausdrücklich befürworten.[3]

Stedings Ziel ist,

den Stand der Entwicklung und Forschung im Bereich der digitalen Textausgaben zu ermitteln, die Tendenzen der Entwicklung zu beschreiben und durch theoretische Überlegungen förderlich auf diesen Prozess einzuwirken. Im Mittelpunkt soll die Frage stehen, wie man literarische Texte digital edieren und präsentieren soll, damit ein sinnvoller wissenschaftlicher Umgang mit ihnen am Computer möglich ist. (S. 7)

Die Dissertation ist insgesamt von der großen Begeisterung Stedings für das Neue Medium geprägt und wirkt durch die Überzeugungskraft des Verfassers, dass über die Aneignung von Kompetenzen im Bereich der Internettechnologien der Stellenwert der Disziplin Geisteswissenschaft nachhaltig verbessert werden kann. Er erreicht sein Ziel, die vielfältigen Vorteile, das hohe Potential und wesentliche Merkmale elektronischer Editionen überzeugend darzustellen. Steding stellt sich gleichzeitig die diffizile Aufgabe, Strategien für ein Medium visionär entwickeln zu wollen, das von permanenten, schnellen technologischen Veränderungsprozessen geprägt ist. Der Verfasser löst dies über ein weit gefasstes Untersuchungsfeld und über die Fokussierung auf eine detaillierte Herleitung der Bereiche, die bei elektronischem Edieren editionsphilologische Arbeitsprozesse transformieren.

Steding strukturiert seine Dissertation als allgemeine, darstellende Abhandlung in drei Kapiteln und ergänzt seine Untersuchung durch die Ergebnisse eines Fragebogens unter Studenten und Hochschulprofessoren unterschiedlicher philologischer Fächer. Der Verfasser lässt den Leser insgesamt durch eine protokollierende Schreibweise an seiner Gedankenentwicklung teilhaben, bei der sowohl Argumente aus der Forschung als auch Materialien aus der Wirtschaft oder aus populären Quellen einfließen.

Methodisch ist Steding an dem Argumentationsfeld der computerphilologischen Forschung orientiert. Er macht sich die Forderung von Fotis Jannidis, sich mit »den dauerhaften Prinzipien der Computerarbeit«[4] zu beschäftigen, zum Programm (S. 15). Steding baut jedoch seine Argumentation nicht über eine Bestandsaufnahme elektronischer Editionen und auf der Grundlage von Analysen und Beschreibungen einzelner bedeutender Musterbeispiele auf, sondern er setzt sich mit dem Gegenstand durch Abstraktion und über theoretische Reflexionen auseinander, um ein theoretisches, generalistisches Konzept zu entwickeln. Seine Vorgehensweise erinnert dabei sehr an die betriebswirtschaftliche Methode der Produktentwicklung, die sowohl ideelle als auch funktionale Anforderungen an ein Produkt festlegt. So stellt er zunächst Grundlagen zusammen und evaluiert Anforderungen, aus denen er dann Kriterienmuster sowie substantielle Faktoren für Prototypen elektronischer Editionen entwickelt und definiert, ohne explizit eine allgemeingültige Modell-Edition zu präsentieren. Dies korreliert mit seiner Einschätzung, dass elektronische Editionen eine Form von Datenmanagement darstellten und Editoren oder Bibliothekare Datenmanager der Geisteswissenschaften seien (vergleiche S. 17), die in enger Zusammenarbeit mit professionellen Programmierern dem jeweiligen Gegenstand angemessene Einzellösungen erarbeiten müssten (vergleiche S. 21).

Daten, Information, Multimedia und Zeit

Die Dissertation beleuchtet den Untersuchungsgegenstand auf drei Wegen: zuerst über wesentliche Begriffe und Themengebiete, dann über den Bereich der Medientheorie, schließlich aus dem Blickwinkel der Editionswissenschaft.

Das erste Kapitel, »Targets, Terms, and Topics« liefert eine allgemeine Einführung in das Medium des Computers und die Thematik der Datenverarbeitung anhand der Fragestellung, worin sich digitale Daten von Information und schließlich von Wissen unterscheiden beziehungsweise wie das eine das andere bedingt. Erst eine Struktur und der Kontext mache aus Daten Information. Durch Kommunikationsprozesse generiere das Individuum dann in einem subjektiven, kognitiven Prozess aus den Daten Informationen, die im Erstellen von Beziehungen und Konsequenzen oder Kontexten, sofern sie verbürgt seien, zu Wissen führten (vergleiche S. 24ff.).[5] Mit diesem Ausgangspunkt seiner Argumentation, »binary or digital data« als kleinste Einheit seines Themas, markiert Steding gleichzeitig das Zentrum der elektronischen Editionswissenschaft, die Steigerung des Informations- und Prozesswertes der Daten durch Textencoding (vergleiche S. 22).

Elektronische Editionen, so führt er aus, unterschieden sich gegenüber Druckeditionen vor allem im Produktionsprozess, in der Struktur der Texte und im Gebrauch der Editionen. Elektronische Editionen seien eine Summe von Texten, Struktur und Struktur gebende Tools gekoppelt an Funktionalität. Sie hätten dadurch eine vergrößerte hermeneutische und semantische Dimension (vergleiche ebenda). Die Verknüpfung der Daten mit zusätzlichen Informationen bestimme den Verarbeitungs- und Informationswert und reichere die Daten mit Angaben zur Struktur, zum Layout, zum Content, zum Kontext, zur Bedeutung von Elementen und Beziehungen zwischen einzelnen Elementen an und unterläge in ihrem Datenpotential naturgemäß der individuellen Erstellung ihrer Editoren (vergleiche S. 22ff.).

Neben den Themenfeldern »Daten« und »Information« erläutert Steding zusätzlich den Begriff »Multimedia«, hier die gleichzeitige Verknüpfung unterschiedlicher, medialer Formen (Bild, Ton, Video) durch den Computer, ausführlicher.[6] Multimedia als Chiffre nicht nur für den informellen Nutzen verschiedener Medien, sondern auch für die pädagogische Werthaltigkeit, nimmt bei der Herstellung elektronischer Editionen eine wesentliche Rolle vor allem bei Aspekten der Konzeption der Kommunikationsvermittlung ein.

Steding thematisiert im Folgenden (»data and time«) die grundsätzliche Frage der Überlieferung kultureller Information und Wissen über die Manifestation von Mündlichkeit und Schriftlichkeit, da Medien sowohl die Gestaltung als auch die Aufnahme von Bedeutungen steuerten. Dabei rückt er den Begriff »preservation« (S. 33) im Zusammenhang mit der Materialität des Mediums und seiner Texte (»contents«, ebenda) in den Vordergrund und fasst zusammen, dass Daten selektiert und organisiert werden müssten, um im intellektuellen Prozess von »extraction and concentration« (S. 37) als Trägermedien von Information überlieferungstauglich zu sein.[7]

Detailliert beschreibt er das erste Kapitel abschließend die Problematik der Langzeitarchivierung elektronischer Daten, eine der schwierigsten Themen der Bibliothekare, Archivisten, Publizisten, Herausgeber oder generell digitaler Bibliotheken und vollzieht damit deren kritische Haltung gegenüber elektronischen Medien nach. Vor allem durch Standardisierungen beim Organisationsmodell eines Archivsystems,[8] durch die Nutzung präsentationsunabhängiger Auszeichnungssprachen oder durch die einheitliche Verwendung von Metadaten zur Beschreibung und Verwaltung von Ressourcen, könne man die Aufgabenstellung der Archivierung lösen. Wesentliche Einflussfaktoren seien außerdem die Kodierung der Dokumente durch archivierungsfreundliche Dokumentformate und die Nutzung verbindlicher Transferstandards und -protokolle. Daneben hätten die Sicherung der Authentizität und Integrität von Dokumenten sowie die Problematik der Verwaltung von Lizenzrechten einen hohen Stellenwert in der Diskussion (vergleiche S. 38ff. und S. 193ff.).

Buch, Computer, Hypermedia

In Kapitel zwei (»Computers And The Gutenberg Galaxy«) reflektiert Sören Steding über die Medienkonkurrenz zwischen Buch und Computer und stellt die Vor- und Nachteile beider Medien einander gegenüber. Ihre generelle Funktion sei das Agieren als Verwahrungsorte von Information und das Agieren als Mechanismus der Kommunikation zwischen Menschen (vergleiche S. 62). In der Tradition von Herbert Marshall McLuhan aus den 60er Jahren (vergleiche S. 71) stehend sieht der Verfasser jedoch im Computer die adäquatere »Hardware« (S. 58) für die Abbildung einer multimedialen, komplexen Welt (vergleiche S. 63).

Vor allem das Textverständnis müsse überdacht werden, das automatisch linear, begrenzt, fixiert und synonym mit dem Buch gesetzt würde, um zu verhindern, dass die Attribute des Buches und Druckes als typologische Rudimente die Entwicklung und das Potential elektronischer Editionen behindere (vergleiche S. 61ff.). Vielmehr bildeten die Merkmale elektronischer Texte - neben Suchetools, Multimedia-Komponenten, Hypertextfunktionen, verschiedenen Möglichkeiten der interaktiven Nutzung - besonders kleinere Texteinheiten, die Frames und Files innerhalb eines Browsers. Die spezifische Dokument- und Sitestruktur lasse keine haptische Kontrolle über das Gesamtvolumen zu (vergleiche S. 86), sondern sei mit dem Prinzip der Verlinkung strukturiert (vergleiche S. 107) und auch dadurch hermeneutisch angereichert (vergleiche S. 113). Im Internet reduzierten sich Texte zu Content und verlören einerseits ihre Materialität (vergleiche S. 76) gewönnen aber andererseits an Inhalten durch die zusätzliche Contentkodierung der Daten mit Auszeichnungssprachen.[9]

Die technische Evolution des Buches beziehungsweise Papiers beinhalte durch die Bereitstellung elektronischer Texte über den Computer darüber hinaus Veränderungen im Bereich der Produktion, Distribution und Publikation von Büchern sowie Veränderungen im Bereich der Bibliotheken und Verlage (vergleiche S. 73). Dies führe einerseits unter ökonomischen Gesichtspunkten zu Konsolidierungen innerhalb der Wertschöpfungskette und höherer Kosteneffizienz (vergleiche S. 75) und bedeute andererseits im Bereich der Forschung ein verändertes Kommunikations- beziehungsweise Leseverhalten und revolutioniere gesamtgesellschaftlich die Kultur (vergleiche S. 71).

Das theoretische Fundament seiner Arbeit ist die Hypertexttheorie: Ausführlich befasst er sich mit den Merkmalen und Kriterien von Hypertexten und im speziellen von Hyperfiction, um sie als Repräsentanten fortgeschrittener, elektronischer Texte für seine Anforderungsentwicklung in Bezug auf Editionen zu nutzen. Innerhalb einer detaillierten Diskussion verschiedener Hypertextdefinitionen der Forschung fasst er zusammen: »In hypertext, documents and texts, form nodes, connected through links, for users/readers to gain information« (S. 107). Dabei bedeuteten »nodes« die semantischen Knotenpunkte beziehungsweise inhaltliche Werthaltigkeit und »links« die Strukturierung des Contents (vergleiche S. 127ff.).

Hypertexte stehen für eine interaktive, intuitiv nutzbare Vernetzung von Texten verschiedener Dokumente, aus deren Verfolgung individuelle Beziehungen an Informationen ermöglicht werden. Immanentes Problem ist durch dieses Prinzip der Dezentrierung beziehungsweise Nichtlinearität aber auch der Orientierungsverlust innerhalb der vorgegebenen Navigationsstruktur[10]. So gälte es beim Text (Content) auf dessen Struktur, seine Verlinkungen, seine medialen Formate und seine Datenkodierung zu achten, im Bereich der Internettechnologie technische und softwarespezifische Restriktionen sowie Aspekte zum Thema »User Interface« zu berücksichtigen und schließlich den Leser, mit seinen Bedürfnissen und Kenntnissen, seinen Fragen an Texte und seinen Nutzungsvoraussetzungen abzuholen (vergleiche S. 139f.).

Kapitel zwei kristallisiert insgesamt allgemeine Merkmale elektronischer Texte in Korrelation bekannter Nutzungsverhalten nachvollziehbar heraus, fällt aber auch dadurch auf, dass der Verfasser besonders auf Aspekten populärer Medien aufbaut. Es wäre wohl lohnend, die Frage nochmals genauer zu untersuchen, wie Usability-Ergebnisse oder Beobachtungen zum Leseverhalten im Bereich des Internetmassenmarktes mit Anforderungen an ein Nischenprodukt auszuloten sind.[11]

Computerbasierte, wissenschaftliche Editionen

In Kapitel drei (»Editions And Computers«), dem Hauptteil der Arbeit, steht das wissenschaftliche Edieren, die Erarbeitung philologischer Anforderungen an elektronische Publikationen sowie deren Transformation und Abbildung bei den Merkmalen und Organisationsprinzipien computerbasierter, wissenschaftlicher Editionen im Zentrum.

Steding entwickelt in diesem Abschnitt von der traditionellen Editionsforschung ausgehend seine Thesen zur Zukunft moderner philologischer Editionsverfahren. Zunächst gibt er anhand der Fragestellung, » [w]hat is scholarly editing?« (S. 141ff.), einen Überblick über die heterogenen wissenschaftlichen Editionspraktiken und definiert die divergierenden Ziele und Methodenansätze wissenschaftlicher Editionen sowie die Problemfelder gedruckter Ausgabentypen. Vom Editionsbegriff David Greethams ausgehend, der wissenschaftliches Edieren als »culmination of textual scholarship«[12] bezeichnet, stellt Steding ein Zwei-Pole-Modell auf, das bei der Herstellung von Editionen grundsätzlich ein Spannungsfeld erzeuge, einmal die Absicht einen zuverlässigen Text nach ausgewählten Editionsmethoden und -theorien zu gestalten, einmal die Informations- und Nutzungsbedürfnisse der Nutzer zu reflektieren und schließlich auch zu berücksichtigen (vergleiche S. 153). Im Unterschied zur Editionspraxis von Büchern bedeute jedoch elektronisches Edieren »providing a professional service to the text« (141). Wesentlich stärker ständen bei diesem Blickwinkel der Nutzer beziehungsweise Leser und seine Bedürfnisse im Zentrum (vergleiche S. 154).

Mit Referenz auf den laufenden Diskurs der Editionsphilologie referiert der Verfasser im nächsten Schritt erneut die Problematik des Textbegriffs (vergleiche S. 155ff.). Er schließt sich der Auffassung an, dass der Text nicht nur ein linguistisches Konstrukt von Wörtern und Satzzeichen sei, sondern sich aus allen kulturellen und physikalischen Kommunikationsformen zusammensetze. Text entstehe somit als Produkt eines Autors an einem Werk und meine die Gesamtheit dessen, was während des Arbeitsprozesses fixiert würde. Editionen seien dadurch nicht nur Repräsentanten von Quellen, sondern bewahrten und vermittelten eine künstlerische, soziale, intellektuelle und historische Information. In ihrer Funktion als »data-filter«, »data-processor« oder »data-refiner« (S. 159) stünden sie in Abhängigkeit zu den Editionsprinzipien und Transformationsprozessen, unter denen sie erstellt würden und bedienten einen im Vorfeld festzulegenden spezifischen Nutzerkreis.

An erster Stelle des philologischen Arbeitens stehe also die editorische Arbeit, das Sichern und Präsentieren von Quellen (Edition), gefolgt von der literaturwissenschaftlichen Arbeit, der Analyse, Interpretation, Bewertung und Vermittlung von Texten (vergleiche S. 176).

Die Fragestellungen der Geisteswissenschaftler, die nicht nur am »counting, sorting, and indexing« (S. 177) interessiert seien, sondern neue, weltweit vernetzte »philological databases« aufbauen könnten, würden mit Hilfe der Digitalisierung auf revolutionäre Weise vorangetrieben werden:

[...] data about topology, rhetoric, metrics, stylistics, the history of ideas, the history of motives, applications that connect the work of various disciplines, that bring together primary, secondary and tertiary literature as well as literary and linguistic theory. (177)

Voraussetzung für interdisziplinäre und internationale Computer-Networks seien dabei freier Datenzugriff sowie Standards zur Organisation und Indexierung der Daten, einmal zur Qualitätssicherung, einmal zur Bereitstellung der Informationsbedürfnisse (vergleiche S. 186).

Letztlich entstehen aber die Transformationen in den Prozessen des Edierens durch den »e-text« (S. 189) selbst, der sich wesentlich von dem Textbegriff des Buches unterscheidet. So erläutert Steding gut nachvollziehbar die Eigenschaften elektronischer Texte, das heißt ihre Trennung von sichtbarem Text und ihrer codierten Metainformationen, multimediale Komponenten, Hypertextstrukturen oder ihrer Fähigkeit dynamisch oder statisch generiert zu werden (vergleiche S. 186ff.). Komplexe Vorüberlegungen bei der Quellenanalyse sind notwendig, um Textbezüge und Suchmöglichkeiten einschließlich Angaben zum Layout sowie zusätzliche Informationen für die Texterstellung einzuplanen und zu realisieren.

Im Zentrum der Digitalisierung von Editionsquellen steht als wesentliches Unterscheidungsmerkmal zu den Arbeitsprozessen bei der Herstellung von Druckeditionen die Textauszeichnung, die durch die technischen Methoden der Digitalisierung, durch das Encoding und die Entwicklung von individuellen Beschreibungscodes einschließlich der Zeichensätze (»character set« S. 193) selbst konstituiert ist. Markup oder Encoding geschehe durch sechs unterschiedliche Auszeichnungsschemata: »Procedural markup«, »Descriptive markup«, »Presentational markup«, »Punctuational markup« und »Hermeneutic markup« (S. 204f.). Steding referiert kurz die unterschiedlichen Typen mit besonderer Berücksichtigung der Tag Sets von TEI (Text Encoding Initiative, vergleiche S. 205ff.) und macht deutlich, dass der Schlüssel zu einem weltweiten »data-« beziehungsweise »knowledge container« (S. 65) in diesen spezifischen Konditionen und Möglichkeiten der Informationshandhabung, das »data processing« und die »data transmission« (S. 22) läge. Neben der Beifügung von standardisierten Metadaten zur Anreicherung der Quellen mit grammatikalischer, kontextueller, semantischer oder hermeneutischer Information (vergleiche S. 203f.) müssten außerdem komplexe Referenzsysteme eine Dokumentstrukturierung und gezielte Navigation im Text sicherstellen (vergleiche S. 199ff.). Besonders bei Network-Editionen, bei denen die Daten dezentral gehostet werden, gelte es darüber hinaus Lösungen für ein Versionsmanagement (vergleiche S. 202), für Katalog-Systeme oder »topical electronic archives« (S. 203) zu entwickeln, die die Nachhaltigkeit der Daten garantiere.

Bedingt durch die hohe Datenkapazität gekoppelt an eine individuelle Selektionsfunktionalität des Computers rücke die zentrale Problematik der Ausgabentypologie und der erforderlichen Eingrenzung bei der Sammlung und Zusammenstellung der Textquellen jedoch im Gegensatz zu Druckeditionen in den Hintergrund (vergleiche S. 212ff.).

Nach einer genauen Spezifizierung und Analyse des geisteswissenschaftlichen Computerusers (vergleiche S. 215ff.) generiert Steding über einen Fragenkatalog als stützende Argumentation für seine Dissertation empirisches Material für die Entwicklung eines philologischen Nutzerprofils. Die Fragen gliedern sich in drei Bereiche: allgemeine Fragen zur Person und zur Computernutzung, Erfahrungen und Erwartungen bei der Nutzung gedruckter Editionen sowie Erfahrungen und Erwartungen bei der Nutzung digitaler Editionen (vergleiche S. 232ff.). Die Ergebnisse liefern insgesamt eine Basis an grundsätzlichen Anforderungen für Interneteditionen. Es dürfte fruchtbar sein, detaillierte Analysen aus Nutzungsdaten bestehender Editionen anzuschließen.

In seinem Schlussteil »Computer-based scholarly editions« kulminiert der Verfasser seine Einzelergebnisse schließlich zu einer abschließenden, theoretischen Betrachtung, bei der er nochmals alle wesentlichen Aspekte bei der Produktion und Publikation elektronischer Quellen erläutert. Dies sind im Einzelnen Überlegungen zu unterschiedlichen Ausgabetypen, zur Zielgruppe, zu Aspekten der Funktionen sowie Aufgabenfeldern bei der Produktion. Dabei geht Steding weniger auf spezifisch editionswissenschaftliche Anforderungen ein, sondern referiert hauptsächlich allgemeine Prinzipien und Qualitätsstandards, die auch für jedes andere hochwertige Internetprodukt wie beispielsweise Internetportale gelten können. Dies ist einerseits wichtig, um eine Bestandsaufnahme der Internettechnologie zu geben und um darzustellen, dass die andere Medialität andere Präsentationsformen und unterschiedliche Funktionalitäten bietet. Andererseits ist die Frage, wie die Zielsetzung, nämlich die Steigerung der Benutzung beziehungsweise der Mehrwert elektronischer Editionen, erreicht werden kann, gerade das Spannendste. Hier hätte ich mir eine genauere Darstellung gewünscht, die präziser über die typischen Merkmale professioneller Webgestaltung wie mehrfache Fensteranordnung auf einer Site und ähnliches hinausgeht.

Ausdrücklich weist der Verfasser abschließend auf die Unmöglichkeit hin, eine verbindliche und allgemeingültige Liste an Funktionen und Features sowie detaillierte Beschreibungen des User Interfaces oder der Navigationsstruktur liefern zu können, die sich aus »the nature of the source data« (S. 262) ergebe.

Steding beendet seine Dissertation mit einem Essay über die Merkmale und Charakteristika elektronischer Editionen im Gegensatz zu Druckeditionen. Er argumentiert bewusst provokativ und liefert noch einmal die Rekapitulation und Diskussion seiner Ergebnisse. Von seiner Grundthese, gedruckte Editionen stünden in einer Krise und behinderten sich in ihren medialen Grenzen selbst, wodurch sie auch einen konstruktiven, akademischen Austausch blockierten (vergleiche S. 313), zieht er allerdings den Schluss, letztlich seien Druck- und elektronische Editionen zwei unterschiedliche Systeme, die aus verschiedenen Grundsätzen und Ideen entstünden; erstere verkörperten eher ein Archiv, letztere ein Tool (vergleiche S. 317f.).

Computer-based scholarly editions, [...], offer serious solutions to many of these problems. As they are in principle open and dynamic, they can be seen as works-in-progress; their growth is a reflection of the academic discourse itself. Computer-based scholarly editions are integrative: they connect and combine not only different types of media, but also primary, secondary, tertiary data; editors and their readers through feedback options; and editors by means of cooperative editing. The flexibility of presentation allows the user to distinguish different types and levels of date more clearly than on paper, and computer-based data processing enables editors and users alike to gain new insights, to retrieve information much faster, and to work more intensively with the data in an all digital working environment (S. 321).

Fazit

Erste digitale Editionen hatten sicherlich das neue Medium und die Auslotung dessen Möglichkeiten im Fokus - sie entstanden nicht im Gegensatz zum Editionsmarkt. Sie repräsentierten vielmehr Alternativen und Ergänzungen parallel zu Druckeditionen. Die Entwicklung neuer Formen der Wissensvermittlung war das primäre Ziel. Bestrebungen wie das Festlegen von Standards wie TEI oder Dublin Core Code hat die Digitalisierung institutionalisiert und der Heterogenität der Wissensorganisation über die Entwicklung des neuen Mediums und dem verteilten Wissen von Einzelexperten ein kodifiziertes Wissen, dass sich allgemeingültig verbreiten lässt, entgegengesetzt.

Digitale Editionen nutzen das Internet nicht alleine als zeitgemäße Präsentationsmöglichkeit, sie beziehen das Medium in den Produktionsprozess unmittelbar mit ein. Im Vorwort des Jahrbuchs für Computerphilologie schreiben Georg Braungart, Karl Eibl und Fotis Jannidis als Einleitung für die einzelnen, folgenden Forschungsbeiträge:

Hier [...] wird deutlich, wie sich genuin philologische, hier editionsphilologische Überlegungen und Problemstellungen im Kontext computerbasierten Arbeitens entwickeln. Dabei wird erkennbar, dass sich Teilbereiche der Literaturwissenschaft wie die Editionstheorie und -praxis völlig verändern, denn es geht keineswegs mehr um den simplen (oder auch weniger simplen) Transfer vorhandener Daten und Konzepte in ein anderes Speichermedium. Vielmehr müssen die entsprechenden Vorhaben und Publikationen bereits im Vorfeld grundlegend anders konzipiert werden als unter den Vorzeichen traditioneller Publikationsmodi. (S. 8)

Daneben seien Reflexionen »über die Veränderungen von Textmodellen, von Literaturtheorie und von Medientheorie« selbstverständlich.[13]

Stedings Arbeit ist ein weiterer Beitrag innerhalb dieser philologischen Diskurse. Unbestreitbar sind die dem Medium immanenten Möglichkeiten der Kommunikation, der vernetzten Produktion, der flexiblen Präsentations- und Nutzungsbandbreiten, der Datenaktualität, sowie der größeren Öffentlichkeit. Tatsache ist natürlich auch, dass Faktoren wie Qualitätsanspruch, Usability, Authentifizierbarkeit von Texten, Verifizierbarkeit einer Website, Zielgruppenorientierung oder gesicherter Datentransfer eine wesentliche Rolle bei der Erstellung von elektronischen Editionen einnehmen müssen.

Aus der Summe seiner Einzelbefunde entwickelt Steding dann allerdings nur im Ansatz ein Methodenkonzept für elektronische Editionen, das wesentlich über die allgemeinen Anforderungen an ein Internetprodukt hinausgeht und präzisere Konsequenzen auch hinsichtlich der Hauptaufgaben editorischer Arbeit formuliert hätte, beispielsweise Fragen zu den Methoden der Textkonstitution oder Fragen zum Thema der Textkritik. Der Verfasser betont zwar, »this work is neither a detailed introduction to theories and methods of scholarly editing nor an attempt to cover at length all aspects of this discipline« (S. 154), den Widerspruch einer explizit theoretischen Dissertation ohne detaillierten Bezug auf die aktuelle computerphilologische Theoriebildung löst er dadurch jedoch nicht auf. Gleichzeitig wäre es erforderlich, die bestehenden Diskurse anderer Disziplinen gerade zum Themenfeld Wissens- beziehungsweise Informationsmanagement zu bestimmen, da sie einen bedeutenden Stellenwert innerhalb der Teildiskurse beanspruchen könnten und Steding in seiner Argumentation unterstützt hätten. In Bezug auf den Umfang der Dissertation mag jedoch jeglicher Wunsch nach zusätzlicher Information als vermessen gelten und dokumentiert sicherlich eher die Bandbreite des Themas und die noch vielfältigen offenen Untersuchungsansätze.

Es wird zusätzlich zur allgemeinen Bibliographie zum Thema keine Quellenangabe bereitgestellt, die Stedings Untersuchungsgegenstand dokumentiert und gleichzeitig ein wünschenswertes Handwerkszeug für den interessierten Leser dargestellt hätte.[14] Steding untergräbt damit seinen eigenen Ansatz, förderlich auf die Integration und den Stellenwert elektronischer Publikationen einzuwirken - einzelne Verweise auf elektronische Editionen sind im Text oder in den Fußnoten versteckt. Der Leser bleibt insgesamt mit der Frage zurück, welche elektronischen Editionen im Einzelfall Stedings Reflexionsbasis darstellten.[15] Seine Aussagen bewegen sich weitest gehend auf einem abstrakten Niveau mit wenigen Bezügen auf entsprechende Belege und Nachweise, wodurch sie schwer überprüfbar werden. Die Arbeit verliert dadurch streckenweise an Prägnanz und die argumentierende Darstellung an Präzision. Unverzichtbare Voraussetzung für eine Auseinandersetzung mit Stedings Thesen wäre außerdem eine klare zeitliche Eingrenzung mit den jeweils charakteristischen Merkmalen repräsentativer Editionen, die Aufschluss über Veränderungsprozesse innerhalb der Editionstheorie und –methodik geben könnte.

Die Vorgehensweise mag insgesamt wohl im Hinblick auf die Methodik angreifbar sein, was der Verfasser aber auch selbst kritisch thematisiert.[16] Charakteristisch für die Dissertation sind eine transparente Struktur und eine in der Argumentation ausführlich überleitende Verbindung der Kapitel. Der Leser verliert sich trotzdem zeitweise in der hypertextuellen Simulation von Stedings Argumentationsstruktur innerhalb der Einzelteile und sehnt sich nach einer komprimierteren Darstellungsweise, zumindest ging dies der Rezensentin so. Die Dissertation fordert dadurch eine geduldige Beschäftigung ein und erschließt sich nicht unbedingt auf Anhieb. Die Arbeit bietet aber in ihrer Gesamtheit einen erstaunlichen Fundus an minutiös recherchierten Details rund um das wichtige Gebiet der scholarly editions. Da die Dissertation eher ein Konglomerat aus in die Thematik einführender Information im Bereich der Internettechnologie und darstellender Untersuchung im Bereich der Editionswissenschaften ist, dürfte die Arbeit vor allem für weniger versierte Internetnutzer interessant sein, die einen Einstieg in das Themenfeld der elektronischen Editionen suchen.

Thomas Bein formulierte auf einer Editorentagung in Innsbruck 2004[17] bei der abschließenden Podiumsdiskussion zum Aspekt des Selbstverständnisses von Editionswissenschaftlern, als Aufgabe der Editoren elektronischer Ausgaben die Höhe des Anteils der Fehlerbehebung (Textkritik) und die Höhe des Anteils der Dokumentation stetig zu steigern. Damit verfolge die moderne Editionsphilologie ein Mehrschichtmodell, das sich von der ab 1970 vertretenen Position von Editionswissenschaftlern wie Gunter Martens, die die Reduktion auf die reine Dokumentation ohne Textkritik beziehungsweise die Materialität des Textes vertraten, abhebe.

Unabhängig davon, ob der Computer als Hilfsmittel und Medium elektronischer Editionen, sei es bei der Produktion, sei es bei der Präsentation, traditionelle Felder der Editionswissenschaft unterstützen oder ersetzen kann, beantwortet die Digitalisierung nicht diese Grundfragen der Editionswissenschaft.

Digitale Editionen sind elektronische Werkzeuge für Literaturinteressierte, die das Potential in sich tragen, gerade durch ihre hohe Komplexität und Informationsdichte und die damit verbundene Möglichkeit ein individuelles Nutzungs- und Ordnungsmuster zu entwickeln, die Kreativität und Produktivität jedes einzelnen Nutzers zu stimulieren. Sie sind die zeitgerechte Akkumulation von Wissen und Fragen und müssen sich der kritischen Bemerkung stellen, dass Informationsüberfluss nicht automatisch zur Demokratisierung philologischen Wissens führt.

Katja Meffert (Darmstadt)

katja.meffert@t-online.de

(15. März 2005)


[1] Die Untersuchung ist mit Ausnahme einer kurzen, deutschen Vorbemerkung in englischer Sprache verfasst und hat einen Umfang von 350 Seiten inkl. Literaturangaben. Sören Stedings Muttersprache ist deutsch. Er hat seine Dissertation an der Philosophischen Fakultät IV - Sprach- und Literaturwissenschaft - der Universität Regensburg bei Professor Hans Joachim Kreutzer und Rainer Hammwöhner mit magna cum laude abgeschlossen. Heute unterrichtet er als Visiting Assistant Professor an der Michigan State University (vgl. <www.steding.org> [12.03.05] ).
[2] Er gibt damit auch seiner Einschätzung Ausdruck, dass die CD-ROM als Datenträger im Bereich der Multimediafähigkeit und Datenaktualität dem Internet unterlegen wäre (vergleiche beispielsweise S. 288, Fußnote 68).
[3] Steding positioniert sich v.a. innerhalb der Forschungskontexte zur Hypertexttheorie des angloamerikanischen Raumes Mitte der 90. Jahre ausgehend von George Landow und Paul Delany.
[4] Fotis Jannidis: Was ist Computerphilologie? In: Jahrbuch für Computerphilologie 1 (1999), S. 15.
[5] Steding referiert leider nur aggregiert die Informationstheorie und lässt offen, ob er sich auf entsprechende Forscher wie Claude E. Shannon, Warren Weaver, Norbert Wiener, George D. Birkhoff oder auch Max Bense bezieht.
[6] Steding stellt in diesem Kapitel die Wort- bzw. Begriffsgeschichte von Multimedia dar. Im Zusammenhang mit der Gestaltung elektronischer Editionen über multimediale Aufbereitung könnte zusätzlich interessant sein, im Bereich der Kulturanthropologie bzw. der Kommunikationstheorie über Formen und Modalitäten von Medien sowie über Erfahrungswerte bei deren Nutzung zu recherchieren, um weitere Ansätze für eine Theoriebildung über die mediale Spezifik des Mediators elektronischer Edition zu entwickeln.
[7] Der Verfasser entscheidet sich, in seiner Dissertation keinen expliziten Bezug auf die frühe Toronto-Schule (Harold Innis, Eric Havelock sowie in Deutschland Friedrich A. Kittler) – mit Ausnahme von McLuhan -, oder eine Referenz auf die französische, poststrukturalistische Schrifttheorie sowie die Theoretiker zum Literaturbegriff als kulturelles Gedächtnis (Aleida Assmann und Jan Assmann) herzustellen. Da er einen ausschließlich theoretischen Ansatz verfolgt, habe ich diese Referenz vermisst, denn die Forscher haben sich ausführlich mit technologischen Medien, deren Produktion und Speicherung sowie der Übertragung und Kommunikation kultureller Bedeutungen auch vor dem Hintergrund der Bedingungen für abstraktes Wissen und unverkörperte Überlieferung auseinandergesetzt.
[8] Steding ergänzend sei noch auf das Reference Model for an Open Archival Information System (OAIS) hingewiesen: <http://www.rlg.org/longterm/oais.html>. (12.03.05)
[9] Steding bezieht sich in seiner Dissertation noch auf die Auszeichnungssprache SGML, die 1986 als ISO Standard zertifiziert wurde und nennt nur kurz in einer Fußnote XML (vergleiche 293, Fußnote 76), eine auf SGML basierende Auszeichnungssprache, die 1998 als neuer Standard vorgestellt wurde und mittlerweile als zentrales Verfahren zur Beschreibung von Dokumentstrukturen gilt.
[10] Vgl. auch die Definition von ›Hypertext‹ von Roland S. Kamzelak: Hyptertexte. In: H. Fricke (Hg.): Reallexikon der deutschen Literaturwissenschaft. Neuberarbeitung des Reallexikons der deutschen Literaturgeschichte. Berlin, New York: de Gruyter 2000, Bd. II, S. 110-112.
[11] Die Produktausrichtung im Bereich des Internetmassenmarktes ist eher auf das Einbinden werbewirksamer Effekte ausgerichtet und auf das Generieren von Reichweite, statt komplexe und komplizierte wissenschaftliche Textsysteme für eine Expertengruppe abzubilden. Ferner sind Massenprodukte primär auf Kriterien wie intuitive Nutzbarkeit, kurze Klickpfade bis zum Ziel (nicht mehr als drei Klicks), kurze Lesetexte, geringe Ladezeiten oder ansprechende Aufbereitung (Infotainment) optimiert.
[12] David Greetham: Textual Scholarship. An introduction: New York / London 1994, S. 347 (zit. nach Steding S. 141).
[13] Karl Eibl, Georg Braungart, Fotis Jannidis: Vorwort. In: Jahrbuch für Computer-Philologie 2 (2000), S. 8.
[14] Eine aktuelle Liste der verfügbaren CD-ROMs, die für deutsche Literaturwissenschaftler relevant sind, kann man beispielsweise auf der Internetsite der Computerphilologie einsehen: <http://computerphilologie.uni-muenchen.de/cdrom/index.html> (12.03.05) Die Universitätsbibliothek der FU Berlin ermöglicht ebenfalls einen sehr gut strukturierten Überblick und Einstieg in elektronische, geisteswissenschaftliche Texte: <http://www.ub.fu-berlin.de/datenbanken/fub/digibibl/> (12.03.05).
[15] Das Canterbury Tales Project, das Perseus Project, das Rossetti Archive und das Women Writers Project werden beispielhaft von Steding aufgeführt, sollen aber keine Prototypen darstellen, die es aus seiner Sicht nicht gibt (vgl. S. 261).
[16] »Scientific predictions must be based on facts, experiments, and observations, just like any other academic argument« (S. 21).
[17]10. internationale Tagung der Arbeitsgemeinschaft für germanistische Edition 25.-28. Februar 2004 in Innsbruck am Institut für deutsche Sprache, Literatur und Literaturkritik, Universität Innsbruck.