Three round tables on different aspects of elektronic publishing took place on 27. and 28. of May 2000 under the leadership of Prof. Dr. Georg Jäger and Dr. Fotis Jannidis. The meeting was held in the course of the symposium Schrift und Bild in Bewegung , organized by Prof. Dr. Bernd Scheffer and Dr. Oliver Jahraus at the Institut für Deutsche Philologie of LMU Munich. The meeting was opened with the discussion on the relation between science and new media. The second issue entered was the new importance of authors, editorials, book trade, and libraries. The last session focussed on the future development of net art.
Teilnehmer:
Prof. Dr. Karl Eibl (Germanist, München;
CD-ROM: Der junge Goethe in seiner Zeit,
Forum Computerphilologie),
Dr. Gudrun Gersmann (Historikerin, München; Server
Frühe Neuzeit),
Prof. Dr. Eberhard Hilf (Physiker, Oldenburg; Gesellschaft für Information und Kommunikation, Dissertationsverfahren und Retrieval, Eprint, PhysNet (EPS)),
Dr. Rüdiger Hohls (Berlin; Mailingliste
H-Soz-u-Kult),
Arend Küster (Cambridge; Chadwyck-Healey).
Die Auszeichnung des Internets als wissenschaftliches Kommunikationsmedium scheint zunächst darin begründet zu sein, daß es im Vergleich zu den herkömmlichen Austauschwegen nicht nur schneller, sondern auch kostengünstiger seine Funktion erfüllt. Gedruckte Fachzeitschriften werden, unter anderem aufgrund der zunehmend kleiner werdenden, weil fachlich stärker ausdifferenzierten Leserschaft, immer teurer und konkurrieren damit untereinander um stagnierende oder schrumpfende Bibliotheksetats.
Diese Probleme kann das Internet lösen. Elektronische Medien bieten gegenüber den Print-Medien eine schnellere, auf kürzerem Wege zu erreichende und damit eine billigere Möglichkeit, Öffentlichkeit herzustellen. Dies haben sich bis jetzt vor allem die Naturwissenschaften zu Nutze gemacht. Bücher und Zeitschriften eignen sich dort im Vergleich zum elektronischen Medium nicht zur Vermittlung von Wissen: Die Formeln und Graphiken, die aus Experimenten und Rechenoperationen, etwa in der Physik, hervorgehen, lassen sich auf dem Bildschirm besser darstellen.
Was aber gegenüber Print-Publikationen noch nicht erreicht ist, ist die zureichende Benutzerfreundlichkeit und die gewährleistete Sicherung von Qualitätsstandards. Zur Erreichung einer hohen Benutzerfreundlichkeit wäre die Entwicklung von intelligenten, Server übergreifenden Suchmaschinen notwendig, die ohne bedeutenden Zeitverlust den gezielten Zugang zu Online-Publikationen erlaubten. Die Benutzerfreundlichkeit des Suchsystems müßte sich nach den fachwissenschaftlichen Erwartungen richten. Die Lagerung der Daten selbst würde auf weltweit zugänglichen, internationalen Fachbereichsservern geschehen, die nicht nur eine dauerhafte und vor mechanischer Zerstörung möglichst weitgehend geschützte Archivierung garantieren sollten, sondern damit vor allem die Funktion eines Informationen verdichtenden Systems erfüllten. Die Dokumente blieben also beim Erzeuger, Forschungsliteratur wäre dann nicht mehr über lokale Bibliotheken zugänglich, sondern stattdessen dezentral und weltweit über Kopien des jeweiligen Fachbereichsservers.
Die Sicherung von Qualitätsstandards könnte damit an zwei Stellen erfolgen: zum einen durch den fachkompetenten Autor, er gibt dadurch, daß er sich als Wissenschaftler auszeichnen muß, um eine Publikation über einen Fachbereichsserver veröffentlichen zu können, einen Qualitätsstandard vor und zum anderen durch den Fachbereich selbst. Dieser entscheidet, ob der Artikel dem jeweiligen wissenschaftlichen Standard genügt oder nicht.
Die Mailingliste H-Soz-u-Kult mit Rezensionen vor allem aus den Geschichtswissenschaften, ist solch ein Beispiel einer bereits existierenden Form eines informationsverdichtenden Systems. Mit der inhaltlichen Themen- und Bereichsabgrenzung wird ein konzentrierter Informationsüberblick vermittelt, der sonst nur schwer, da meistens diffus innerhalb eines Mediums oder über mehrere Medien verteilt, gegeben wird. H-Soz-u-Kult hat damit als wissenschaftliche Einrichtung die traditionelle Aufgabe des Vertriebs an Stelle eines Verlags übernommen.
Zu der hohen Akzeptanz beim wissenschaftlichen Fachpublikum tragen neben der einfachen Bedienbarkeit des Systems – die Informationen werden direkt an den Schreibtisch geliefert, ohne zeitlich aufwendige Suche und Zeit raubenden Ortswechsel – auch die hohen Qualitätsstandards der Beiträge bei. Den Anforderungen wissenschaftlichen Qualitätsstandards wird einerseits dadurch nachgekommen, daß H-Soz-u-Kult die Dauerpräsenz der Artikel gewährleistet und so für eine wesentliche Voraussetzung der Zitierfähigkeit sorgt, andererseits werden alle einlaufenden Beiträge moderiert. Während der zeitliche und personelle Aufwand hierfür erheblich ist, halten sich die Kosten zum Erhalt eines solchen Forums in Grenzen, da sie indirekt von den Beiträgern geleistet werden. Sie greifen als Wissenschaftler entweder auf die Ausstattung der jeweiligen wissenschaftlichen Institution oder im Falle freiberuflicher wissenschaftlicher Tätigkeit auf entsprechende Infrastruktur zu Hause zurück. Die Beiträge werden nicht honoriert. Trotz hoher und weiter steigenden Akzeptanz haben die Verlage H-Soz-u-Kult noch keine Zusammenarbeit angeboten.
Der Server Frühe Neuzeit ist ein zweites Beispiel eines informationsverdichtenden Forums innerhalb der Geisteswissenschaften.
Auch dieses Beispiel hat mit typischen Problemen zu kämpfen, die einerseits wie oben besprochen, an der Schnittstelle Projekt/Verlag, andererseits aber durchaus auch an der von wissenschaftlichem Projekt und wissenschaftlichen Nutzern angesiedelt sind. Die relativ hohe Akzeptanz seitens der wissenschaftlichen Nutzer solcher Einrichtungen ist hier vor allem durch die Zusammenarbeit mit der Bayerischen Staatsbibliothek bedingt, die als bekannte und daher Vertrauen weckende Institution die Hemmschwelle, mit einem technischen Medium zu arbeiten, senkt.
Diese spezifische Problematik der Geisteswissenschaftler besteht in dem Paradoxon, einerseits durchaus die Einsicht in die durch die neuen Medien gegebenen Möglichkeiten zu besitzen, die wissenschaftliche Kommunikation effektiver zu gestalten, andererseits aber bestehen gegenüber einem solchen Medium große Berührungsängste. Der ›klassische‹ Geisteswissenschaftler ist nicht bereit, sich durch dafür notwendige technikspezifische Eigenleistungen zu solchen Einrichtungen Zugang zu verschaffen.
Daß dieses Problem bei den Naturwissenschaften nicht oder nicht in dem Ausmaß auftritt, hat zweierlei Gründe: die genuine Technikbezogenheit des Faches und die im Gegensatz zu den Geisteswissenschaften stark ausgeprägte internationale Kooperation. Sie ist in den Naturwissenschaften von vornherein gegeben, während sie in den Geisteswissenschaften erst etabliert oder ausgebaut werden muß. Für die Naturwissenschaften ist lediglich das dazu zu verwendende Werkzeug neu, nicht aber die Mentalität. Wissenschaftliche Diskussionen, wie sie etwa durch den Server Frühe Neuzeit möglich wären, waren innerhalb der Naturwissenschaften eine bereits etablierte Kommunikationsform, die sich nun des effektiveren Werkzeugs des Netzes bedient. Das Interesse der Geisteswissenschaftler hingegen ist an der Archivierung höher als an der schnelleren wissenschaftlichen Kommunikation. Kulturwissenschaftler haben das Bedürfnis nach ›Fertigem und Seriösem‹.
Dies rührt nicht zuletzt von der Differenz, in der sich der jeweilige Gegenstand zeigt: Im Vordergrund stehen bei den Naturwissenschaften Formeln und das Experiment - lange und komplexe sprachliche Texte müssen hier nicht gelesen werden. In den Geisteswissenschaften ist die Sprache selbst Untersuchungsgegenstand und nicht nur Mittel zum Zweck wissenschaftlicher Darstellungen. Qualitätsfragen, das Sichern wissenschaftlicher Standards von Online-Publikationen, ist hier ein Primärbedürfnis. Wie oben beschrieben, können diese durchaus durch eine Eingangskontrollen gewährleistet werden: Auf einer ersten Ebene durch die Herkunft des Artikels (Autor), die für seine fachwissenschaftliche Verfaßtheit bürgt, und auf einer zweiten Ebene durch eine koordinierende Review-Gruppe. Es gilt also, die für die wissenschaftliche Kommunikation effektive Produktionsform fachadäquat zu nutzen - anstatt die Möglichkeiten des neuen Mediums zu ignorieren - und somit eine Antwort auf berechtigte Qualitätsfragen zu finden.
Im Bereich des wissenschaftlichen Arbeitens selbst haben sich innerhalb der Textwissenschaften vor allem in der Editionsphilologie durch die neuen Medien die Bedingungen bedeutend geändert. Problemschwerpunkte ergeben sich aus der Gegenüberstellung von elektronischer Edition und Buchedition zum einen und Urheberrechtsfragen zum anderen.
Bei vielen, von Verlagen hergestellten elektronische Editionen etwa, besteht nach wie vor die für die wissenschaftliche Arbeit unbefriedigende Situation, daß sie an dem alten Medium orientiert sind und nicht die das Buch überschreitenden Anwendungsmöglichkeiten der Elektronik nutzen. Rechtliche Fragen ergeben sich für von Wissenschaftlern hergestellte Editionen aus der momentanen Lage: Diese Editionen werden zwar von den Wissenschaftlern für den wissenschaftlichen Gebrauch hergestellt, die Verwertungsrechte erhält jedoch ein Verlag, so daß eine rasche Überarbeitung, die das digitale Medium erlauben würde, blockiert ist. So ergibt es sich, daß elektronische Editionen zwar von Wissenschaftlern produziert und von der DFG unter Umständen gefördert, aber dann von den Verlagen eingefroren und teuer verkauft werden. Eine Ausnahme sowohl in bezug auf den wissenschaftlichen Anspruch als auch auf die Urheberrechtsfrage bilden die nur auf elektronische Editionen spezialisierten Verlage, sofern sie versuchen, ihre Produkte mit qualitativem Anspruch herzustellen.
Ein Paradebeispiel, das die Möglichkeiten der neuen Medien aufzeigen kann, ist die elektronische historisch-kritische Ausgabe.
Die Neuerungen bestehen zum einen in der besseren Handhabbarkeit. Das neue Medium erlaubt eine schnellere und umfassendere Durch- und Übersicht und damit eine effektivere, weil benutzerspezifische Anwendung. Voraussetzung dafür ist allerdings ein Navigationsnetz, das nicht nur die Suche nach Wörtern erlaubt, sondern den Text strukturell durchgearbeitet präsentiert und damit das dahinterstehende Forschungsprogramm sichtbar macht. In Zukunft geht es darum, diese Ansprüche zu verwirklichen. Auf dem Weg dorthin gilt es zum Beispiel eine Struktur zu finden, die mediumspezifische Wahrnehmungsprobleme behebt und um das Erstellen eines Standardkatalogs zu allen Varianten elektronischer Editionen.[1] Denn bislang werden die vormals von Wissenschaftlern hergestellten historisch-kritischen Druckausgaben von den Verlagen meist nur digitalisiert und dann wieder an Bibliotheken und wissenschaftliche Einrichtungen zurückverkauft.
Diese Praxis verdankt sich nicht zuletzt dem Umstand, daß zwischen einer elektronischen und einer gedruckten Edition eine wertungsbedingte Unterscheidung besteht. Das Buch als solches ist, in diesem besonderen Falle der historisch-kritischen Ausgabe, nur für den Buchhändler, nicht aber für den Philologen von Wert. Für ihn ist nur die gedankliche Einheit, nicht aber die physische Gestalt von Bedeutung. Die Wissenschaftler befinden sich also in der rechtlich unbefriedigenden Situation, das eigene Produkt nicht ohne Zustimmung des Verlags weiterentwickeln zu können und so eigene wissenschaftliche Anliegen den ökonomischen Interessen des Verlags unterordnen zu müssen. Ziel muß es sein, das Nutzungsrecht an elektronischen Editionen den wissenschaftlichen Herausgebern zu überlassen. Stiftungen bieten vielleicht einen Weg aus diesem Dilemma. Das Verwertungsrecht liegt dann nicht mehr bei den Verlagen, sondern bei den Stiftungen, unter deren Schirmherrschaft die elektronische Edition entstanden ist. So geschehen bei der Historisch-Kritischen-Gottfried-Keller-Ausgabe. Eine weitere Lösung böte die urheberrechtliche Trennung von Dokument (Text) und elektronischem Strukturverweis.
Eine neue Funktion von Verlagen könnte daher die Herstellung von historisch-kritischen Ausgaben sein, die in Zusammenarbeit mit Wissenschaftlern entstehen, nicht an den bereits vorhandenem Printmedium orientiert sind und sich deshalb durch die Entwicklung und Professionalisierung der oben genannten Anforderung, die mit dem neuen Medium durchführbar geworden sind, auszeichnen. Die elektronischen Ausgaben (mit Ausnahme der historisch-kritischen) werden die Bücher nicht ersetzen, sondern diese, durch die Möglichkeiten, die das neue Medium hierfür bereit hält, sinnvoll ergänzen.
Teilnehmer:
Armin Hopp (Digital Publishing, München),
Prof. Dr. Ferdinand Melichar
(GV der VGWort, München),
Prof. Dr. Elmar Mittler (Direktor der StuUB,
Göttingen),
Rolf von Rheinbaben (bücher.de, Müchen),
Dieter Schormann (Ferber'sche Unibuchhandlung, Gießen),
Volker Thurner (Lehmanns, Berlin),
Nikolai Vogel (Vogel & Fitzpatrick Verlag Black Ink, München).
Das neue Medium Internet hat Tatsachen geschaffen, die Autor, Verlag, Buchhandel und Bibliotheken in ihrem alten Rollen- und Funktionsverständnis zur Disposition stellen und nach einer Neubestimmung verlangen. Im Zeitalter des Internets geht es nicht mehr um das Verlegen und Verbreiten, um Archivieren und Ausleihen von Büchern, sondern um das Managen von Information, um den sogenannten ›Content‹.
Die traditionelle Aufgabe der Bibliotheken war die erhaltende, ordnende und erschließende Verwaltung von bereits Publiziertem. Eine Erweiterungs- und Veränderungsnotwendigkeit dieser klassischen Aufgabe geht auch hier von den Internet-Publikationen aus. Die Problem der Unterscheidbarkeit von Wichtigem und Unwichtigem wurde durch diesen Veröffentlichungsweg extrem verstärkt, so daß die Schaffung von benutzerorientierten Auswahlwegen, die der Desorientierung und Informationsüberflutung entgegenwirken, zur zukünftig wichtigsten Aufgabe der Bibliotheken wird, etwa in der Schaffung von sogenannten ›Portalen‹. Sie funktionieren zum Beispiel in Form einer Kategorisierung und Bewertung von Websites. Ebenfalls noch im Horizont der klassischen Zuständigkeit von Bibliotheken liegt die Bereitstellung von nach wissenschaftlichen Anforderungen entwickeltem Handwerkszeug der Recherche und die Entwicklung von intelligenten, contentspezifischen Suchmaschinen.
Mit dem neuen Medium hat sich zu dem stationären Buchhandel der Internet-Buchhandel gesellt. Beide, alte und neue Vertriebsform koexistieren, indem jeder spezifische Bedürfnisse erfüllt. Die Stärke des elektronischen Buchhandels ist die, als umfangreicher Kundenservice verstandene, Benutzerorientierung, etwa in Form eines verbrauchergezielten Angebots, verbunden mit richtig dargestelltem Content einerseits und einer klar definierten Recherchemöglichkeit andererseits. Für den stationären Buchhandel gilt, daß er in seiner wesentlichen Funktion: physischer Kaufort zu sein, auch weiterhin den unmittelbaren Kontakt zwischen Medium und Leser ermöglicht, zusätzlich aber das Internet zur optischen Präsentation der Titel sowie zur Aufbereitung der Inhalte in Form von Inhaltsangaben und Abstracts nutzen kann. So läßt sich die Kundenorientierung ausbauen und die Benutzerfreundlichkeit steigern. Zur Effektivität von Internet-Auftritten ist auf lokaler Ebene die Kooperation des Buchhandels mit regional führenden Zeitungen und Zeitschriften notwendig.
Kleinverlage können das Internet zur Präsentation von neuen Kunstformen und zur Kommunikation über neue Konzepte, auch für sehr begrenzte Interessengruppen, nutzen. Sie müssen das neue Medium nicht (oder nicht nur) als Mittel zur ökonomischen Effektivitätssteigerung sehen, sondern als zu Experimentierfeld und Diskussionsforum für Kunst. Das Buch hat hier nicht Waren-, sondern in erster Linie ästhetischen Charakter. Die Finanzierung solcher Unternehmungen muß dann allerdings von außen erfolgen oder durch nach kommerziellen Gesichtspunkten betriebene Online-Dienstleistungen.
Eine neue Form des Vertriebs, die die neuen Medien erlauben, besteht im Verfahren des »Books (oder Print) on Demand«. Die digitalisierten Texte werden hierbei in elektronischer Form vorgehalten und nur im Bedarfsfall, auch in geringer Stückzahl, gedruckt. Die Logistik hierfür übernehmen gegenwärtig meist die Zwischenbuchhändler, doch kann sie gleicherweise von Verlagen und in Zukunft vielleicht auch vom stationären Buchhandel erbracht werden. Im wissenschaftlichen Bereich bietet sich PoB etwa für Kleinauflagen von Laufbahnschriften (Dissertationen) und spezialisierten Monographien an. Wenn Bibliotheken es aufgreifen, entfiele der teure Rückkauf solcher Werke durch die universitären Institutionen, in denen sie entstanden sind. Bibliotheken verfügen zudem über das Wissen, welche (nicht mehr lieferbaren) Titel wie oft nachgefragt werden.
Urheberrechtsprobleme ergeben sich bei Produktionen, bei denen eine personalisierbare Urheberschaft nicht mehr ausfindig zu machen ist bzw. sie nicht mehr auf konkrete Einzelpersonen zurückgeführt werden kann. Dieses Problem tritt auf, wenn ein neues Produkt aus vielen Klein- und Kleinstelementen von Datenbanken erstellt wird - und das nicht nur aus Textelementen, sondern auch zum Beispiel aus Quellcode- oder Software-Einzelbausteinen. Aus solchen ›atomisierten Datenbanken‹ werden zum Beispiel spezifisch auf die Bedürfnisse eines Auftraggebers abgestimmte, individuelle Produkte hergestellt. Die Position eines Autors als Einzelperson, als wirtschaftlicher Teilnehmer, wird in diesem Prozeß aufgelöst und ist unter Umständen auch nicht mehr zu rekonstruieren.
Im Bereich der wissenschaftlichen Lehre bieten solche Verfahren die Möglichkeit, aus digital verfügbaren Informationen bzw. Wissensbestandteilen einzelne, auf bestimmte Themen- oder Veranstaltungsbedürfnisse abgestimmte, individuelle ›Lesereinheiten‹ zu komponieren. Deren Produktion und Vertrieb über Print on Demand könnten die (bisherigen oder neue, auf diese Aufgaben spezialisierte) Verlage übernehmen, die Archivierung die Bibliotheken. An beiden Stellen aber werfen solche neuen Textformen ungelöste Probleme auf: Einerseits die momentan nicht befriedigenden rechtlichen Regelungen, anderseits die Archivierung von individualisierten Texten.
Die Funktionserweiterung der traditionellen Institutionen von Produktion, Vertrieb und Archivierung scheint nicht nur durch die neue Distributionsmöglichkeiten über das Netz, sondern vor allem durch neue Formen des Produkts notwendig zu werden. Zur Lösung dieser Probleme trüge maßgeblich die Verknüpfung, die arbeitsteilige Kooperation der Institutionen bei.
Teilnehmer:
Johannes Auer (Kritiker und Künstler,Stuttgart;
http://www.fabrik-ver-kauf.de,
http://www.stuttgart.de/stadtbuecherei/tango/s/tango.htm,
http://www.das-deutsche-handwerk.de/rusmann/noras/ohr.htm,
http://www.s.shuttle.de/buecherei/h_h_h.htm,
http://www.s.shuttle.de/buecherei/spielreg.htm),
Prof. Dr. Michael Böhler (Germanist, Zürich),
Prof. Dr. Reinhard Döhl (Germanist und Künstler, Stuttgart;
http://www.s.shuttle.de/buecherei/stuttgarter_schule.htm,
http://www.uni-stuttgart.de/ndl1/strickstrumpf.htm,
http://www.uni-stuttgart.de/ndl1/computertext_netzkunst.htm,
http://www.s.shuttle.de/buecherei/poemchess/pochess.htm),
Dr. Randi Gunzenhäuser (Amerikanistik, München),
Dr. Beat Suter (Germanist,Verleger, Künstler, Wettingen;
http://www.hyperfiction.ch,
http://www.update.ch/beluga/).
Mit den neuen Medien hat die Technik in die Geistes- und vor allem Textwissenschaften Einzug gehalten: nicht nur insoweit, als sie die Bedingungen der wissenschaftlichen Kommunikation und in der Editionsphilologie das wissenschaftliche Arbeiten änderte, sondern sie erweiterte auch den literaturwissenschaftlichen Gegenstand selbst, und dies in bezug auf alle drei Koordinaten: Kunstwerk, Autor, Rezipient. Traditionelle Literatur, wie sie in Buchform vorliegt, scheint sich von Hyperfiction, wie sie uns im Medium des Internets entgegentritt, im Darstellungsmodus bzw. durch die Interaktivität zu unterscheiden. Es gilt diese näher zu bestimmen. Fraglich ist, ob Oppositonspaare wie Linearität vs. Nicht-Linearität, statisch vs. dynamisch dies zu leisten vermögen, ob damit das Neue von Netzkunst adäquat erfaßt werden kann. Ähnliches gilt auch für Begriffe wie Lesbarkeit, Narrativität, Avantgarde.
Internetliteratur und Hyperfiction scheinen sich zunächst von traditionellen Kunstformen im Medium des Buches durch ihre Art der Strukturierung zu unterscheiden. An Kunstwerken, die die Möglichkeiten des neuen Medium nutzen, lassen sich nur vereinzelte, sich kreuzende Strukturen erkennen, von denen keine dominant die ganze Gestalt trägt. Die permanent präsente Möglichkeit zum Übergang, der Perspektivenwechsel, die experimentell dargestellte Denk- und Wahrnehmungspluralität wird damit zum Charakteristikum solcher Kunstwerke. Sie scheinen das Verhältnis von Autor und Leser zwar verschoben zu haben, fügen sich aber genau dadurch in die traditionellen Künste des 20. Jahrhunderts ein: Sie legen Wert auf Dialogizität und Vielstimmigkeit.
Der Autor stellt ein Regelwerk zur Verfügung, das der Leser als Performer benützen oder bedienen kann. Die herkömmlichen Positionen von Autor und Leser bleiben aber größtenteils erhalten, denn der Rezipient kann nur diejenigen Strukturen nutzen, die der Autor – wenn das Einzelwerk erkennbar bleiben soll – vorgibt. Das neue Konzept des Eingreifens, der interaktiven Texte lehnt der Rezipient aber meistens ab; die Möglichkeiten, neue Kunstformen zu schaffen, scheinen mehr Künstler als Rezipienten anzulocken. Der Autor eines Netzkunstwerkes muß zudem mit mehreren Fähigkeiten ausgestattet sein: Er muß über ein theoretisch-technisches Instrumentarium verfügen, praxis- und benutzerorientiert arbeiten und entsprechend nicht nur über ästhetische, sondern auch über technische und soziale Kompetenz verfügen.
Das neue Produkt Hyperfiction scheint eine Form entwickelt zu haben, die in einem übergewichtigen Verhältnis zum Inhalt steht: sie ist eher ein Arrangement aus Reizen und zu treffenden Entscheidungen denn aus semantischem Gehalt. Daraus bezieht sie ihr innovatives Moment, beispielhaft in der Kunstform Computerspiel. Sie läßt sich mit den Kategorien des nach außen, außerhalb des Kopfes verlagerten Theaters beschreiben. Der noch bei Kant und Schiller metaphorisch verwendete Bergriff des ästhetischen Spiels ist hier real geworden. Die Imagination ist externalisiert und damit performativ geworden. Sie spielt sich nicht mehr nur im Inneren des Kopfes als Ergebnis mentaler Prozeße ab. Sie tritt stattdessen in den sinnlichen Wahrnehmungsraum.
Diese Neuerung läßt sich kaum in eine Avantgardetraditon einordnen. Denn kultursoziologisch bezeichnet Avantgarde eine Alternativkultur, die einen Hauptstrom voraussetzt, zu dem sie sich ins Verhältnis setzt. Mit Hyperfiction hingegen hat sich ein neues Kulturmilieu gebildet, das sich nicht mehr an das alte anschließt.
Computerspiele scheinen nicht nur diejenige Schnittstelle zu sein, an der sich Technik und Kommerz treffen; auch die Kunst gesellt sich dazu. Die Genre-Einordnung der Computerspiele ist nach wie vor offen und das nicht zuletzt deshalb, weil Hyperfiction selbst noch ein offenes Experimetierfeld künstlerischen Tuns ist. Dies gilt es zu beobachten und nicht vorzeitig Grenzen zu ziehen und Schlußpunkte zu setzen.
Uta Klein (München)
Uta Klein, M.A.
Institut für Deutsche Philologie
Schellingstr. 3/RG
80799 München
uta.klein@germanistik.uni-muenchen.de