EUROPA UND DIE NEUEN MEDIEN. ACO*HUM EVALUIERT DIE GEISTESWISSENSCHAFTEN[1]

Abstract

Advanced Computing in the Humanities (ACO*HUM) was a SOCRATES/ ERASMUS thematic network designed to analyse the state of humanities computing in Europe. Experts from different countries and with different fields of expertise compiled a survey on the influence of humanities computing at European universities. The methodological implications of formal methods in the humanities and the different approaches to teaching advanced computational skills provide valuable insights into the different attitudes towards education and in particular humanities education at universities in Europe. The revision of curricula and the implementation of humanities computing centres seems a necessary development in the information society of the twenty-first century; here ACO*HUM provides a knowledge base for students, teachers, and administrators.

Warum Evaluation?

Die Entwicklung der Neuen Medien und ihre fundamentalen Auswirkungen auf alle Bereiche geisteswissenschaftlicher Forschung und Lehre[2] impliziert eine gründliche methodologische und praktische Auseinandersetzung mit Computeranwendungen in den Humanities. Diese Bereiche der Wissenschaft haben sich lange Zeit eine gewisse Skepsis gegenüber dem Einsatz elektronischer Verfahren zum Erkenntnisfortschritt bewahrt; mittlerweile jedoch ist auch hier eine Veränderung zu beobachten. Die unterschiedlich stark ausgeprägte Durchdringung speziell solcher lange Zeit resistenter, wenn nicht technophober Bereiche der Geisteswissenschaften mit Computeranwendungen lässt daher die Frage nach einer grundlegenden Bestandsaufnahme gerechtfertigt erscheinen. Ein solcher Überblick über den Entwicklungsstand, Formen der Ausbildung, Vergleichbarkeit von erworbenen Qualifikationen und Erwartungen für die weitere Entwicklung muss das gewandelte Anforderungsprofil der heutigen Bildungslandschaft ebenso reflektieren wie die Möglichkeiten und Grenzen neuer Informationstechnologien. Um diesem Umstand Rechnung zu tragen und den derzeitigen Entwicklungsstand auf diesem Gebiet in Europa zu dokumentieren, wurde 1996 ACO*HUM an der Universität Bergen in Norwegen ins Leben gerufen.[3]

Was ist, und zu welchem Ende beschäftigen wir uns mit ACO*HUM?

ACO*HUM wurde konzipiert als ein Projekt, das im europäischen Vergleich den Einfluss der Neuen Medien und Technologien auf die Geisteswissenschaften untersucht.[4] Hierbei steht das Akronym ACO*HUM für Advanced COmputing in the HUManities, und bereits mit dem Voranstellen des Adjektivs ›fortgeschritten‹ bei der Spezifizierung der Computeranwendungen wird ein zentraler Aspekt dieses Projekts benannt.

Die SOCRATES/ERASMUS[5]-Programme der Europäischen Kommission haben zum Ziel, über die Einrichtung vonThematic Network Projects Einzelfragen der Hochschulausbildung näher zu untersuchen und sie in einen europäischen Kontext einzubetten. Als eines von mittlerweile 28 solcher Projekte ist ACO*HUM speziell auf Fragen der Neuen Medien, und hier besonders der elektronischen Medien wie Computeranwendungen und vernetzte Ressourcen eingestellt.

Dabei ist auch die Größenordnung dieses internationalen Projekts beachtlich: insgesamt 100 europäische Hochschulen, im Zusammenspiel mit wissenschaftlichen Organisationen und Bildungseinrichtungen, haben für ACO*HUM Personalressourcen investiert und durch die Bereitstellung von Informationen und Arbeitszeit ausgewiesener Experten zu einzelnen Fachgruppen einen Überblick über den derzeitigen Stand der Neuen Medien in der geisteswissenschaftlichen Hochschulbildung ermöglicht.

ACO*HUM sieht die Notwendigkeit in der heutigen, in allen Bereichen stark technologisch geprägten Hochschulausbildung, nur bestimmte elektronische Verfahren und ihre Verbreitung für den Bereich geisteswissenschaftlicher Forschung und Lehre zu erfassen, zu vergleichen, auf Gemeinsamkeiten und Unterschiede hin zu betrachten und aus den gesammelten Beobachtungen weiterreichende Schlussfolgerungen zu ziehen.

Zwar soll besonders die Vielzahl von Computeranwendungen in den Geisteswissenschaften, von der einfachen Textverarbeitung und standardisierten Datenbankanwendung bis hin zum komplexen Einsatz digitalisierten Materials, nach ihren unterschiedlichen Anforderungsgraden und ihren Einsatzmöglichkeiten erfasst werden. Besonderes Augenmerk liegt aber auf der Grundannahme, dass bereits in allen Institutionen der universitären Hochschulbildung in Europa die elektronische Grundversorgung, sowohl in technischer als auch in methodologischer Hinsicht, ausreichend gesichert ist. Es geht ACO*HUM daher nicht darum, Kurse und Vermittlungsverfahren für einfachste Computerkenntnisse, den so genannten ›Computerführerschein‹ und seine jeweiligen Entsprechungen zu erfassen, sondern das Stichwort »advanced« kennzeichnet ein technisch und methodologisch ausgerichtetes Grundverständnis, das von der grundlegenden Durchdringung von Forschung und Lehre mit komplexen Computeranwendungen ausgeht. Die Erfassung, Aufbereitung und Bereitstellung digitalen Materials, der Einsatz von Multimedia und Hypermedia in Forschung und Lehre sowie die methodologische Einbindung des spezifischen Leistungsprofils elektronischer Medien wurde für einzelne Fächer und Disziplinen als Anforderungskatalog etabliert. In diesem Kontext einer europaweit ausgerichteten Untersuchung gilt es demnach festzustellen, in welchem Maße die qualitative und quantitative Vergleichbarkeit und Übertragbarkeit garantiert sind und wo nach dem Dafürhalten von Experten der unterschiedlichen Fächergruppen Handlungsbedarf besteht. Der Vergleichsmaßstab ist dabei, wenn auch nicht explizit formuliert, der technologische Stand führender europäischer und amerikanischer Bildungseinrichtungen. Für ACO*HUM ergibt sich daher ein differenziertes Anforderungsprofil, das neben der inhaltlichen und technologischen Evaluation einzelner Länder, Hochschulen und Programme auch grundsätzliche Fragen zur Ausgestaltung einzelner Fächer stellt.

Internationale Ausrichtung

Die zunehmende Bedeutung und der Einfluss von Informations- und Kommunikationstechnologien (IKT) auf das Studium in Europa hat weit reichende Auswirkung auf die Ausgestaltung von Studiengängen und die dazugehörigen Curriculumsentwicklungen. Durch ACO*HUM wurde erstmals ein präziser, detailorientierter und umfassender Überblick über den Stand der IKT in Europa ermöglicht. Besonderes Augenmerk kommt dabei der Bedeutung elektronischer Medien im Bereich der Lehre zu, denn »[t]he primary target audience consists of undergraduate and graduate students at European institutions of higher learning.«[6] Da ACO*HUM ein internationales Projekt ist, wurde mit besonderer Aufmerksamkeit auf nationale Unterschiede der Neuen Medien in der curricularen Einbindung geachtet. Dieser übergreifende Ansatz dient der Etablierung eines Erwartungshorizontes was einerseits die Durchsetzung einzelner Fächer angeht, als auch die Vergleichbarkeit von Studienleistungen und damit die Möglichkeit, auswärts erworbene Qualifikationen an der Heimatuniversität anerkennen zu lassen.

Entwicklung

ACO*HUM begann am 1. September 1996 und durchlief vier Phasen bis Ende Oktober 2000. Das letzte Jahr der Förderung war angelegt, um die Erfahrungen auszuwerten, spezifische Ergebnisse für einen interessierten Rezipientenkreis aufzubereiten und sie dauerhaft zur Verfügung zu stellen. Koordiniert wurde ACO*HUM von Koenraad de Smedt an der Universität Bergen in Norwegen. Als Projektleiter fiel ihm die Aufgabe zu, die einzelnen Subkommittees zu koordinieren, die Auswahl der Fachgutachter und Experten sicherzustellen, die Fertigstellung der Jahresberichte über den Fortgang des Projekts zu garantieren und sie an die finanzierenden Stellen weiterzuleiten. Unter seiner Ägide und Herausgeberschaft entstand der Projektbericht mit den Stellungnahmen der einzelnen Fachgruppen und den abschließenden Vorschlägen und Entwürfen zu einer verbesserten Integration computerunterstützter Arbeit in bereits bestehende oder noch zu entwickelnde Curricula.[7]

Es wurden folgende sechs Arbeitsgruppen gebildet, die sich aus unterschiedlichen Perspektiven mit Fragen des Humanities Computing auseinandersetzten:

Computerlinguistik, Sprachverarbeitung

Geschichte und historische Informatik

Computeranwendungen in Kunstgeschichte, Architektur und Gestaltung

Computeranwendungen in nicht-europäischen Sprachen

Textwissenschaft und Computeranwendungen in den Geisteswissenschaften

Formale Methoden in den Geisteswissenschaften

Aus der Übersicht wird deutlich, welche inhaltlichen Schwerpunkte beziehungsweise welche Fächer/Fächerkombinationen für besonders relevant im Kontext von ACO*HUM angesehen werden. Gleichzeitig wirft die Unterteilung eine Vielzahl von Fragen auf, die sich nicht nur aus der mitunter inhaltlich problematischen Abgrenzung der Arbeitsbereiche ergeben, sondern die in den methodischen Bereich der Aufgabendefinition hineinreichen: handelt es sich, beispielsweise, bei der Gruppe Formale Methoden in den Geisteswissenschaften nicht um eine Gruppe, die den Metadiskurs zu den übrigen Arbeitsgruppen führt? Und inwieweit unterscheiden sich Computeranwendungen in nicht-europäischen Sprachen methodisch von Computeranwendungen in europäischen Sprachen – inwieweit diktiert das Untersuchungsmedium die Methodenwahl und Methodendiskussion? Auch zeigen sich deutliche Überschneidungen zwischen der Arbeitsgruppe »Textwissenschaft und Computeranwendungen in den Geisteswissenschaften« mit Teilbereichen der Computerlinguistik, so dass die – im Kontext der ACO*HUM-Konferenzen immer wieder kontrovers diskutierte – Aufteilung des Projekts bereits in der Anfangsphase die Auseinandersetzung mit wissenschaftstheoretischen und nicht zuletzt unterschiedlich kulturell geprägten Vorannahmen herausforderte.

Methodendiskussion

Die mitunter leidenschaftlich geführte Diskussion um inhaltliche und konzeptionelle Grundannahmen verdeutlicht ganz besonders, inwieweit das Selbstverständnis der unterschiedlichen Disziplinen im Bereich methodologischer Fragestellungen durch Überschneidungen gekennzeichnet ist. Gerade bei der Bewertung formalisierbarer Ansätze wurden Grundfragen der unterschiedlichen Disziplinen in einer Weise thematisiert, die die Bedeutung von ACO*HUM für die Positionsbestimmung der Geisteswissenschaften in der heutigen Informationsgesellschaft problematisiert. Neben dem Selbstverständnis einzelner Fächer wurde auch deutlich, in welcher Weise sich Inhalte und Methoden in den Curricula wiederfinden und wie in den Fächern und Disziplinen auf die Veränderung von Schlüsselqualifikationen der Absolventen reagiert wird. In diesem Zusammenhang war unmittelbar auch die Bewertung bereits vorhandener Curricula eingeschlossen, sowie die Ausarbeitung von Vorschlägen und Richtlinien für neu zu planende Studienfächer.

Grundsätzliche Probleme stellten sich in den Bereichen ein, in denen ein Metadiskurs über Methoden, und hier speziell über Verfahren einer sinnvollen Formalisierung, die inhaltlichen Begrenzungen der Arbeitsgruppen aufzuheben drohten. Daher ist die Einrichtung einer methodisch übergeordneten Arbeitsgruppe zu Formal Methods als der Versuch zu bewerten, die aus der Diskussion gewonnenen Einsichten über die grundlegend gleichen Verfahrensweisen in bestimmten Bereichen auch unterschiedlicher Fächer übergreifend zu betrachten und ein möglicherweise einheitliches Anforderungsprofil für den Computereinsatz in den Geisteswissenschaften zu entwerfen.

Die Arbeitsgruppe zu formalen Methoden wurde 1997 als Ergebnis einer gemeinsamen Diskussion während der ACO*HUM Konferenz gegründet. Ihr anfängliches Fehlen kann als implizite Annahme gewertet werden, dass unter den (geisteswissenschaftlichen) Initiatoren und Gutachtern Konsens über das Vorhandensein übertragbarer, über alle Disziplinen hinweg gültiger formaler Methoden herrschte. Der inhaltliche Beitrag dieser Arbeitsgruppe offenbart, dass es tatsächlich solche unausgesprochenen Prämissen gibt, dass sie aber auch im Interesse der Vergleichbarkeit curricularer Gestaltungsprinzipien in Europa übergreifend dargestellt werden müssen. Da es bei der Feststellung formaler Verfahren um die Erfassung, Definition und Bündelung übergreifender geisteswissenschaftlicher Prozeduren und Methoden geht, wurde die Arbeitsgruppe deshalb den auf einzelne Disziplinen ausgerichteten Arbeitsgruppen methodisch übergeordnet beziehungsweise vorangestellt. Grundsätzlich besteht Konsens darin, dass sich die Geisteswissenschaften durch die Einführung formaler und computerbasierter Methoden grundlegend ändern; die Reflexion über und der Einsatz von formalen Methoden in den Geisteswissenschaften ist durch den Einsatz elektronischer Medien möglich und notwendig geworden. Skizziert werden diese Methoden von ACO*HUM als die Digitalisierung von Sprache und Kunst, als der Einsatz von künstlicher Intelligenz, die Einführung von Computersimulationen und die Integration der Neuen Medien in den Kanon etablierter (philologischer) Techniken.[8]

Hierbei ist zu betonen, dass ein Unterschied besteht zwischen Computerwissenschaft und Computertechnologie: die Wissenschaft beschäftigt sich mit Computersprachen und der formalen Abbildung der Wirklichkeit, auch mit Prozessen der Formalisierung und ihrer Anwendung in der realen Welt. Hier ist die kritische Reflexion und anschließende Übertragung von ausgewählten Methoden auch in die Geisteswissenschaften relevant. Bei der Diskussion dieses Übertragungsprozesses geht es primär um formalisierte Anwendungen, nicht um Informationswissenschaft, elektronische Kommunikation oder Multimedia, denn für Geisteswissenschaftler und die Applikation formaler Methoden über die Grenzen der Disziplinen hinweg geht es vorrangig um Methodenkompetenz, nicht um technische Fähigkeiten.

Prozesse der Automatisierung und Formalisierung sind mehrheitlich neue Aspekte, die in den Geisteswissenschaften eine zunehmende Rolle spielen. Besonders in der Sprachbearbeitung, der Codierung, der Datenbankkonzeption und bei der Analyse von Textphänomenen in der Literaturwissenschaft gilt es, sinnvolle Verfahren von solchen zu trennen, die dem reinen Selbstzweck dienen. Deshalb geht es ACO*HUM besonders um die Bewertung übertragbarer formaler Methoden:

We are dealing with methods, that is, the canon (or set of tools) needed to increase the knowledge agreed to be proper to a particular academic field. And we restrict ourselves to those methods that can profit from the use of computational tools and concepts. Since this approach invariably requires the ability to make enquiries according to formally defined specifications, we speak about formal methods.[9]

Intersubjektivität formaler Methoden

Die Grundüberlegung aller ACO*HUM-Arbeitsgruppen basiert auf der Vorstellung, dass formale Methoden in den Geisteswissenschaften Ergebnisse liefern, die durch empirischen Datenbefund gekennzeichnet sind.[10] Elektronische Verfahren dienen demnach dem wissenschaftlich überprüfbaren, im Idealfall intersubjektiven Zugang zum Untersuchungsobjekt Text, Bild und Film. Dieser Zugang wird dann ermöglicht, wenn eine möglichst umfangreiche oder sogar vollständige Erhebung des Datenbestandes und der Untersuchungsobjekte erfolgt. Eine solche Bestandserfassung ist durch den Einsatz von formalen Methoden bei der Fragestellung und in der Phänomenbeschreibung gewährleistet; diese basieren auf binären Unterscheidungen und greifen auf Grund eines eindeutig definierten, überprüfbaren und nach vergleichbaren Methoden veränderbaren Merkmalkatalogs auf den Gegenstand, beispielsweise den Text, zu. Die anschließende Überführung des Befunds in eine empirisch verifizierbare Umgebung statistischer Auswertung[11] führt allerdings zu vielfältigen Problemen, die unmittelbar mit dem Selbstverständnis der Geisteswissenschaften zu tun haben.

Die Kritik, die häufig gegenüber den Geisteswissenschaften von Seiten der Naturwissenschaften geäußert wird, liegt meist darin begründet, dass Ergebnisse mitunter willkürlich, nicht nachvollziehbar erscheinen. Die Verfahren der Ergebnisfindung, nochmehr aber der scheinbar selektive und willkürliche Zugang zum Untersuchungsobjekt und die exemplarische Auswahl von Ergebnissen erlaubt aus dieser Sicht die Kritik, dass Ergebnisse bereits vor der Analyse feststehen und beispielsweise durch eine teleologische Auswahl nicht zwingend repräsentativer Textpassagen untermauert werden. Eine alternative Lesart eines Textes lässt sich nach dieser Einschätzung mit anderen, aber auch aus dem gleichen Text gewonnenen Beispielen ebenso beweisen.

Ein derartiger Vorwurf missversteht grundsätzliche Anliegen der Philologie, die sich oft genau solchen Phänomenen widmet, die nicht durch eindeutige, binär strukturierte Kategorien zu erfassen sind. Die Möglichkeiten auszuloten, in welchen Bereichen der Philologie aber ein solches formalisierendes Denken und Vorgehen sinnvoll einsetzbar ist, bestimmt einen maßgeblichen Teil der Ausbildung im Bereich fortgeschrittener Computeranwendungen und rechtfertigt deshalb den Einsatz einer eigenen Untersuchungsgruppe für ACO*HUM. Hier wird die Methodendiskussion in Kenntnis der Paradigmen des eigenen Fachs um interdisziplinäre Aspekte erweitert, die unter Umständen einen geschärften Blick auch für die Anforderungen der eigenen Disziplin erlauben.

Im Bereich der auf die Analyse von Text ausgerichteten Wissenschaften lassen sich formale Methoden dann erkenntnisunterstützend einsetzen, wenn sie sich an klar definierten Oberflächenphänomenen von Text orientieren. Denn in genau diesem Bereich gelten formale Methoden als besonders sinnvoll, denn sie zwingen zur Offenlegung aller Prämissen, die die jeweiligen Fragestellungen bestimmen. Diese Grundannahmen müssen eindeutig formuliert sein, und sie sollten, wenn sie auf elektronische Verfahren der Textanalyse übertragen werden, den Untersuchungsgegenstand präzise definieren. Denn wenn beispielsweise nach bestimmten Oberflächenphänomenen in Texten gesucht wird (Wiederholungen, Namen, syntaktische Strukturen et cetera), muss die Suchanfrage genau das Gesuchte und nicht zahlreiche ähnliche Phänomene erbringen. Werden Ergebnisse gewonnen, die formal den Suchkritieren entsprechen, inhaltlich aber nicht relevant sind, kann hier auf eine unscharfe Definition im Bereich der Formalisierung geschlossen werden, oder die Grenzen der Disambiguierung sind erreicht. Die Entscheidung hierüber liegt in der Analyse und Interpretation auf der Basis von Expertenwissen, dem aber der gesamte Befund zur Verfügung steht. An dieser Stelle ist mit elektronischen Verfahren das Durchsuchen auch großer Textmengen nach stringenten Fragestellungen und Anforderungsprofilen möglich: der Computer stellt sicher, was selten ein menschlicher Leser vermag, der Problematik des hermeneutischen Lesens zu entgehen und die anfänglich formulierte Fragestellung unverändert auf einen oder mehrere beliebige Texte anzuwenden. Die Materialbasis kann dabei, theoretisch zumindest, unendlich sein; sie ist begrenzt durch die Totalität allen Textes (wenn Text der Untersuchungsgegenstand ist) und stellt damit ein Novum für die Geisteswissenschaften dar.

Das Ergebnis einer solchen stringent durchgehaltenen Suche, die nach formalisierbaren Suchkriterien ausgerichtet ist, kann für sich den Anspruch erheben, einen vollständigen Datenbefund zu liefern. Nicht mehr impressionistisches Vorgehen eines selektiv auswählenden Lesers wird hier zur Grundlage der Materialauswahl, die interpretiert wird, sondern die unbestechliche, vollständige Erhebung aus dem gesamten Text. Der wissenschaftliche Anspruch intersubjektiver Analyse ist so gewährleistet, denn zumindest im einleitenden Prozess der Identifikation und Extraktion von Untersuchungspassagen kann auf Grund formalisierter Verfahren das Ergebnis ohne Abstriche reproduziert werden. Jede weitere Veränderung der Fragestellung führt dementsprechend zu veränderten Ergebnissen; alle aber haben Bestand vor der Kritik der Willkürlichkeit und impressionistischem Vorgehen.

Es ist an dieser Stelle offensichtlich, dass derartige Verfahren formalisierter Analyse in der Literaturwissenschaft nur auf bestimmte Textphänomene anwendbar sind. Zum einen liegt hier ein Textbegriff zu Grunde, der dem Text einen stabilen Charakter zuschreibt und der aus der Manifestation eines Phänomens auf der Textoberfläche auf bestimmte Prozesse im Rezipienten zurückschließen lässt. Absenzen, Lücken oder Impliziertes lassen sich ohne Vorbereitung in Form von interpretierend eingesetzter Codierung auch durch formalisierte Suchverfahren nicht erfassen; im Gegenteil stellt sich oft das Problem, dass formalisierte Verfahren in der Philologie die falsche Gewissheit von empirisch abgesicherter und damit verifizierbarer, geradezu naturwissenschaftlicher Vollständigkeit erwecken. Dieses Problem ist ein entscheidender Punkt in der Ausbildung zu fortgeschrittenen Computeranwendungen in den Geisteswissenschaften, denn bereits bei der Formulierung von formalisierten Fragen werden schnell die Grenzen dessen deutlich, was in den Geisteswissenschaften in diesem Bereich möglich ist. Denn während ein Großteil traditioneller Fragestellungen an Texte, wie sie beispielsweise in der Bibelexegese mit einem Anspruch an den kompletten Textbefund gestellt wurden, mit elektronischen Verfahren sehr effektiv formuliert und beantwortet werden können, so besteht ein Großteil literaturwissenschaftlicher Arbeit im interpretierenden Zugriff auf Textphänomene, die sich nicht einer formalen Fragestellung erschließen, da sie nicht auf der Textoberfläche abgebildet werden.

Selbst wenn die zunehmende Bedeutung von Codierung, und in diesem Fall interpretierende Codierung, berücksichtigt wird, die sich als das Markieren von Textphänomenen durch ausgewiesene Experten der Philologie versteht und damit weit entfernt ist vom fast mechanischen Disambiguieren beispielsweise syntaktischer Konstruktionen in Corpora oder von Eigennamen in literarischen Texten, sind die Grenzen formaler Methoden relativ eng definiert.

Hierbei stellt sich folgendes Problem, das aber auch symptomatisch für die Ausbildung in geisteswissenschaftlichen Computeranwendungen generell in Europa zu sein scheint: Zum einen findet eine Hinführung und Ausbildung im Bereich sinnvoller Computerunterstützung in den meisten Fällen als Teil eines Curriculums innerhalb eines bestimmten Fachs oder Fachbereichs statt. Hierbei ist zu beobachten, dass formale Ansätze nicht als solche eigenständig unterrichtet werden, sondern eingebettet in den Kontext etablierter Fachausbildung (beispielsweise der Philologie, Archäologie oder der Kunstgeschichte) als Teil des jeweiligen Fachs aufgefasst werden. Die Computeranwendung stellt sich hier als die natürliche Fortsetzung eines solchen Denkens dar und wird nicht als formalisiertes Verfahren gesehen, das sich an fächerübergreifenden Prinzipien orientiert darstellt.

Damit wird sowohl der im Grunde ausgeprägte Transfercharakter solchen Arbeitens vielen Studierenden nicht offensichtlich und gleichzeitig wird potentiell Redundanz in der Lehre produziert. Hier ganz besonders kann nach den Erfahrungen von ACO*HUM auf britische Vorbilder wie das Oxford Computing Centre oder King's College, London, aber auch auf die Ausbildungsgänge an der Universität Bergen in Norwegen verwiesen werden. In all diesen Zentren werden, neben eigenständigen Ausbildungsgängen im Bereich der Neuen Medien, auch separate Kurse zu formalen Methoden in den Geisteswissenschaften angeboten, die sich nicht als propädeutisch, sondern als integrativ-komplementär zum traditionellen Studienangebot der übrigen Fächer verstehen. In diesen Forschungszentren wird demnach ein Metadiskurs über solche Verfahren genau genommen fächerunabhängiger Ansätze als integraler Bestandteil der Hochschulausbildung verstanden. Hervorzuheben ist dabei auch der Punkt der Vermittlung von Schlüsselqualifikationen, wobei hier gerade die Übertragbarkeit von Techniken und Verfahrensweisen als wichtige Argumente für die Einrichtung von übergreifenden Kursen ist. Wichtig erscheint in diesem Zusammenhang, dass die Übertragbarkeit und Anrechenbarkeit von Leistungsnachweisen gewährleistet ist und es somit den Studierenden ermöglicht, in ihr jeweiliges Studienprofil Ausbildungsstufen zu integrieren, die sie für ihr Studienfach qualifizieren und ihre Chancen auf dem Arbeitsmarkt verbessern, ohne die Studiendauer zu verlängern.

Forschungszentren nach britischem und skandinavischem Muster finden sich, in Ansätzen, auch in Deutschland. Hier allerdings wird ein anderes Ziel verfolgt, denn nicht fächerübergreifendes Lernen und Lehren wird favorisiert, sondern deutsche Universitäten verlagern die methodische Grundlagenvermittlung in die einzelnen Fächer und Disziplinen. Ausnahmen wie beispielsweise die Arbeitsgruppe zur Literarischen und Dokumentarischen Datenverarbeitung (LDDV) an der Universität Tübingen wurden speziell für die methodische, konzeptionelle und praktische Unterstützung von Computeranwendungen in den Geisteswissenschaften konzipiert.[12] Symptomatisch für das produktive Zusammenspiel von geisteswissenschaftlichen Computeranwendungen und einer speziellen Forschungseinrichtung ist in diesem Kontext das Tübinger System von Textverarbeitungsprogrammen TUSTEP.[13] Dieses leistungsfähige und deshalb international verbreitete Werkzeug wurde in Tübingen von Wilhelm Ott entwickelt, und nach wie vor wird der Leistungsumfang nach den Bedürfnissen der Benutzer erweitert.

An solchen Beispielen wird deutlich, dass das Zusammenspiel von übergreifender Methodendiskussion im Kontext eines auf die spezifischen Bedürfnisse geisteswissenschaftlicher Benutzer zugeschnittenen Angebotsprofils und der Bereitstellung praktischer Expertisen die Leistungsfähigkeit geisteswissenschaftlicher Computeranwendungen erheblich steigert. Allerdings sind solche Zentren und damit die fächerunabhängige Bereitstellung konstruktiv einsetzbarer praktischer Fähigkeiten und genuin interdisziplinären Methodenwissens in Deutschland nach wie vor die Ausnahme.

Arbeitsgruppe Textual Scholarship and Edition Philology

Exemplarisch soll die Arbeit dieser Arbeitsgruppe herausgegriffen werden, um einige der spezifischen Fragen zum Computereinsatz in den Geisteswissenschaften zu beleuchten. Diese Gruppe wurde ursprünglich als Textual Scholarship and Repositories zur Untersuchung von textwissenschaftlichen Fragestellungen und Problemen von Datenbeständen konzipiert. Da aber die Editionsphilologie eine wichtige Rolle besonders auch für die Aufbereitung von elektronischen Texten vor der eigentlichen Bereitstellung für den Nutzer spielt, erschien die inhaltliche Reduzierung auf Speicherung und Archivierung (»repositories«) als Einschränkung in einem zentralen philologischen Bereich. Bereits aus der Umformulierung des Titels lässt sich ablesen, welchen hohen Stellenwert elektronische Texte mittlerweile für die Geisteswissenschaften einnehmen; nicht zuletzt die Bemühungen der TEI (Text Encoding Initiative)[14] im Zusammenspiel mit der ALLC (Association for Literary and Linguistic Computing), die ihren Schwerpunkt in Europa hat und der nordamerikanischen ACH (Association for Computing in the Humanities).[15]

Eine zentrale Rolle beim Einsatz formaler Methoden in den Geisteswissenschaften kommt aus Sicht der Arbeitsgruppe der Textauszeichnung, der Codierung als Phänomenidentifizierung mit metatextuellen Signalen, zu. Denn wenn neben automatischer und semiautomatischer Codierung auch Verfahren interpretierender Rezeption ihre Spuren im Text als Codierung hinterlassen, dann kann über Suchanfragen auf spezielle Textphänomene zurückgegriffen werden, die nur über die Formalisierung im metatextuellen Bereich ermöglicht werden. Interpretierendes Rezipieren hinterlässt auf diese Weise eine ›Spur‹ in Form von Codierung im Text, und da sich diese Spur deklarierter Elemente bedient, die im DTD am Dateianfang definiert sind, können sie mit entsprechenden Suchanfragen lokalisiert werden. Hierbei handelt es sich immer noch um Interpretationen des durch einen Leser Rezipierten, denn die Vergaben entsprechender Codierungen ist nicht zwingend in dem Maße intersubjektiv nachvollziehbar, wie das beispielsweise bei syntaktischen Phänomenen, definierten Einzelnamen oder Reimen der Fall ist. Erst der Prozess des Lokalisierens der durch Codierung ausgewiesenen Passagen erfolgt dann nach formalen, klar intersubjektiv definierten Kriterien.

Es ist daher wenig überraschend, dass die Arbeitsgruppe, die sich in erster Linie aus Literaturwissenschaftlern und texttheoretisch arbeitenden Computerphilologen zusammensetzte, bei der Auseinandersetzung um die adäquate Einordnung von Studieninhalten zwangsläufig mit dem Problem der Textualität konfrontiert wurde. Denn bei dem Umgang mit elektronischen Daten, speziell aber mit elektronischen Texten, müssen Fragen nach dem zu Grunde liegenden Textbegriff gestellt werden: Um welche Texte beziehungsweise Textsorten es sich handelt, wie diese Texte vorbereitend ausgezeichnet (codiert) sein müssen, um philologisch auswertbar zu sein, für welche Zwecke diese Texte wissenschaftlich verwendet werden sollen und in welcher Form sie gespeichert und zur Verfügung zu stellen sind. Hiermit sind solche Fragestellungen angesprochen, die auf den philologischen Bedarf an elektronischen Texten ausgerichtet sind. In erster Linie sind damit Primärtexte gemeint, also literarische oder expositorische Texte, die als der eigentliche Untersuchungsgegenstand literatur-, kultur- oder sprachwissenschaftlicher Analyse dienen.

Diese Texte werden nicht nur erfasst und als elektronische Datei bereitgehalten, sondern sie müssen auch nach philologischen Kriterien aufbereitet werden. Bereits dieser Schritt der Aufbereitung erfolgt nach Kriterien, wie sie beispielsweise von der TEI entwickelt, beschrieben und technisch implementiert werden. Hier schon zeigt sich, dass Methoden konsequenter und stringenter Formalisierung notwendig sind und ihren Einsatz finden, um Texte für philologische Fragestellungen sinnvoll vorzubereiten. Solche Verfahren verlangen auch von Philologen ein Wissen um Textstrukturen und Methoden der Textanalyse, die sich reibungslos in den Kontext sprachwissenschaftlicher Analyse einreihen lassen; formalisierbare Ansätze in der Literatur- und Kulturwissenschaft aber mögen nicht allen interpretierend philologisch Tätigen als regulärer Bestandteil der Beschäftigung mit Texten, literarischen besonders, unmittelbar einleuchtend sein, trotzdem spielen sie eine große Rolle auch bei dieser Arbeit.

Entscheidend für den Einsatz elektronischer Medien in den Geisteswissenschaften ist daher, dass sich Lehrende und Studierende über die Möglichkeiten und Grenzen im Klaren sind und dass besonders im Bereich der Ausbildung eine weitere Schlüsselkompetenz zum Katalog der vermittelten Fähigkeiten hinzutritt: die Fähigkeit, formale Kriterien zu entwickeln, sie auf ihre Brauchbarkeit zu überprüfen und gegebenenfalls auch auf solche Untersuchungsgebiete zu übertragen, die sich nicht unmittelbar anzubieten scheinen. In diesem Bereich nimmt die TEI-konforme Codierung einen besonderen Stellenwert ein, da hier Kriterien zum Einsatz kommen, die von philologisch geschulten Experten vorgegeben wurden und die als Teil eines flexibel definierten Katalogs auch in solchen Bereichen zum Einsatz kommen, die nicht rein universitär sind, sondern die an der Schnittstelle zwischen Wissenschaft und Forschung einerseits und der Industrie andererseits anzusiedeln sind. Alle Arbeit mit elektronischen Texten, Dokumenten, auch Bild, Film und Ton bedarf der Codierung, um Suchanfragen zuverlässig und programmunabhängig zu gewährleisten. Hierin liegt die Arbeit der TEI, deren philologische Arbeit und internationale Bedeutung für die wissenschaftliche Harmonisierung von Textdatenmaterial durch ACO*HUM ausdrücklich gewürdigt wird, und das Zusammenwachsen von Verlags- und Publikationsarbeit im kommerziellen Bereich mit wissenschaftlichen Aktivitäten an den Universitäten hat zur Herausbildung von Tätigkeitsprofilen geführt, die die zunehmende Bedeutung formaler Methoden in den Geisteswissenschaften besonders unterstreichen.

So sind alle Fragen, die sich im weitesten Sinne mit Phänomenen der Textoberfläche beschäftigen und der Auseinandersetzung mit konkret beobachtbaren textuellen Phänomenen dienen, im Grunde formalisierbar und damit über (elektronische) Automatismen identifizierbar, lokalisierbar und extrahierbar. Das Wissen um die Formalisierbarkeit bestimmter Verfahren besonders in den ›Text Based Disciplines‹ definiert bis zu einem gewissen Grad das Spektrum möglicher Anwendungen, und es erfordert in der vorbereitenden Phase der Textdatenaufbereitung eine detaillierte Auseinandersetzung mit dem Objekt ›Text‹ als dem eigentlichen Untersuchungsgegenstand. Damit wird von den Arbeitsgruppen in ACO*HUM nicht das Argument vertreten, alle Fragen an Texte in das elektronische Medium zu übertragen, sondern genauso wie es eine ausdifferenzierte Wissenschaft vom Buch als medialem Objekt gibt, die den Untersuchungsgegenstand adäquat aufbereitet, muss sich auch die Philologie als Wissenschaft begreifen, die Erkenntnisse über Texte und Textstrukturen bereitzustellen in der Lage ist. Dieses Wissen um die Natur von Text und die Auseinandersetzung mit der allgegenwärtigen Durchsetzung der Philologien mit Computeranwendungen setzt eine kritische Positionsbestimmung voraus, die für die Literatur-, Kultur- und Sprachwissenschaften heute unabdingbar ist. Nicht zuletzt an dieser Stelle ist der Kontakt von Wissenschaft und Industrie zu bedenken, denn »collecting, maintaining, and using textual data provides one of the areas that allow academia and industry (eg academic repositories and commercial publishers) to merge know-how and resources.«[16]

Ziele für Forschung und Lehre

Im Rahmen von ACO*HUM wurde die Rolle der Informationstechnologie für die Geisteswissenschaften untersucht, mit besonderem Schwerpunkt auf zwei zentralen Bereichen: einerseits sollen das Potential und die Möglichkeiten einer den heutigen Gegebenheiten angepassten Forschungslandschaft ausgelotet werden, andererseits soll gleichzeitig die Ausgestaltung von Curricula mitbedacht werden. Hierbei spielt es eine besondere Rolle, dass Verfahren einer modularen Ausbildung konzipiert und umgesetzt werden, bei denen die Übertragbarkeit von Wissen und Techniken über die Grenzen traditioneller Disziplinen hinaus gewährleistet ist. Hierunter fällt auch die Forderung nach der internationalen Anerkennung von Ausbildung, nicht zuletzt im Rahmen des CTS.

Daraus ergeben sich weit reichende Forderungen an die Ausbildung im universitären Bereich von Computeranwendungen in den Geisteswissenschaften: Es muss gewährleistet sein, dass Studierende dem Gebot möglichst umfassender akademischer Bildung und Horizonterweiterung nachkommen können. Dazu müssen ihre Leistungsnachweise übertragbar sein, international anerkannt und akzeptiert werden und nach vergleichbaren Maßstäben vergeben werden.

Darüber hinaus muss auch sichergestellt sein, dass Lehrende der Geisteswissenschaften in ausreichendem Maße auf die Anforderungen eines sich verändernden Anforderungsprofils ihrer Fächer im Bereich der Neuen Medien eingestellt sind. Hier spielt es eine ganz besondere Rolle, dass fortgeschrittene Fähigkeiten – sowohl in methodologischer als auch in praktischer Hinsicht – ausreichend ausgebildet werden. Die Stichwörter Modularität, Interdisziplinarität und Internationalität kennzeichnen daher das Anforderungsprofil einer leistungsfähigen und zeitgemäßen Ausbildung in Verfahren geisteswissenschaftlicher Computeranwendungen, sowohl für Studierende als auch für Lehrende.

Neben den inhaltlichen Zielvorgaben ergeben sich aus den in den ACO*HUM-Richtlinien festgehaltenen Vorschlägen auch praktische Forderungen an eine Hochschulausbildung, die den Anforderungen der modernen Informationsgesellschaft Rechnung tragen: hier ist besonders der Zugang zu und die Bereitstellung von akademisch verwertbaren Materialien zu betonen. Sprach- und Textmaterial, geisteswissenschaftliche Datenbanken und digitalisierte Archive stellen nur einen kleinen Teil der Ressourcen dar, die für Wissenschaft und Forschung erschlossen sein müssen. Hierbei ist es vordringlich notwendig, auch dezentralen Zugang zu gewähreisten und die Infrastruktur flächendeckend auf ein international vergleichbares, angemessen hohes Niveau zu bringen. Nur so ist gewährleistet, dass Methodenkenntnisse und Anwendungskompetenz in der Informationstechnologie für die Geisteswissenschaften den Status von Herrschaftswissen verlieren und es allen Lehrenden und Studierenden möglich ist, Schlüsselqualifikationen zu erwerben, sich erfolgreich auf dem Arbeitsmarkt zu positionieren und sich konstruktiv an der Gestaltung der Informationsgesellschaft zu beteiligen.

Der integrative Charakter einer Ausbildung, die auf hohem theoretischem und praktischem Niveau angesiedelt ist, wird im Selbstverständnis von ACO*HUM besonders betont. Nicht zuletzt aus dieser Haltung ergibt sich die Notwendigkeit, über Möglichkeiten einer dezentralen Ausbildung als »Open and Distance Learning« (ODL) nachzudenken. Gerade die Informationstechnologie bietet für diesen Bereich besondere Möglichkeiten, die in den Geisteswissenschaften bisher noch nicht in allen Ländern Europas gleichermassen und vollständig erschlossen sind.

Eine wichtige Aufgabe von ACO*HUM und speziell der Publikationen, die einen zentralen Teil dieses Projekts ausmachen, sind deshalb die folgenden Zielvorgaben einer weitgefächerten Informationspolitik, die die verschiedenen Stufen der Universität umfassen:

die Bereitstellung von Informationen für Studierende, die sich über die Anerkennung ihrer Studienleistungen und über Möglichkeiten einer computerbasierten Ausbildung auf hohem Niveau informieren möchten,

die Information von Lehrenden, die auf die Ausgestaltung des Curriculums Einfluss nehmen wollen und über Verfahren an anderen (europäischen) Hochschulen und Forschungseinrichtungen informiert sein wollen,

der Zugriff auf eine Wissensdatenbank für Entscheidungsträger in der Universitätsverwaltung, die an Standards für international vergleichbare Ausbildungsgänge interessiert sind, weil sie solche Standards einführen wollen oder diese bereits eingeführt sind. Das Wissen darüber kann beispielsweise für die finanzielle Förderung bestimmter Programme an der Heimatuniversität wichtig sein.

Für alle diese Gruppen mit ihren unterschiedlichen Erwartungen und Anforderungsprofilen versteht sich ACO*HUM als Anlaufstelle und Informationsbasis, die einen Überblick über das Feld bietet. Hierbei ist es für die Glaubwürdigkeit von ACO*HUM wichtig, dass die Gutachter, die in den einzelnen Gruppen Informationen zusammengetragen haben und anschließend gemeinsam und im Rückgriff auf die Expertise auch anderer Arbeitsfelder ihren eigenen Bereich evaluiert haben, in ihren Heimatländern selbst maßgeblich an der Ausgestaltung beispielsweise von Curricula oder Fördermöglichkeiten beteiligt sind.

Die Gutachten in Form von Bewertungen und Vorschlägen zur Curriculumsgestaltung sind daher zu verstehen als der Versuch, einen unvoreingenommenen Überblick aus gesamteuropäischer Perspektive zu leisten. Dafür ist es auch wichtig, dass die unterschiedlichen Arbeitsgruppen mit Fachgutachtern aus den beteiligten Ländern Europas besetzt wurden und dass gleichzeitig der Versuch unternommen wurde, auch außeruniversitäre Einrichtungen wie Museen, Archive und Forschungsstellen an ACO*HUM mit zu beteiligen. Der aus dieser sehr engen Kooperation entstandene Überblick gewährleistet, dass die Ergebnisse von ACO*HUM nicht nur für den vergleichsweise engen Bereich der universitären Geisteswissenschaften, sondern auch darüber hinaus gültig und anwendbar sind. Es wäre in einem nächsten Schritt zu überlegen, welche Rolle die Industrie (Verlage, Softwarefirmen, Lehrmittelproduzenten et cetera) in diesem Bereich spielt und inwieweit es sinnvoll erscheint, die Definition von Anforderungsprofilen und Schlüsselqualifikationen auch mit den potentiellen Arbeitgebern der Absolventen geisteswissenschaftlicher Fächer abzustimmen.

Vorläufige Ergebnisse

Die Ergebnisse und Einsichten, die aus ACO*HUM gewonnen werden können, lassen sich in zwei Gruppen unterteilen: zum einen ist es ein unbestreitbarer Gewinn für die Zielgruppe (Studierende, Lehrende, Administratoren), konkret über Angebote auf dem Gebiet geisteswissenschaftlicher Computeranwendungen informiert werden zu können. Das Sammeln, Aufbereiten und dauerhafte Bereitstellen von aktuellen und beständig aktualisierten Informationen ist als zentrale Aufgabe ACO*HUMs anzusehen, und hier ist ein wichtiger Beitrag zur Transparenz europäischer Angebote im Bereich der Humanities geleistet worden.

Die zweite Gruppe von Ergebnissen betrifft die Bewertung des erfassten Angebots an den unterschiedlichen Universitäten. Es ist wenig überraschend, dass das Spektrum an differenzierten Lehrangeboten zu fortgeschrittenen Computeranwendungen in den Geisteswissenschaften, und hier besonders der einzelfachunabhängige Metadiskurs über Methoden und Verfahren, an britischen und skandinavischen Universitäten sehr ausgeprägt ist. Hierin äußert sich eine Entwicklung, die sich über die letzten Jahre abgezeichnet hat, denn in diesen Ländern wird innovatives Wissenschaftsverständnis mit unmittelbarem, breit gestreutem und problemlosem Zugang zu neuester elektronischer Infrastruktur kombiniert.

Wenn die nationale Beteiligung an den internationalen Konferenzen der beiden führenden Organisationen in diesem Bereich, der ALLC und der ACH, als Orientierungspunkt genommen wird, dann spiegelt das Ergebnis der ACO*HUM-Untersuchung zum Lehr- und Lernangebot diese Verteilung wieder: die meisten Vorträge auf diesen Konferenzen kommen aus Skandinavien, Großbritannien, den USA und Deutschland. Der Anteil der übrigen europäischen Länder, besonders Frankreich, Spanien und Italien sowie Osteuropa, ist dagegen vergleichsweise niedrig.[17] Diese Situation, die auf eine vergleichsweise schlechte elektronische Infrastruktur und im Bereich computerunterstützten Arbeitens in den Geisteswissenschaften auf eine traditionell ausgerichtete Lehrsituation zurückgeführt wird, ist bedauerlich, aber bekannt. Dass allerdings ACO*HUM für die deutsche Hochschullandschaft ein Auseinanderklaffen zwischen Lehr- und Forschungsangebot konstatiert, ist bemerkenswert. Denn die Bundesrepublik ist auf Konferenzen und im Publikationsindex relativ gut vertreten; Forschungsprojekte zum Einsatz elektronischer Verfahren werden gefördert, einzelne Wissenschaftler und Institute sind international renommiert und weltweit in der Spitzengruppe anzusiedeln.

Dagegen scheint aber die fächerunabhängige Methodendiskussion, der methodisch fundierte Einsatz formalisierter Verfahren in den Geisteswissenschaften, in Deutschland jeweils fächerspezifisch vermittelt zu werden. Die potentielle Redundanz dieser Lehrorganisation, die in Skandinavien und Großbritannien mit Erfolg auf fachunabhängige Lehr- und Forschungseinrichtungen übertragen wird und dadurch selten zu beobachten ist, erscheint in Deutschland dagegen noch als ein strukturelles Hindernis. Hier besteht nach den Erkenntnissen des internationalen Vergleichs von ACO*HUM deutlicher Handlungsbedarf, denn es mangelt weder an technischer Ausstattung, noch an Interesse der Studierenden oder Kompetenz der Lehrenden. Wie der Deutsche Hochschulverband mitteilt, bestätigt eine neue Studie im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF) zur Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung die Ergebnisse des ACO*HUM Berichts: »Nur in jeder 20. Fakultät ist die Förderung der Informationskompetenz als Bestandteil der zu erwerbenden wissenschaftlichen Qualifikation in der Prüfungsordnung verankert.«[18] Wenn der organisatorische Reibungswiderstand, der im Moment in Deutschland durch starre Curricula und ein traditionelles Verständnis von Fächergrenzen innerhalb der Fakultäten und Disziplinen aufrechterhalten wird, abgebaut werden kann, dann wird sich auch in Deutschland die Kluft zwischen der Spitzenleistung in Wissenschaft und Forschung und der Ausbildungsqualität der Studierenden der Geisteswissenschaften schließen lassen.

Neben der Schlussfolgerung für die spezifische universitäre Ausbildungssituation in Deutschland sollte aber berücksichtig werden, was auf der Grundlage der von ACO*HUM zusammengetragenen Informationen und der im Moment zusammengestellten Knowledge Base, die die Arbeit von ACO*HUM auch nach dem offiziellen Auslaufen 2000 noch weiterführen beziehungsweise aktuell halten soll, bedenkenswert ist: Es geht nicht allein darum, die Geisteswissenschaften europaweit auf den notwendigen Stand zeitgemäßen Wissens und Arbeitens zu bringen, sondern es ist geboten, den fundamentalen Paradigmenwechsel der Informationsgesellschaft für die Humanities nicht nur zu konstatieren, sondern aktiv mitzugestalten:

It would be misguided to consider advanced computing as a temporary trend in which the humanities are seen to be simply catching up with other disciplines. Instead, the use of computing methods in the humanities is recognized as a revolution in its own right, which will continue to have strong repercussions in the years to come. What is at stake now is not so much the advent of humanities computing, which will happen anyway, but how fast and how successful the process will be.[19]

Thomas Rommel (Bremen)

Prof. Dr. Thomas Rommel
School of Humanities an Social Sciences
International University Bremen
PO Box 750561
28725 Bremen
t.rommel@iu-bremen.de


(7. September 2001)
[1] Der Autor dieses Aufsatzes war Fachgutachter der Gruppe Textual Scholarship and Humanities Computing und in dieser Funktion an Kapitel 3 »European Studies on Textual Scholarship and Humanities Computing«, in Koenraad de Smedt u.a. (Hg.): Computing in the Humanities. Bergen: University of Bergen Press 1999, S. 63-88 beteiligt.
[2] Der im anglo-amerikanischen Sprachraum eingebürgerte Begriff der ›Humanities‹ wird hier, unter Berücksichtigung möglicherweise divergierender kultureller und akademischer Implikationen, als ›Geisteswissenschaften‹ widergegeben. In der Wahl der Begrifflichkeit kommt damit auch der Konsens zum Ausdruck, der sich in den ACO*HUM Arbeitsgruppen etabliert hat.
[3] An der Universität Bergen wird auch die Webpräsenz ACO*HUM sichergestellt; die Mehrzahl der Berichte, Evaluationen und Entwürfe sind dort online einsehbar unter der URL: <http://www.hd.uib.no/AcoHum/aco-hum.html> (06.09.2001).
[4] ACO*HUM wurde gefördert von der Europäischen Kommission: 26030-CP-1-96-1-NO-ERASUMUS-ETN (Bewilligungsantrag).
[5] Vgl. <http://europa.eu.int/comm/education/socrates.html> (06.09.2001).
[6] Vgl. die URL <http://www.hd.uib.no/AcoHum/ACOHUMDESC.HTML> (06.09.2001), siehe hier »Project description 1996-1997«.
[7] Vgl. Koenraad de Smedt u.a. (Hg.): Computing in the Humanities. A European Perspective. (Fußnote 1).
[8] Ebd., S. 14.
[9] Ebd., S. 25.
[10] Dass diese Annahme Konsens ist, zeigen die methodischen Beiträge etwa in Literary & Linguistic Computing.
[11] Koenraad de Smedt u.a. (Hg.): Computing in the Humanities, S. 36. (Fußnote 1).
[12] Vgl. <http://www.uni-tuebingen.de/zdv/zrlinfo/dok-dienste.html> (06.09.2001).
[13] Vgl. <http://www.uni-tuebingen.de/zdv/tustep/index.html> (06.09.2001).
[14] Für aktuelle Informationen zur Arbeit der TEI, besonders aber für Dokumentationen und Beispiel-DTDs siehe <http://www.tei-c.org> (06.09.2001).
[15] Vgl. für Europa <http://www.allc.org> (06.09.2001), für die USA <http://www.ach.org> (06.09.2001). Eine gute, wenn auch knappe Übersicht über gedruckte und elektronische Materialien findet sich in Koenraad de Smedt u.a. (Hg.): Computing in the Humanities, S. 86f. (Fußnote 1).
[16] Koenraad de Smedt u.a. (Hg.): Computing in the Humanities, S. 72. (Fußnote 1).
[17] Die Situation Osteuropas hat sich in den letzten Jahren deutlich verbessert: Förderprogramme der EU und der ausrichtenden Organisationen erlauben es mittlerweile vielen Forschern aus diesen potentiellen EU-Beitrittsländern, mit finanzieller Unterstützung an den Konferenzen teilzunehmen.
[18] Forschung & Lehre (8/2001), S. 399 [ohne Autor]. Vgl. auch die folgende Internet-Adresse: <http://www.sfs-dortmund.de> (06.09.2001).
[19] Koenraad de Smedt u.a. (Hg.): Computing in the Humanities, S. 240. (Fußnote 1).