Automatisches metrisches Markup
deutschsprachiger Gedichte

Abstract

Metrical markup done manually demands an enormous effort of time. Wouldn’t it be smart to let computers do the work automatically – and would that be possible? The answer is »Yes«. The following text describes how automatic metrical markup for stressed and unstressed syllables in German verse text can be achieved on the bases of theoretical postulations and their methodical realization.

[1] 

1 Definitionen, methodische Grundlegungen und Einblicke in die Metrik-Theorie

[2] 

»Automatisch« bedeutet, dass der Untersuchungsgegenstand – in diesem Fall ist es das in digitaler Form schriftlich niedergelegte deutschsprachige Gedicht – von einem Textzustand in einen anderen, detaillierteren Textzustand gebracht werden soll – und dass diese Zustandsveränderung derart von einem Rechner unterstützt wird, dass sie »per Knopfdruck« erreicht werden kann. Der Ausgangszustand ist in unserem Fall die digitale Kopie eines gedruckten Gedichtes in Form einer Textdatei, der Endzustand ein strukturiertes XML-Dokument mit metrischen Annotationen.

[3] 

»Metrisch« bezieht sich zunächst auf die Tatsache, dass Wörter in Gedichten die Eigenschaft mitbringen, in betonte und unbetonte Silben aufgeschlüsselt werden zu können. Das ist eigentlich keine Eigenschaft von Gedichten allein, sondern die Eigenschaft eines jeden Textes, sei er gesprochen oder geschrieben. Ausgangspunkt dafür ist die Wortbetonung. Im Wort Garten, das aus zwei Silben besteht, liegt die Betonung zum Beispiel auf der ersten Silbe des Wortes – und zwar immer, egal ob in einem Gedicht oder in einem Gespräch über Rasenmäher. [1]

[4] 

»Metrisch« meint aber auch, dass die Folge von »betonten« und »unbetonten« Silben über ein gesamtes Gedicht oder mindestens über eine Strophe des Gedichtes hinweg eine Regelmäßigkeit erreichen kann, die der Normalsprache fremd ist. Diese metrische Regelmäßigkeit führt zu einer Festlegung der Betonungsabfolge des verwendeten Wortmaterials.

[5] 

Die Begriffe ›metrisch‹ beziehungsweise ›Metrik‹ beziehen wir daher im engeren Sinne nur auf Gedichte. Wenn in anderen (»normalsprachlichen«) Texten Gewichtungsanalyse betrieben wird, sprechen wir dagegen von ›Prosodie‹. [2] Wir unterscheiden dabei die Begriffe ›Hebung‹ und ›Senkung‹ im Kontext metrischer – und ›betonte‹ und ›unbetonte‹ Silben im Kontext prosodischer Gewichtungsanalysen, verwenden jedoch für beide Systeme die Zeichen + und –. [3]

[6] 

Das Wort »Garten« wäre metrisch betrachtet demnach » + – «. In Gedichten gehen auch einsilbige Wörter, die sich kontextlos nicht darin festlegen lassen, ob sie »gehoben« oder »gesenkt« sind, eine solche Festlegung ein. [siehe Abb. 1].

[7] 

[8] 

Abbildung 1: In Gedichten werden alle Silben entweder zu einer Hebung oder einer Senkung. Dadurch »versteifen« sich potentielle Gewichtungsmöglichkeiten eines Wortes, wie zum Beispiel im Wort mir, das in anderen Kontexten auch unbetont/gesenkt sein könnte. In Gedichten sind die Gewichtungsabfolgen der Silben oft regelmäßiger als in der Normalsprache (in diesem Beispiel alternierend).

[9] 

Als ›Markup‹ verstehen wir die Informationsanreicherung digitaler Texte durch computerlesbare Annotationen. Diese Informationsanreicherung kann sehr vielfältig sein. Im Satz Ich gehe in den Garten könnte man zum Beispiel annotieren, dass es sich bei der Zeichenkette gehe um ein Verb in der 1. Pers. Singular Präsens handelt, dessen Grundform gehen ist: Das wäre grammatisches Markup. Metrisches Markup wäre demnach die Technik, metrische Informationen, also Informationen über die Abfolge von gehobenen und gesenkten Silben, in Form von Markup in einen digitalen Text einzuflechten. Automatisches metrisches Markup benennt die Technik, metrische Informationen derart in einen Text einzuarbeiten, dass der Rechner dabei alle notwendigen Schritte selbst ausführt. Hierzu gehört in erster Linie die Erkennung der Textstruktur und deren Umsetzung in ein Markup sowie die vollautomatische Auszeichnung entsprechender metrischer Werte [siehe Abb. 2].

[10] 

[11] 

Abbildung 2: Beispiel für strukturelles Markup und für die Annotation der Gewichtungswerte als Attribut des Elementes ›Silbe‹.

[12] 

Im Falle eines Gedichtes müssen für die Erkennung der Textstruktur zunächst die Elemente ›Gedicht‹, ›Strophe‹, ›Vers‹, ›Wort‹ und ›Silbe‹ automatisch erkannt und annotiert werden, und dem Element ›Silbe‹ muss automatisch der Wert des Attributs »Gewichtungswert« zugewiesen werden können. [4] Markup, das mit Elementen und Attributen hantiert, basiert heutzutage zumeist auf XML. Für das menschliche Auge sind solche Strukturen, werden sie komplex, nicht mehr leicht zu interpretieren, aber Rechner können damit perfekt umgehen. XML ist in den digital humanities mittlerweile sehr weit verbreitet. Einen eigenen Standard zur Beschreibung geisteswissenschaftlicher Untersuchungsgegenstände auf XML-Basis formuliert die TEI (Text Encoding Initiative), die auch einen Standard für die Annotation von Gedichten bereitstellt. [5]

[13] 

Die Frage ist nun: Wie könnte man das Ziel eines automatischen metrischen Markup erreichen?

[14] 

Die Textstruktur eines Gedichtes zu erkennen fällt dem Rechner in den meisten Fällen sehr leicht, da digitale Gedichte im Text-Format folgende Eigenschaften mitbringen: Zwischen zwei Strophen befindet sich eine Leerzeile, die durch zwei aufeinander folgende feste Zeilenumbrüche definiert wird. Verse werden durch einen festen Zeilenumbruch voneinander getrennt, und die Grenze zwischen zwei Wörtern markiert ein Leerzeichen. Diese Informationen reichen aus, um die genannten Strukturen ›Strophe‹, ›Vers‹ und ›Wort‹ zu erkennen [siehe Abbildung 3].

[15] 

[16] 

Abbildung 3: Die eingeblendeten Steuerzeichen aus der Textverarbeitung zeigen, wie sich die Textstruktur eines Gedichtes automatisch bestimmen lässt. Gedicht zitiert nach [2].

[17] 

Komplexer hingegen ist die Erkennung eines Gedichtes als maßgebliche Größe des Untersuchungsgegenstandes überhaupt. Folgen in einem digitalen Dokument zwei Gedichte aufeinander, so wird es oft schwierig, dem Rechner die Grenze zwischen diesen beiden Texten zu vermitteln.

[18] 

Ein eher texttheoretisches Problem, das für die metrische Bestimmung von Gedichten jedoch äußerst wichtig ist, kann vielleicht mit folgender Frage am besten auf den Punkt gebracht werden kann: »If the Mona Lisa is in the Louvre, where [is] Hamlet?« Das Zitat geht wohl auf Frederick Wilse Bateson zurück. [6] In diesem Fall meint es: Wenn ein Gedicht metrisch annotiert wird, dann wird eigentlich nicht das Gedicht xyz annotiert, sondern nur eine Erscheinungsform des Gedichtes aus einer bestimmten Ausgabe – und nach der Annotation wäre es vorschnell zu behaupten, man wisse nun, welcher metrischen Struktur das Gedicht folge. [7]

[19] 

Nur kurz gehen wir auf das Problem ein, wie es möglich sein kann, die Silbengrenzen innerhalb eines Wortes automatisch zu bestimmen. Will man hier Perfektion erreichen, so ist es wohl notwendig, mehrere Verfahren zu kombinieren. Getestet haben wir drei unterschiedliche Techniken: Eine orthographische Silbentrennung (Got-tes-gar-ten), eine quasi-prosodische Silbentrennung (Go-ttes-gar-ten) und eine technische Silbentrennung, die jede Silbe immer vor einer Vokalgruppe (die per definitionem aus einem oder mehrere Vokalen bestehen kann), – außer vor der ersten Vokalgruppe – trennt (Gott-esg-art-en). [8] Mittlerweile haben wir eine eigene Silbentrennung entworfen, die an die orthographische Silbentrennung angelehnt ist, jedoch noch nicht immer brauchbare Ergebnisse liefert. [9]

[20] 

Nähern wir uns nun der Frage, wie es möglich sein könnte, den »Gewichtungswert« der einzelnen Silben zu bestimmen. Blickt man für die Beantwortung dieser Frage zunächst in Werke der Metrik-Theorie, so zeigt die Analyse eines Zitates aus Andreas Heuslers Versgeschichte besonders gut das Dilemma auf. Er schreibt: »Die Form der Versrede beschäftigt den Metriker. Und zwar die äußere Form, die hörbare Form, die Schallform.« [10] Und einige Seiten weiter: »Für den Metriker ist der Vers eine Gehörgröße. Das stille Lesen eines Gedichtes ist ihm so viel wie dem Musiker das Ablesen einer Partitur.« [11] Nimmt man diese Zitate ernst und sieht sie nicht nur als argumentative Notwendigkeit, Heuslers folgende Takt-Theorie zu begründen, dann geben sie einen niederschlagenden Hinweis: Es ist nicht Aufgabe der Metrik, die Frage nach den Gewichtungswerten einzelner Silben zu beantworten! Denn wenn der Metriker erst einer Verlautlichung des Textes bedarf, so ist die entscheidende Frage danach, wie zu verlauten sei, bereits beantwortet. Diese Annahme wird dadurch gestützt, dass in deutschen Metriken überhaupt nur spärliche Hinweise versammelt werden, nach welchen Regeln das grundlegende Handwerk des Metrikers zu erlernen sei und welche theoretischen Grundvoraussetzungen dabei gegeben sind. [12]

[21] 

Da für unseren Ansatz der schriftlich fixierte Text Ausgangspunkt des automatischen metrischen Interpretation sein muss (und wir fest daran glauben, dass metrische Informationen bereits vor einer Verlautlichung in einem Text angelegt sind), bringt uns Heuslers Ansatz nicht weiter.

[22] 

Dagegen führt Christian Wagenknecht in den Theoretischen Voraussetzungen seiner Deutschen Metrik eine Theorie zur Bestimmung von betonten und unbetonten Silben in schriftlich fixierten Texten ein, gibt aber bereits selbst an, dass es sich hierbei zunächst nur um »Faustregeln« handelt. [13] Die maßgebliche Bestimmung erfolge jedoch immer noch über das »Lexikon« [14] oder über die »syntagmatische Verbindung«. [15] Damit wird indirekt in die Prosodie verwiesen, aus der heraus sich die metrische Analyse speist.

[23] 

Die früheste, uns bekannte Untersuchung zur deutschen Prosodie stammt von Karl Philipp Moritz, dem Autor des Anton Reiser. In seinem Versuch einer deutschen Prosodie von 1786 entwickelt Moritz erstmals Regeln der Prosodie, die er in Vorschläge für wohlgeformte Verskonstruktionen umsetzt:

[24] 
Denn freilich fällt der Vers dann besser ins Ohr, wenn man bei der Silbenstellung auch mit auf die Buchstaben einige Rücksicht nimmt, und es so einzurichten sucht, daß eine Silbe mit einem Diphtong oder mehreren Konsonanten nicht zu oft als eine kurze Silbe neben einer andern steht, die sich nach der Anzahl und Beschaffenheit ihrer einzelnen Laute, leichter und in kürzerer Zeit aussprechen läßt [...] [16]
[25] 

Daraus – und aus anderen Werken der Prosodie – lassen sich für uns etliche interessante Gesetzmäßigkeiten ableiten, die als Grundlage einer ›prosodischen Vorhersage‹ des Deutschen [17] dienen können.

[26] 

Moritz selbst verknüpft am Ende seiner Ausführungen die Prosodie mit dem Feld der Grammatik:

[27] 
[...] so muß derjenige, welcher in unsrer Sprache einen richtigen Vers machen will, wenigstens das Allgemeine der Grammatik und die Unterordnung der Redetheile nach ihrem prosodischen Gewicht verstehen. [18]
[28] 

Neben den einschlägigen Metriken und den Ausführungen der Prosodie könnte also ein Blick in Grammatiken wichtige Hinweise zur prosodischen Vorhersage liefern. In den Handgrammatiken wird man jedoch zunächst nicht fündig. Die moderne Duden-Grammatik fasst diese Erkenntnisse äußerst sparsam auf zwei Seiten zusammen [19], verweist aber auf einige Literatur zu diesem Thema. Die Bertelsmann-Grammatik verzichtet – genau wie die Deutsche Grammatik von Helbig/Buscha [20] – gänzlich auf ein entsprechendes Kapitel. [21] Das Duden-Aussprachewörterbuch enthält im theoretischen Vorbau in den Kapiteln »Genormte Lautung« und »Deutsche Aussprachelehre« einige verwertbare Aussagen zur prosodischen Vorhersage. [22] Umfassendere grammatische Werke hingegen, wie die Grundrisse der deutschen Grammatik von Peter Eisenberg, liefern in den entsprechenden Kapiteln zwar etliche Hinweise. [23] Ein Gesamtkonzept lässt sich jedoch nicht ableiten.

[29] 

Aber auch schon die Orthographie liefert einige interessante Hinweise für die Aussprache des Deutschen. So zeigt das Dehnungs-h bereits mit seiner Benennung an, dass durch seine Verwendung etwas (nämlich der vorausgehende Vokal) zu »dehnen« sei. Da die Vokallänge zumindest in einem mittelbaren Zusammenhang mit der Betonung steht, lassen sich aus allen orthographischen Anzeichen für Kürze und Länge auch Regeln für die Betonung ableiten.

[30] 

Neuerdings finden sich vor allem im Kontext moderner linguistischer Untersuchungen zur »Generativen Metrik«, zur »Metrischen Phonologie«, zur »Text-To-Speech-Forschung« und zum »Natural Language Processing« etliche Ansätze zur regelhaften Beschreibung der Betonungsfolge. Leider merkt man diesen Untersuchungen stark an, dass sie ihren Ursprung in der angloamerikanischen Linguistik haben. Typisch deutsche Phänomene, wie zum Beispiel der Umlaut, werden dabei zu wenig berücksichtigt.

[31] 

Alle diese Hinweise aus Metriken, Grammatiken und Aussprache-Wörterbüchern, durch orthographische Phänomene und linguistische Untersuchungen wurden für das Projekt Automatisches metrisches Markup gesammelt und in ein Regelwerk überführt, in dem definiert wurde, ob das Auftreten eines Phänomens Hinweise auf die Gewichtung einer Silbe innerhalb eines gedruckten deutschsprachigen Gedichtes geben kann. Dieses Regelwerk ist die Basis für die sogenannten »prosodischen Vorhersagen«. [24] Dazu war es notwendig, den Rechner mit diesen Regeln zu »füttern«, um im Anschluss daran zu prüfen, ob sich daraus für die Analyse eines Gedichtes Aussagen zur Metrik ableiten lassen, die in ein anschließendes metrisches Markup münden. Eine wichtige Eigenschaft unserer Regeldefinition besagt, dass Regeln lediglich Verdachtsmomente sind – sie können, müssen aber nicht zutreffen. [25] Die Wahrscheinlichkeit ihres Zutreffens muss allerdings größer sein als die Wahrscheinlichkeit, dass dem nicht so ist. [26]

[32] 

2 Vorausgehende Forschung zum automatischen metrischen Markup

[33] 

Der Versuch einer automatischen metrischen Analyse von Gedichten wurde auch schon von anderen unternommen, so zum Beispiel in den Arbeiten von Pablo Gervás. Der dort beschriebene Ansatz dürfte dem unseren sehr ähnlich sein:

[34] 
Spanish does have a set of rules that allow automatic location of the stressed syllable of a word from its written form. This is important because it allows analysis with no need for a lexical entry for each word in the verse. [27]
[35] 

Leider verweist diese Arbeit für die Erzeugung der prosodischen Vorhersage-Regeln auf eine spanischsprachige Publikation, welche von uns bislang nicht übersetzt werden konnte. [28] Da zudem jede Sprache ihre eigenen Problemstellungen mit sich bringt – zum einen durch besondere prosodische Problemstellungen, zum anderen aber auch aufgrund unterschiedlicher Grundverständnisse metrischer Ordnung – ist die Adaption einer landesspezifischen Technik kaum zu erreichen.

[36] 

Für das Deutsche liegt eine ähnlich geartete Arbeit von Friedrich Michael Dimpel vor: Computergestützte textstatistische Untersuchungen an mittelhochdeutschen Texten. [29] Auch hier wird über prosodische Vorhersagen und euphonischen Regeln sowie statistischen Analogieverfahren eine metrische Bestimmung der Texte erreicht. Im Gegensatz zu dem von uns betriebenen Projekt arbeitet Dimpel jedoch sehr stark mit Wortlisten und ist, wie der Titel der Arbeit zeigt, auf das Mittelhochdeutsche beschränkt. Die Spezifika der Ausarbeitungen lassen eine Übertragung auf frühneuhochdeutsche und neuhochdeutsche Texte nicht zu. Die bei Dimpel erreichte Genauigkeit in der metrischen Bestimmung der Hebungen wird mit überzeugenden 97% angegeben. [30]

[37] 

Eine weitere Arbeit für das Deutsche, YASP, ist leider nicht dokumentiert, der Internetauftritt des Projektes ist zudem neuerdings auch nicht mehr öffentlich zugänglich [31]. Die unveröffentlichte Diplomarbeit von Georg Niklfeld Modeling word stress of German aus dem Jahr 1996, auf die sich das Projekt maßgeblich bezieht, wurde uns freundlicher Weise zur Verfügung gestellt. Vor allem diese Diplomarbeit konnte uns einige gute Ansätze liefern.

[38] 

Ebenfalls kaum dokumentiert sind die englischsprachigen Arbeiten von David J. Birnbaum. [32] Hier kommt erschwerend hinzu, dass die Beispiele allesamt aus dem Russischen stammen und sprachliche Probleme eine genaue Analyse des Vorgehens erschweren.

[39] 

Auch wenn wir sicherlich noch nicht die gesamte Forschungslandschaft hierzu überblicken, so lässt sich zusammenfassend sagen, dass es bislang wohl noch nicht gelungen ist, eine Erkennungsquote von beinahe 100% zu erreichen. Viele Projekte sind eher als »Versuch« zu bewerten und gingen über einen Prototypen nicht hinaus. Keines der uns bekannten Projekte lässt sich on- oder offline testen.

[40] 

3 Die Praxis

[41] 

Nähern wir uns nun detaillierter der von uns angewendeten Technik zur automatischen metrischen Bestimmung – zunächst an einem Beispiel. Das Wort »blühen« besteht aus zwei Silben: blü|hen. Im Folgenden werden alle auf dieses Wort zutreffenden Regeln aufgeführt.

[42] 

a) Eine der aufgestellten prosodischen Vorhersage-Regeln besagt, dass eine Silbe mit einem Umlaut (in diesem Fall ü) das Verdachtsmoment zulässt, dass es sich hierbei um eine betonte Silbe handelt. Geben wir dieser Silbe einen sogenannten »positiven Schlag«, um das festzuhalten.

[43] 

b) Eine weitere Regel besagt, dass Silben dann das Verdachtsmoment zulassen, betont zu werden, wenn sie ein Dehnungs-h enthalten oder wenn die Folgesilbe mit einem h als Silben trennendes h beginnt. Die erste Silbe erhält noch einen positiven Schlag.

[44] 

c) Eine andere Regel besagt, dass sogenannte »offene Silben«, das sind Silben, die auf einem Vokal enden, den gleichen Verdacht zulassen. Die erste Silbe erhält einen weiteren Schlag.

[45] 

d) Eine weitere Regel besagt, dass Wörter, die mehr als eine Silbe aufweisen, statistisch betrachtet eher auf der ersten Silbe betont sind als auf einer der anderen. [33] Auch diese Regel trifft zu, da es sich bei dem Wort blühen um ein zweisilbiges Wort handelt. Die erste Silbe des Wortes erhält noch einen Schlag.

[46] 

e) Und eine letzte Regel besagt, dass die Konsonantengruppe bl ebenfalls dieses Verdachtsmoment einer Betonung zulässt. [34] Die Silbe erhält ihren letzten Schlag.

[47] 

Das Ergebnis ist Folgendes: Etliche Verdachtsmomente sind gegeben, die dafür sprechen, dass das Wort blühen auf der ersten Silbe betont wird. Kein Verdachtsmoment spricht dafür, dass das Wort auf der zweiten Silbe betont wird. Kein Verdachtsmoment allein wäre in der Lage, eine Behauptung über die Betonungsabfolge des Wortes aufzustellen, aus dem Zusammentreffen mehrerer Verdachtsmomente hingegen lassen sich stichhaltige Behauptungen ableiten [siehe Abbildung 4].

[48] 

[49] 

Abbildung 4: Alle fünf beispielhaft angewendeten Regeln produzieren ein Verdachtsmoment für die Betonung auf der ersten Silbe, dagegen ist kein Verdachtsmoment für die Betonung auf der zweiten Silbe gegeben.

[50] 

3.1 Prosodie

[51] 

Sehen wir uns die Anwendung aller Regeln [35] nun einmal für ein ganzes Gedicht [36] an:

[52] 

[53] 

Abbildung 5: Die »Schläge«, die eine Silbe aus allen Regeln erhält, werden in einem Feld notiert. Das Wort »glänzt« in Vers 1, Silbe 2 hat demnach drei Schläge erhalten. Es werden hier nur Regeln notiert, die einen Schlag produzieren. Bei dieser Form der Abbildung ist nicht ersichtlich, aus welcher Regel ein »Schlag« stammt.

[54] 

Wie zu ersehen ist, konnte durch die Anwendung aller prosodischen Vorhersagen eine erkleckliche Anzahl an Silben mit »Verdachtsmomenten« bestückt werden. Ein »x« steht hierbei für die foot form trochaic rule, der Regel der Erstsilbenbetonung mehrsilbiger Wörter. Ein »+« steht für einen beliebigen positiven Schlag aus einer anderen Regel (manche Regeln erzeugen auch einen Doppelschlag), ein »-« steht für einen Negativschlag – für das Verdachtsmoment also, dass es sich hierbei um eine unbetonte Silbe handeln könnte – und eine »0« steht für eine Silbe, die noch gar nicht qualifiziert werden konnte. Dass die erste Silbe eines Verses so gut wie nie mit Schlägen versehen ist, liegt an einer Zusatzregel, die etliche Regeln aufhebt, wenn sie auf die erste Silbe eines Verses fallen. [37] [siehe Abbildung 5].

[55] 

3.2 Euphonie

[56] 

Um das Verfahren nun noch zu verfeinern, werden im Anschluss an die prosodische Vorhersage Regeln der Euphonie angewendet. ›Euphonie‹ meint in unserem Zusammenhang den Wohlklang in der Abfolge von betonten und unbetonten Silben innerhalb eines Verses. Die beiden wichtigsten Regeln der Euphonie lauten: Es können nie zwei betonte Silben nebeneinander liegen, und es ist nicht erlaubt, dass drei unbetonte Silben nebeneinander liegen. Die beiden Regeln werden pro Vers betrachtet und immer von den Silben aus angewendet, die die meisten Verdachtsmomente innerhalb eines Verses tragen. [38] Durch die Anwendung der Regeln können demnach Silben, die aus den prosodischen Vorhersagen noch keine Verdachtsmomente aufweisen, mit Verdachtsmomenten angereichert werden. Ebenso ist es möglich, dass Silben mit weniger Verdachtsmomenten von Nachbar-Silben mit mehr Verdachtsmomenten »überstimmt« werden.

[57] 

Vor allem sogenannte »antike Strophenformen« folgen den aufgestellten euphonischen Regeln allerdings nicht, da sie einen Hebungsprall [39] (stress clash) zulassen. Sie werden aufgrund ihrer vordefinierten Silbenzahlen pro Vers und Strophe zuvor technisch abgefangen und anders behandelt.

[58] 

Das Ergebnis sieht folgendermaßen aus: Bis auf acht Silben liegen jetzt Informationen vor, wie die Reihenfolge von betonten und unbetonten Silben aussehen könnte. Durch die Anwendung der Euphonieregeln lassen sich vor allem solche Positionen definieren, die neben Silben liegen, die viele Verdachtsmomente für Betonungen aufweisen. Silben, die das Verdachtsmoment zulassen, dass es sich bei ihnen um eine unbetonte Silbe handelt, sind dagegen nur in Kombination in der Lage, benachbarte Positionen mit neuen Verdachtsmomenten zu belegen. Ein typischer Fall wäre die Kette »–|0|–«, in der nach den Regel der Euphonie 0 zu + wird, da sonst drei unbetonte Silben nebeneinander liegen würden [siehe Abbildung 6].

[59] 

[60] 

Abbildung 6: Anwendung der Euphonie-Regeln. Da gewisse Regeln stärker gewichtet sind als andere Regeln, wird zum Beispiel Silbe 4 in Vers 3 zu einer unbetonten Silbe, da der Schlag auf dieser Silbe schwächer gewichtet ist als der Schlag aus einer anderen Regel auf der Silbe 5.

[61] 

3.3 Analogie

[62] 

Um letztlich zu einer hundertprozentigen Bestimmung aller Silben zu kommen, wird im Anschluss an die Euphonie ein statistisches Analogieverfahren angewendet. Alle Silben, die noch nicht markiert werden konnten, werden anhand mehrerer Regeln zu bestimmen versucht. Dabei wird zum Beispiel geprüft, ob in der betreffenden Strophe in bereits ausdefinierten Versen die Anzahl der betonten Silben gleich ist. Ist dem so, dann wird zunächst versucht, das noch nicht bestimmte Silbenmaterial in den anderen Versen so zu konstruieren, dass es der Anzahl der betonten Silben der anderen Verse entspricht.

[63] 

Nun werden noch unbestimmte Silben mit Silben anderer Verse auf der gleichen Position verglichen (also zum Beispiel Silben, die auf der fünften Position eines Verses liegen, werden mit Silben anderer Verse verglichen, die ebenfalls auf der fünften Position liegen). Dabei werden zuerst Silben in das Analogieverfahren übernommen, die aus der selben Strophe stammen, die gleiche Silbenanzahl pro Vers aufweisen und sich auf den Vers reimen, aus dem die noch nicht markierte Silbe stammt. [40] Entsteht eine Unschlüssigkeit, dann werden auch Silben aus Versen, die sich nicht reimen, oder Verse aus anderen Strophen in das Analogieverfahren eingebunden.

[64] 

Das Ergebnis nach dem Analogieverfahren sieht wie folgt aus. Für alle Silben des Gedichtes liegen nun Verdachtsmomente vor [siehe Abbildung 7].

[65] 

[66] 

Abbildung 7: Die über das Analogieverfahren bestimmten Silben sind unterlegt. Die fünfte Silbe aus dem ersten Vers der zweiten Strophe wurde als »unbetont« bestimmt, weil sie wie die fünfte Silbe des vierten Verses der zweiten Strophe ist: Die beiden Verse haben gleich viele Silben, entstammen der selben Strophe und reimen sich aufeinander.

[67] 

3.4 Metrik

[68] 

Im folgenden Schritt werden die gesammelten »Verdachtsmomente« pro Silbe in Behauptungen überführt. Darunter verstehen wir den Wechsel von der Annahme, es könnte sich aufgrund von Verdachtsmomenten bei einer Silbe um eine betonte oder unbetonte Silbe handeln, – zu der Behauptung, es handle sich um eine Hebung oder Senkung. Die Zeichen + und – haben nun andere Qualität und sind jetzt metrische Werte. [siehe Abbildung 8].

[69] 

[70] 

Abbildung 8: Abschließendes metrisches Muster des Gedichtes. Nun sieht man, dass das Gedicht metrisch geformter ist als es der erste Blick vermuten ließ. Die Hebungsanzahlen pro Vers und Strophe sind festgelegt auf 4,3,4,4,3,4,4, die Senkungen sind frei verteilt, wobei jeder Vers mit einer Senkung eingeleitet wird.

[71] 

Das Ergebnis ist erstaunlich. Alle Silben wurden »richtig« annotiert. Bisherige Tests zeigen, dass sich metrische Modelle von deutschsprachigen Gedichten im Durchschnitt zu einem Prozentsatz von 99% »richtig« erkennen lassen. [41] Selbst komplexe metrische Strukturen mit freien Hebungspositionen lassen sich so analysieren. Größte Probleme bereiten derzeit noch Fremdwörter (besser ›nicht-native Wörter‹), bestimmte Formen von Bestimmungskomposita und längere Ketten einsilbiger Wörter. Fremdwörter, weil sie oft anders konstruiert sind und anderen prosodischen Regeln folgen [42], und Bestimmungskomposita, da sie oft eine Betonungsverschiebung (stress shift) auslösen, deren Erkennung noch nicht in allen Fällen funktioniert. [43] Längere Ketten einsilbiger Partikeln führen immer wieder zu Problemen, da die wichtige Regel des Initialakzentes (foot form trochaic rule) nicht greift, die Menge der zutreffenden Regeln aus der prosodischen Vorhersage oft nur gering ausfällt und somit das Euphonieverfahren in diesen Textsegmenten nicht greifen kann. Nicht selten bleiben deshalb vor allem am Versbeginn Silbenpositionen bis zum Analogieverfahren unbestimmbar.

[72] 

Das resultierende metrische Muster wird nun in TEI-kompatiblem XML abgespeichert. Das beinhaltet neben den strukturellen Analyseergebnissen wie ›Gedicht‹, ›Strophe‹, ›Vers‹, ›Wort‹ und ›Silbe‹ auch die Gewichtungswerte pro Silbe. Unklar ist derzeit noch die Frage, wie und ob es möglich sein wird, automatisches metrisches Markup auf Texte mit bereits erstellten XML-Strukturen anzuwenden, die womöglich schon über eine metrische Auszeichnung verfügen. Prinzipiell könnten dabei nicht-kohärente Strukturen und Annotationen entstehen, die natürlich vermieden werden müssen. [44]

[73] 

4. Wozu das Ganze

[74] 

Wozu das Ganze, sollte man sich immer fragen! Die hier vorgestellte Technik dient mehreren Herren. Zum einen lassen sich mit diesem Ansatz große Textkorpora automatisch annotieren, was ungeahnte Möglichkeiten in der metrischen Analyse von Texten erlauben würde. [45] Statistische Weiterverarbeitungen lassen sich in einer Vielzahl erdenken, ganz pragmatisch auch zum Selbstzweck der Verfeinerung des Regelsatzes. Hierfür wird es notwendig sein, statistisches Know-How in das Projekt einzubeziehen. Da das Programm lernfähig sein könnte, wäre es ebenso denkbar, eine Datenbank aufzubauen, in der alle Analyseergebnisse gespeichert werden, um sie zu unterschiedlichen Retrieval-Zwecken vorzubereiten. Prinzipiell wären dann auch Abfragen denkbar wie: »Gib mir alle mehr als zweisilbigen Wörter, die der Penultima-Regel, der foot-form-trochaic-Regel oder der weight-to-stress-Regel widersprechen«. Würde man das Konzept auf die prosodischen Vorhersagen minimieren, die euphonischen Regeln aufweichen und das Analogieverfahren ausblenden, wäre es auch denkbar, Prosatexte zu einem nicht unerheblichen Prozentsatz zu annotieren.

[75] 

Auch in der Lyrik müsste es mit wenig Aufwand über die prosodischen Vorhersagen möglich sein, die von Wagenknecht aufgrund grammatischer Strukturen aufgestellten unterschiedlichen Schweregrade der Silben automatisch zu erzeugen, um so von der immer wieder als zu grob empfundenen zweiwertigen Metrik von Hebungen und Senkungen wegzukommen. [46]

[76] 

Ein interessanter Aspekt hat sich in den bislang analysierten Beispielen noch gezeigt. Nicht selten werden in Gedichten die prosodischen Regeln der deutschen Sprache durch sogenannte Tonbeugung im Gedicht verletzt. Interessanterweise ist das hier beschriebene System in etlichen Fällen in der Lage, diese Verletzung der prosodischen Regeln zu erkennen. [47] Ebenso lässt sich in weiteren Fällen so etwas wie »Emphase« oder »kontrastive Betonung« erkennen, die durch den Zusammenfall von metrischer Struktur und Wortwahl entstehen kann. Auf das Wort so im letzten Vers des folgenden Beispiels würde nach den aufgestellten Regeln eigentlich eine Senkung fallen, da es wahrscheinlicher ist, dass auf muß eine Hebung liegt. Der Autor des Gedichtes [48] (Johann Wolfgang v. Goethe) verbindet aber das metrische Muster in der Form mit der Wortwahl des Textes, dass – glaubt man an die Regelmäßigkeit der metrischen Struktur des Gedichtes – Emphase auf dem Wort so erzeugt wird. Diese kann zunächst von dem Algorithmus nicht erkannt werden, wird aber in Folge eines Abgleichs des Analyseergebnisses mit regelmäßigen metrischen Mustern ableitbar [siehe Abbildung 9].

[77] 

[78] 

Abbildung 9: Dieses Beispiel zeigt das Analyseergebnis. Der letzte Vers wurde zunächst gegen das »vorherrschende Metrum« interpretiert. Das Ergebnis ist prosodisch vollkommen korrekt, metrisch aber eigentlich falsch, da es nicht dem »vorherrschenden Metrum« entspricht. Alle Analyseergebnisse werden deshalb am Ende noch einmal mit regelmäßigen metrischen Strukturen abgeglichen.

[79] 

Zum anderen aber könnte man mit dieser Technik etwas erreichen, was bislang noch gar nicht möglich war: Computergenerierte Lyrik in vollkommener metrischer Harmonie, die in Verheiratung mit den Möglichkeiten der automatischen Textgenerierung unsere Vorstellung von Lyrik, Autorschaft und Urheberrecht auf den Kopf stellen könnte. Künstliche Intelligenz, in der das Wort künstlich eine Bedeutungserweiterung auf seine ursprüngliche Bedeutung von ›kunstvoll‹ erfahren würde – schöne Intelligenz! [49]

[80] 

Das Interessanteste an dem Projekt ist jedoch, dass es etliche linguistischen Disziplinen verbindet und letztlich für jede Disziplin in der Lage ist, ein eigenes Ergebnis zu liefern. Sicherlich schlummern noch viele interessante Ideen zum Ausbau des Projektes in den Köpfen und Regalen der Universitäten. [50] Um davon zu profitieren, wollen wir möglichst bald den gesamten Regelsatz der prosodischen Vorhersagen [51] online stellen, damit ein Mitdenken möglich gemacht werden kann.

[81] 

Die folgende Abbildung zeigt den Prototypen eines Java-Programms, das schon recht gut in der Lage ist, Textstrukturen zu erkennen und einige Regeln der Prosodievorhersage anzuwenden. [52] Auf der linken Seite wird ein Gedicht in das Programm hineinkopiert, auf der rechten Seite erscheint nach Auswahl der Analysefunktionen und Anklicken des »Analyse-Buttons« das Analyseergebnis. Die meisten »Regeln« warten aber noch auf eine technische Umsetzung [siehe Abbildung 10]. [53]

[82] 

[83] 

Abbildung 10: Ansicht des »Metricalizers«.

[84] 

Alle Werte, die zwischen der Ansicht auf der linken Seite und der Ansicht auf der rechten Seite hinzugekommen sind, wurden automatisch erstellt.


[1] 
Dieses Verständnis des Begriffes ›metrisch‹ kommt vor allem aus der Linguistik (Metrische Phonologie).
[2] 
Die Prosodie umfasst in der Linguistik weitere Phänomene der Satzmelodie wie Grundfrequenz, Tonhöhe und Pausen. Für unsere Betrachtung reduzieren wir den Prosodie-Begriff zunächst jedoch auf alle Phänomene der Betonungszuweisung. Vgl. hierzu auch Küper (1988: 76, Fußnote 8).
[3] 
Vgl. hierzu Küper (1988: 36ff und die dortigen Verweise). Auf Begriffe wie »Versmaß« oder »Versfuß« verzichten wir zunächst völlig, da damit Implikationen einhergehen, auf die wir uns nicht festlegen wollen. Das Silbengewicht (weight) spielt in diesem Zusammenhang zwar eine wichtige Rolle (da sehr häufig das Prinzip »weight (leads) to stress« zu beobachten ist), die automatische Erkennung von Silbengewichten ist in diesem Projekt noch nicht vollständig ausgearbeitet und wird deshalb in diesem Artikel nicht weiter ausgeführt. Dem prosodischen Phänomen, dass gewisse Silben in einem verlauteten Gedicht »stärker betont« sein können als andere (accent), nähern wir uns kurz am Ende des Textes.
[4] 
Das Problem der sogenannten ›Paratexte‹ wie Mottos, Eingangszitate, Fußnoten des Autors etc. blenden wir für diese Beschreibungen aus. Probleme in der automatischen Strukturerkennung entstehen erfahrungsgemäß auch durch Strophenüberschriften oder Strophennummerierungen.
[5] 
Kapitel 6 der TEI-Guidelines P5 [1].
[6] 
Eine Quellenangabe ließ sich nicht nachweisen.
[7] 
Ein praktisches Beispiel können Sie hier einsehen [3]. Klicken Sie die anderen Belege des Gedichtes an, um zu sehen, dass es seine metrische Struktur verändert. Das Problem wird nochmals genauer in Fußnote 41 erläutert.
[8] 
Vergleiche hierzu Wagenknecht (2007: 18): »Die wichtigste phonetische Einheit des Textes bildet also die Silbe – wobei aber die genaue Abgrenzung der einzelnen Silben des Textes [...] metrisch ohne Belang ist. Metrisch grundlegend ist vielmehr die Aufeinanderfolge syllabischer Zentren: im Deutschen der silbenbildenden Vokale.«
[9] 
Eine spannende Entwicklung gibt es derzeit im Projekt Segmenti [4]. Dort entsteht ein Programm zur regelbasierten Silbentrennung und zur Morphemanalyse gedruckter Texte, das uns in der aktuellen Version zur Verfügung gestellt wurde und derzeit die besten Ergebnisse produziert.
[10] 
Heusler (1956: 4).
[11] 
Heusler (1956: 6).
[12] 
Geprüft wurden: Arndt (1981); Breuer (1991); Heusler (1956); Kayser (1992); Schlawe (1972a); Storz (1970); Wagenknecht (2007).
[13] 
Wagenknecht (2007: 37).
[14] 
Womit von Wagenknecht an dieser Stelle wohl das ›mentale Lexikon‹ gemeint ist.
[15] 
Wagenknecht (2007: 19 und 36).
[16] 
Moritz (1786: 127f).
[17] 
Also die prosodischen Regeln nicht dafür zu verwenden, wohlgeformte Gedichte zu schreiben, sondern aufgrund einer Analyse bestehender Gedichte, die solchen Regeln folgen, die metrische Struktur des Gedichtes zu erkennen.
[18] 
Moritz (1786: 252).
[19] 
Dudenredaktion (2006: 48-50).
[20] 
Helbig/Buscha (1993).
[21] 
Götze/Hess-Lüttich (2002).
[22] 
Drosdowskii (1990).
[23] 
Eisenberg (1994: 128–149).
[24] 
Nicht alle aufgefundenen Hinweise helfen in der Analyse von binären metrischen Strukturen in Gedichten weiter, so z.B. die »DTE-Regel« (designated terminal element rule), die besagt, dass jedes deutsche Wort genau einen Hauptakzent trägt.
[25] 
Die Definition des Regelsatzes orientiert sich dabei an den Grundlagen der »Optimalitätstheorie« (optimality theory). Um sich in dieses Thema einzulesen, empfehlen wir die herausragende Dissertation von Petra Wagner [6]. Auch die Arbeit von Caroline Féry liefert im Kapitel 10 sehr gute Erklärungen [7].
[26] 
Der verständige Leser wird zurecht fragen, auf welcher Grundlage eine solche Aussage basiert. Derzeit arbeiten wir mit einem kleinen Kontroll-Korpus, an dem wir die Einführung neuer Regeln und die Bearbeitung bereits bestehender Regeln prüfen. Statistisch wertvoll ist dieses Korpus aber auf Grund seiner geringen Größe nicht.
[27] 
Pablo Gervás [8].
[28] 
Real Academia Española (1986).
[29] 
Dimpel (2004: 57–78).
[30] 
Diese Prozentangabe ist nur bedingt mit den in unserem Projekt erreichten 99% zu vergleichen, da Dimpel sich auf 4-hebige Dichtung beschränkt und die Fehlinterpretation der Senkungen nicht spezifiziert.
[31] 
Projekt YASP (Yet Another Synthetic Poem) [9].
[32] 
David J. Birnbaum [10].
[33] 
Diese Regel ist bekannt unter dem Namen »foot form trochaic rule« und geht auf den germanischen Initialakzent zurück.
[34] 
Da wir bislang kein morphologisches Tagging verwenden, haben wir Konsonantengruppen definiert, die nur in Stammsilben auftreten können, um so eine Art Pseudo-Wortstammerkennung zu erreichen. Für die Konsonantengruppe »bl« ist es egal, an welcher Stelle im Wort es auftritt und wie viele Silben das Wort aufweist, in anderen Fällen wie z.B. »nd« wird die Regel nur bei einsilbigen Wörtern angewendet, »st« nur am Wortanfang.
[35] 
Der aktuelle Regelsatz umfasst 40 Regeln der prosodischen Vorhersage. Die Offenlegung des gesamten Regelsatzes kann deshalb erst in einer größeren Publikation geleistet werden. Im Moment wird noch kein Part-of-speech-Tagging oder morphologisches Tagging angewendet. Regeln die sich daraus ableiten ließen, können demnach noch nicht berücksichtigt werden. Ein Wortlistenabgleich findet zwar derzeit statt, darin sind jedoch bislang nur zehn Wörter notiert, die nicht über den verwendeten Regelsatz richtig definiert werden können.
[36] 
Theodor Körner: Lützows wilde Jagd, Strophe 1 und 2. Das Gedicht gehört zwar nicht zum Kanon der Weltliteratur, ist aber als Beispiel insofern sehr brauchbar, als es durch seine metrische Beschaffenheit schwierig zu bestimmen ist. Zitiert nach [11].
[37] 
In diesem Punkt vermischen wir Prosodie und Metrik. Denn eigentlich ist es ein metrisches Phänomen und kein prosodisches, dass am Versanfang andere Regeln zu gelten haben. Viel genauer wäre es, die prosodischen Regeln auch am Versanfang auszuführen, um sie im Nachhinein auf der Ebene der metrischen Analyse wieder herauszurechnen.
[38] 
Gelten die Regeln der »prosodischen Vorhersage« für alle Texte des Deutschen, so sind die Regeln der »Euphonie« auf den lyrischen Kontext zugeschnitten, und selbst dort reicht ihre Logik nicht für eine Adaption auf die gesamte Geschichte des deutschen Verstextes, wohl aber bis in die Mitte des 17. Jahrhunderts.
[39] 
Das meint den Zusammenprall von zwei aufeinander folgenden Silben mit Hebungen, wie z.B. im zweiten Vers des folgenden Gedichts: »Hoch an der Windung des Passes bewohn ich ein niedriges Berghaus –/Heut ist vorüber die Post, heut bin ich oben allein.« Zitiert nach [19].
[40] 
Wie die Erkennung der Reime aufgebaut ist, blenden wir in diesem Aufsatz gänzlich aus, es sei nur soviel gesagt, dass auch dies Teil des automatischen metrischen Markup ist. Neben dem Endreim werden derzeit sogar schon Stab-, Anfangs- und Binnenreime erkannt.
[41] 
»Richtig« in diesem Zusammenhang meint zunächst nur, dass keines der Wörter gegen seine Prosodie erkannt wurde, nicht jedoch, ob das Resultat der automatischen metrischen Interpretation auch tatsächlich der Metrik des Textes entspricht. Die Interpretation kann also prosodisch vollkommen richtig sein, metrisch aber falsch. Derzeit gibt es keine technische Lösung, die die »Richtigkeit« der metrischen Interpretation überprüfen könnte. Um hier eine Unabhängigkeit vom unserer Einschätzung zu erreichen, werden die Ergebnisse mit den Daten aus Fritz Schlawes Die deutschen Strophenformen, Schlawe (1972b) und dem Handbuch der deutschen Strophenformen von Horst J. Frank (1993) abgeglichen. Beide Bücher wurden dafür digitalisiert und in eine Datenbank überführt. Ist das Ergebnis der metrischen Analyse nur geringfügig abweichend von einer so erfassten Strophenform, so wird der Benutzer in der Ergebnisausgabe darauf hingewiesen, dass die divergierenden Stellen entweder falsch erkannt wurden oder der Autor an den besagten Stellen mit Tonbeugung oder Emphase arbeitet (welche von Schlawe und Frank nicht erfasst werden). Die Überprüfung unserer automatisch erzeugten Analyseergebnisse an diesen beiden Werken wirft aber hinsichtlich der »Mona-Lisa-Frage« von oben große Probleme auf, denn weder Schlawe noch Frank geben an, welche Edition ihrer metrischen Analyse zugrunde gelegt wurde, – was die Werke eigentlich unbrauchbar macht. Zudem sind metrische Analysen immer interpretative Aussagen – vor allem, wenn sie unterschiedlichen Theorien folgen oder ein Text keine eindeutige metrische Aussage zulässt: Die Zeilen »Ich bin stolz/Frosch zu sein/Und ich sitz/gern am Teich« (Deutsche Übersetzung des Liedes Frogs in the Glen aus der Sesamstraße) zeigt dies deutlich. Eine eindeutige Aussage über die metrische Struktur dieser nur aus einsilbigen Wörtern bestehenden Verse ist nicht möglich (– – +/– – +/– – +/– – + oder + – –/+ – –/+ – –/+ – – oder – + –/+ – +/– + –/+ – + oder + – +/+ – +/+ – +/+ – +).
[42] 
Wir versuchen zwar, die Betonung von Fremdwörtern richtig zu erkennen und wir haben dafür eigene Regeln definiert, letztlich fehlt aber noch eine Regel, die Fremdwörter überhaupt erkennt und im Anschluss daran Regeln ausblendet, die nur für deutsche Wörter Gültigkeit haben. In Gedichten mit einem hohen Prozentsatz an Fremdwörtern kann die Erkennungsrate derzeit noch rapide absinken.
[43] 
Das Wort Blüte z.B. ist wie blühen auch auf die erste Silbe zu betonen (+ –). Das Wort Kirschblüte aber auch (+ – –), denn der Bestandteil Kirsch gilt als Bestimmungswort in der Zusammensetzung, also dem Kompositum, Kirschblüte, und erhält somit nach den Regeln der deutschen Sprache die Betonung – völlig unabhängig von allen anderen möglichen prosodischen Vorhersagen.
[44] 
Dies meint, dass sich Attribut-Werte des bestehenden Markup mit Attribut-Werten des automatisch erzeugten Markup derart überschneiden, dass dabei Aussagen entstehen, die in sich nicht mehr kohärent sind.
[45] 
Wichtige Grundvoraussetzung hierfür wäre natürlich, dass die Funktionsfähigkeit der Algorithmen noch stabiler werden müsste, und dass es ein wichtiger Bestandteil dieses automatischen Markup sein müsste, den verwendeten Regelsatz in Form einer Checksum abzuspeichern, um das Markup reproduzierbar zu machen.
[46] 
Wagenknecht (1989: 35–37).
[47] 
Prominentes Beispiel wäre hier das Wort nachlässiger im Gedicht Die Beiden von Hugo von Hofmannsthal [12].
[48] 
Küsters Abendlied, zitiert nach [13].
[49] 
Am konsequentesten in diese Richtung weitergedacht sind die Arbeiten von Pablo Gervás [8]. Ebenso bekannt sind uns die Arbeiten von Ruli Manurung [14] und Hugo Oliveira [15]. Zusammenstellungen über die »Geschichte der computergenerierten Literatur« finden sich z.B. in den beiden Arbeiten von David Link [16] und Miriam Stürner [17].
[50] 
Heute schon gebührt Dank für zahllose Hinweise: David J. Birnbaum, Sabine Bobenhausen, Rudolf Brandmeyer, John Carlson, Peter Eisenberg, Pablo Gervás, Michael Mühlenhort, Regine Müller, Wendell Piez, Dirk Schröder, Peter Stadler, Stine Brenna Taugbøl und Petra Wagner.
[51] 
Alle Regeln sind derzeit in Makros formuliert und können in der Textverarbeitung Word Perfect als Kette ausgelöst werden. Die Analyse eines Textes dauert somit nur noch eine gute Minute. Viel größer jedoch ist der Vorteil einzuschätzen, dass es bereits eine – wenn auch vergleichsweise laienhafte – technische Umsetzung gibt, die die Theorie unter Beweis stellt.
[52] 
Derzeit basiert das System beinahe nur auf einer leicht abgeänderten foot-form-trochaic-rule. Aber schon alleine diese wenigen Regeln reichen aus, um »regelmäßige Gedichte« zu analysieren (regelmäßige Gedichte sind nach unserem Verständnis Gedichte, die aus einer strophenweise in sich regelmäßigen Abfolge von gehobenen und gesenkten Silben bestehen, die mit dem gleichen Muster pro Vers beginnen müssen, aber unterschiedliche (katalektische) Endpunkte des Musters zulassen. Ein Muster ist die kleinste sich wiederholende Struktur von gehobenen und gesenkten Silben innerhalb eines Verses).
[53] 
Der Prototyp ist mittlerweile auch als Internet-Version zugänglich [18].