Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1

Die Seite wird erstellt Juliane Hermann
 
WEITER LESEN
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
Überblick über die
      Forschungslandschaft zu
Annotationen nicht-textueller Objekte
     in den Digital Humanities

 Christian Köhler, Franziska Schloots und Jörg Müller-Lietzkow

           WORK IN PROGRESS – VERSION 0.1

                       16. Januar 2018
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
Inhaltsverzeichnis
  Abbildungsverzeichnis........................................................................................ III
  1 Einleitung.......................................................................................................... 1
  2 Digitale Editionen in den Digital Humanities ................................................... 1
  3 Exemplarische Übersicht nicht-textueller Objekte in den Digital Humanities 4
     3.1 Bilder ......................................................................................................... 4
         3.1.1 Digitale Annotationen von Bildern ..................................................... 4
         3.1.2 Ausgewählte Projekte und Tools ....................................................... 5
     3.2 Bewegtbilder ............................................................................................. 6
         3.2.1 Digitale Annotationen von Bewegtbildern ........................................ 6
         3.2.2 Ausgewählte Projekte und Tools ....................................................... 8
     3.3 Theateraufführungen ................................................................................ 8
         3.3.1 Digitale Annotationen von Theateraufführungen ............................. 8
         3.3.2 Ausgewählte Projekte und Tools ..................................................... 10
     3.4 Comics und Graphic Novels..................................................................... 11
         3.4.1 Digitale Annotationen von Comics und Graphic Novels .................. 11
         3.4.2 Ausgewählte Projekte und Tools ..................................................... 15
     3.5 Musik und Notentexte ............................................................................ 16
         3.5.1 Digitale Annotationen von Notentexten .......................................... 16
         3.5.2 Ausgewählte Projekte und Tools ..................................................... 19
  4 Ausblick .......................................................................................................... 22
     4.1 Materielle Artefakte ................................................................................ 22
     4.2 Digitale Artefakte .................................................................................... 22
  5 Diskussion ....................................................................................................... 23
  6 Literatur .......................................................................................................... IV

                                                             II
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
Abbildungsverzeichnis
  Abbildung 1 Herausforderungen nicht-textueller Objekte in den DH ............... 3
  Abbildung 2 HyperImage .................................................................................... 5
  Abbildung 3 ELAN Player .................................................................................... 7
  Abbildung 4 Enhanced Video Player................................................................... 8
  Abbildung 5 Visualisierung auftretender Charaktere in Marlowe's "Dido“ ....... 9
  Abbildung 6 Simulated Enviroment for Theatre (SET) .................................... 11
  Abbildung 7 Panel aus "Captain America" und dazugehörige Kodierung ........ 13
  Abbildung 8 Beispiele für Komposition von Panels .......................................... 15
  Abbildung 9 Screenshot aus dem M3-Editor .................................................... 16
  Abbildung 10 Beispiel einer XML Codierung .................................................... 17
  Abbildung 11 Digitales Kollationieren von Quellen .......................................... 18
  Abbildung 12 Handschriftliche Aufzeichnung Beethovens .............................. 20
  Abbildung 13 Cinemetrics: „Fingerabdrücke“ verschiedener Filme ................ 24

                                                       III
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
1 Einleitung
Dieses Papier soll den Grundstock einer Bestandsaufnahme über bisherige For-
schung in den Digital Humanities bieten. Gleichzeitig soll ein Überblick über spezi-
fische Herausforderungen im Kontext der wissenschaftlichen Arbeit mit und an
nicht-textuellen Objekten gegeben werden. Kapitel 2 umreißt grundsätzliche Be-
sonderheiten der Editionsarbeit und angrenzender relevanter Bereiche. Anschlie-
ßend arbeitet das dritte Kapitel spezifische Probleme wie auch anhand ausgewähl-
ter Projekte und Tools Lösungsansätze unterschiedlicher Medientypen heraus. Da
dieser Überblick nicht erschöpfend sein kann, deutet Kapitel 4 weitere Gegen-
standsfelder, die es noch auszuarbeiten gilt, wenigstens an. Im Rahmen einer ab-
schließenden Diskussion in Kapitel 5 formulieren wir auf der Grundlage dieser ers-
ten Sichtung einige Thesen bezüglich des Paradigmenwechsels in den Kulturwis-
senschaften im Kontext der Digitalisierung, die im nächsten Schritt weiterentwi-
ckelt werden, um die Grundlage für eine zukünftige empirische Untersuchung zu
bilden.

2 Digitale Editionen in den Digital Humanities
Im folgenden Abschnitt sollen generelle Herausforderungen angesprochen wer-
den, mit denen sich Forschende aus dem Bereich der Digital Humanities konfron-
tiert sehen. So ist es Voraussetzung für jegliches Forschungsvorhaben, dass ent-
sprechendes Quellenmaterial überhaupt zugänglich ist, seien es die Originale (z.B.
Autographen eines Komponisten oder ein Gemälde) oder digitalisierte Versionen
in ausreichender Qualität (z.B. hochauflösender Scan eines Notentextes). Unter
Umständen sind Objekte aber auch nicht oder nur schlecht zugänglich, weil sie sich
z.B. im Privatbesitz befinden oder in ihrem Originalzustand nicht überlebt haben.
Hohe Kosten für den Zugang zu Objekten oder das Digitalisieren der Objekte kön-
nen Forschungsvorhaben somit im Wege stehen (vgl. Bourne 2017: 369). Auch Ein-
schränkungen im Sinne des Copyrights stellen z.B. in der Filmforschung ein Prob-
lem dar (vgl. Kolker 2004). Liegen digitalisierte Objekte im Sinne von Retrodigitali-
saten als Forschungsgegenstand vor, so gilt es diesen Mediensprung aus medien-
theoretischer Sicht zu reflektieren. Aspekte wie die der Materialität müssen zwi-
schen Original und der Repräsentation differenziert betrachtet werden.
   Andere Herausforderungen ergeben sich bei genuin digitalen Objekten („born
digital“): Hier werfen Diskussionen um die Versionsgeschichte und die Langzeit-
verfügbarkeit neue Fragen auf, z.B. wie langfristig eine Lauffähigkeit garantiert
werden kann. Entscheidungen müssen getroffen werden, ob eine Emulation die-
sem Problem entgegengesetzt werden kann oder ob parallel eine Archivierung der
entsprechenden Hardware notwendig ist. Dies setzt aber auch voraus, dass man

                                           1
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
sich damit auseinandergesetzt hat, was überhaupt in welcher Form archiviert wer-
den soll. Denkt man beispielsweise an interaktiv-dynamische Medien wie Compu-
ter- und Videospiele, so sind sowohl die Archivierung des Programmcodes als auch
die des lauffähigen Programms oder einzelner Spielerfahrungen denkbar.
    In Bezug auf die Erstellung digitaler Editionen besteht die Herausforderung da-
rin, einen Mehrwert zu analogen Editionen zu schaffen und Überlegungen darüber
anzustellen, wie man die digitalen Möglichkeiten wertsteigernd einsetzen kann,
damit nicht nur einfach eine simple Transformation von bereits Bestehendem vor-
genommen wird. Wirklich neuartig sind beispielsweise Möglichkeiten der analyti-
schen Visualisierungen, welche einen ursprünglichen Text oder ein Objekt dekon-
struieren und neu zusammensetzen, um bisher unerkannte Muster aufzudecken
(vgl. Roberts-Smith 2013: 12). Damit so etwas möglich ist, müssen nicht-textuelle
Objekte natürlich zunächst so kodiert werden, dass datengetriebene und weitere
empirische Methoden darauf angewendet werden können (vgl. Bateman et al.
2017: 477). Dafür sind spezielle Auszeichnungssprachen entwickelt worden, u.a.
die Text Encoding Initiative (TEI)1 für diverse textuelle Objekte, die Music Encoding
Initiative (MEI)2 für Notentexte oder die Comic Book Markup Language (CBML) 3,
die speziell auf die Anforderungen von Comics zugeschnitten ist. Diese Auszeich-
nungssprachen sind in der Lage, das entsprechende Objekt strukturell und seman-
tisch darzustellen sowie durch Metadaten alle das Objekt betreffenden relevanten
Informationen zu speichern. Die Kodierung eines Objekts ist der zentrale Akt im
Forschungsprozess und Voraussetzung für das weitere Vorgehen rund um das
Edieren, Analysieren, Visualisieren oder anderen Formen der Weiterverarbeitung
in den Digital Humanities (vgl. Walsh 2012: 1). Damit einher geht die Frage nach
der Standardisierung. Zwar gilt beispielsweise TEI bei textuellen Objekt mittler-
weile als internationaler Standard, bei den meisten anderen Objekten hat sich al-
lerdings noch kein Standard herausgebildet.
    Fragen der Standardisierung und Langzeitverfügbarkeit kommen auch zum Tra-
gen, wenn es um Richtlinien zur Konstruktion von Korpora geht. Als Grundlage für
weitere Forschung ist der Aufbau entsprechender Korpora ein zentrales Thema in
den Digital Humanities. Dafür wird zunächst beschrieben, welche Objekte Teil die-
ses Korpus sein sollen und welche nicht. Dabei wird definiert, welche Charakteris-
tika des zu untersuchenden Mediums im Fokus stehen sollen. Da die Inhalte des
Korpus eine gewisse Repräsentativität4 darstellen sollen, ist dieser Schritt der

1   http://www.tei-c.org/index.xml [12.01.2018].
2   http://music-encoding.org/ [12.01.2018].
3   http://dcl.slis.indiana.edu/cbml/ [12.01.2018].
4   Ein in dieser Hinsicht nicht gelungenes Beispiel wäre der Korpus „Manga109“. Bei dessen Konstruktion
    wurde beschlossen, u.a. keine Inhalte sexueller Natur aufzunehmen. Da aber viele Mangas von diesen
    Inhalten geprägt sind, ist dieser Korpus nicht als repräsentative Darstellung von Mangas zu sehen (vgl.
    Dunst et al. 2017: 17).

                                                      2
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
Auswahl von besonderer Bedeutung, da aus forschungsökonomischen Gründen in
den seltensten Fällen alle relevanten Werke berücksichtigt werden können (vgl.
Dunst et al. 2017: 15ff.).
    Grundsätzlich kann man sagen, dass sich durch die neuen Möglichkeiten der
Digitalisierung und den Einsatz von spezialisierter Software das wissenschaftliche
Arbeiten und viele der Arbeitsprozesse verändert haben und neu ausgehandelt
werden müssen. Geförderte Projekte sind etwa verstärkt kollaborativ und inter-
disziplinär organisiert. Dies wird dadurch begünstigt, dass Forschung nicht mehr
wie in den klassischen Kulturwissenschaften so stark mit Einzelpersonen assoziiert
ist.

     Herausforderungen im Kontext nicht-textueller Objekte in den Digital Humanities

 •     Zugänglichkeit der Objekte/ des Quellenmaterials
 •     Copyright
 •     Langzeitverfügbarkeit digitaler Objekte
 •     unter Umständen notwendige Hardwarearchivierung
 •     keine eindeutige Form der Archivierung (z.B. Computer- und Videospiele à Archivierung des
       Codes, des lauffähigen Programms oder der Spielerfahrungen?)
 •     Editionen neu denken: Welche Möglichkeiten und welchen Mehrwert bietet das Digitale?
 •     neue Methoden nutzen und richtig einsetzen, z.B. analytische Visualisierungen
 •     Kodierung des Objekts als zentraler Akt, mögliches Problem der Standardisierung
 •     Konstruktion von (repräsentativen) Korpora
 •     (Neu)Aushandlung von wissenschaftlichen Arbeitsprozessen
     Abbildung 1 Zusammenfassung der besonderen Herausforderungen im Kontext nicht-textueller Objekte
                            in den Digital Humanities (Eigene Darstellung)

                                                    3
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
3 Exemplarische Übersicht nicht-textueller Objekte in den
Digital Humanities
3.1 Bilder

3.1.1 Digitale Annotationen von Bildern
Die wissenschaftliche Auseinandersetzung mit Bildern fällt traditionell in den Kom-
petenzbereich der Kunstwissenschaft. Mit dem iconic bzw. pictorial turn fand in
ihr in den 1990er Jahren ein Paradigmenwechsel hin zu einer allgemeinen Bildwis-
senschaft statt, der beinhaltete, Kulturen von ihren Bildern her zu untersuchen
und zu verstehen (vgl. Mitchell, 2008, S. 101–135). Damit einher ging zudem die
Erweiterung des Gegenstandsbereichs von Kunstbildern hin zu nicht-künstleri-
schen Bildern wie etwa technischen Zeichnungen (vgl. Hensel/Schröter, 2014, S.
414). Die Kunst- bzw. Bildwissenschaft hat dabei nicht nur die Medialität ihrer Ge-
genstände untersucht, sondern auch die Medialität der bildgebenden Technolo-
gien reflektiert, auf denen die facheigenen Methoden aufbauen. Als ein histori-
sches Beispiel kann der Zusammenhang zwischen fotografischen Reproduktionen,
Diaprojektionen und der Entwicklung einer bildvergleichenden Methode genannt
werden, wie er in der zweiten Hälfte des 19. Jahrhunderts vor allem bei Schweizer
Kunsthistoriker Heinrich Wölfflin nachzuweisen ist (vgl. Dilly, 1975).
    Die hier zu thematisierende technisch-methodische Innovation besteht in der
digitalen Annotierbarkeit von Bildern. Möglichkeiten hierzu stellt der TEI-Standard
zur Verfügung, um einerseits dem Umstand gerecht zu werden, dass Digitalisate
häufig als Bilddateien vorliegen, und um andererseits auch in der textuellen Editi-
onsarbeit zu ermöglichen, die materielle Dimension von Dokumenten zu adressie-
ren (Rapp, 2017, S. 263). Allerdings bleibt TEI in erster Linie ein Standard zur Re-
präsentation von Texten, sodass eine eigenständige Repräsentation von visuellen
Eigenschaften und dem Objektcharakter nicht vorgesehen ist (Becker u. a., 2016,
S. 21). Innerhalb der TEI ist jedoch ist die Special Interest Group „Text and Gra-
phics“ damit befasst, die Möglichkeiten zur Annotation von bildreichen Texten
auszubauen.5 Technisch kann bei der Annotation von Bildern im Gegensatz zu Tex-
ten nicht auf characters zugegriffen werden, sondern auf Pixelpunkte und Koordi-
naten. Damit geht einher, dass nur in den Annotationen, nicht aber in Kombination
mit den Textinhalten recherchiert werden kann (Rapp, 2017, S. 264). Andere Mög-
lichkeiten lassen sich in Projekten aus dem Bereich bildwissenschaftlicher For-
schung finden.

5   http://www.tei-c.org/Activities/SIG/Graphics/ [12.01.2018].

                                                      4
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
3.1.2 Ausgewählte Projekte und Tools
Das an der Leuphana Universität Lüneburg entwickelte und vom BMBF geförderte
Projekt HyperImage etwa versucht die „bildhafte Fußnote am Bild“6 zu realisieren.
Damit soll es ermöglicht werden, Bilddetails mit anderen bildinternen Details, Bild-
sammlungen und Texten hypertextuell zu verknüpfen. Annotationen eines gege-
benen Korpus lassen sich untereinander verlinken und über Indices erschließen.
Die Zwischen- und Endergebnisse können online veröffentlicht werden, um so kol-
laborative Arbeitsformen zu ermöglichen.7 Die HyperImage Software ist Open
Source und basiert auf offenen Standards wie XML, SVG und dem Resource
Description Framework, um Nutzern die Möglichkeit zu geben, die Software im
Falle, dass diese nicht mehr aktiv unterstützt wird, zu modifizieren oder zu über-
arbeiten. Da das BMBF keine finanzielle Absicherung über die Projektlaufzeit hin-
aus ermöglicht, haben die Entwickler eine Firma gegründet, um die Software aktiv
weiterzuentwickeln (vgl. Kuper/Loebel, 2014).

          Abbildung 2 HyperImage (https://www.leuphana.de/institute/icam/forschungsprojekte/hyperi-
                                              mage.html)

Auch das im DARIAH-DE Cluster 6.3 entwickelte Tool Sem2notes möchte aufbau-
end auf der kunstwissenschaftlichen Methode der Ikonografie semantisch-topolo-
gische Annotationen ermöglichen und so zeigen, dass sich Bildinhalte nicht nur
durch textuelle Annotationen analysieren lassen, sondern auch durch grafische
Annotationen (vgl. Stotzka et al. 2016: 7-10).

Das Projekt eCodicology hat in Kooperation mit Sem2notes das Tool CodiLab ent-
wickelt, das semi-automatisch Layout-Strukturen in mittelalterlichen Handschrif-
ten vermisst und TEI-konform annotiert (vgl. Chandna et al. 2013).

6   https://www.leuphana.de/institute/icam/forschungsprojekte/hyperimage.html [12.01.2018].
7   Ebd.

                                                     5
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
3.2 Bewegtbilder
3.2.1 Digitale Annotationen von Bewegtbildern
Der Begriff des Films bezeichnet ursprünglich im Englischen eine dünne Membran
und verweist damit auf den materiellen Bildträger (z.B. Nitrat oder Zelluloid). Auch
wenn sich die Filmwissenschaft schon lange mit der Frage nach der Ontologie des
Films auseinandersetzt (z.B. Bazin, 1975), stellt sich diese im post-kinematographi-
schen Zeitalter verschärft. Das Kino ist lange nicht mehr der privilegierte Rezepti-
onsort und digitale Medien haben die begriffliche Bindung an den materiellen Bild-
träger prekär werden lassen. Wir haben uns daher für den allgemeineren Begriff
des Bewegtbildes entschieden, der dem klassischen Film genauso gerecht werden
kann wie etwa YouTube-Videos.
   Für die Erforschung von Filmen stellte die Empfindlichkeit des Bildträgers bzw.
die schlechte Qualität von Kopien lange ein großes Problem dar (insbesondere gilt
dies auch für Lehrsituationen). Das analysierte Medium und das Medium der Ana-
lyse (z.B. Notizzettel oder andere schriftliche Aufzeichnungen) waren zudem
grundsätzlich getrennt, eine Zuordnung von Annotation erfolgte in der Regel über
schriftliche Timecodes. Ein grundsätzlicher Vorteil digitaler Annotationstools ist
nun, dass Auszeichnungen ohne Medienbruch und verschleißfrei am (digitalisier-
ten) Bildmaterial vorgenommen werden können (vgl. Kolker, 2004). Im Vergleich
zu der weiter entwickelten computergestützten Annotation von Texten befindet
sich die digitale Analyse von Bewegtbildern jedoch noch in den Anfängen (vgl.
Burghardt/Wolff, S. 108). Der vor allem bei historischem Material notwendige
Schritt der vorhergehende Schritt der Digitalisierung bringt zudem auch mit sich,
dass Annotationstools, vor allem dann, wenn sie automatisiert Auszeichnungen
vornehmen sollen, mit Artefaktbildungen umgehen können müssen.
   In welcher medialen Form sich Bewegtbilder aber auch präsentieren, zeichnen
sie sich im Gegensatz zu Bildern durch ihren dynamischen Charakter aus, d.h.
durch eine zeitliche Dimension. Für die Annotationspraxis bedeutet dies, dass
nicht nur Einzelbilder (sog. Frames) zum Gegenstand von Auszeichnungen werden
können, sondern auch Sequenzen unterschiedlicher Ordnungen. Eine weitere
Konsequenz der zeitlichen Dimension ist, dass das Material eine extrem hohe in-
terne Komplexität besitzen kann, wenn z.B. Szenen eines Films auf frühere Szenen
referieren. Bewegtbildern setzen daher Annotationswerkzeuge voraus, die tem-
porale Beziehungen abbilden können. Wie schon der frühen Filmsemiotik stellt
sich somit das Problem, sinnvolle Einheiten im Filmmaterial zu finden und zu be-
gründen (vgl. Metz, 1973). Hier wurden z.B. Vorschläge gemacht, automatisiert
mittels Bildähnlichkeiten Schnitte im Material zu identifizieren und auf dieser
Grundlage eine Grammatik aus Szenen, Shots, Sub-Shots und Frames zu erstellen
(vgl. Petersohn, 2009). Derartige Strukturen versucht etwa das Projekt ELAN am

                                          6
Max-Planck-Institut für Psycholinguistik abzubilden. In einem speziellen XML-For-
mat („EAF“=ELAN annotation format) können in einem Player (vgl. Abb. 1) hierar-
chisch verbundene Auszeichnungsebenen (sog. „Tiers“) eingetragenen werden.8

                   Abbildung 3 ELAN Player (https://dig-hum.de/forschung/projekt/elan)

Eine weitere Ebene der Komplexität von Bewegtbildern ergibt sich daraus, dass
diese häufig Bild, Sprache, Schrift und Ton/Musik kombinieren. Bedeutungskonsti-
tution in diesen Medien erfolgt daher in der Regel multimodal. Das an der Univer-
sität Bremen beheimatete BMBF-geförderte Projekt „Bild – Film – Diskurs“ ver-
sucht diesem Umstand durch die Entwicklung von Analysewerkzeugen und -me-
thoden gerecht zu werden, die dort vor allem bei der Analyse von visueller politi-
scher Kommunikation erprobt werden.9 Der gewählte Ansatz sieht vor, der Multi-
modalität des Materials nicht nur mit dem Fachwissen der jeweils traditionell zu-
ständigen Disziplinen zu begegnen (z.B. Linguistik für Gesprächsanalysen), son-
dern auch zu berücksichtigen, dass unterschiedliche Ebenen der Analyse an ver-
schiedene Kulturtechniken der Datensammlung anschließen. So werde in bildwis-
senschaftlichen Projekten, obwohl die Grenze zwischen Archiven, Datenbanken
und Korpora immer unklarer werde, Datenbeständen häufig mit den Verfahren
begegnet, die für die jeweiligen Fächer traditionell sind (häufig sind dies archivari-
sche Praktiken). Diese führe häufig dazu, dass eine Diskrepanz zwischen der beab-
sichtigten Funktion einer Datensammlung und ihrem Gebrauch entstehe
(Bateman et al. 2015: 131; vgl. Manoff 2010). Während etwa auf der Ebene der
Annotation sprachlicher Elemente auf die Methoden der Korpuslinguistik zurück-
gegriffen werden könne, könne man sich, wenn es um die Interaktion mit den Kor-
pora, z.B. deren Durchsuchbarkeit, geht, eher am Archivgebrauch orientieren. Re-
sultat ist ein Videoplayer (vgl. Abb. 4), der sowohl automatisierte als auch manu-
elle stand-off Annotationen wiedergeben und mehrere Annotationsebenen kom-
binieren und in Beziehung setzen kann.

8   https://dig-hum.de/forschung/projekt/elan [12.01.2018].
9   http://www.fb10.uni-bremen.de/anglistik/langpro/bfd/bfd-home.htm [12.01.2018].

                                                   7
Abbildung 4 Enhanced Video Player (Bateman et al. 2015)

3.2.2 Ausgewählte Projekte und Tools
Im ursprünglich zur Erforschung von Gesten entwickelte ANVIL (The Video Anno-
tation Research Tool)10 können auf mehreren Ebenen farbkodierte Annotationen
am laufenden Bild vorgenommen werden. Zusätzlich können Daten von phoneti-
schen Analysewerkzeugen importiert sowie Motion-Capture-Daten in 3D-Visuali-
sierungen betrachtet werden (vgl. Kipp 2014).

Das Projekt ADVENE (Annotate Digital Video, Exchange on the Net)11 entwickelt
sowohl Modelle und Formate, um Annotationen von Bewegtbildmaterial teilen zu
können, als auch Player, die gleichzeitig das Material sowie die Annotationen ab-
spielen können (vgl. Sadallah/Aubert/Prié 2014).

3.3 Theateraufführungen
3.3.1 Digitale Annotationen von Theateraufführungen
Der Themenkomplex um Archivierung, Langzeitverfügbarkeit und Annotationen
betrifft auch die Theaterwissenschaften. Der Gegenstandsbereich erstreckt sich
hier hauptsächlich auf Aufführungen des Schauspiels, aber bezieht auch das
Tanztheater und Musiktheater mit ein. Die Notwendigkeit einer eigenständigen
Theaterwissenschaft ergab sich aus den spezifischen Eigenschaften des Gegen-
stands an sich: Theateraufführungen sind im Gegensatz zu reinen dramatischen
Texten schwer zu erfassen, viele Aspekte einer Aufführung wie Atmosphäre, Ge-
rüche und Publikumsreaktionen schwer zu dokumentieren. So wurde nach Metho-
den gesucht, dieser Herausforderung zu begegnen. Zunächst stand die reine Re-
konstruktion von Theateraufführungen im Mittelpunkt, bevor ab den 1960er

10   http://www.anvil-software.org/ [12.01.2018].
11   https://www.advene.org/#presentation [12.01.2018].

                                                    8
Jahren dann Theorieimpulse aus angrenzenden Disziplinen wie unter anderem der
Literaturwissenschaft, Geschichte, Ethnologie und Soziologie die Entwicklung ei-
ner fachspezifischen Methodik wie z.B. der Aufführungsanalyse in Gang setzte (vgl.
Warstat 2014: 434f.). Im Mittelpunkt stehen soll hier die westliche dramaturgische
und darstellerische Tradition, in welcher das Bühnenmanuskript, also der Text, auf
welchem die Inszenierung beruht, eine zentrale Rolle spielt (vgl. Roberts-Smith
2013: 2). Differenziert werden muss bei der Betrachtung der Theateraufführung
als Gegenstand also zwischen dem Bühnenmanuskript und der Aufführung an sich.
   Aus Perspektive der Digital Humanities stellt sich nun die Frage, in welcher
Form Theateraufführungen in digitale Editionen überführt werden können. Bishe-
rige digitale Editionen von Bühnenmanuskripten orientieren sich häufig stark an
konservativen gedruckten Editionen und schöpfen die digitalen Möglichkeiten nur
unzureichend aus (vgl. Robert-Smith et al. 2013: 1). Zwar besteht oft ein Mehrwert
z.B. in Form von Anreicherungen mit Tools zur Navigation, wie einer Suchfunktion
oder Hyperlinks, auch können teilweise andere Medienformen eingebettet sein,
wie Video- oder Audio-Files, im Großen und Ganzen stellen diese Mittel aber le-
diglich eine Ergänzung der klassischen Textform dar (vgl. ebd.: 11).
   Eine der neuartigen Möglichkeiten sind analytische Visualisierungen, die dazu
genutzt werden können, das Theaterstück auf eine andere Art und Weise zu ent-
decken, den ursprünglichen Text zu dekonstruieren und neu zusammenzusetzen.
Dies kann nützlich sein, um bisher unerkannte Muster aufzudecken (vgl. Roberts-
Smith 2013: 12).

   Abbildung 5 Visualisierung der auftretenden Charaktere in Christopher Marlowe's "Dido" (Brown et al.
                                     o.J.: research-resources/data)

Ein Erkenntnisinteresse besteht aber auch an den Bühnenmanuskripten selber,
wenn diese durch ihre Leser annotiert wurden. Diese Kommentare, Symbole und
Markierungen können einen Hinweis auf dem kulturellen Kontext des Rezipienten
geben (vgl. Bourne 2017: 367f.). So wird beispielsweise zu frühen Lesern von Text-
büchern Shakespeares und anderen Autoren des 16. und 17. Jahrhunderts

                                                    9
geforscht, indem die Annotationen, ihre Positionierung, Muster und die Beziehung
zu den Aufführungen untersucht werden. Dies hilft dabei zu verstehen, wie die
entsprechenden Stücke früher rezipiert wurden (vgl. ebd.: 368).

3.3.2 Ausgewählte Projekte und Tools
Das Projekt EMED (A Digital Anthology of Early Modern English Drama)12 hat rund
30 englische Theaterstücke des 16. und 17. Jahrhunderts digitalisiert und in XML
nach dem TEI-Standard codiert. Zusätzlich liegen weitere Daten, z.B. zur Urauffüh-
rung sowie zum Teil Faksimiles vor. Umfangreiche Informationen zur Editionsar-
beit, der damaligen Aufführungspraxis, der Codierung und zum Einsatz der ent-
standenen Materialien in Forschung und Lehre ergänzen das Angebot.

WTS (Watching the Script)13 stellt ein Tool bereit, mit welchem man einen als
XML-Datei vorliegenden dramatischen Text auf unterschiedliche Weise visualisie-
ren kann, unter anderem in einer 2D-Bühnenansicht, bei welcher die Charaktere
mit ihren entsprechenden Texten und Regieanweisungen dynamisch dargestellt
werden können.

Eine Weiterentwicklung des WTS-Tools ist SET (Simulated Enviroment for The-
atre)14. Diese mit der Game-Engine Unity erstellte 3D-Umgebung macht es dem
Nutzer möglich, Theaterstücke zu lesen, sie zu erschließen und digital zu inszenie-
ren. Hierbei kann er die Bühnenansicht, den Handlungsablauf und den dramati-
schen Text selber annotieren. Die im Tool konzipierte Aufführung kann aus unter-
schiedlichen Perspektiven verfolgt werden, sei es von jedem Platz des Zuschauer-
raums aus oder aus Sicht einer der Darsteller.

12   https://emed.folger.edu/ [12.01.2018].
13   http://humviz.org/digitalplaybook/ [12.01.2018].
14   http://humviz.org/set/ [12.01.2018].

                                                        10
Abbildung 6 Simulated Enviroment for Theatre (SET) (Roberts-Brown 2013: 21)

3.4 Comics und Graphic Novels
3.4.1 Digitale Annotationen von Comics und Graphic Novels
Bildhafte Erzählungen in Form von Comics und Graphic Novels stellen einen wich-
tigen Teil der Kulturlandschaft dar und spielen in Form der Comicforschung mit
spezifischen Journals15 und Konferenzen16 auch in Forschungskontexten eine be-
deutende Rolle. Der Begriff des Comics umfasst sowohl graphische Narrationen in
gebundener Form, z.B. klassische Comichefte als auch nicht gebundene Formen,
wie z.B. Comic-Strips in der Tageszeitung (vgl. Walsh 2012: 5). Mit der wachsenden
Bedeutung der Digital Humanities wurde auch die computergestützte Forschung
in Zusammenhang mit Comics und Graphic Novels vorangetrieben (vgl. Dunst et
al. 2017: 15).
    Wie bei allen Medien, die im Mittelpunkt eines solchen Forschungsinteresses
stehen, müssen zunächst entsprechende Korpora aufgebaut werden. Dafür

15
     Siehe z.B. Journal „Image TexT – Interdisciplinary Comic Studies“ (http://www.english.ufl.edu/imagetext/)
     [12.01.2018].
16
     Siehe z.B. UF Conference on Comics and Graphic Novels (http://www.english.ufl.edu/comics/con-
     ference.shtml) [09.01.2018] oder die Jahrestagung der Gesellschaft für Comicforschung (http://www.co-
     micgesellschaft.de/category/comicgesellschaft/jahrestagungen/) [12.01.2018].

                                                       11
müssen die in den meisten Fällen als Printversion vorliegenden Comics digitalisiert
werden. Dies geschieht, indem jede Einzelseite des Comics eingescannt und als
Bilddatei abgespeichert wird. Die einzelnen Panels werden als eine Liste von Bild-
punkten (Polygone) in einem XML-Dokument abgebildet (vgl. Bateman et al. 2017:
481). Die meisten digital vorliegenden Comics sind Digitalisierungen der Printver-
sion, genuin digital veröffentlichte Comics orientieren sich in den meisten Fällen
an traditionellen Comic-Layouts und nutzen selten das Spektrum der Möglichkei-
ten, die der digitale Raum bereithält (vgl. Whitson & Salter 2015: 7).
   Im nächsten Schritt erfolgt die Kodierung und Annotation der Werke. Ein eher
textzentrierter Ansatz zur Annotation von Comics und Graphic Novels ist die von
Walsh (2012) entwickelte Comic Book Markup Language (CBML), eine XML-ba-
sierte Sprache, die auf die TEI-Standards zurückgreift. CBML ist in erster Linie für
Comics des 20. und 21. Jahrhunderts entwickelt worden und kann verschiedene
Erscheinungsformen von bildhaften Erzählungen abbilden wie in Heft- oder Buch-
form herausgegebene Comics, Comic-Strips, Graphic Novels, Web-Comics und
weiteren Comic-Content, der auf digitalen Endgeräten veröffentlicht wird wie
Smartphones und Tablets. Doch nicht nur die graphische Narration selber, son-
dern auch in dem Comicheft enthaltene Paratexte wie Werbeanzeigen oder Fan-
post aber auch Materialeigenschaften des Hefts wie die Beschaffenheit des Pa-
piers oder des Umschlags werden mit einbezogen (vgl. Walsh 2012: 5).

                                          12
Abbildung 7 Panel aus "Captain America" (Walsh 2012: 25 nach Kirby 1976) und dazugehörige Kodie-
                                              rung in CBML

    Berücksichtigt werden müssen die besonderen Herausforderungen des Medi-
ums. Diese können u.a. in der Art der Narration liegen. Es gibt zwar auch Comics,
die eine in sich abgeschlossene Geschichte beinhalten, typischerweise sind sie
aber serialisierte Medien und die Narration erstreckt sich über größere Dimensio-
nen. Teilweise handelt es sich um Erzählungen, die sich über mehrere Dekaden
entwickeln, im Laufe der Zeit hunderte von verschiedenen Zeichnern, Autoren und
Herausgebern involvieren und mit anderen Serien verflochten sind (siehe z.B. Co-
mics um die Superhelden Spider-Man oder Batman). Aus diesem Umstand heraus
entstehen sehr komplexe miteinander verbundene Metadaten (vgl. ebd.: 57).
Nicht minder komplex gestaltet sich häufig die Abbildung der Comic-Charaktere
selber in den Metadaten, haben sie doch zum Teil divergierende Biographien17
(siehe auch „retroactive continuity“) (vgl. ebd.: 58f.).

17
     Als Beispiel nennt Walsh (2012: 58) den als DC-Superheld bekannte Charakter „Flash“. Der erste „Flash“
     war die geheime Identität einer Figur namens Jay Garrick und wurde von Gardner Fox und Harry Lampert
     in „Flash Comics #1“ im Jahr 1940 kreiert. In den 1950er-Jahren wurde der Charakter des „Flash“ wieder-
     belebt, mit neuem Kostüm, neuer Herkunftsgeschichte und neuer geheimer Identität, dem Forensikwis-
     senschaftler Barry Allen. Als dieser stirbt übernimmt sein Sidekick Wally West den Flash-Charakter, ge-
     nauso wie gleichzeitig auch Barry Allens Enkel Bart.

                                                      13
Eine weitere Herausforderung ist das Ausmaß von textlicher und graphischer
Variation bei Comics und Graphic Novels. Neben den oftmals im Fokus stehenden
Superhelden-Comics gibt es zahlreiche andere Genres, alle mit eigenen Traditio-
nen und Konventionen. Auch gibt es zunehmend Autobiographien und andere
nicht fiktionale Werke, die in Comic-Form erscheinen. Hinzu kommen Werke, die
sich von westlichen Comics unterscheiden, z.B. japanische Mangas. All diese Er-
scheinungsformen sind mit der CBML darstellbar (vgl. ebd.: 60).
    Kritisiert wird an der CBML, dass sie sehr text-zentriert ist und visuellen Aspek-
ten, wie z.B. der Anordnung der Panels, wie diese miteinander korrespondieren
und der Gesamtwirkung des Layouts18 zu wenig Beachtung schenkt (vgl. Bateman
et al. 2017: 483). Aufgegriffen wird dieser Kritikpunkt durch die Graphic Narrative
Markup Language (GNML) (Dunst et al. 2017), einer Erweiterung der CBML, die
sich mehr auf die Zusammenhänge von Text und Bild fokussiert. Hier werden die
als Polygone markierten Objekte und Charaktere in räumliche und soziale Bezie-
hungen gesetzt (vgl. Dunst et al. 2017: 17).
    In Bezug auf das Layout von Comics und Graphic Novels müssen auch beson-
dere Kompositionen kodiert werden können. So können Panels z.B. übereinander-
liegen, sind sternförmig oder in Zickzack-Form angeordnet, haben verschiedenar-
tige Rahmungen oder korrespondieren mit anderen Seiten des Hefts19 (vgl.
Bateman et al. 2017: 487ff.). Auch aus diesem Grund ist eine automatische Erfas-
sung von solchen Strukturen in vielen Fällen noch nicht möglich. Gerade diese
grundlegende Erfassung des Materials und die Einhaltung der Annotations-Richt-
linien ist essentiell bei dem Aufbau eines Korpus, weshalb diese Arbeitsschritte mit
besonderer Sorgfalt vorgenommen werden müssen (vgl. ebd.: 501f.).

18
     Traditionell bestehen Comics aus einzelnen Panels, die in einer bewussten Komposition gruppiert sind.
     Auch wenn der Leser sich beim Lesen immer nur auf ein Panel konzentrieren kann, so bleibt doch die
     gesamte Seitenkomposition in seinem Blickfeld und beeinflusst so die Rezeption. Dieser Aspekt kommt
     auch zum Tragen, wenn man berücksichtigt, dass es mittlerweile weit verbreitete Praxis ist, Comics auf
     mobilen Endgeräten zu rezipieren. Da nicht anders machbar, werden die Panels einzeln auf dem Smart-
     phone oder Tablet angezeigt. Die ursprüngliche Gesamtkomposition wird damit durch die Limitierung des
     Endgeräts zerstört (vgl. Walsh 2012: 6).
19
     Eine ausführliche Klassifizierung von Comic-Layouts findet sich bei Bateman et al. 2017.

                                                      14
Abbildung 8 Beispiele für Komposition von Panels auf einer Ebene (a) und auf mehreren Ebenen (b),
     welche eine visuelle Segmentierung über mehrere Layer hinweg benötigt (Bateman et al. 2017: 490)

Ein großer Korpus mit digitalisierten, aufbereiteten und mit Metadaten angerei-
cherten Comics gibt nicht nur Forschenden aus der Comicforschung die Möglich-
keit, Comics in ihre wissenschaftliche Arbeit mit einzubeziehen, sondern eröffnet
neue Potenziale für Forschende aus jeglichen Disziplinen (vgl. Walsh 2012: 11f.).
   Comics und Graphic Novels in den Digital Humanities sind sowohl für Kulturwis-
senschaftler als auch Informatiker ein spannendes Forschungsfeld, z.B. in Bezug
auf visuelle Objekterkennung, Text-Bild-Beziehungen, medienspezifisches Wissen
und Zusammenhänge.

3.4.2 Ausgewählte Projekte und Tools
Es existieren verschiedene Korpora von Comics und Graphic Novels, die aus Sicht
der Digital Humanities wertvolle Möglichkeiten für Forschende bieten. So beinhal-
tet z.B. die eBDtheque20 Seiten aus Comics („Bande Dessinée“) unterschiedlicher
kultureller Hintergründe, der Korpus Manga10921 japanische Mangas und der CO-
MICS Korpus von Iyyer et al. (2017) US-amerikanische Comics aus den 1930er und
1940er Jahren. Im Graphic Narrative Corpus (GNC)22 bauen Dunst et al. (2017)
einen Korpus zu Graphic Novels bzw. „Graphic Narratives“ auf. Diese werden dort
definiert als Comics mit mehr als 64 Seiten, die eine durchgehende Geschichte
oder mehrere zusammenhängende Geschichten erzählen und sich an ein erwach-
senes Publikum richten. Sie erscheinen als in sich abgeschlossene Bücher oder sind
Teil einer begrenzten Serie. Im Korpus enthalten sind außerdem sowohl fiktionale

20   http://ebdtheque.univ-lr.fr/ [12.01.2018].
21   http://www.manga109.org/ja/ [12.01.2018].
22   https://groups.uni-paderborn.de/graphic-literature/gncorpus/corpus.php [12.01.2018].

                                                     15
als auch nicht fiktionale Werke seit den 1970er Jahren bis heute. Bis 2017 konnten
bereits 160 Graphic Novels vollständig digitalisiert werden (vgl. Dunst et al. 2017:
16). In der Nachwuchsgruppe „Hybride Narrativität“23 wird der GNC in Kombina-
tion mit dem M3-Editor (Multi-Modal Markup) als Annotations-Tool genutzt. Ziel
ist es, so viele Arbeitsschritte wie möglich zu automatisieren. Der M3-Editor ist mit
der Graphic Narrative Markup Language (GNML) verbunden, eine Weiterentwick-
lung soll ermöglichen, dass der Editor in Zukunft auch für andere Medien nutzbar
ist, bei denen eine Text-Bild-Beziehung besteht (z.B. Magazine, Broschüren etc.)
(vgl. ebd.: 18f.). Eine automatische Zeichenerkennung (OCR) des Textinhalts ge-
staltet sich noch als problematisch, da viele Graphic Novels mit Handschrift-ähnli-
chen Schriftarten versehen sind, was zu unbefriedigenden Ergebnissen der Erken-
nungssoftware führt (vgl. ebd.: 18). Eine zusätzliche Ebene wurde in diesem Pro-
jekt geschaffen, in dem die Augenbewegungen bei Lesern der Graphic Novels mit
Hilfe von Eye Tracking gemessen wurde. Dieser Aspekt gibt Aufschluss darüber,
wie die Aufmerksamkeit des Lesers durch die Erzählung geführt wird. Somit kön-
nen wichtige Stellen identifiziert werden, was wiederum dabei hilft, Algorithmen
der automatisierten Objekterkennung weiterzuentwickeln (vgl. ebd.: 19).

                       Abbildung 9 Screenshot aus dem M3-Editor (Dunst et al. 2017: 18)

3.5 Musik und Notentexte
3.5.1 Digitale Annotationen von Notentexten
Präsent in den Digital Humanities ist vor allem die Musikphilologie als Teildisziplin
der Musikwissenschaft. Dort steht die editorische Tätigkeit von Notentexten im
Mittelpunkt der Forschung. Analog zur Textphilologie steht auch hier die Digitali-
sierung von Quellenmaterial, die Kodierung der Inhalte und die Annotation dieser

23   https://groups.uni-paderborn.de/graphic-literature/wp/ [12.01.2018].

                                                      16
am Anfang des Editionsprozesses. Auch hier hat sich mit dem MEI-Format24 (Music
Encoding Initiative) eine XML-basierte Auszeichnungssprache zur Kodierung von
Musik durchgesetzt, welche mit der großen Herausforderung konfrontiert ist, die
Fülle an unterschiedlichen musikalischen Zeichen abzubilden25 (vgl. Kepper 2011:
231ff.).

     Abbildung 10 Beispiel einer XML Codierung und ihre graphische Repräsentation. Die Codierung zeigt
ausschließlich die Noten und weder Schlüssel noch Taktangabe. (Quelle: http://music-encoding.org/wp-con-
                            tent/uploads/2015/03/mei-fig2.png [12.01.2018])

Der Editionsprozess selber und die damit verbundenen Arbeitsabläufe sind durch
die Möglichkeiten der Digitalisierung signifikanten Veränderungen ausgesetzt. Ein
zentraler Aspekt dabei ist der Einsatz von speziell auf die Anforderungen der mu-
sikphilologischen Arbeit zugeschnittener Software, aber auch allgemeiner Soft-
ware, welche Teile des Arbeitsprozesses unterstützen.

24   http://music-encoding.org/ [12.01.2018].
25   Eine weitere Herausforderung ist, dass MEI zwar für die weit verbreitete (westliche) Notationsform sehr
     gut geeignet ist, aber kein Datenformat in der Lage ist, alle in der Geschichte der Musik vorkommenden
     Notationsformen abzubilden (vgl. Kepper 2011: 231ff.).

                                                      17
Abbildung 11 Digitales Kollationieren von Quellen (Veit 2015: 43)

Eine besondere Rolle in diesem Zusammenhang spielt Edirom, eine JAVA-basierte
Software zur Erstellung digitaler Editionen (vgl. Kepper 2011: 164, Bohl/ Kepper/
Röwenstrunk 2011: 274). Die Idee hinter der Software resultiert aus einer altbe-
kannten Problematik der gedruckten Musikedition: Bedingt durch das Medium
Buch sind der Notentext und der kritische Bericht voneinander getrennt. Die Soft-
ware ermöglicht es, Annotationen direkt, quasi am Objekt, anhand von Faksimile-
Ausschnitten nachzuvollziehen (vgl. Veit 2010: 40). Es folgten Erweiterungen der
Software, wie die codebasierte Anzeige von Notentexten, einblendbare Taktzah-
len, zuschaltbare Ebenen sowie Sortier- und Suchfunktionen und die Möglichkeit,
die digitale Edition direkt im Browser zugänglich zu machen (vgl. Bohl/ Kepper/
Röwenstrunk 2011: 270, Veit 2015: 42).
   Diese digitalen Editionen beinhalten typischerweise das digitalisierte Quellen-
material, ihre Kodierungen, Anmerkungen, welche die musikwissenschaftliche
Aufbereitung des Materials enthalten, Metadaten, inhaltliche Verweise auf an-
dere Werke, Personen oder Quellen sowie das Ergebnis der editorischen Arbeit
(vgl. Kepper 2011: 182f.). Die Spezifika einer digitalen Edition kommen der Rezep-
tion einer Musikedition im wissenschaftlichen Sinne entgegen, handelt es sich bei
einer kritischen Lektüre doch um ein nicht lineares Lesen, bei dem der Leser von
Querverweisen gelenkt wird (vgl. Veit 2010: 45). Ein weiterer Mehrwert dieses ho-
hen Grads an Flexibilität ist, dass eine digitale Musikedition gemäß den Anforde-
rungen ihrer Zielgruppe angepasst werden kann. Bisher waren unterschiedliche
Ausgaben für Praxis, Studium oder Wissenschaft aus ökonomischen Gründen26
nicht realisierbar, was immer Kompromisse in der Gestaltung der Edition zur Folge

26   Gesamtausgaben kosten durchschnittlich etwa 250 Euro pro Band, je nach Komponist umfasst die Ge-
     samtausgabe zahlreiche Bände, z.B. Wagner mehr als 40, Schumann mehr als 70 Bände (siehe auch
     http://www.schott-musik.de/shop/Noten/Gesamtausgaben/) [12.01.2018].

                                                     18
hatte (vgl. Veit 2010: 39ff.). Ein weiterer Vorteil von digitalen Editionen ist die
Transparenz editorischer Entscheidungen, die durch die integrierten Faksi-
mile-Ausschnitte ermöglicht wird (vgl. Veit 2015: 41).

3.5.2 Ausgewählte Projekte und Tools
Musikwissenschaftliche Forschung im Rahmen der Digital Humanities findet in ei-
ner großen Anzahl einzelner Projekte statt, die sich oft entweder auf einen Kom-
ponisten, ein bestimmtes Werk oder auch eine bestimmte Fragestellung im Zu-
sammenhang mit Musikeditionen fokussieren.

Eines der größten Musikeditionsprojekte derzeit ist die „Carl-Maria-von-We-
ber-Gesamtausgabe“ (WeGA)27. Mit einer Projektlaufzeit von dreißig Jahren sol-
len bis zum 200. Todestag des Komponisten Carl Maria von Weber im Jahr 2026
sämtliche seiner Kompositionen, Briefe, Tagebücher und Schriften in einer wissen-
schaftlich-kritischen Gesamtausgabe vorliegen, was allein bei den Notentexten ei-
nen Umfang von über fünfzig Bänden ausmachen wird. Mit Ausnahme der Noten-
texte sollen dabei alle Texte als digitale Edition publiziert und auf der Projektweb-
seite zur Verfügung gestellt werden, die Notentexte hingegen werden als ge-
druckte Bände veröffentlicht. Trotzdem wird hier Edirom genutzt, denn insbeson-
dere bei der Kollationierungsarbeit bietet die Software den Editoren eine große
Arbeitserleichterung (vgl. Veit 2009).
   Des Weiteren entstanden mit der Weiterentwicklung von Edirom auch Kon-
zepte zur Bearbeitung und Integration von TEI-codierten Texten. Mittlerweile sind
diese unter anderem in Form von Briefen, Tagebucheinträgen, Aufführungsbe-
sprechungen, Werkrezensionen und Personeninformationen zu einem „umfang-
reichen digitalen Korpus angewachsen“ (Veit 2015: 43). Neben der eigentlichen
Edition findet also erstmals eine ausführliche Dokumentation statt, was einen
Mehrwert auch für die musikalische Edition bedeutet (vgl. Veit 2010: 38).

Im Zusammenhang mit dem WeGA-Projekt wurde auch der Kontext zu Webers
Oper „Der Freischütz“ ausführlich aufgearbeitet (vgl. Kepper/ Schreiter/ Veit 2014:
139). Daraus entstand im Jahr 2012 mit „Freischütz Digital - Paradigmatische Um-
setzung eines genuin digitalen Editionskonzepts“28 (FreiDi) ein weiteres For-
schungsprojekt. In einer dreijährigen Arbeitsphase soll in diesem Projekt erstmals
ein umfangreiches Werk in einer MEI-basierten Edition entstehen. Zusätzlich wer-
den neben den unterschiedlichen Fassungen des Librettos und Bühnentexten auch
passende Texte aus dem WeGA-Projekt in TEI-Codierung sowie Audiomaterial

27   http://www.weber-gesamtausgabe.de) [12.01.2018].
28   http://www.freischuetz-digital.de/ [12.01.2018].

                                                  19
integriert (vgl. Veit 2015: 44f.). Das FreiDi-Projekt soll somit das Potenzial und die
neuen Möglichkeiten digitaler Editionen demonstrieren.

Erst im Jahr 2014 gestartet und damit noch ganz am Anfang seiner geplanten sech-
zehnjährigen Laufzeit steht das Projekt „Beethovens Werkstatt: Genetische Text-
kritik und Digitale Edition“29, welches sich „mit dem Kompliziertesten beschäfti-
gen [wird], was die Musikgeschichte des 19. Jahrhunderts wohl zu bieten hat: Dem
Weg von den ersten, auf Papier festgehaltenen Einfällen Beethovens bis hin zur
bei ihm seltenen ‚fertigen‘ Werkgestalt.“ (ebd.: 45f.). Die Herausforderung in die-
sem Fall ist, dass die nur schwer entzifferbaren handschriftlichen Überlieferungen
Beethovens mit entsprechenden Kodierungen sichtbar gemacht werden sollen,
was im Zusammenhang mit dem MEI-Format bedeutet, dass Konzepte für Unsi-
cherheiten und Mehrdeutigkeiten zum Tragen kommen (vgl. ebd.). Ziel ist es, die
komplexen kompositorischen Prozesse Beethovens zu erforschen, zu dokumentie-
ren und in digitale Editionen zu überführen.

     Abbildung 12 Handschriftliche Aufzeichnung Beethovens Fidelio, Quartett „Er sterbe“ (Staatsbibliothek
                                       zu Berlin) (Lühning 2007: 75)

Das Projekt „OPERA – Spektrum des europäischen Musiktheaters in Einzelediti-
onen“30, verfolgt das Ziel, bedeutende Werke des europäischen Musiktheaters in
kritischen Editionen zu publizieren. Herausforderung dabei sind die verschiedenen
Textsorten, die breite zeitliche Streuung und die Multilingualität der ausgewählten
Werke, geplant ist die Publikation von insgesamt 21 Werken. Auch OPERA wird
durch die Zusammenarbeit mit Edirom geprägt. Die besonderen Anforderungen

29   Beethovens Werkstatt (http://beethovens-werkstatt.de/) [12.01.2018].
30   OPERA (http://www.opera.adwmainz.de) [12.01.2018].

                                                     20
von Editionen im Bereich Musiktheater gerade in Bezug auf die Verknüpfung von
Texten und Notentexten erfordern hier eine Weiterentwicklung von Edirom, von
der in Zukunft auch weitere Projekte profitieren können. Publiziert werden die
edierten Werke im Anschluss in traditioneller Buchform, die Libretti und kritischen
Berichte in digitaler Form.

Zusammengeführt werden verschiedene dieser Forschungsaktivitäten im interdis-
ziplinären „Zentrum Musik – Edition - Medien. Musik und nicht-textuelle Objekte
im Kontext digitaler Editionen“ (ZenMEM)31. Dieses hat es sich zur Aufgabe ge-
macht, ein Kompetenzzentrum der Digital Humanities an der Schnittstelle von In-
formatik und Geisteswissenschaften aufzubauen. Innerhalb der vier Säulen For-
schung, Werkzeuge, Dienstleistungen und Lehre sollen dabei verschiedene Ziele
realisiert werden. So sollen unter anderem bestehende Werkzeuge mit nachhalti-
gen Konzepten zur Softwareentwicklung erweitert und neuartige Nutzerschnitt-
stellen analysiert und konzipiert werden. Des Weiteren ist eine Anbindung an be-
stehende Infrastrukturen zur Sicherung von Nachhaltigkeit ein Kernthema des
Zentrums. Auch externe Projekte sollen diesbezüglich beraten und unterstützt
werden. In Bezug auf digitale Editionen wird sich das Zentrum nicht nur mit Musik,
sondern darüber hinaus auch mit anderen nicht-textuellen Medien auseinander-
setzen, zum Beispiel Videos oder Objekten des materiellen Kulturerbes (vgl. Veit
2015: 47).

31   http://zenmem.de/ [12.01.2018].

                                         21
4 Ausblick
4.1 Materielle Artefakte

Zur Annotation von materiellen Artefakten wurden vor allem in den Archäologien
eine Reihe von Metadatenstandards z.B. für die Grabungsdokumentation oder die
Objektbeschreibung entwickelt (vgl. Richards 2009; Schloen 2001). Einen ersten
Überblick über die entwickelten Standards, aktuelle Initiativen sowie bestehende
Probleme des Feldes liefert der DARIAH-DE I Report.32

4.2 Digitale Artefakte

Die Annotation von digitalen Artefakten ist als geistes- und kulturwissenschaftli-
che Praxis scheinbar noch kaum entwickelt, obwohl ihnen in den letzten Jahren
zunehmend zu Objekten von Forschung z.B. durch Game, Software und Interface
Studies33 werden. In den entsprechenden Feldern laufen derzeit Debatten über
die grundsätzliche Archivierbarkeit und angemessene Archivierungspraktiken die-
ser Gegenstände. Eine Herausforderung ist, dass Softwaregeschichte immer auch
Versionengeschichte ist, die es nachzuhalten gilt. Zudem ist Software von Hard-
ware abhängig, die ihrer eigenen Entwicklung unterliegt (am Bsp. von Games vgl.
Lowood et al. 2009). Die Frage ist dann, ob Hardware zusätzlich archiviert werden
muss, um die Lauffähigkeit von Software zu garantieren, oder ob Emulatoren an-
gemessene Substitute darstellen. Software ist im Rahmen kulturwissenschaftli-
cher Betrachtungen zudem grundsätzlich prozessual zu verstehen (am Bsp. von
Interfaces vgl. Drucker 2011), so dass sich ihre Spezifik häufig erst in der Nutzung
ergibt. Bei Games z.B. wäre also mindestens zwischen den Ebenen des Codes, des
Spiels und des individuellen Spielverlaufs zu unterscheiden, die jeweils eigene An-
forderungen an Annotationsverfahren stellen.

32   https://wiki.de.dariah.eu/pages/viewpage.action?pageId=20058856 [12.01.18].
33   Zu Fragen der Archivierbarkeit von Interfaces wird 2018 ein Workshop an der Universität Paderborn statt-
     finden: https://mediengeschichte.net/2018/01/09/cfp-interface-geschichten-paderborn-24-25-5-18/.

                                                       22
5 Diskussion
Der hier vorgestellte Forschungsstand verdankt sich einer ersten Sichtung, die ver-
sucht einen Querschnitt der zahlreichen Initiativen und Projekte darzustellen, die
in den letzten Jahren im Bereich digitaler Annotationen umgesetzt wurden und
werden. In den kommenden Monaten soll dieses Papier sowohl in der Breite als
auch in der Tiefe ergänzt werden, vor allem um die in Kapitel 4 angeführten Berei-
che. Gleichwohl erlaubt der erstellte Überblick die Formulierung einiger Arbeits-
thesen, die es auszuarbeiten und letztlich in eine Befragung zu den Strukturen und
Veränderungsprozessen in den (digitalen) Geistes- und Kulturwissenschaften zu
überführen gilt.
    Ein bestehender Topos des Diskurses um Digital Humanities ist, dass digitale
Methoden und Tools es erlauben würden, neue Fragen an bestehende Material-
bestände zu richten. Die erste Querschnittssichtung des Feldes legt allerdings
nahe, dass dies nur im zweiten Schritt zutrifft. Aus einer epistemologischen Per-
spektive scheint es in vielen Fällen eher so zu sein, dass digitale Objekte bzw. Re-
präsentationen geschaffen werden (z.B. Visualisierungen). Da diese strukturelle
anders aufgebaut sind, lassen sie sich nun mit Fragen adressieren, die an die ur-
sprünglichen Gegenstände geisteswissenschaftlicher Forschung nicht gerichtet
werden konnten. Als Beispiel können die im Projekt Cinemetrics34 erstellten „Fin-
gerabdrücke“ von Filmen dienen (vgl. Abb. 13). In einem automatisierten Verfah-
ren werden einzelne Frames mit ihren Farbwerten annotiert und zu einer kreisför-
migen Timeline zusammengeführt. Auch wenn mögliche Verwendungszwecke im
Sinne vergleichender Verfahren angedeutet werden, ist das Ziel des Projekts in
erster Linie herauszufinden, wie man mittels digitaler Werkzeuge Artefakte erstel-
len kann, die das zeitbasierte Medium Film in ihrer Ganzheit ansichtig machen
können.
    Im Vokabular der Wissenschafts- und Laborforschung Bruno Latours wären
diese digitalen Objekte als Glieder in einer Kette von Repräsentationen zu be-
schreiben, entlang der die Referenz wissenschaftlicher Diskurse zirkuliert. Es sind
diese Darstellungen, auf die sich die Aussagen von WissenschaftlerInnen beziehen
(vgl. Latour 1999). Eine Linie, der man in weiteren Befragungen folgen könnte,
wäre ob und wie den damit verbundenen Übersetzungsprozessen (die zumindest
in der digitalen Editionsarbeit auch fast immer Übersetzungen in ein anderes Me-
dium sind) Rechnung getragen wird – sei es in vorgeschalteten erkenntnistheore-
tischen Reflexionen bis hin zu gestalterischen und diskursiven Strategien.

34   http://cinemetrics.fredericbrodbeck.de/ [12.01.2018].

                                                      23
Abbildung 13 Cinemetrics: „Fingerabdrücke“ verschiedener Filme (http://cinemetrics.fredericbrod-
                                             beck.de/)

   Eine erste These könnte sein, dass die vielbeschworene Transformation der
Geistes- und Kulturwissenschaften nicht einfach in der vermehrten Nutzung des
Computers als Werkzeug besteht, sondern im Import von epistemischen Praktiken
und Forschungsstrategien aus den Natur- und Technikwissenschaften. Zu denken
wäre hier an die zunehmende Bedeutung von Verfahren des Tinkering, des Bas-
telns und von trial and error, in denen es häufig um den Nachweis von Machbar-
keiten geht, ohne dass vorher festgelegte Erkenntnisziele existieren, das Ergebnis
der Herstellung dann aber zum Objekt von Wissensproduktion werden kann (vgl.
Nordmann 2008).
   Um das Spezifische der aktuellen Transformationen schärfer in den Blick zu be-
kommen, könnte es auch Sinn machen, die Befragungen mit historischen Unter-
suchungen zu flankieren. Vergleichbare Prozesse fanden etwa im 19. Jahrhundert
im Verwissenschaftlichungsprozess der Philologien und der Geschichtsforschung
statt. Unter dem Erfolgsdruck der Naturwissenschaften etablierten sich die Hilfs-
wissenschaften, die hermeneutische Erkenntnisse durch empirische Methoden
unterstützen und absichern sollten. Diese methodischen Entwicklungen werden
begleitet von Medieninnovationen auf dem Feld mechanischer Bildgebungsver-
fahren und Wandlungen im Verständnis wissenschaftlicher Objektivität (vgl. Das-
ton/Galison 2009). Es lässt sich etwa zeigen, dass die Entwicklung kritisch-verglei-
chender Methoden im Rahmen der Geschichtsforschung des 19. Jahrhunderts eng
verbunden ist mit der Einführung fotografischer Faksimiles in Quelleneditionen
(vgl. Köhler 2018). In der aktuellen Konstellation aus digitalen Technologien,

                                                   24
Sie können auch lesen