Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities - WORK IN PROGRESS - VERSION 0.1
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Überblick über die Forschungslandschaft zu Annotationen nicht-textueller Objekte in den Digital Humanities Christian Köhler, Franziska Schloots und Jörg Müller-Lietzkow WORK IN PROGRESS – VERSION 0.1 16. Januar 2018
Inhaltsverzeichnis Abbildungsverzeichnis........................................................................................ III 1 Einleitung.......................................................................................................... 1 2 Digitale Editionen in den Digital Humanities ................................................... 1 3 Exemplarische Übersicht nicht-textueller Objekte in den Digital Humanities 4 3.1 Bilder ......................................................................................................... 4 3.1.1 Digitale Annotationen von Bildern ..................................................... 4 3.1.2 Ausgewählte Projekte und Tools ....................................................... 5 3.2 Bewegtbilder ............................................................................................. 6 3.2.1 Digitale Annotationen von Bewegtbildern ........................................ 6 3.2.2 Ausgewählte Projekte und Tools ....................................................... 8 3.3 Theateraufführungen ................................................................................ 8 3.3.1 Digitale Annotationen von Theateraufführungen ............................. 8 3.3.2 Ausgewählte Projekte und Tools ..................................................... 10 3.4 Comics und Graphic Novels..................................................................... 11 3.4.1 Digitale Annotationen von Comics und Graphic Novels .................. 11 3.4.2 Ausgewählte Projekte und Tools ..................................................... 15 3.5 Musik und Notentexte ............................................................................ 16 3.5.1 Digitale Annotationen von Notentexten .......................................... 16 3.5.2 Ausgewählte Projekte und Tools ..................................................... 19 4 Ausblick .......................................................................................................... 22 4.1 Materielle Artefakte ................................................................................ 22 4.2 Digitale Artefakte .................................................................................... 22 5 Diskussion ....................................................................................................... 23 6 Literatur .......................................................................................................... IV II
Abbildungsverzeichnis Abbildung 1 Herausforderungen nicht-textueller Objekte in den DH ............... 3 Abbildung 2 HyperImage .................................................................................... 5 Abbildung 3 ELAN Player .................................................................................... 7 Abbildung 4 Enhanced Video Player................................................................... 8 Abbildung 5 Visualisierung auftretender Charaktere in Marlowe's "Dido“ ....... 9 Abbildung 6 Simulated Enviroment for Theatre (SET) .................................... 11 Abbildung 7 Panel aus "Captain America" und dazugehörige Kodierung ........ 13 Abbildung 8 Beispiele für Komposition von Panels .......................................... 15 Abbildung 9 Screenshot aus dem M3-Editor .................................................... 16 Abbildung 10 Beispiel einer XML Codierung .................................................... 17 Abbildung 11 Digitales Kollationieren von Quellen .......................................... 18 Abbildung 12 Handschriftliche Aufzeichnung Beethovens .............................. 20 Abbildung 13 Cinemetrics: „Fingerabdrücke“ verschiedener Filme ................ 24 III
1 Einleitung Dieses Papier soll den Grundstock einer Bestandsaufnahme über bisherige For- schung in den Digital Humanities bieten. Gleichzeitig soll ein Überblick über spezi- fische Herausforderungen im Kontext der wissenschaftlichen Arbeit mit und an nicht-textuellen Objekten gegeben werden. Kapitel 2 umreißt grundsätzliche Be- sonderheiten der Editionsarbeit und angrenzender relevanter Bereiche. Anschlie- ßend arbeitet das dritte Kapitel spezifische Probleme wie auch anhand ausgewähl- ter Projekte und Tools Lösungsansätze unterschiedlicher Medientypen heraus. Da dieser Überblick nicht erschöpfend sein kann, deutet Kapitel 4 weitere Gegen- standsfelder, die es noch auszuarbeiten gilt, wenigstens an. Im Rahmen einer ab- schließenden Diskussion in Kapitel 5 formulieren wir auf der Grundlage dieser ers- ten Sichtung einige Thesen bezüglich des Paradigmenwechsels in den Kulturwis- senschaften im Kontext der Digitalisierung, die im nächsten Schritt weiterentwi- ckelt werden, um die Grundlage für eine zukünftige empirische Untersuchung zu bilden. 2 Digitale Editionen in den Digital Humanities Im folgenden Abschnitt sollen generelle Herausforderungen angesprochen wer- den, mit denen sich Forschende aus dem Bereich der Digital Humanities konfron- tiert sehen. So ist es Voraussetzung für jegliches Forschungsvorhaben, dass ent- sprechendes Quellenmaterial überhaupt zugänglich ist, seien es die Originale (z.B. Autographen eines Komponisten oder ein Gemälde) oder digitalisierte Versionen in ausreichender Qualität (z.B. hochauflösender Scan eines Notentextes). Unter Umständen sind Objekte aber auch nicht oder nur schlecht zugänglich, weil sie sich z.B. im Privatbesitz befinden oder in ihrem Originalzustand nicht überlebt haben. Hohe Kosten für den Zugang zu Objekten oder das Digitalisieren der Objekte kön- nen Forschungsvorhaben somit im Wege stehen (vgl. Bourne 2017: 369). Auch Ein- schränkungen im Sinne des Copyrights stellen z.B. in der Filmforschung ein Prob- lem dar (vgl. Kolker 2004). Liegen digitalisierte Objekte im Sinne von Retrodigitali- saten als Forschungsgegenstand vor, so gilt es diesen Mediensprung aus medien- theoretischer Sicht zu reflektieren. Aspekte wie die der Materialität müssen zwi- schen Original und der Repräsentation differenziert betrachtet werden. Andere Herausforderungen ergeben sich bei genuin digitalen Objekten („born digital“): Hier werfen Diskussionen um die Versionsgeschichte und die Langzeit- verfügbarkeit neue Fragen auf, z.B. wie langfristig eine Lauffähigkeit garantiert werden kann. Entscheidungen müssen getroffen werden, ob eine Emulation die- sem Problem entgegengesetzt werden kann oder ob parallel eine Archivierung der entsprechenden Hardware notwendig ist. Dies setzt aber auch voraus, dass man 1
sich damit auseinandergesetzt hat, was überhaupt in welcher Form archiviert wer- den soll. Denkt man beispielsweise an interaktiv-dynamische Medien wie Compu- ter- und Videospiele, so sind sowohl die Archivierung des Programmcodes als auch die des lauffähigen Programms oder einzelner Spielerfahrungen denkbar. In Bezug auf die Erstellung digitaler Editionen besteht die Herausforderung da- rin, einen Mehrwert zu analogen Editionen zu schaffen und Überlegungen darüber anzustellen, wie man die digitalen Möglichkeiten wertsteigernd einsetzen kann, damit nicht nur einfach eine simple Transformation von bereits Bestehendem vor- genommen wird. Wirklich neuartig sind beispielsweise Möglichkeiten der analyti- schen Visualisierungen, welche einen ursprünglichen Text oder ein Objekt dekon- struieren und neu zusammensetzen, um bisher unerkannte Muster aufzudecken (vgl. Roberts-Smith 2013: 12). Damit so etwas möglich ist, müssen nicht-textuelle Objekte natürlich zunächst so kodiert werden, dass datengetriebene und weitere empirische Methoden darauf angewendet werden können (vgl. Bateman et al. 2017: 477). Dafür sind spezielle Auszeichnungssprachen entwickelt worden, u.a. die Text Encoding Initiative (TEI)1 für diverse textuelle Objekte, die Music Encoding Initiative (MEI)2 für Notentexte oder die Comic Book Markup Language (CBML) 3, die speziell auf die Anforderungen von Comics zugeschnitten ist. Diese Auszeich- nungssprachen sind in der Lage, das entsprechende Objekt strukturell und seman- tisch darzustellen sowie durch Metadaten alle das Objekt betreffenden relevanten Informationen zu speichern. Die Kodierung eines Objekts ist der zentrale Akt im Forschungsprozess und Voraussetzung für das weitere Vorgehen rund um das Edieren, Analysieren, Visualisieren oder anderen Formen der Weiterverarbeitung in den Digital Humanities (vgl. Walsh 2012: 1). Damit einher geht die Frage nach der Standardisierung. Zwar gilt beispielsweise TEI bei textuellen Objekt mittler- weile als internationaler Standard, bei den meisten anderen Objekten hat sich al- lerdings noch kein Standard herausgebildet. Fragen der Standardisierung und Langzeitverfügbarkeit kommen auch zum Tra- gen, wenn es um Richtlinien zur Konstruktion von Korpora geht. Als Grundlage für weitere Forschung ist der Aufbau entsprechender Korpora ein zentrales Thema in den Digital Humanities. Dafür wird zunächst beschrieben, welche Objekte Teil die- ses Korpus sein sollen und welche nicht. Dabei wird definiert, welche Charakteris- tika des zu untersuchenden Mediums im Fokus stehen sollen. Da die Inhalte des Korpus eine gewisse Repräsentativität4 darstellen sollen, ist dieser Schritt der 1 http://www.tei-c.org/index.xml [12.01.2018]. 2 http://music-encoding.org/ [12.01.2018]. 3 http://dcl.slis.indiana.edu/cbml/ [12.01.2018]. 4 Ein in dieser Hinsicht nicht gelungenes Beispiel wäre der Korpus „Manga109“. Bei dessen Konstruktion wurde beschlossen, u.a. keine Inhalte sexueller Natur aufzunehmen. Da aber viele Mangas von diesen Inhalten geprägt sind, ist dieser Korpus nicht als repräsentative Darstellung von Mangas zu sehen (vgl. Dunst et al. 2017: 17). 2
Auswahl von besonderer Bedeutung, da aus forschungsökonomischen Gründen in den seltensten Fällen alle relevanten Werke berücksichtigt werden können (vgl. Dunst et al. 2017: 15ff.). Grundsätzlich kann man sagen, dass sich durch die neuen Möglichkeiten der Digitalisierung und den Einsatz von spezialisierter Software das wissenschaftliche Arbeiten und viele der Arbeitsprozesse verändert haben und neu ausgehandelt werden müssen. Geförderte Projekte sind etwa verstärkt kollaborativ und inter- disziplinär organisiert. Dies wird dadurch begünstigt, dass Forschung nicht mehr wie in den klassischen Kulturwissenschaften so stark mit Einzelpersonen assoziiert ist. Herausforderungen im Kontext nicht-textueller Objekte in den Digital Humanities • Zugänglichkeit der Objekte/ des Quellenmaterials • Copyright • Langzeitverfügbarkeit digitaler Objekte • unter Umständen notwendige Hardwarearchivierung • keine eindeutige Form der Archivierung (z.B. Computer- und Videospiele à Archivierung des Codes, des lauffähigen Programms oder der Spielerfahrungen?) • Editionen neu denken: Welche Möglichkeiten und welchen Mehrwert bietet das Digitale? • neue Methoden nutzen und richtig einsetzen, z.B. analytische Visualisierungen • Kodierung des Objekts als zentraler Akt, mögliches Problem der Standardisierung • Konstruktion von (repräsentativen) Korpora • (Neu)Aushandlung von wissenschaftlichen Arbeitsprozessen Abbildung 1 Zusammenfassung der besonderen Herausforderungen im Kontext nicht-textueller Objekte in den Digital Humanities (Eigene Darstellung) 3
3 Exemplarische Übersicht nicht-textueller Objekte in den Digital Humanities 3.1 Bilder 3.1.1 Digitale Annotationen von Bildern Die wissenschaftliche Auseinandersetzung mit Bildern fällt traditionell in den Kom- petenzbereich der Kunstwissenschaft. Mit dem iconic bzw. pictorial turn fand in ihr in den 1990er Jahren ein Paradigmenwechsel hin zu einer allgemeinen Bildwis- senschaft statt, der beinhaltete, Kulturen von ihren Bildern her zu untersuchen und zu verstehen (vgl. Mitchell, 2008, S. 101–135). Damit einher ging zudem die Erweiterung des Gegenstandsbereichs von Kunstbildern hin zu nicht-künstleri- schen Bildern wie etwa technischen Zeichnungen (vgl. Hensel/Schröter, 2014, S. 414). Die Kunst- bzw. Bildwissenschaft hat dabei nicht nur die Medialität ihrer Ge- genstände untersucht, sondern auch die Medialität der bildgebenden Technolo- gien reflektiert, auf denen die facheigenen Methoden aufbauen. Als ein histori- sches Beispiel kann der Zusammenhang zwischen fotografischen Reproduktionen, Diaprojektionen und der Entwicklung einer bildvergleichenden Methode genannt werden, wie er in der zweiten Hälfte des 19. Jahrhunderts vor allem bei Schweizer Kunsthistoriker Heinrich Wölfflin nachzuweisen ist (vgl. Dilly, 1975). Die hier zu thematisierende technisch-methodische Innovation besteht in der digitalen Annotierbarkeit von Bildern. Möglichkeiten hierzu stellt der TEI-Standard zur Verfügung, um einerseits dem Umstand gerecht zu werden, dass Digitalisate häufig als Bilddateien vorliegen, und um andererseits auch in der textuellen Editi- onsarbeit zu ermöglichen, die materielle Dimension von Dokumenten zu adressie- ren (Rapp, 2017, S. 263). Allerdings bleibt TEI in erster Linie ein Standard zur Re- präsentation von Texten, sodass eine eigenständige Repräsentation von visuellen Eigenschaften und dem Objektcharakter nicht vorgesehen ist (Becker u. a., 2016, S. 21). Innerhalb der TEI ist jedoch ist die Special Interest Group „Text and Gra- phics“ damit befasst, die Möglichkeiten zur Annotation von bildreichen Texten auszubauen.5 Technisch kann bei der Annotation von Bildern im Gegensatz zu Tex- ten nicht auf characters zugegriffen werden, sondern auf Pixelpunkte und Koordi- naten. Damit geht einher, dass nur in den Annotationen, nicht aber in Kombination mit den Textinhalten recherchiert werden kann (Rapp, 2017, S. 264). Andere Mög- lichkeiten lassen sich in Projekten aus dem Bereich bildwissenschaftlicher For- schung finden. 5 http://www.tei-c.org/Activities/SIG/Graphics/ [12.01.2018]. 4
3.1.2 Ausgewählte Projekte und Tools Das an der Leuphana Universität Lüneburg entwickelte und vom BMBF geförderte Projekt HyperImage etwa versucht die „bildhafte Fußnote am Bild“6 zu realisieren. Damit soll es ermöglicht werden, Bilddetails mit anderen bildinternen Details, Bild- sammlungen und Texten hypertextuell zu verknüpfen. Annotationen eines gege- benen Korpus lassen sich untereinander verlinken und über Indices erschließen. Die Zwischen- und Endergebnisse können online veröffentlicht werden, um so kol- laborative Arbeitsformen zu ermöglichen.7 Die HyperImage Software ist Open Source und basiert auf offenen Standards wie XML, SVG und dem Resource Description Framework, um Nutzern die Möglichkeit zu geben, die Software im Falle, dass diese nicht mehr aktiv unterstützt wird, zu modifizieren oder zu über- arbeiten. Da das BMBF keine finanzielle Absicherung über die Projektlaufzeit hin- aus ermöglicht, haben die Entwickler eine Firma gegründet, um die Software aktiv weiterzuentwickeln (vgl. Kuper/Loebel, 2014). Abbildung 2 HyperImage (https://www.leuphana.de/institute/icam/forschungsprojekte/hyperi- mage.html) Auch das im DARIAH-DE Cluster 6.3 entwickelte Tool Sem2notes möchte aufbau- end auf der kunstwissenschaftlichen Methode der Ikonografie semantisch-topolo- gische Annotationen ermöglichen und so zeigen, dass sich Bildinhalte nicht nur durch textuelle Annotationen analysieren lassen, sondern auch durch grafische Annotationen (vgl. Stotzka et al. 2016: 7-10). Das Projekt eCodicology hat in Kooperation mit Sem2notes das Tool CodiLab ent- wickelt, das semi-automatisch Layout-Strukturen in mittelalterlichen Handschrif- ten vermisst und TEI-konform annotiert (vgl. Chandna et al. 2013). 6 https://www.leuphana.de/institute/icam/forschungsprojekte/hyperimage.html [12.01.2018]. 7 Ebd. 5
3.2 Bewegtbilder 3.2.1 Digitale Annotationen von Bewegtbildern Der Begriff des Films bezeichnet ursprünglich im Englischen eine dünne Membran und verweist damit auf den materiellen Bildträger (z.B. Nitrat oder Zelluloid). Auch wenn sich die Filmwissenschaft schon lange mit der Frage nach der Ontologie des Films auseinandersetzt (z.B. Bazin, 1975), stellt sich diese im post-kinematographi- schen Zeitalter verschärft. Das Kino ist lange nicht mehr der privilegierte Rezepti- onsort und digitale Medien haben die begriffliche Bindung an den materiellen Bild- träger prekär werden lassen. Wir haben uns daher für den allgemeineren Begriff des Bewegtbildes entschieden, der dem klassischen Film genauso gerecht werden kann wie etwa YouTube-Videos. Für die Erforschung von Filmen stellte die Empfindlichkeit des Bildträgers bzw. die schlechte Qualität von Kopien lange ein großes Problem dar (insbesondere gilt dies auch für Lehrsituationen). Das analysierte Medium und das Medium der Ana- lyse (z.B. Notizzettel oder andere schriftliche Aufzeichnungen) waren zudem grundsätzlich getrennt, eine Zuordnung von Annotation erfolgte in der Regel über schriftliche Timecodes. Ein grundsätzlicher Vorteil digitaler Annotationstools ist nun, dass Auszeichnungen ohne Medienbruch und verschleißfrei am (digitalisier- ten) Bildmaterial vorgenommen werden können (vgl. Kolker, 2004). Im Vergleich zu der weiter entwickelten computergestützten Annotation von Texten befindet sich die digitale Analyse von Bewegtbildern jedoch noch in den Anfängen (vgl. Burghardt/Wolff, S. 108). Der vor allem bei historischem Material notwendige Schritt der vorhergehende Schritt der Digitalisierung bringt zudem auch mit sich, dass Annotationstools, vor allem dann, wenn sie automatisiert Auszeichnungen vornehmen sollen, mit Artefaktbildungen umgehen können müssen. In welcher medialen Form sich Bewegtbilder aber auch präsentieren, zeichnen sie sich im Gegensatz zu Bildern durch ihren dynamischen Charakter aus, d.h. durch eine zeitliche Dimension. Für die Annotationspraxis bedeutet dies, dass nicht nur Einzelbilder (sog. Frames) zum Gegenstand von Auszeichnungen werden können, sondern auch Sequenzen unterschiedlicher Ordnungen. Eine weitere Konsequenz der zeitlichen Dimension ist, dass das Material eine extrem hohe in- terne Komplexität besitzen kann, wenn z.B. Szenen eines Films auf frühere Szenen referieren. Bewegtbildern setzen daher Annotationswerkzeuge voraus, die tem- porale Beziehungen abbilden können. Wie schon der frühen Filmsemiotik stellt sich somit das Problem, sinnvolle Einheiten im Filmmaterial zu finden und zu be- gründen (vgl. Metz, 1973). Hier wurden z.B. Vorschläge gemacht, automatisiert mittels Bildähnlichkeiten Schnitte im Material zu identifizieren und auf dieser Grundlage eine Grammatik aus Szenen, Shots, Sub-Shots und Frames zu erstellen (vgl. Petersohn, 2009). Derartige Strukturen versucht etwa das Projekt ELAN am 6
Max-Planck-Institut für Psycholinguistik abzubilden. In einem speziellen XML-For- mat („EAF“=ELAN annotation format) können in einem Player (vgl. Abb. 1) hierar- chisch verbundene Auszeichnungsebenen (sog. „Tiers“) eingetragenen werden.8 Abbildung 3 ELAN Player (https://dig-hum.de/forschung/projekt/elan) Eine weitere Ebene der Komplexität von Bewegtbildern ergibt sich daraus, dass diese häufig Bild, Sprache, Schrift und Ton/Musik kombinieren. Bedeutungskonsti- tution in diesen Medien erfolgt daher in der Regel multimodal. Das an der Univer- sität Bremen beheimatete BMBF-geförderte Projekt „Bild – Film – Diskurs“ ver- sucht diesem Umstand durch die Entwicklung von Analysewerkzeugen und -me- thoden gerecht zu werden, die dort vor allem bei der Analyse von visueller politi- scher Kommunikation erprobt werden.9 Der gewählte Ansatz sieht vor, der Multi- modalität des Materials nicht nur mit dem Fachwissen der jeweils traditionell zu- ständigen Disziplinen zu begegnen (z.B. Linguistik für Gesprächsanalysen), son- dern auch zu berücksichtigen, dass unterschiedliche Ebenen der Analyse an ver- schiedene Kulturtechniken der Datensammlung anschließen. So werde in bildwis- senschaftlichen Projekten, obwohl die Grenze zwischen Archiven, Datenbanken und Korpora immer unklarer werde, Datenbeständen häufig mit den Verfahren begegnet, die für die jeweiligen Fächer traditionell sind (häufig sind dies archivari- sche Praktiken). Diese führe häufig dazu, dass eine Diskrepanz zwischen der beab- sichtigten Funktion einer Datensammlung und ihrem Gebrauch entstehe (Bateman et al. 2015: 131; vgl. Manoff 2010). Während etwa auf der Ebene der Annotation sprachlicher Elemente auf die Methoden der Korpuslinguistik zurück- gegriffen werden könne, könne man sich, wenn es um die Interaktion mit den Kor- pora, z.B. deren Durchsuchbarkeit, geht, eher am Archivgebrauch orientieren. Re- sultat ist ein Videoplayer (vgl. Abb. 4), der sowohl automatisierte als auch manu- elle stand-off Annotationen wiedergeben und mehrere Annotationsebenen kom- binieren und in Beziehung setzen kann. 8 https://dig-hum.de/forschung/projekt/elan [12.01.2018]. 9 http://www.fb10.uni-bremen.de/anglistik/langpro/bfd/bfd-home.htm [12.01.2018]. 7
Abbildung 4 Enhanced Video Player (Bateman et al. 2015) 3.2.2 Ausgewählte Projekte und Tools Im ursprünglich zur Erforschung von Gesten entwickelte ANVIL (The Video Anno- tation Research Tool)10 können auf mehreren Ebenen farbkodierte Annotationen am laufenden Bild vorgenommen werden. Zusätzlich können Daten von phoneti- schen Analysewerkzeugen importiert sowie Motion-Capture-Daten in 3D-Visuali- sierungen betrachtet werden (vgl. Kipp 2014). Das Projekt ADVENE (Annotate Digital Video, Exchange on the Net)11 entwickelt sowohl Modelle und Formate, um Annotationen von Bewegtbildmaterial teilen zu können, als auch Player, die gleichzeitig das Material sowie die Annotationen ab- spielen können (vgl. Sadallah/Aubert/Prié 2014). 3.3 Theateraufführungen 3.3.1 Digitale Annotationen von Theateraufführungen Der Themenkomplex um Archivierung, Langzeitverfügbarkeit und Annotationen betrifft auch die Theaterwissenschaften. Der Gegenstandsbereich erstreckt sich hier hauptsächlich auf Aufführungen des Schauspiels, aber bezieht auch das Tanztheater und Musiktheater mit ein. Die Notwendigkeit einer eigenständigen Theaterwissenschaft ergab sich aus den spezifischen Eigenschaften des Gegen- stands an sich: Theateraufführungen sind im Gegensatz zu reinen dramatischen Texten schwer zu erfassen, viele Aspekte einer Aufführung wie Atmosphäre, Ge- rüche und Publikumsreaktionen schwer zu dokumentieren. So wurde nach Metho- den gesucht, dieser Herausforderung zu begegnen. Zunächst stand die reine Re- konstruktion von Theateraufführungen im Mittelpunkt, bevor ab den 1960er 10 http://www.anvil-software.org/ [12.01.2018]. 11 https://www.advene.org/#presentation [12.01.2018]. 8
Jahren dann Theorieimpulse aus angrenzenden Disziplinen wie unter anderem der Literaturwissenschaft, Geschichte, Ethnologie und Soziologie die Entwicklung ei- ner fachspezifischen Methodik wie z.B. der Aufführungsanalyse in Gang setzte (vgl. Warstat 2014: 434f.). Im Mittelpunkt stehen soll hier die westliche dramaturgische und darstellerische Tradition, in welcher das Bühnenmanuskript, also der Text, auf welchem die Inszenierung beruht, eine zentrale Rolle spielt (vgl. Roberts-Smith 2013: 2). Differenziert werden muss bei der Betrachtung der Theateraufführung als Gegenstand also zwischen dem Bühnenmanuskript und der Aufführung an sich. Aus Perspektive der Digital Humanities stellt sich nun die Frage, in welcher Form Theateraufführungen in digitale Editionen überführt werden können. Bishe- rige digitale Editionen von Bühnenmanuskripten orientieren sich häufig stark an konservativen gedruckten Editionen und schöpfen die digitalen Möglichkeiten nur unzureichend aus (vgl. Robert-Smith et al. 2013: 1). Zwar besteht oft ein Mehrwert z.B. in Form von Anreicherungen mit Tools zur Navigation, wie einer Suchfunktion oder Hyperlinks, auch können teilweise andere Medienformen eingebettet sein, wie Video- oder Audio-Files, im Großen und Ganzen stellen diese Mittel aber le- diglich eine Ergänzung der klassischen Textform dar (vgl. ebd.: 11). Eine der neuartigen Möglichkeiten sind analytische Visualisierungen, die dazu genutzt werden können, das Theaterstück auf eine andere Art und Weise zu ent- decken, den ursprünglichen Text zu dekonstruieren und neu zusammenzusetzen. Dies kann nützlich sein, um bisher unerkannte Muster aufzudecken (vgl. Roberts- Smith 2013: 12). Abbildung 5 Visualisierung der auftretenden Charaktere in Christopher Marlowe's "Dido" (Brown et al. o.J.: research-resources/data) Ein Erkenntnisinteresse besteht aber auch an den Bühnenmanuskripten selber, wenn diese durch ihre Leser annotiert wurden. Diese Kommentare, Symbole und Markierungen können einen Hinweis auf dem kulturellen Kontext des Rezipienten geben (vgl. Bourne 2017: 367f.). So wird beispielsweise zu frühen Lesern von Text- büchern Shakespeares und anderen Autoren des 16. und 17. Jahrhunderts 9
geforscht, indem die Annotationen, ihre Positionierung, Muster und die Beziehung zu den Aufführungen untersucht werden. Dies hilft dabei zu verstehen, wie die entsprechenden Stücke früher rezipiert wurden (vgl. ebd.: 368). 3.3.2 Ausgewählte Projekte und Tools Das Projekt EMED (A Digital Anthology of Early Modern English Drama)12 hat rund 30 englische Theaterstücke des 16. und 17. Jahrhunderts digitalisiert und in XML nach dem TEI-Standard codiert. Zusätzlich liegen weitere Daten, z.B. zur Urauffüh- rung sowie zum Teil Faksimiles vor. Umfangreiche Informationen zur Editionsar- beit, der damaligen Aufführungspraxis, der Codierung und zum Einsatz der ent- standenen Materialien in Forschung und Lehre ergänzen das Angebot. WTS (Watching the Script)13 stellt ein Tool bereit, mit welchem man einen als XML-Datei vorliegenden dramatischen Text auf unterschiedliche Weise visualisie- ren kann, unter anderem in einer 2D-Bühnenansicht, bei welcher die Charaktere mit ihren entsprechenden Texten und Regieanweisungen dynamisch dargestellt werden können. Eine Weiterentwicklung des WTS-Tools ist SET (Simulated Enviroment for The- atre)14. Diese mit der Game-Engine Unity erstellte 3D-Umgebung macht es dem Nutzer möglich, Theaterstücke zu lesen, sie zu erschließen und digital zu inszenie- ren. Hierbei kann er die Bühnenansicht, den Handlungsablauf und den dramati- schen Text selber annotieren. Die im Tool konzipierte Aufführung kann aus unter- schiedlichen Perspektiven verfolgt werden, sei es von jedem Platz des Zuschauer- raums aus oder aus Sicht einer der Darsteller. 12 https://emed.folger.edu/ [12.01.2018]. 13 http://humviz.org/digitalplaybook/ [12.01.2018]. 14 http://humviz.org/set/ [12.01.2018]. 10
Abbildung 6 Simulated Enviroment for Theatre (SET) (Roberts-Brown 2013: 21) 3.4 Comics und Graphic Novels 3.4.1 Digitale Annotationen von Comics und Graphic Novels Bildhafte Erzählungen in Form von Comics und Graphic Novels stellen einen wich- tigen Teil der Kulturlandschaft dar und spielen in Form der Comicforschung mit spezifischen Journals15 und Konferenzen16 auch in Forschungskontexten eine be- deutende Rolle. Der Begriff des Comics umfasst sowohl graphische Narrationen in gebundener Form, z.B. klassische Comichefte als auch nicht gebundene Formen, wie z.B. Comic-Strips in der Tageszeitung (vgl. Walsh 2012: 5). Mit der wachsenden Bedeutung der Digital Humanities wurde auch die computergestützte Forschung in Zusammenhang mit Comics und Graphic Novels vorangetrieben (vgl. Dunst et al. 2017: 15). Wie bei allen Medien, die im Mittelpunkt eines solchen Forschungsinteresses stehen, müssen zunächst entsprechende Korpora aufgebaut werden. Dafür 15 Siehe z.B. Journal „Image TexT – Interdisciplinary Comic Studies“ (http://www.english.ufl.edu/imagetext/) [12.01.2018]. 16 Siehe z.B. UF Conference on Comics and Graphic Novels (http://www.english.ufl.edu/comics/con- ference.shtml) [09.01.2018] oder die Jahrestagung der Gesellschaft für Comicforschung (http://www.co- micgesellschaft.de/category/comicgesellschaft/jahrestagungen/) [12.01.2018]. 11
müssen die in den meisten Fällen als Printversion vorliegenden Comics digitalisiert werden. Dies geschieht, indem jede Einzelseite des Comics eingescannt und als Bilddatei abgespeichert wird. Die einzelnen Panels werden als eine Liste von Bild- punkten (Polygone) in einem XML-Dokument abgebildet (vgl. Bateman et al. 2017: 481). Die meisten digital vorliegenden Comics sind Digitalisierungen der Printver- sion, genuin digital veröffentlichte Comics orientieren sich in den meisten Fällen an traditionellen Comic-Layouts und nutzen selten das Spektrum der Möglichkei- ten, die der digitale Raum bereithält (vgl. Whitson & Salter 2015: 7). Im nächsten Schritt erfolgt die Kodierung und Annotation der Werke. Ein eher textzentrierter Ansatz zur Annotation von Comics und Graphic Novels ist die von Walsh (2012) entwickelte Comic Book Markup Language (CBML), eine XML-ba- sierte Sprache, die auf die TEI-Standards zurückgreift. CBML ist in erster Linie für Comics des 20. und 21. Jahrhunderts entwickelt worden und kann verschiedene Erscheinungsformen von bildhaften Erzählungen abbilden wie in Heft- oder Buch- form herausgegebene Comics, Comic-Strips, Graphic Novels, Web-Comics und weiteren Comic-Content, der auf digitalen Endgeräten veröffentlicht wird wie Smartphones und Tablets. Doch nicht nur die graphische Narration selber, son- dern auch in dem Comicheft enthaltene Paratexte wie Werbeanzeigen oder Fan- post aber auch Materialeigenschaften des Hefts wie die Beschaffenheit des Pa- piers oder des Umschlags werden mit einbezogen (vgl. Walsh 2012: 5). 12
Abbildung 7 Panel aus "Captain America" (Walsh 2012: 25 nach Kirby 1976) und dazugehörige Kodie- rung in CBML Berücksichtigt werden müssen die besonderen Herausforderungen des Medi- ums. Diese können u.a. in der Art der Narration liegen. Es gibt zwar auch Comics, die eine in sich abgeschlossene Geschichte beinhalten, typischerweise sind sie aber serialisierte Medien und die Narration erstreckt sich über größere Dimensio- nen. Teilweise handelt es sich um Erzählungen, die sich über mehrere Dekaden entwickeln, im Laufe der Zeit hunderte von verschiedenen Zeichnern, Autoren und Herausgebern involvieren und mit anderen Serien verflochten sind (siehe z.B. Co- mics um die Superhelden Spider-Man oder Batman). Aus diesem Umstand heraus entstehen sehr komplexe miteinander verbundene Metadaten (vgl. ebd.: 57). Nicht minder komplex gestaltet sich häufig die Abbildung der Comic-Charaktere selber in den Metadaten, haben sie doch zum Teil divergierende Biographien17 (siehe auch „retroactive continuity“) (vgl. ebd.: 58f.). 17 Als Beispiel nennt Walsh (2012: 58) den als DC-Superheld bekannte Charakter „Flash“. Der erste „Flash“ war die geheime Identität einer Figur namens Jay Garrick und wurde von Gardner Fox und Harry Lampert in „Flash Comics #1“ im Jahr 1940 kreiert. In den 1950er-Jahren wurde der Charakter des „Flash“ wieder- belebt, mit neuem Kostüm, neuer Herkunftsgeschichte und neuer geheimer Identität, dem Forensikwis- senschaftler Barry Allen. Als dieser stirbt übernimmt sein Sidekick Wally West den Flash-Charakter, ge- nauso wie gleichzeitig auch Barry Allens Enkel Bart. 13
Eine weitere Herausforderung ist das Ausmaß von textlicher und graphischer Variation bei Comics und Graphic Novels. Neben den oftmals im Fokus stehenden Superhelden-Comics gibt es zahlreiche andere Genres, alle mit eigenen Traditio- nen und Konventionen. Auch gibt es zunehmend Autobiographien und andere nicht fiktionale Werke, die in Comic-Form erscheinen. Hinzu kommen Werke, die sich von westlichen Comics unterscheiden, z.B. japanische Mangas. All diese Er- scheinungsformen sind mit der CBML darstellbar (vgl. ebd.: 60). Kritisiert wird an der CBML, dass sie sehr text-zentriert ist und visuellen Aspek- ten, wie z.B. der Anordnung der Panels, wie diese miteinander korrespondieren und der Gesamtwirkung des Layouts18 zu wenig Beachtung schenkt (vgl. Bateman et al. 2017: 483). Aufgegriffen wird dieser Kritikpunkt durch die Graphic Narrative Markup Language (GNML) (Dunst et al. 2017), einer Erweiterung der CBML, die sich mehr auf die Zusammenhänge von Text und Bild fokussiert. Hier werden die als Polygone markierten Objekte und Charaktere in räumliche und soziale Bezie- hungen gesetzt (vgl. Dunst et al. 2017: 17). In Bezug auf das Layout von Comics und Graphic Novels müssen auch beson- dere Kompositionen kodiert werden können. So können Panels z.B. übereinander- liegen, sind sternförmig oder in Zickzack-Form angeordnet, haben verschiedenar- tige Rahmungen oder korrespondieren mit anderen Seiten des Hefts19 (vgl. Bateman et al. 2017: 487ff.). Auch aus diesem Grund ist eine automatische Erfas- sung von solchen Strukturen in vielen Fällen noch nicht möglich. Gerade diese grundlegende Erfassung des Materials und die Einhaltung der Annotations-Richt- linien ist essentiell bei dem Aufbau eines Korpus, weshalb diese Arbeitsschritte mit besonderer Sorgfalt vorgenommen werden müssen (vgl. ebd.: 501f.). 18 Traditionell bestehen Comics aus einzelnen Panels, die in einer bewussten Komposition gruppiert sind. Auch wenn der Leser sich beim Lesen immer nur auf ein Panel konzentrieren kann, so bleibt doch die gesamte Seitenkomposition in seinem Blickfeld und beeinflusst so die Rezeption. Dieser Aspekt kommt auch zum Tragen, wenn man berücksichtigt, dass es mittlerweile weit verbreitete Praxis ist, Comics auf mobilen Endgeräten zu rezipieren. Da nicht anders machbar, werden die Panels einzeln auf dem Smart- phone oder Tablet angezeigt. Die ursprüngliche Gesamtkomposition wird damit durch die Limitierung des Endgeräts zerstört (vgl. Walsh 2012: 6). 19 Eine ausführliche Klassifizierung von Comic-Layouts findet sich bei Bateman et al. 2017. 14
Abbildung 8 Beispiele für Komposition von Panels auf einer Ebene (a) und auf mehreren Ebenen (b), welche eine visuelle Segmentierung über mehrere Layer hinweg benötigt (Bateman et al. 2017: 490) Ein großer Korpus mit digitalisierten, aufbereiteten und mit Metadaten angerei- cherten Comics gibt nicht nur Forschenden aus der Comicforschung die Möglich- keit, Comics in ihre wissenschaftliche Arbeit mit einzubeziehen, sondern eröffnet neue Potenziale für Forschende aus jeglichen Disziplinen (vgl. Walsh 2012: 11f.). Comics und Graphic Novels in den Digital Humanities sind sowohl für Kulturwis- senschaftler als auch Informatiker ein spannendes Forschungsfeld, z.B. in Bezug auf visuelle Objekterkennung, Text-Bild-Beziehungen, medienspezifisches Wissen und Zusammenhänge. 3.4.2 Ausgewählte Projekte und Tools Es existieren verschiedene Korpora von Comics und Graphic Novels, die aus Sicht der Digital Humanities wertvolle Möglichkeiten für Forschende bieten. So beinhal- tet z.B. die eBDtheque20 Seiten aus Comics („Bande Dessinée“) unterschiedlicher kultureller Hintergründe, der Korpus Manga10921 japanische Mangas und der CO- MICS Korpus von Iyyer et al. (2017) US-amerikanische Comics aus den 1930er und 1940er Jahren. Im Graphic Narrative Corpus (GNC)22 bauen Dunst et al. (2017) einen Korpus zu Graphic Novels bzw. „Graphic Narratives“ auf. Diese werden dort definiert als Comics mit mehr als 64 Seiten, die eine durchgehende Geschichte oder mehrere zusammenhängende Geschichten erzählen und sich an ein erwach- senes Publikum richten. Sie erscheinen als in sich abgeschlossene Bücher oder sind Teil einer begrenzten Serie. Im Korpus enthalten sind außerdem sowohl fiktionale 20 http://ebdtheque.univ-lr.fr/ [12.01.2018]. 21 http://www.manga109.org/ja/ [12.01.2018]. 22 https://groups.uni-paderborn.de/graphic-literature/gncorpus/corpus.php [12.01.2018]. 15
als auch nicht fiktionale Werke seit den 1970er Jahren bis heute. Bis 2017 konnten bereits 160 Graphic Novels vollständig digitalisiert werden (vgl. Dunst et al. 2017: 16). In der Nachwuchsgruppe „Hybride Narrativität“23 wird der GNC in Kombina- tion mit dem M3-Editor (Multi-Modal Markup) als Annotations-Tool genutzt. Ziel ist es, so viele Arbeitsschritte wie möglich zu automatisieren. Der M3-Editor ist mit der Graphic Narrative Markup Language (GNML) verbunden, eine Weiterentwick- lung soll ermöglichen, dass der Editor in Zukunft auch für andere Medien nutzbar ist, bei denen eine Text-Bild-Beziehung besteht (z.B. Magazine, Broschüren etc.) (vgl. ebd.: 18f.). Eine automatische Zeichenerkennung (OCR) des Textinhalts ge- staltet sich noch als problematisch, da viele Graphic Novels mit Handschrift-ähnli- chen Schriftarten versehen sind, was zu unbefriedigenden Ergebnissen der Erken- nungssoftware führt (vgl. ebd.: 18). Eine zusätzliche Ebene wurde in diesem Pro- jekt geschaffen, in dem die Augenbewegungen bei Lesern der Graphic Novels mit Hilfe von Eye Tracking gemessen wurde. Dieser Aspekt gibt Aufschluss darüber, wie die Aufmerksamkeit des Lesers durch die Erzählung geführt wird. Somit kön- nen wichtige Stellen identifiziert werden, was wiederum dabei hilft, Algorithmen der automatisierten Objekterkennung weiterzuentwickeln (vgl. ebd.: 19). Abbildung 9 Screenshot aus dem M3-Editor (Dunst et al. 2017: 18) 3.5 Musik und Notentexte 3.5.1 Digitale Annotationen von Notentexten Präsent in den Digital Humanities ist vor allem die Musikphilologie als Teildisziplin der Musikwissenschaft. Dort steht die editorische Tätigkeit von Notentexten im Mittelpunkt der Forschung. Analog zur Textphilologie steht auch hier die Digitali- sierung von Quellenmaterial, die Kodierung der Inhalte und die Annotation dieser 23 https://groups.uni-paderborn.de/graphic-literature/wp/ [12.01.2018]. 16
am Anfang des Editionsprozesses. Auch hier hat sich mit dem MEI-Format24 (Music Encoding Initiative) eine XML-basierte Auszeichnungssprache zur Kodierung von Musik durchgesetzt, welche mit der großen Herausforderung konfrontiert ist, die Fülle an unterschiedlichen musikalischen Zeichen abzubilden25 (vgl. Kepper 2011: 231ff.). Abbildung 10 Beispiel einer XML Codierung und ihre graphische Repräsentation. Die Codierung zeigt ausschließlich die Noten und weder Schlüssel noch Taktangabe. (Quelle: http://music-encoding.org/wp-con- tent/uploads/2015/03/mei-fig2.png [12.01.2018]) Der Editionsprozess selber und die damit verbundenen Arbeitsabläufe sind durch die Möglichkeiten der Digitalisierung signifikanten Veränderungen ausgesetzt. Ein zentraler Aspekt dabei ist der Einsatz von speziell auf die Anforderungen der mu- sikphilologischen Arbeit zugeschnittener Software, aber auch allgemeiner Soft- ware, welche Teile des Arbeitsprozesses unterstützen. 24 http://music-encoding.org/ [12.01.2018]. 25 Eine weitere Herausforderung ist, dass MEI zwar für die weit verbreitete (westliche) Notationsform sehr gut geeignet ist, aber kein Datenformat in der Lage ist, alle in der Geschichte der Musik vorkommenden Notationsformen abzubilden (vgl. Kepper 2011: 231ff.). 17
Abbildung 11 Digitales Kollationieren von Quellen (Veit 2015: 43) Eine besondere Rolle in diesem Zusammenhang spielt Edirom, eine JAVA-basierte Software zur Erstellung digitaler Editionen (vgl. Kepper 2011: 164, Bohl/ Kepper/ Röwenstrunk 2011: 274). Die Idee hinter der Software resultiert aus einer altbe- kannten Problematik der gedruckten Musikedition: Bedingt durch das Medium Buch sind der Notentext und der kritische Bericht voneinander getrennt. Die Soft- ware ermöglicht es, Annotationen direkt, quasi am Objekt, anhand von Faksimile- Ausschnitten nachzuvollziehen (vgl. Veit 2010: 40). Es folgten Erweiterungen der Software, wie die codebasierte Anzeige von Notentexten, einblendbare Taktzah- len, zuschaltbare Ebenen sowie Sortier- und Suchfunktionen und die Möglichkeit, die digitale Edition direkt im Browser zugänglich zu machen (vgl. Bohl/ Kepper/ Röwenstrunk 2011: 270, Veit 2015: 42). Diese digitalen Editionen beinhalten typischerweise das digitalisierte Quellen- material, ihre Kodierungen, Anmerkungen, welche die musikwissenschaftliche Aufbereitung des Materials enthalten, Metadaten, inhaltliche Verweise auf an- dere Werke, Personen oder Quellen sowie das Ergebnis der editorischen Arbeit (vgl. Kepper 2011: 182f.). Die Spezifika einer digitalen Edition kommen der Rezep- tion einer Musikedition im wissenschaftlichen Sinne entgegen, handelt es sich bei einer kritischen Lektüre doch um ein nicht lineares Lesen, bei dem der Leser von Querverweisen gelenkt wird (vgl. Veit 2010: 45). Ein weiterer Mehrwert dieses ho- hen Grads an Flexibilität ist, dass eine digitale Musikedition gemäß den Anforde- rungen ihrer Zielgruppe angepasst werden kann. Bisher waren unterschiedliche Ausgaben für Praxis, Studium oder Wissenschaft aus ökonomischen Gründen26 nicht realisierbar, was immer Kompromisse in der Gestaltung der Edition zur Folge 26 Gesamtausgaben kosten durchschnittlich etwa 250 Euro pro Band, je nach Komponist umfasst die Ge- samtausgabe zahlreiche Bände, z.B. Wagner mehr als 40, Schumann mehr als 70 Bände (siehe auch http://www.schott-musik.de/shop/Noten/Gesamtausgaben/) [12.01.2018]. 18
hatte (vgl. Veit 2010: 39ff.). Ein weiterer Vorteil von digitalen Editionen ist die Transparenz editorischer Entscheidungen, die durch die integrierten Faksi- mile-Ausschnitte ermöglicht wird (vgl. Veit 2015: 41). 3.5.2 Ausgewählte Projekte und Tools Musikwissenschaftliche Forschung im Rahmen der Digital Humanities findet in ei- ner großen Anzahl einzelner Projekte statt, die sich oft entweder auf einen Kom- ponisten, ein bestimmtes Werk oder auch eine bestimmte Fragestellung im Zu- sammenhang mit Musikeditionen fokussieren. Eines der größten Musikeditionsprojekte derzeit ist die „Carl-Maria-von-We- ber-Gesamtausgabe“ (WeGA)27. Mit einer Projektlaufzeit von dreißig Jahren sol- len bis zum 200. Todestag des Komponisten Carl Maria von Weber im Jahr 2026 sämtliche seiner Kompositionen, Briefe, Tagebücher und Schriften in einer wissen- schaftlich-kritischen Gesamtausgabe vorliegen, was allein bei den Notentexten ei- nen Umfang von über fünfzig Bänden ausmachen wird. Mit Ausnahme der Noten- texte sollen dabei alle Texte als digitale Edition publiziert und auf der Projektweb- seite zur Verfügung gestellt werden, die Notentexte hingegen werden als ge- druckte Bände veröffentlicht. Trotzdem wird hier Edirom genutzt, denn insbeson- dere bei der Kollationierungsarbeit bietet die Software den Editoren eine große Arbeitserleichterung (vgl. Veit 2009). Des Weiteren entstanden mit der Weiterentwicklung von Edirom auch Kon- zepte zur Bearbeitung und Integration von TEI-codierten Texten. Mittlerweile sind diese unter anderem in Form von Briefen, Tagebucheinträgen, Aufführungsbe- sprechungen, Werkrezensionen und Personeninformationen zu einem „umfang- reichen digitalen Korpus angewachsen“ (Veit 2015: 43). Neben der eigentlichen Edition findet also erstmals eine ausführliche Dokumentation statt, was einen Mehrwert auch für die musikalische Edition bedeutet (vgl. Veit 2010: 38). Im Zusammenhang mit dem WeGA-Projekt wurde auch der Kontext zu Webers Oper „Der Freischütz“ ausführlich aufgearbeitet (vgl. Kepper/ Schreiter/ Veit 2014: 139). Daraus entstand im Jahr 2012 mit „Freischütz Digital - Paradigmatische Um- setzung eines genuin digitalen Editionskonzepts“28 (FreiDi) ein weiteres For- schungsprojekt. In einer dreijährigen Arbeitsphase soll in diesem Projekt erstmals ein umfangreiches Werk in einer MEI-basierten Edition entstehen. Zusätzlich wer- den neben den unterschiedlichen Fassungen des Librettos und Bühnentexten auch passende Texte aus dem WeGA-Projekt in TEI-Codierung sowie Audiomaterial 27 http://www.weber-gesamtausgabe.de) [12.01.2018]. 28 http://www.freischuetz-digital.de/ [12.01.2018]. 19
integriert (vgl. Veit 2015: 44f.). Das FreiDi-Projekt soll somit das Potenzial und die neuen Möglichkeiten digitaler Editionen demonstrieren. Erst im Jahr 2014 gestartet und damit noch ganz am Anfang seiner geplanten sech- zehnjährigen Laufzeit steht das Projekt „Beethovens Werkstatt: Genetische Text- kritik und Digitale Edition“29, welches sich „mit dem Kompliziertesten beschäfti- gen [wird], was die Musikgeschichte des 19. Jahrhunderts wohl zu bieten hat: Dem Weg von den ersten, auf Papier festgehaltenen Einfällen Beethovens bis hin zur bei ihm seltenen ‚fertigen‘ Werkgestalt.“ (ebd.: 45f.). Die Herausforderung in die- sem Fall ist, dass die nur schwer entzifferbaren handschriftlichen Überlieferungen Beethovens mit entsprechenden Kodierungen sichtbar gemacht werden sollen, was im Zusammenhang mit dem MEI-Format bedeutet, dass Konzepte für Unsi- cherheiten und Mehrdeutigkeiten zum Tragen kommen (vgl. ebd.). Ziel ist es, die komplexen kompositorischen Prozesse Beethovens zu erforschen, zu dokumentie- ren und in digitale Editionen zu überführen. Abbildung 12 Handschriftliche Aufzeichnung Beethovens Fidelio, Quartett „Er sterbe“ (Staatsbibliothek zu Berlin) (Lühning 2007: 75) Das Projekt „OPERA – Spektrum des europäischen Musiktheaters in Einzelediti- onen“30, verfolgt das Ziel, bedeutende Werke des europäischen Musiktheaters in kritischen Editionen zu publizieren. Herausforderung dabei sind die verschiedenen Textsorten, die breite zeitliche Streuung und die Multilingualität der ausgewählten Werke, geplant ist die Publikation von insgesamt 21 Werken. Auch OPERA wird durch die Zusammenarbeit mit Edirom geprägt. Die besonderen Anforderungen 29 Beethovens Werkstatt (http://beethovens-werkstatt.de/) [12.01.2018]. 30 OPERA (http://www.opera.adwmainz.de) [12.01.2018]. 20
von Editionen im Bereich Musiktheater gerade in Bezug auf die Verknüpfung von Texten und Notentexten erfordern hier eine Weiterentwicklung von Edirom, von der in Zukunft auch weitere Projekte profitieren können. Publiziert werden die edierten Werke im Anschluss in traditioneller Buchform, die Libretti und kritischen Berichte in digitaler Form. Zusammengeführt werden verschiedene dieser Forschungsaktivitäten im interdis- ziplinären „Zentrum Musik – Edition - Medien. Musik und nicht-textuelle Objekte im Kontext digitaler Editionen“ (ZenMEM)31. Dieses hat es sich zur Aufgabe ge- macht, ein Kompetenzzentrum der Digital Humanities an der Schnittstelle von In- formatik und Geisteswissenschaften aufzubauen. Innerhalb der vier Säulen For- schung, Werkzeuge, Dienstleistungen und Lehre sollen dabei verschiedene Ziele realisiert werden. So sollen unter anderem bestehende Werkzeuge mit nachhalti- gen Konzepten zur Softwareentwicklung erweitert und neuartige Nutzerschnitt- stellen analysiert und konzipiert werden. Des Weiteren ist eine Anbindung an be- stehende Infrastrukturen zur Sicherung von Nachhaltigkeit ein Kernthema des Zentrums. Auch externe Projekte sollen diesbezüglich beraten und unterstützt werden. In Bezug auf digitale Editionen wird sich das Zentrum nicht nur mit Musik, sondern darüber hinaus auch mit anderen nicht-textuellen Medien auseinander- setzen, zum Beispiel Videos oder Objekten des materiellen Kulturerbes (vgl. Veit 2015: 47). 31 http://zenmem.de/ [12.01.2018]. 21
4 Ausblick 4.1 Materielle Artefakte Zur Annotation von materiellen Artefakten wurden vor allem in den Archäologien eine Reihe von Metadatenstandards z.B. für die Grabungsdokumentation oder die Objektbeschreibung entwickelt (vgl. Richards 2009; Schloen 2001). Einen ersten Überblick über die entwickelten Standards, aktuelle Initiativen sowie bestehende Probleme des Feldes liefert der DARIAH-DE I Report.32 4.2 Digitale Artefakte Die Annotation von digitalen Artefakten ist als geistes- und kulturwissenschaftli- che Praxis scheinbar noch kaum entwickelt, obwohl ihnen in den letzten Jahren zunehmend zu Objekten von Forschung z.B. durch Game, Software und Interface Studies33 werden. In den entsprechenden Feldern laufen derzeit Debatten über die grundsätzliche Archivierbarkeit und angemessene Archivierungspraktiken die- ser Gegenstände. Eine Herausforderung ist, dass Softwaregeschichte immer auch Versionengeschichte ist, die es nachzuhalten gilt. Zudem ist Software von Hard- ware abhängig, die ihrer eigenen Entwicklung unterliegt (am Bsp. von Games vgl. Lowood et al. 2009). Die Frage ist dann, ob Hardware zusätzlich archiviert werden muss, um die Lauffähigkeit von Software zu garantieren, oder ob Emulatoren an- gemessene Substitute darstellen. Software ist im Rahmen kulturwissenschaftli- cher Betrachtungen zudem grundsätzlich prozessual zu verstehen (am Bsp. von Interfaces vgl. Drucker 2011), so dass sich ihre Spezifik häufig erst in der Nutzung ergibt. Bei Games z.B. wäre also mindestens zwischen den Ebenen des Codes, des Spiels und des individuellen Spielverlaufs zu unterscheiden, die jeweils eigene An- forderungen an Annotationsverfahren stellen. 32 https://wiki.de.dariah.eu/pages/viewpage.action?pageId=20058856 [12.01.18]. 33 Zu Fragen der Archivierbarkeit von Interfaces wird 2018 ein Workshop an der Universität Paderborn statt- finden: https://mediengeschichte.net/2018/01/09/cfp-interface-geschichten-paderborn-24-25-5-18/. 22
5 Diskussion Der hier vorgestellte Forschungsstand verdankt sich einer ersten Sichtung, die ver- sucht einen Querschnitt der zahlreichen Initiativen und Projekte darzustellen, die in den letzten Jahren im Bereich digitaler Annotationen umgesetzt wurden und werden. In den kommenden Monaten soll dieses Papier sowohl in der Breite als auch in der Tiefe ergänzt werden, vor allem um die in Kapitel 4 angeführten Berei- che. Gleichwohl erlaubt der erstellte Überblick die Formulierung einiger Arbeits- thesen, die es auszuarbeiten und letztlich in eine Befragung zu den Strukturen und Veränderungsprozessen in den (digitalen) Geistes- und Kulturwissenschaften zu überführen gilt. Ein bestehender Topos des Diskurses um Digital Humanities ist, dass digitale Methoden und Tools es erlauben würden, neue Fragen an bestehende Material- bestände zu richten. Die erste Querschnittssichtung des Feldes legt allerdings nahe, dass dies nur im zweiten Schritt zutrifft. Aus einer epistemologischen Per- spektive scheint es in vielen Fällen eher so zu sein, dass digitale Objekte bzw. Re- präsentationen geschaffen werden (z.B. Visualisierungen). Da diese strukturelle anders aufgebaut sind, lassen sie sich nun mit Fragen adressieren, die an die ur- sprünglichen Gegenstände geisteswissenschaftlicher Forschung nicht gerichtet werden konnten. Als Beispiel können die im Projekt Cinemetrics34 erstellten „Fin- gerabdrücke“ von Filmen dienen (vgl. Abb. 13). In einem automatisierten Verfah- ren werden einzelne Frames mit ihren Farbwerten annotiert und zu einer kreisför- migen Timeline zusammengeführt. Auch wenn mögliche Verwendungszwecke im Sinne vergleichender Verfahren angedeutet werden, ist das Ziel des Projekts in erster Linie herauszufinden, wie man mittels digitaler Werkzeuge Artefakte erstel- len kann, die das zeitbasierte Medium Film in ihrer Ganzheit ansichtig machen können. Im Vokabular der Wissenschafts- und Laborforschung Bruno Latours wären diese digitalen Objekte als Glieder in einer Kette von Repräsentationen zu be- schreiben, entlang der die Referenz wissenschaftlicher Diskurse zirkuliert. Es sind diese Darstellungen, auf die sich die Aussagen von WissenschaftlerInnen beziehen (vgl. Latour 1999). Eine Linie, der man in weiteren Befragungen folgen könnte, wäre ob und wie den damit verbundenen Übersetzungsprozessen (die zumindest in der digitalen Editionsarbeit auch fast immer Übersetzungen in ein anderes Me- dium sind) Rechnung getragen wird – sei es in vorgeschalteten erkenntnistheore- tischen Reflexionen bis hin zu gestalterischen und diskursiven Strategien. 34 http://cinemetrics.fredericbrodbeck.de/ [12.01.2018]. 23
Abbildung 13 Cinemetrics: „Fingerabdrücke“ verschiedener Filme (http://cinemetrics.fredericbrod- beck.de/) Eine erste These könnte sein, dass die vielbeschworene Transformation der Geistes- und Kulturwissenschaften nicht einfach in der vermehrten Nutzung des Computers als Werkzeug besteht, sondern im Import von epistemischen Praktiken und Forschungsstrategien aus den Natur- und Technikwissenschaften. Zu denken wäre hier an die zunehmende Bedeutung von Verfahren des Tinkering, des Bas- telns und von trial and error, in denen es häufig um den Nachweis von Machbar- keiten geht, ohne dass vorher festgelegte Erkenntnisziele existieren, das Ergebnis der Herstellung dann aber zum Objekt von Wissensproduktion werden kann (vgl. Nordmann 2008). Um das Spezifische der aktuellen Transformationen schärfer in den Blick zu be- kommen, könnte es auch Sinn machen, die Befragungen mit historischen Unter- suchungen zu flankieren. Vergleichbare Prozesse fanden etwa im 19. Jahrhundert im Verwissenschaftlichungsprozess der Philologien und der Geschichtsforschung statt. Unter dem Erfolgsdruck der Naturwissenschaften etablierten sich die Hilfs- wissenschaften, die hermeneutische Erkenntnisse durch empirische Methoden unterstützen und absichern sollten. Diese methodischen Entwicklungen werden begleitet von Medieninnovationen auf dem Feld mechanischer Bildgebungsver- fahren und Wandlungen im Verständnis wissenschaftlicher Objektivität (vgl. Das- ton/Galison 2009). Es lässt sich etwa zeigen, dass die Entwicklung kritisch-verglei- chender Methoden im Rahmen der Geschichtsforschung des 19. Jahrhunderts eng verbunden ist mit der Einführung fotografischer Faksimiles in Quelleneditionen (vgl. Köhler 2018). In der aktuellen Konstellation aus digitalen Technologien, 24
Sie können auch lesen