Sounding Science 20. Juni 2021, 20:00 Uhr - ComputerStudio - Hochschule für ...
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Landeszentrum Musikjournalismus und Musikinformatik Sounding Science 20. Juni 2021, 20:00 Uhr ComputerStudio Hochschule für Musik Karlsruhe
PROGRAMM Interferenz Jia Liu Study of Sine Wave (2019) Zellulärer Automat / Conway’s Game of Life Tim Offenhäuser Game of Notes (2020) MIDI-Version 1.0 für Computerflügel Zufall / Determinismus / Proteismus Marc Bangert Habitat (2021) Feedbackschaltung für Live-Elektronik und Mensch Laser (Light Amplification by Stimulated Emission of Radiation) Tobias Bachmann Exodus für Lichtharfe (2015) Elektromagnetisches Feld Patrick Borgeat Silence (2020) Fixed Media, Binaural Elektroenzephalografie Meiyan Chen Intrigued Brain (2021) Harmonic Template Neurons Marc Bangert / Patrick Borgeat X: Transmorphation for Harmonic Template Neurons (2018/2021) Beschleunigter Stereo-Auszug der 4-Kanal-Installation “Sanctum - for Harmonic Template Neurons“ (2019) Motion Capture Alexander Lunt Modi (2018) Solo Perfomance mit Motion Capture
Werkbeschreibungen und Biografien Jia Liu, Study of Sine Wave Study of Sine Wave ist eine Studie zur Sinuswelle im akustischen und visuellen Medium unter Verwendung von Oszillatoren und Oszilloskopen. Schwebungen/Interferenzen der Töne im Raum erzeugen frequenzbasierte Spatialisierungsphänomene. Die visuelle Illusion der horizontalen Wellenbewegungen ist gekoppelt an die Puffergröße des Oszilloskops und die Audio Abtastrate. Basierend auf dieser strengen Kopplung von Ton, Bild und der Verarbeitungsrate der Maschine, versuche ich durch die Kontrolle spezifischer Parameter Perspektiven zu finden, in denen beide Medien möglichst intuitiv vereint sind, sich komplementieren oder auch kontrastieren können. Die multimodale Wahrnehmung spielt eine wichtige Rolle im Stück. Die "Partitur" ist als Skript in der Programmiersprache SuperCollider geschrieben. Jia Liu ist eine Komponistin und Computermusik-Performerin. Zurzeit lebt sie in Karlsruhe, Deutschland. Sie hat Komposition sowie Musikinformatik am Shanghai Conservatory of Music und an der Hochschule für Musik Karlsruhe studiert. Ihre Werke für Orchester und Ensemble sowie elektroakustische Musik, Computermusik und Multimedia-Kompositionen wurden auf verschiedenen internationalen Musikfestivals und Konferenzen aufgeführt. Zurzeit beschäftigt sie sich mit algorithmischer Musik und den Möglichkeiten netzwerkbasierter Kollaboration. Tim Offenhäuser, Game of Notes Game of Notes ist ein Algorithmus, der in Anlehnung an "Conway's Game of Life" MIDI- Daten erzeugt. Basierend auf der Eingabe der ersten Generation an Noten werden Folgegenerationen berechnet. Die Population kann nach wenigen Generationen aussterben oder sehr lange bestehen und dabei viele interessante Gestalten hervorbringen. Zu hören sind verschiedene Populationsberechnungen basierend auf verschiedenen, von mir ausgewählten Erstgenerationen. Tim Offenhäußer ist 1995 in Stuttgart geboren. Während der Schulzeit lernte er die Instrumente Blockflöte und Saxophon, mit denen er in verschiedenen Musikensembles spielte. Nach dem Schulabschluss und einem Freiwilligen Sozialen Jahr (FSJ) begann er 2015 sein Bachelorstudium Musikinformatik und Musikwissenschaft an der Hochschule für Musik Karlsruhe. Während des Studiums war er Teil der Bigband und ist Mitglied der Band genre0x95. 2019 schloss er das Bachelorstudium ab und studiert nun Musikinformatik im Master an derselben Hochschule. Marc Bangert, Habitat Habitat lotet die wechselseitigen Einflüsse dreier Generatorstrategien in einem geschlossenen System (Habitat) aus: Determinismus (Clock), Indeterminismus (Zufallsgenerator), Proteismus (impulsives Spontanverhalten eines biologischen Organismus). Eine komplexe, teilweise absurde, Kausalität innerhalb der Verschaltung lässt allerdings deren Abgrenzbarkeit verschwimmen; Feedbackschleifen der Outputs der Teilsysteme nicht nur zurück auf die eigenen Inputs, sondern auch auf Inputs der anderen Teilsysteme erzeugen ein Gesamtverhalten des Habitats irgendwo zwischen freiem Willen, deterministischem Chaos und kuratiertem Zufall. Die zeitversetzte Aufnahme der einzelnen hier simultan hörbaren Spuren (mit Feedback der vorherigen Spur) lässt sogar den Musiker im Unklaren, ob Live-Klänge des Instruments gerade ohne sein Zutun entstehen oder wenige Minuten zuvor von ihm selbst erzeugt worden sind.
Die Zuhörer*innen sind eingeladen zu erraten, welche der immer wieder auftauchenden Ahnungen von Repetition oder wiederkehrenden Motiven und Strukturen unausweichlich, welche absichtsvoll herbeigeführt, welche glückliche Koinzidenz sind (oder welche davon auch vom eigenen, hörenden, instinktiv auf der Suche nach Regelhaftigkeit umtriebigen Gehirn schlicht eingebildet). Marc Bangert, Professor für Cognitive Neuroscience of Music am IMWI, mit Schwerpunkten physiologische Interfaces für Sonic Arts, Hör-Illusionen, multisensorische Integration, Evolutionsbiologie der Musik. Forschung und Lehre an Hochschulen in Deutschland und USA. Konzeption und Realisierung interaktiver Live-Installationen und Mitwirkung an Hörfunk- und Festivalproduktionen (u.a. Berliner Festspiele/Maerzmusik) und Live- Filmvertonungen. Zahlreiche Fachpublikationen und Buchbeiträge; wissenschaftliche und künstlerische Auszeichnungen. Tobias Bachmann, Exodus für Lichtharfe Exodus für Lichtharfe entstand im Rahmen des Bachelorarbeitprojekts, dessen Ziel es war ein ungewöhnliches, aber simples und kostengünstiges Interface für künstlerische Interaktion zwischen Mensch und Maschine zu entwickeln. Resultat war die Lichtharfe. Herzstücke des Instruments sind der Mikrocontroller Arduino und die Programmiersprache SuperCollider. Mehrere Laser sind mit dem Arduino verbunden, wird ein Laserstrahl durchtrennt, so steuert der Arduino die Klänge, welche mit SuperCollider erzeugt werden. Die einzigen Grenzen sind jene, welche die Fantasie dem Aufführenden auferlegt. Tobias Bachmann, geboren 1989 in Heilbronn, studierte von 2010 bis 2017 Musikinformatik und Musikwissenschaft auf Bachelor und Master an der Hochschule für Musik Karlsruhe. Seit frühester Kindheit lernte er verschiedene Instrumente zu spielen und ist in zahlreichen Ensembles, Bands und Projekten aktiv. Er interessiert sich besonders für die künstlerische Interaktion zwischen Mensch und Maschine und digitale Musikedition. Inzwischen arbeitet er als Wissenschaftlicher Mitarbeiter in dem Projekt "OPERA - Spektrum des europäischen Musiktheaters in Einzeleditionen" an der Goethe-Universität Frankfurt am Main und als Dozent an der Hochschule für Musik Karlsruhe.
Patrick Borgeat, Silence In Zeiten physischer Distanzierung halten mich meine Gerätschaften daheim sozial und gesellschaftlich am Leben – oftmals in aller Stille, manchmal vielleicht leise lüftend oder klickernd. Doch ihre Welt ist primär keine mechanische, sondern eine elektronische. Um andere Elektrowesen zu erreichen schreien sie, mit Hoffnung auf Antwort, in den Äther. Weil sie ihr Inneres nicht verbergen können brabbeln viele auch einfach nur so vor sich hin. Hiermit soll ihnen Gehör geschaffen werden. Patrick Borgeat, geboren 1985 in Öhringen, ist Doktorand und Dozent am Institut für Musikinformatik und Musikwissenschaft an der Hochschule für Musik Karlsruhe mit Schwerpunkten Creative Coding, immersive interaktive 3D-Umgebungen, Live-Visuals und Live-Coding. Seit 2010 europaweit Auftritte, Talks und Workshops – unter anderem in Berlin, London, Madrid, Venedig, Linz, Prag, Wien, Liepāja, Tallinn und St. Petersburg. Mit Benoît and the Mandelbrots erhielt Borgeat eine Honorary Mention beim Prix Ars Electronica (2012) in der Kategorie Digital Musics & Sound Art; mit der audiovisuellen Band Ganzfeld eine Honorary Mention beim Visual Music Live Contest (2015). Meiyan Chen, Intrigued Brain Die Inspiration für dieses Stück stammt von EEG-Datenaufzeichnungen. Die Rohdaten wurden aufgenommen, während die Komponistin einen Horrorfilm sah. Das Format dieser Daten ist dem von Tonfrequenzen sehr ähnlich, weshalb die Daten verwendet wurden, um Musik durch drei verschiedene Arten von Operationen in OpenMusic zu komponieren. Ziel ist es, eine Balance zwischen Musikalität und Authentizität der Daten zu erreichen. Das Werk soll die EEG-Aufzeichnungen authentisch wiedergeben und durch musikalische Eigenschaften angereichert werden. Die Musikvisualisierung wurde in Processing 3 realisiert. Meiyan Chen (*1993, Hubei, China) ist Komponistin und Masterstudentin der Musikinformatik an der Hochschule für Musik Karlsruhe. Ihr Schwerpunkt ist Musik für Film und Spiele, geleitet von Professor Damon Lee. Inzwischen arbeitet sie auch an Musikvisualisierung und Audioprogrammierung sowie an Projekten zur Neurowissenschaft der Musik mit Professor Marc Bangert. Ihre Kompositionen sind von verschiedenen Musikrichtungen aus der ganzen Welt beeinflusst. Sie versucht, Unterschiede in Werten, Ansichten zu Menschenrechten, Psychologie und ideologischen Trends in verschiedenen Kulturen zu erfassen und auszudrücken. Vor ihrem Studium der Musik Informatik absolvierte Meiyan ihren Bachelor in Musikwissenschaft und Komposition an der Central China Normal University (2015). Während ihres Studiums nahm sie an einem Austauschprogramm in Taiwan an der University of Taipei (2014) teil. Sie begann außerdem ein Masterstudium in Musikwissenschaft an der Universität Straßburg in Frankreich (2017), bevor sie zum Masterstudium der Musikinformatik in Karlsruhe wechselte. Sie nimmt weiterhin Unterricht in klassischer zeitgenössischer Komposition bei der Komponistin Annette Schlünz. Marc Bangert / Patrick Borgeat, X: Transmorphation for Harmonic Template Neurons Harmonic Template Neurons sind Gehirnzellen, die sich darauf spezialisiert haben, unsere Klangumgebung nach einzelnen Schallwellen abzusuchen, die gemeinsam in eine bestimmte geordnete Schablone passen (harmonische Obertöne), und sie für die Wahrnehmung zu zusammenhängenden Gebilden zu verschmelzen. Erst diese Verschmelzung sorgt dafür, dass wir das Tongemisch z.B. einer Orgelpfeife als einen einzelnen musikalischen Ton einer einzelnen Quelle wahrnehmen und diese auch erst dann im Raum einem Ort zuordnen. Die Klangfarben praktisch jedes Musikinstruments gehorchen diesem Schablonensystem. Das hier zu hörende Kopfhörerbeispiel basiert auf einem längeren Werk, einer immersiven Raum-Installation, die je nach Ausgangsmaterial und gewünschter zeitlicher Auflösung
zwischen 8 und 168 Stunden andauern kann. Hier werden durch algorithmische Manipulation einzelne Obertöne aus ihrem Verbund herausgelöst, wandern frei im Raum umher und können sich beliebig dem Verbund einer anderen Klangquelle anschließen. Bei einem echten Instrument eine physikalische Unmöglichkeit; für HTNs buchstäblich unerhört. Löst sich ein Teilton aus der Verschmelzung, wird er deshalb dem Bewusstsein als eigenständige Quelle gemeldet. Die Installation nutzt gezielt weitere Wahrnehmungsphänomene, so genannte Perzeptuelle Magnet- und Ankereffekte. Wir finden in dem Werk nur Haltetöne über die komplette Dauer der Installation, keine Pausen, keinen Rhythmus, keine Melodie, keinen Wechsel zu einem anderen Akkord. Auch die ständige Veränderung der Klangfarbe führt zu nichts: der Zielpunkt einer jeder Transformation ist akustisch identisch zum Ausgangspunkt. Der Akkord morpht in sich selbst – ein Anschein von Bewegung im endlos Statischen. Dabei wird bewusst tatsächliche harmonische Reinheit nie erreicht; der Klangraum zeigt wiederholte Annäherung an den idealen Zusammenklang, ein Versprechen, das jedoch nie ganz eingelöst wird. Dennoch: Obwohl keine der Eigenschaften vorhanden ist, die in vielen Musikkulturen traditionell „Spannung“ und „Auflösung“ vermitteln, nehmen wir diese in den Texturen wahr, und dar-über hinaus Momente, die wir musikalisch sonst kaum je erleben – wenn sich ein Klang, der uns bereits perfekt „aufgelöst“ scheint, sich paradox immer noch mehr auflöst, immer noch reiner wird – nur um dann doch nie vollständige Perfektion zu erreichen. Aus einer Reihe von am IMWI kollaborativ entstehenden Werken, die für jeweils eine kleine Zielgruppe von Hirnzellen maßkomponiert sind. Ziel der Anthologie ist die Veranschaulichung der fragmentierten Arbeitsweise des Gehirns – und wie fremdartig diese nicht wahrnehmbare eigene Innenwelt erscheint. Alexander Lunt, Modi Das im Rahmen der Master-Arbeit von Alexander Lunt entstandene Werk „MODI“ für gestisches Interface und Performer spielt mit verschiedenen Modi der Interaktion zwischen Mensch und Maschine. Die Hauptidee war dabei die Bewegungen der Hände zu verklanglichen und andersherum den Klang durch die Bewegung der Hände zu kontrollieren, den menschlichen Körper also als Musikinstrument zu betrachten. Motion Capture wurde umgesetzt mit einem Kamera System der Firma Qualisys. Klangerzeugung und Klangsteuerung wurden mit Hilfe von Max 8 realisiert. Alexander Lunt schließt seinen Master of Arts im Fach Musikinformatik 2018 an der Hochschule für Musik ab. Seine Hauptinteressen liegen in den Fächern Sonic Arts, elektronische Komposition und Audio-Design. Von 2014 bis 2016 assistiert er den Tonmeistern Holger Stenschke und Sebastian Schottke am Zentrum für Kunst und Medientechnologie und arbeitet zeitgleich als Tutor am Computerstudio an der Hochschule für Musik Karlsruhe. In den Jahren 2015 und 2016 arbeitet er mit Professor Karel van Steenhoven und Studierenden aus seiner Blockflötenklasse. Hierbei entstehen hauptsächlich Neuinterpretationen zeitgenössischer Werke. Zurzeit arbeitet er als Dozent an der Hochschule für Musik Karlsruhe im Fach „Kreatives Programmieren“ und als Laboringenieur für den Bereich Audio an der Hochschule für angewandte Wissenschaften Ansbach.
Sie können auch lesen