English
Johannes Kreidler Komponist

Instrument Design

Essay nach einem Vortrag, gehalten in der Reihe der "lagerhaus lectures" am 14.7.2005 in Freiburg i. Br.

[Text als pdf]

Musik ist immer vermittelt, sie ist Text und physikalische Bewegung, und an jeder medialen Umbruchstelle kann Spielraum für kompositorische Veränderungen gefunden werden. So fungiert Notation seit ihrem Bestehen nicht nur als Speicher, sondern erweitert die gestalterische Vorstellungskraft. Gleich verhält es sich mit Instrumenten. In ihren Bedingungen stecken schon musikalische Verläufe, und somit kann an diesen Bedingungen 'präkomponiert' werden. Mit der digitalen Revolution nun fallen gleichsam diese Mittel in die Hände des Komponisten.

Zur Geschichte des Verhältnisses Komposition-Instrumentenbau

Der Instrumentenbau ist seit sehr langem arbeitsteilig separiert vom Kompositions- und Interpretationswesen. Dafür sind zwei Gründe ausschlaggebend: a) Der Instrumentenbau erfordert ästhetische sowie handwerkliche Fertigkeiten. Er muss neben künstlerisch-musikalischen (Klang, Stimmung, Umfang etc.) auch materielle Aspekte wie Witterungsbeständigkeit (z.B. für im Freien musizierende Kapellen) und Lebensdauer reflektieren und handwerklich meistern können, außerdem natürlich spieltechnische (geeignete Anpassungen an die menschliche Physiognomie). b) Der Instrumentenbau ist, als sehr kostenaufwändiger, fast immer auch kommerziell orientiert und dadurch in seinen Produktionsbedingungen spezialisiert und auf Wirtschaftlichkeit ausgerichtet. Beide Punkte stellen klar, dass der Instrumentenbau sich von der genuinen künstlerischen Arbeit des Komponierens unterscheidet und zur eigenständigen Disziplin innerhalb der Musikkultur entwickelt hat. Der Fortschritt im Instrumentenbau ist wohl immer vorangetrieben aus einem Wechselspiel von konkreten Forderungen aus der Praxis, also von Komponisten oder Interpreten, und eigener Experimentierfreudigkeit in der Werkstatt. Für den Fall, dass Komponisten direkt auf den Instrumentenbau einwirken oder umgekehrt sie unmittelbar darauf produktiv reagieren, sind viele Zeugnisse bekannt. Allein bei der Person Johann Sebastian Bachs finden sich zahlreiche Beispiele: vom Verstimmen einer Saite (5. Cello-Suite) über den Wunsch nach neuen Orgelregistern (er war in seinen späten Jahren der offizielle Orgelsachverständige seiner Gegend) zu gänzlich neuen Konstruktionen (die "Viola pomposa"); sein Wohltemperiertes Klavier stellt die Beschaffenheit des innovativen Stimmungssystemes dar. Anderes prominentes Beispiel ist Beethovens diesbezüglich selbsterklärende Hammerklaviersonate.

Mit zunehmender Reflexion über Instrumentation wächst das Verhältnis Komposition-Instrumentenbau in eine höhere Dimension. Hector Berlioz schreibt in seiner berühmten Instrumentationslehre, dass ein Orchester vom Komponisten wie ein großes Instrument anzusehen sei. Bleibt man im Bild, ist der Dirigent sein Spieler und der Komponist zu gewissem Grad auch der Erbauer dieses Mega- oder Meta-Instruments. Freilich bewegt man sich innerhalb eines abgesteckten Rahmens, dem der gängigen Orchesterinstrumente, aber auch hier sind besondere Integrationen (Schlagzeug) und Neuanregungen (Wagner-Tuba) aufgrund bestimmter Klangvorstellungen anzutreffen.

Im 20. Jahrhundert gelangt vor allem über den Bereich der Schlaginstrumente eine Legion neuer Klangerzeuger ins Repertoire oder sind eigens gebaut, man denke etwa an Edgard Varèses Ionisation (Schlaginstrumente, Sirenen) oder John Cages Metal constructions (aus Schrott-Abfällen gewonne Metall-Instrumente). Die Entwicklung trägt zwei Gesichter: zum Einen im experimentellen Erschließen neuer Klangerzeuger, zum Anderen in der polemischen Deregulierung gewohnter Instrumente, wie es bei Cages Sonatas for prepared piano bereits im Titel zum Ausdruck kommt. Hier kippt schon annähernd das Verhältnis von Komposition des Instruments und Komposition der Töne zugunsten Ersterem - das Stück bildet akustisch nur noch die "skulpturale" Vor-Arbeit ab.

Ein dialektisches Verhältnis intendiert Helmut Lachenmann mit seiner "musique concrète instrumentale", dem gezielt verfremdeten Spiel auf traditionellen Instrumenten, um so die vertraute kulturelle Umgebung einer kritischen Neubetrachtung zu unterziehen. Mit 'concrète' ist gemeint, dass alle Klangaktionen den Instrumenten direkt "auf den Leib geschrieben" sind, kein abstrakter Tonsatz erst im Nachhinein instrumentiert wird. Die vielfache Verfremdung anhand direkter Spieleigenschaften der Instrumente schraubt das Expressive an der Erfindung von Klang, früher einfach Aspekt der verfügbaren Instrumente, hoch. Lachenmann schreibt: "Komponieren bedeutet, ein Instrument bauen". Dabei entfaltet der Geist der "erweiterten Spieltechniken" auch den puren Trieb nach neuen Klängen, wie es die Instrumentalisten-Komponisten Holliger und Globokar verfolgen. In ähnliche Richtung geht Harry Partch mit seinen sonderbaren Schlagzeug-Instrumentarien.

Grundsätzlich spiegelt sich in all dem die Theorie der Atonalität, nach der mit dem Wegfall eines allgemein gültigen Bezugsystems das musikalische Material nach alle Seiten hin offen ist. Die Bestimmung, was ein Instrument ist, rückt in die produktive bzw. expressive Domäne. So wird der Umstand ersichtlich, dass in der Organologie (die Wissenschaft des Instrumentenbaus) nie zu abschließender Definition gelangte, was überhaupt ein Instrument ist und wie Instrumente zu gruppieren sind. Selbst zu Zeiten, in denen noch klar definiert war, was Musik ist, war die Instrumentendefinition nie scharf. Traditionelle Instrumente wie Geige oder Klavier gehören zweifellos dazu. Aber ist beispielsweise eine Kirchenglocke ein Instrument? Ein Monochord? Ein Händeklatschen? Und Alltagsgegenstände, die klingen können? Allgemein denkt man, was Musik macht, sei ein Instrument - spätestens seit 1910 ist der Begriff 'Musik' jedoch zur Disposition gestellt. Mit Polemik nannte die Stockhausengeneration Synthesizer Instrumente, eine Generation später wandte man den Begriff umgehend auf Computer an. Gemeint waren bei Letzterem einerseits Digital-analog-Wandler, andererseits ihre Programmierung. Die Definition ist so schwammig wie seit jeher die Einteilung in Instrumentenfamilien, mal zusammengefasst nach Art der Klangerzeugung (Aerophone, Idiophone), mal nach Spielweise (Streicher, Bläser), mal nach Material (Saiten, Holz, Blech).

Nun zur Elektronischen Musik. Ihre Klangerzeuger basieren von den Anfängen in den 1920er Jahren bis zum heutigen Tag auf der Transformation elektrodynamischer Schwingungen in Schallwellen. Elektrische Signale werden an eine Lautsprechermembran gesendet, die diese Ströme in für das menschliche Ohr als Klang perzipierbare Schallwellen transformiert. Das heißt, dass im Gegensatz zu mechanischen Schallerzeugern wie Saiten, Mundstücke oder klingende Oberflächen nur Impulse in Form von Daten gegeben werden.

An den ersten, großen Maschinen geschah dies durch viele analoge Regler. Sie wurden mit der Zeit immer handhabbarer, nicht nur in der klanglichen Bandbreite, sondern auch in der spielerischen – und bekamen allmählich instrumentalen Charakter.

Elektrische Spannung als Medium von Daten ermöglichte im analogen Studio die Vernetzung modularer Einheiten, so dass Aufgabenbereiche getrennt werden konnten, z.B. hatte man einen Generator nur für Zufallsimpulse, die auf verschiedene Parameter anderer Generatoren applizierbar waren. Durch diese kombinatorische Arbeit an vielen separaten Einheiten entfernte man sich vom Instrumentalen - aber zugunsten einer paradigmatischen Neukonzeption von Instrumentarium überhaupt. Bei Vernetzungen aus einer großen Zahl von Modulen war im Grunde die momentan installierte Schaltung das eigentliche Instrument und es zeichneten sich dafür nur der Komponist oder ggf. noch der Tontechniker verantwortlich. Sie waren denn auch die Spieler, wenn davon bei der Studioarbeit, mit allmählicher Fixierung auf ein Speichermedium, die Rede sein kann.

Als einer der ersten setzte Karlheinz Stockhausen eine elektronische Schaltung auch live ein, in dem bezeichnenden Stück Mikrophonie I von 1965. Wie typisch für Stockhausen und die Zeit der seriellen Ausläufer, war als Art "Prä-Komposition" oder Vor-Organisation ein Setup entworfen: Ein großes Tamtam wird in Schwingung gebracht, zwei Spieler fahren mit Richtmikrofonen dicht über dessen Oberfläche, und das Eingefangene wird von zwei weiteren Spielern an Filtern manipuliert. Die Komposition der Mittel überragt annähernd die der zugehörigen Partitur; das Wesen des Stückes liegt mehr im experimentellen Habitus als in den ablaufenden, komponierten Prozessen. Mindestens stellt sich da die Frage, mit was für einem Instrument man es denn zu tun hat. Der Titel weist auf das Mikrofon als solches hin. Dieses selbst bringt aber keinen Klang hervor. Das Tamtam liefert die Speisung, aber das Stück ist kaum ein Schlagzeugstück zu nennen. Die bedienten Filter sind ebenso nur Teil, der nicht unabhängig bestehen könnte. Stockhausen hat sich einen spezifischen eigenen Klangkörper geschaffen aus modularen Einheiten, der entsprechend spieltechnisch (ein)geübt werden muss. Die Verwendung des Tamtams unterliegt zwei Aspekten: Zum Einen, und dies mag für das Stück primär sein, bietet es einen Reichtum an Partialschwingungen, die nur auf eine solche Weise überhaupt herausgehoben werden können. Der andere Umstand erweist sich aber im Grunde als ebenso bedeutend: Ein geeignetes Tamtam entspricht vom Flächenumfang her ungefähr auch dem Bewegungsradius eines menschlichen Armes, der das Mikrofon führt - die Größenverhältnisse konvergieren vortrefflich. Denn es sind nicht nur die subtilen Erzeugnisse des Tamtams, was wir hören, sondern – indirekt – die ebenfalls zu filigranen Windungen fähigen Gelenke des Armes.

Als anderes Pionierstück seien die Variations 5 von John Cage (1965) für Merce Cunninghams "Dance Company" betrachtet. Darin gibt es zwei Systeme, bei denen der Ton durch Bewegung angesteuert werden soll. Beim ersten System handelt es sich um fotoelektrische Zellen, die auf die Bühne gerichtet sind. Zehn Fotozellen werden miteinander verbunden, um Bandgeräte und Kurzwellenradios zu aktivieren. Die Tänzer lösen immer dann Töne aus, wenn sie mit ihren Bewegungen die Lichtschranken durchbrechen. Das zweite System verwendet eine Reihe Antennen; wenn ein Tänzer sich bis auf ca. 1,20 Meter einer Antenne genähert hat, wird ein Ton erzeugt. Das Skript der Handlung besteht aus 35 "Bemerkungen" zur Anlage, den Komponenten und der Methode, die alle per Münzwurf generiert wurden. Da die Signale lokaler Radiosender Material sind, ändert sich das Stück von Ort zu Ort. Der Komponist Cage tritt hier vielmehr als Designer des Setups denn als Schöpfer musikalischer Momente auf. Und sein "Instrument" wird nicht von Musikern gespielt, sondern von "Bewegungskünstlern" schlechthin, nämlich Tänzern.

Beide Stücke, Stockhausens und Cages, verbinden Steuerung von Klang direkt mit expressiver Absicht, und können dem Instrument Design zugerechnet werden. Offensichtlich an beiden Stücken ist die Absicht, in Elektronische Musik körperliche Bewegung und visuelle Ausdrucksform zu inkorporieren. Wahrscheinlich überragt dies in der Motivation auch weit die Überlegung, wie sich die genuinen Eigenschaften Elektronischer Musik sinnvoll durch physische Zugriffe kontrollieren ließen. So bewegte sich Live-Elektronik noch lange, abgesehen von mehr oder minder gut bedienbaren Synthesizern, fast nur im Zusammenhang mit herkömmlichen Instrumenten, die elektronisch zu "erweiterten" Instrumenten wurden. Reiner Lautsprechermusik, die im Studio geschaffen wurde, haftete hingegen stark das Stigma des Abstrakten, Un-physischen an.

Grundsätzlich ist aber klar, dass wenn mit jedem Stück die Musik neu erfunden werden muss, es ja nur logisch ist, dass da auch das Musikinstrumentarium neu erfunden werden muss. Umgekehrt ist es eher die Frage, warum immer noch für atonale Musik traditionelle (tonale) Instrumente eingesetzt werden, wenn es nicht prononciert, wie beispielsweise bei Lachenmann, als kulturell-gesellschaftliches Faktum kritisch bedacht ist.

Instrument-Design

Mit der digitalen Revolution, spätestens dem Internet, ist Elektronische Datenverarbeitung fraglos gesellschaftliche Realität. Auf musikalischer Ebene bieten das DSP (digital signal processing) und handliche, erschwingliche Laptops nun Reichliches, um Elektronische Musik dem Niveau der früheren Studios ebenbürtig zu realisieren. Außerdem besitzen Analog-digital-Wandler nicht nur die Möglichkeit des Klanginputs, sondern auch die der Einspeisung körperlicher Bewegungen, weit über die Möglichkeiten der Drehregler an analogen Synthesizern hinaus. Dies wird vor allem mit der 1982/83 eingeführten MIDI-Technik (musical instruments digital interface) realisiert. Des Weiteren können noch der Gameport, die PS2- und vor allem die USB 2.0-Schnittstelle erwähnt werden. Für diese Schnittstellen bieten sich im Handel eine große Zahl an Eingabegeräten ("HIDs" = human interface devices) an, deren Daten zur Steuerung digitaler Klänge eingerichtet werden können. Das sind zum Beispiel: Tastatur, Maus, MIDI-Instrumente (Keyboard, Pedal, Handschuh, Fader, Mundstück, Drumkit etc.), neue Technologien (Touchpad, Tablet, Bewegungssensor), Mikrofone mit fastfourier-Analyse und zweckentfremdete Spielgeräte (Joystick, Lenkrad).

Das Paradigma ist hier: Der digitale Code fungiert als Schnittstelle zwischen verschiedenen Bewegungsformen (Körperbewegungen und Schallwellen) und ist Pendant zur analogen Spannungssteuerung zwischen den Synthese-Modulen – nun sind diese programmierte Algorithmen. Es kann gesagt werden, dass alles, was durch menschliche Tätigkeit beweglich ist und sich digitalisieren lässt (also in seiner Komplexität sinnvoll reduzierbar ist auf Linearität und Endlichkeit) als Steuerung digital erzeugter Klänge dienstbar ist. Die Zuordnung von Bewegungen auf die klanglichen Eigenschaften wird somit Teil der musikalischen Gestaltungsmöglichkeiten, in Fortsetzung der seriellen Trennung der Parameter.

Dies zeigt sich an der gesteigerten Modularität: Die drei Aspekte des Instrumentenbaus Klang / Spielbarkeit / Materie stehen nun getrennt da, und können individuell zusammengeschlossen werden. Hier beginnt Instrument Design. Zu diesen drei Aspekten: Klang obliegt der Programmierung; die Spielbarkeit durch Beschaffenheit des Instrument einerseits (also Tasten, Achsen etc.), andererseits aber auch, wie man diese Tasten in der Programmierung belegt; die Materie durch die Wahl des Gerätes und der Lautsprecher. In traditioneller Musik ist Klangsteuerung immer notwendig mit dem jeweiligen Prinzip der Klangerzeugung verbunden, oder mindestens den Gesetzen der Mechanik unterworfen. In digitaler Musik nun gibt es als Klangerzeuger nur das selbstständige digital signal processing, und damit keine spezifischen Spielkategorien (Streichen, Blasen, Tastendrücken) mehr. Verwendet man Steuerungsgeräte, ist man lediglich durch die technischen Möglichkeiten der Analog-digital-Wandlung limitiert, beispielsweise in der Konversionsrate von kontinuierlicher Bewegung in einzelne Punkte.

Das heißt, dass Klang und Steuerung auf noch grundsätzlicherer, synthetischer Ebene reflektiert werden; welche Parameter wie verändert werden, um damit Musik zu spielen. Man kann sagen, dass Instrumentation näher in den Bereich des Körperlichen rückt - der Instrument Designer entscheidet, ob ein Klang vom Atem, von Armen oder Fingern usw. gespielt werden soll. Die Art der Steuerung von Klang ist Aspekt der zeitlichen Gestaltung. (Dies erfordert aber momentan noch viel Empirie, quasi Instrumentenkunde, ebenso qualifizierte Spieler, da traditionelle Spielfertigkeiten wenig nutzen.) Die Applikation der vom HID gewonnenen Daten auf die Parameter der Klangerzeugung ist das "Mapping". Hier entscheidet sich, ob beispielsweise eine bestimmte Armbewegung die Lautstärke oder die Tonhöhe ändert und ob die Linearität beibehalten oder eine Transferfunktion zwischengeschaltet wird. Viele Möglichkeiten bieten sich dem "Instrumentenbauer" an, da ja zusätzlich auch der Computer selbst aktiv sein kann, beispielsweise in Form von Zufallsgeneratoren. Hinzu kommt noch die Option des künstlichen "haptischen Feedbacks", dass sich vom Computer aus das Eingabegerät bewegen lässt und hiermit unmittelbare für den Spieler merkliche Reaktionen auf seine Eingabe Bestandteil des Instruments werden können. All dies ist in Instrument Design eingefasst.

Es findet also eine emanzipatorische Bewegung vom Objekt zum Subjekt statt, bei der Instrumente nicht mehr Bedingung, sondern Erfindung sind, da auf sehr grundlegendem Level - es geht um nackte Bewegungsdimensionen – gestaltet werden kann, eine attraktive Herausforderung; von reiner Klangkoordination hin zu Klang-Choreographie. Kontroller sind nicht nur Hilfsmittel, sondern in der Wahl und Programmierung Variablen der expressiven Absicht, musikalisch und visuell-performativ, allgemein gesagt: künstlerisch und individuell, also im Bereich des Kompositorischen. Somit ist die arbeitsteilige Aufspaltung mindestens gemildert; dass der materielle Aspekt immer noch handwerkliche Domäne ist, ist klar, wenngleich auch hier enge Kooperationen möglich sind, wie es der Komponist und Improvisator Richard Barrett in Berlin mit Technikern pflegt. Traditioneller Instrumentenbau reduziert / konzentriert sich bei Instrument Design auf die Generierung modularer mechanischer Oberflächen für die menschlichen Extremitäten. Dies ist aber nicht gering zu bewerten - die Aspekte materielle Solidität und ergonomische Praktikabilität sind nach wie vor komplexe Herausforderungen, derer sich dankbarerweise MIDI- und gerade Joystick-Hersteller hervorragend annehmen.

Wichtig für die Gestaltung eines Instruments ist, einen fruchtbaren Boden zu schaffen für Intuition einerseits und Reflexion andererseits, wie beide bei jedem schöpferischen Akt gleichwertig, ineinander greifend beteiligt sein sollten. Wie, könnte man allgemein sagen, sind für Intuition und Reflexion günstige Voraussetzungen geschaffen? Durch freie und großzahlige Materialwahl, vielfältige Steuerungs- bzw. Gestaltungsmöglichkeiten (Reflexion), und logisch-expressive Distribution des Materials und Zugriff zu allen Kontrollen mit den prädestinierten physiologischen und neurologisch sensiblen Bewegungsformen (Intuition).

Im 20. Jahrhundert wurde Vieles unternommen, Distanz zu schaffen zum Ausdruck. Der sog. strukturalistische Ansatz, angefangen mit der Zwölftontechnik, findet denn auch in DSP einen Höhepunkt, wo alles a priori strukturalistisch durch Klang-Synthese-Techniken gegeben ist, in Programmierer-Worten: Die Musik ist auf bislang maximalstem "low-level" (beginnt mit dem Sinuston), von wo aus konstruiert wird. In Instrument Design wird diese Distanz wieder gezielt verringert, denn es bieten sich dadurch neue Möglichkeiten des Komponierens von Elektronik am Instrument / Körper, und von da ab vielleicht wieder zu Notation usw. Das Ausgedachte hat von Vornherein eine spielerische Realität, für die man schreibt.

Diese zeichnet sich auch durch Widerstände aus. Instrument Design heißt, der schieren Unendlichkeit von Computerklängen wieder physische Grenzen zu setzen, man schafft räumliche und zeitliche Abhängigkeiten (oder durch Force Feedback auch zusätzliche physisch erschwerte Bedingungen), die zu musikalisch-konstruktiven werden. Man könnte auch sagen, es handelt sich hier um eine Art Verschriftlichung von Elektronischer Musik, einer gezielten materiellen Manifestation als Reflexionsinstanz (quasi die Fortführung des "objektorientierten" Programmierens), und damit zu Möglichkeiten der Produktivitätssteigerung. Was spielerisch-experimentell ergründet wird, kann dann auch in strengerem kompositorischem Sinne wiederum Früchte abwerfen: so in meiner erneuten algorithmischen Formalisierung der für RAM microsystems typischen Klangsequenzen mit dem Programm "DiSe".[Mittlerweile in "COIT" aufgegangen, J.K. 2008]

Geigensaiten stehen im Quintabstand, die Klänge des Klaviers sind auf schwarze und weiße Tasten verteilt. Solche Vorordnungen, die die schiere Linearität einkerben, halte ich auch für das Wesen des Instrument Designs instruktiv. Ob die große atonale und elektronische Errungenschaft des Kontinuums hierbei regressiv wieder 'diatonisiert' wird, sei dahingestellt. Auch könnte dem Instrument Design vorgeworfen werden, den Vorzug der Elektronischen Musik aufzukündigen, dass physische Barrieren in der Musikerfindung wegfallen. Es gilt aber auch hier das Strawinskysche Credo: Ich brauche Grenzen, um Fantasie entwickeln zu können.

Motivation für Instrument Design sind: Ein performativer und ein generativer Aspekt. Der performative dient dem Publikum zur Konzentration und dem allgemeinen Verständnis - man ist doch dankbar, wenn eine Musikaufführung auch eine visuelle Komponente, Ursache-Wirkung-Zusammenhänge hat. Außerdem kann dann Synchronisation mit Dirigent oder anderen Spielern erzielt werden. Der generative ist aber der eigentliche Grund, die körperliche Instrumentation und Strukturgenerierung, ob für Stücke, interaktive Installationen oder zur Improvisation (nicht zu vergessen die Pionierleistungen Alvin Luciers).

Zwangsläufig kommt bei Instrument Design die Frage auf, ob sich überhaupt Instrument und Komposition noch weiterhin trennen lassen bzw. inwieweit ein Instrument tatsächlich unabhängig vom Stück stabil erhalten bleibt. Seine Identität kann nur etabliert werden, logischerweise, wenn es mehrere Stücke für das selbe Instrument gibt. In Peter Ablingers Installation Quadraturen III, bei der ein mechanisches Klavier mittels eines Mikrofons von den Zuschauern bespielt wird, ist dies der Fall; man kann auf dem zusammengestellten Instrument Verschiedenes spielen. Die Frage bei diesem Beispiel ist eher, ob der Unterschied groß genug davon ist, wie wenn man einfach eine Geige zum Spielen ausstellte, um als Kunstwerk zu gelten.

Der Instrumentencharakter tritt erst in der Vielfältigkeit auf. Derartige semantische Fragen sind aber ja kennzeichnend für die Neue Musik. So stellt es sich genauso bei Konzeptionen mit der offenen Form - ist es jedes Mal das selbe Stück oder jedes Mal ein anderes?

Zum näheren Verständnis beschreibe ich nun einige "instrumentale" Kompositionen von mir, ich bin geneigt zu sagen: ich analysiere sie musiktheoretisch.

Für das Instrument der Performance RAM microsystems (2005) war Ausgangspunkt mein Wunsch, eine große Zahl von Samples (klangliches Material, welches ich mir zuerst mit meinem Programm "wavgorithm" erstellt habe) in der zeitlichen und parametrischen Gestaltung live zu steuern, sprich: damit zu spielen. Auf der anderen Seite war die Idee, einen Joystick, also ein Gerät zur Steuerung von Computerspielen, als instrumentale Oberfläche zu verwenden; neben den komplexen spieltechnischen Möglichkeiten dieser Geräte und ihrer sehr ausgeklügelten ergonomischen Handhabung war auch der äußerliche Grund ausschlaggebend, dass ich für Tourneen ein leicht transportables Instrument haben wollte. So schaffte ich mir einen geeigneten Joystick an, den Saitek X45, der eigentlich für Flugsimulatoren konzipiert ist. Er bietet einen Schieber (mit dem linken Arm zu steuern), für die linke Hand zwei Drehregler (einer für Daumen, der andere für Zeigefinger oder Daumen und Zeigefinger), eine dynamische, zentrierte Taste für 3., 4. und 5. Finger (ich verwende jetzt die Zählweise der Pianisten), zwei Schiebeknöpfe und etliche Druckknöpfe, für den rechten Arm einen zentrierten Steuerungsknüppel mit x-y-Achsen und einige Druckknöpfe für veschiedene Finger. Die Achsen, Drehregler und die Taste haben eine Auflösung von jeweils 64400 Punkten, die Knöpfe registrieren binär Druck-Loslassen. Es gibt also eine gute Kombination aus diskreten und kontinuierlichen Kontrollern, erstere für Präzision, zweitere mit hoher Auflösung für sehr feine Bewegungen und große Umfänge, gemäß den Fähigkeiten von Arm-Hand-Finger (deren Bewegungen sich derzeit, denke ich, am Besten digitalisieren lassen, im Gegensatz z.B. zu Mund- / Atem-Aktionen). All diese Daten können in der Audio-Programmiersprache "pd" empfangen und weiterverwendet werden. Die Modularität wird deutlich: Verschiedene Muskeln und Gelenke lassen sich auf verschiedene Dimensionen der Klangsynthese und Klangsequenzierung applizieren.

Da setzt die kompositorische Arbeit an. Am Wichtigsten für das, was mein Instrument ausmacht ist die Idee, die Bewegungen des rechten Armes in x- und y-Richtung mit einer Matrix in eine Serie verschiedener Klangereignisse zu transformieren. Hierfür habe ich die sehr feine Auflösung von 64400 Punkten pro Achse auf 12x40 Rasterfelder vergröbert, womit also maximal 480 verschiedene Samples anvisierbar werden.

Für die Gestaltung eines Stückes bestand die Frage nun in der Belegung dieser Felder mit Material - ob mit Klängen, oder leer bleibend, also Pausen. Als Nächstes galt es, für die wichtigen Parameter Tonhöhe und Lautstärke Steuerungsmöglichkeiten zu bestimmen. Für Tonhöhe, hier die Abspielfrequenz der Samples, wählte ich den linken Schieber, für die Lautstärke den Daumendrehregler. Warum gerade diese? Der Schieber erfordert relativ viel Energie, und eignet sich daher als Konvergenz zur Höhe; für die Lautstärke wäre diese offensichtliche Zuweisung etwas zu platt gewesen; es bietet sich für sie der leicht bedienbare Daumen-Drehregler auch darum eher an, weil mit ihm schneller zwischen Extremen gewechselt werden kann. Der hintere Regler ist schwerer zu erreichen und wurde daher für eine besondere Transformationsfunktion gewählt; mit ihm kann in variabler Geschwindigkeit eine algorithmische Veränderung des momentan gewählten Klanges produziert werden. Die meisten anderen Knöpfe sind auf bestimmte Punkte der Matrix festgelegt; zusätzlich besteht noch die dreifache Loop-Funktion eines Knopfes der rechten Hand und die Pause-Taste. Viele Tasten lassen sich mehrfach belegen durch grundsätzliche Umschaltung via Kontrollen zweiter Ordnung. Gelegentlich wird noch das Touchpad des Laptops, ebenfalls der Matrix zugeordnet, hinzugezogen für zweistimmiges Spiel.

Zusammengefasst: Die kompositorische Arbeit von RAM microsystems ist die programmierte musikalische Nutzung der filigranen, komplexen und sehr schnell agiblen Möglichkeiten von Arm- und Fingerbewegungen mittels des Saitek X45-Joysticks und des Touchpads; der Rest ist Improvisation. Die Anordnung impliziert eine gewisse Typologie von musikalischen Abläufen; dennoch kann sie als Instrument für verschiedene Stücke verwendet werden, da ja das Material frei gewählt bleibt und individuell systematisch angeordnet werden kann, und seine spieltechnischen Möglichkeiten eine große Bandbreite haben (ich setzte sie beispielsweise auch schon für Improvisationen zusammen mit anderen Musikern ein). In RAM microsystems geht es mir explizit um die körperliche Expressivität, und deshalb hat das Stück auch eine satte Grundlautstärke als auditive Energie.

Ein anderes Beispiel ist meine Arbeit mit einem präparierten Mainboard - Computermusik in direktem Sinne. Dieses "Instrument", einem ausrangierten Computer entnommen, wird mit Fingern oder kleinen Spielgeräten wie Zahnstocher, Zahnbürste u.Ä. bespielt. Ein in der Mitte angebrachtes Kontaktmikrofon gibt die entstehenden Klänge weiter an den (intakten) Computer, dessen Patch davon gesteuert wird.

Ein Mainboard bietet eine Vielzahl von klanggenerierenden Materialien: Slots mit auf- und zuklappbaren Befestigern, reliefartige Schaltkreise, Spulen, die auseinandergebogen werden können, 'Guero'-Orte, einen Ventilator, Widerstände und Weiteres mehr. Zusätzlich können Präparationen wie Gummiringe, Schnüre und Kabel festgemacht werden. So hat man praktisch eine große Anzahl von Idiophonen, Chordophonen und Elektrophonen, und die komplette Fläche des Boards (31x24 cm) bietet sich ideal zum Spiel mit beiden Händen an und ist auch leicht transportierbar.

Dies führte allerdings zu keinem fertigen Stück. Es existiert jedoch die Videoaufnahme einer Improvisation damit:

In anderen Stücken nutze ich keine allgemeinen Bewegungsformen, sondern bestimmte schon existierende, für die ich aber ein neues Mapping erfunden habe. In der untitled performance #1 (2006) soll auf einer gewöhnlichen Tastatur ein beliebiger Text in schnellem Tempo getippt werden, wobei bei jedem Tastenanschlag ein anderes Fragment aus bestehenden Musikstücken abgespielt wird. Insgesamt stehen 9000 Soundfiles in einer komponierten Reihenfolge zur Verfügung, die innerhalb von ca. 8 Minuten "abgetippt" werden. Es resultiert eine besondere Rhythmisierung dieser 9000-Tonreihe, in der die syntaktische Gliederung des vorliegenden Textes eine Rolle spielt.

2007 experimentierte ich noch mit Ähnlichem für ein Tablet, auf dem man mit einem speziellen Stift quasi schreibt oder zeichnet.

Ein weiteres Konzept sind die 5 Programmierungen eines MIDI-Keyboards (2006). Ein Pianist soll bestehende Werke aus der Klavierliteratur spielen, jedoch mit bestimmten neuen Programmierungen, die aus den Vorlagen Dekonstruktionen machen - vergleichbar etwa den frühen Kubisten Picasso, Braque und Gris, denen ein beliebtes Motiv Musikinstrumente waren, welche sie geometrisch zerlegten, geo-metrisierten. Die Partitur lautet folgendermaßen:

1. WTK 1,1: Jede der 12 Tasten ist Regler für die Dynamik eines jeweils im Hintergrund laufenden Soundfiles. Zu Beginn soll der Spieler erst ein bisschen an den Tasten herumprobieren, hören, ehe er dann die Noten des ersten Präludiums aus dem ersten Band des Wohltemperierten Klaviers (welches hier nun doch etwas anders temperiert ist) von Johann Sebastian Bach hernimmt und das Stück spielt (alles ohne Töne auszuhalten, mit Ausnahme des Orgelpunkts am Ende). Die C-Tasten sind mit einer Aufnahme des C-Dur-Präludiums belegt.

2. bulgarische Skala: Jede der 12 Tasten löst einen anderen algorithmischen Verlauf von Tönen aus. Als Klänge dienen Klaviersamples, das Ganze soll etwas an Nancarrow erinnern. Man spiele langsam (noch wesentlich langsamer als der Komponist es verlangt) den langsamen Tanz aus Béla Bartóks 1. Mikrokosmos. Im Lauf des Stücks beschleunigen. (Dem Stück Bartóks liegt nicht wirklich eine bulgarische Skala zu Grunde.)

3. Schönberg re-diatonisiert: Schwarze Tasten werden zu weißen umgerechnet (der musikgeschichtlich völlig neue Begriff der "De-Alteration"). Darauf spiele man das Menuett (ohne Wiederholung, ohne Trio, ohne Reprise) aus Arnold Schönbergs Suite Op.25. 'Romantisch' interpretieren!

4. Träumerei: Zwischen allen Tasten wird interpoliert, mit Sinusklängen. Im zweiten Teil geht von jedem Ton ein Glissando abwärts, später in schnellerer Geschwindigkeit. Das Keyboard sollte entweder auf weichem Untergrund liegen oder schräg angestellt sein, als flössen die Töne die Tasten hinunter. Hier spiele man Robert Schumanns Träumerei. Den ersten Teil nicht wiederholen; ab dem zweiten Teil kommen die Abwärts-Glissandi, ab der Reprise in schnellerem Tempo. Letzteres kann man visuell unterstreichen, in dem das Keyboard dann noch schräger gestellt wird.

5. Universität der toten Philosophen: (nach Heiner Müller, Hamletmaschine) Nicht bei Drücken einer Taste erklingt der Ton, sondern erst bei Loslassen. Dadurch entsteht eine krasse Dekonstruktion der gespielten Musik, was sehr schwer zu realisieren ist, da es den Spieler stark irritiert. Man spiele die mittlere Fuge aus dem letzten Contrapunctus von Bachs Kunst der Fuge, bis Takt 153 ungefähr, da abbrechen als sei hier das Ende des Fragments. Diese Schaltung kann auch als Installation (Nachdruck / Studie über strukturelle Verspätung 1) exponiert werden.

 

 

 

 

Es wäre noch zu überlegen, wie Instrument Design sich jetzt, im Verhältnis zum traditionellen Instrumentarium, entwickeln wird. Man könnte einerseits glauben, dass jenes tatsächlich abgelöst werden wird und Instrumentalisten der Zukunft Analog-digital-Wandler spielen lernen. Dies erinnert an Stockhausens Forderung aus den 1960er Jahren, dass von nun an jeder Instrumentalist eigentlich neben seinem Hauptinstrument noch Mikrofone und Aufnahmegerät bedienen lernen müsste, was sich so aber nicht eingestellt hat. Konträr dazu würde die Meinung lauten, dass traditionelle Instrumente immer überlebten und auch überlegen blieben. Nach wie vor wird an Elektronischer Musik ja das Defizit an Energie beanstandet, ebenso ihr abstraktes, gesellschaftsabgekehrtes Wesen. Die Überlegenheit ist jedoch zweifelhaft. Enno Poppe beispielsweise integriert mangels Geeigneterem für mikrotonale Konzeptionen in viele seiner Ensemblestücke ein elektronisches Klavier. Und gegen das Energiedefizit geht ja gerade Instrument Design an, selbst der Aspekt des mechanischen Widerstands wie das Rückfedern einer Geigensaite kann durch die Force-Feedback-Funktion heutiger Joysticks nachgebildet werden. Waren die erwähnten frühen live-elektronischen Stücke Mikrophonie und Variations 5 sehr kontroll-expressiv, aber auch von sehr experimentellem, also vorläufigem Charakter, dauerte es noch lange, überhaupt Probleme der Kontrolle live gut und dauerhaft zu lösen - mit der Digitalisierung ist es nun wirklich erreicht. Bei Instrument Design wird körperliche Expressivität in Elektronischer Musik in komplexem Umfang, bis hin zu Virtuosität, möglich. Und dass wir uns, seit der digitalen Revolution und vor allem mit dem Internet, in einem bedeutenden technologischen Umbruch befinden, der das gesellschaftliche Bewusstsein durchdringt, ist kaum bestreitbar, und wird auch der Elektronischen Musik neue Relevanz geben.

Johannes Kreidler, Juni 2005 / Mai 2008