Bei seiner Reise nach England sagte Josef Haydn, dass man seine Sprache überall verstehe. Im Zeitalter der Globalisierung ist diese Aussage allerdings nicht mehr zutreffend. Gibt es eine universelle Tonsprache, unabhängig von historischen und kulturellen Besonderheiten? Wenn nicht, wie kann es möglich sein, die Musik als Mittel der Verständigung zu verwenden?
Igor Strawinsky (1882 – 1071) hat einmal gesagt, Musik könne nichts ausdrücken. Das Gegenteil ist richtig: eine Musik, die nichts ausdrückt, ist wertlos! Aber man darf nicht annehmen, dass musikalischer Ausdruck in sprachlichen oder visuellen Botschaften besteht. Sogar dann nicht, wenn sie der Komponist oder das Publikum mit fantasievollen Namen, wie beispielsweise „Cloches à travers les feuilles“, „Schicksalssinfonie“ oder „Sturm-Sonate“ verknüpfen. Ja, diese musikfremden Assoziationen sind sogar schädlich bei der richtigen Rezeption und sollten so schnell wie möglich vergessen werden, um das wahre Hörerlebnis nicht zu verfälschen.
Fehlt der Ausdruck, so kann die Musik so kunstvoll und virtuos sein, wie sie will, sie bleibt dennoch trivial. Leider sind wahrscheinlich 99 Prozent der gesamten Musik trivial und nur 1 Prozent genial, hat also einen Ausdruck. Sogar viele Werke der größten Komponisten wie Mozart und Beethoven sind trivial, beispielsweise die „Ode an die Freude“ in der 9. Sinfonie. Triviale Musik geht bei einem Ohr hinein und beim anderen heraus, ohne irgendeine Wirkung zu hinterlassen. Beispiele für geniale Werke sind die Hörbeispiele 1 und 2 in diesem Artikel. Alle Klaviersonaten von Beethoven oder Streichquartette von Haydn halte ich für genial. Josef Haydn genügen dabei 4 Stimmen, um alles auszudrücken, was sich in der Musik überhaupt sagen lässt. Man braucht kein Wagner- oder Mahler-Orchester. Haydn ist mit Bach in Bezug auf Kontrapunkt gleichwertig, aber sogar überlegen was melodische Erfindung und Aussage betrifft. Mozart hat von Haydn die Kunst des Streichquartetts gelernt.
Man sollte sich davor hüten, nur aus dem Alltagsleben
bekannte Gefühle, beispielsweise Freude, Trauer, Liebe, sexuelle
Erregung oder sexuelle Befriedigung und ähnliches in der Musik zu
erwarten. Es gibt davon völlig losgelöste, wie ich sie nennen möchte
„ästhetische“ Emotionen, die nicht verbal definiert werden können. Ob
diese in einer Komposition überhaupt enthalten sind oder nicht, das
entscheidet über die künstlerische Qualität. Ausdrucksvolle Musik kann
bei Hörern eine emotionale „Resonanz“ bewirken.[1] Diese
Wirkung hängt aber an drei Voraussetzungen:
1. Dass der Hörer die Syntax der Tonsprache versteht,
2. dass die Musik überhaupt einen Ausdruck enthält. Dies ist eine Frage
der Semantik, und
3. Dass der Hörer in der richtigen Stimmung ist, um die spezifische
emotionale Aussage gerade dieser Musik aufzunehmen.
Wenn eine Musik, beispielsweise Jazz-, Pop-, oder Schlagermusik nur darauf abzielt, vor einem in sexueller Ekstase enthemmten Millionen-Publikum, das vorwiegend aus jungen Mädchen, aber auch alten Damen bei ebenso alten Sängern besteht, sexuelle Gefühle der primitivsten Art zu erwecken, ist zwar ein starker Ausdruck vorhanden, aber das musikalische Niveau bewegt sich meist auf der tiefsten Stufe.
Bei Vokalmusik ist der Ausdruck untrennbar mit Sprache verbunden. Schon Giulio Caccini[2], der große Theoretiker der Seconda Pratica[3] schreibt im Jahr 1601, die Musik solle die Gedanken und Gefühle der Sprache ausdrücken, wobei die Verständlichkeit der Sprache wichtiger als kontrapunktische Kunst sei. Das beste Beispiel für hoch emotionale, sprachlich inspirierte Musik ist in Arien in Opern und Oratorien von Haendel zu finden. Aber Ausdruck in der Musik kann auch völlig unabhängig von Sprache oder alltäglichen Gefühlen sein. Dies soll nun an praktischen Beispielen aus der reinen Instrumentalmusik demonstriert werden.
J. S. Bach, Präludium und Fuge Nr. 1 C-Dur BWV 846 aus dem Wohltemperierte Klavier 1, Till Fellner
Franz Schubert, Impromptu, D. 899 Nr. 3 in Ges-Dur, Elisabeth Leonskaja
Obwohl diese Beispiele scheinbar keine Emotion ausdrücken wollen und mit relativ einfachen technischen Mitteln auskommen, besitzen sie einen sehr hohen musikalischen Ausdruck.
Den Gegensatz dazu bilde ein Ausschnitt aus einer indischen Musik: Raga Lalit, von Pandit Hariprasad Chaurasia vorgetragen.
Hörer die nicht mit den Geheimnissen indischer Musik vertraut sind, werden die Aussage dieser Musik nicht verstehen können.
Diese kann nur verstanden werden, wenn man gelernt hat, ihren Geheimcode zu entschlüsseln. Dieser Code ist die Syntax der Sprache, die im Fall der Musik aus allen handwerklichen Regeln, beispielsweise Formstrukturen, Harmonik, Instrumentation, Rhythmus u.a. besteht. In jeder Kultur ist die Syntax das Ergebnis eines langen musikgeschichtlichen Schaffensprozesses von vielen daran beteiligten Komponisten. Der interessierte Hörer lernt diese fast ohne sein Zutun durch ständiges Hören einer bestimmten Musikrichtung. Der Hörer klassischer abendländischer Musik versteht daher Bach oder Schubert und empfindet die mitgeteilten Emotionen, während er beim dritten Beispiel aus einer ethnisch fremden Musik zwar musikalische Klänge wahrnimmt, aber keinerlei Bedeutung erkennen oder Empfindungen erleben kann. Er kann den darin verborgenen Geheimcode nicht entschlüsseln.
Ohne eine detaillierte Darstellung der Musikgeschichte geben zu wollen, kann man folgende wichtige Veränderungen erkennen: um 1600 den Übergang von einer auf Kirchentonarten basierenden Atonalität zur dualen Tonalität. Das war die bedeutendste Veränderung der Harmonik, die danach bis ins 20. Jahrhundert praktisch unverändert blieb. Ab dem 17. Jahrhundert fanden aber bedeutende Veränderungen in der Formenlehre statt: von der Fuge über die Sonatenform zum Streichquartett, zur Sinfonie und sinfonischen Dichtung, zum Lied mit Singstimme und aussagekräftiger Klavierstimme, bis hin zur Auflösung der Sonatenform bei Schumann, um nur die wichtigsten zu nennen. Alle diese Entwicklungen waren in dem Sinn folgerichtig, als sie eine stetige Weiterentwicklung waren, bei der das Neue organisch auf der Basis des Alten hervorging. Außerdem war nicht ein einzelner Musiker daran beteiligt, sondern eine große Anzahl derselben. Im Gegensatz dazu hat im 20. Jahrhundert eine sehr kleine Gruppe von Musikern versucht, abrupt mit allen guten Traditionen brechend, einen völlig neuen Code der Tonsprache zu konstruieren, so wie man auf dem Reißbrett eine neue Maschine erfindet, der aber bis heute dem normalen Hörer zwangsläufig unverständlich geblieben ist. Man nennt diesen Code „posttonal“. Als Hörbeispiel mögen die 5 Klavierstücke op. 23 von Arnold Schönberg dienen:
4. Hörbeispiel
5 Klavierstücke op. 23 von Schönberg, Miles Massicotte
Diese „Musik“ klingt genau so, als ob sie ein Computer per Zufallsprogramm komponiert hätte. Aber nicht mit „künstlicher Intelligenz“, die auf der Analyse vorhandener Kunstwerke beruht, sondern einfach durch einen Zufallsgenerator, der sämtliche Parameter wie Tonhöhe, -Dauer und Rhythmus völlig frei aus einem gegebenen Vorrat auswählt. Es gibt weder eine erkennbare Melodie noch Rhythmus und Harmonie, sondern nur zufällig aufeinander folgende Töne und Akkorde ohne jeden Form- oder Ausdrucksinhalt. Sollten diese Stücke auf einer bestimmten Zwölftonreihe basieren, so wäre dies zwar im Notenbild, nicht aber beim Hören erkennbar. Erstaunlich ist nur, dass es Pianisten, wie Miles Massicotte oder natürlich Glenn Gould schaffen, diese Komposition notengetreu zu spielen.
Schönberg schrieb selbst zum Problem der Tonalität[5]:
„Die Konstruktion einer Grundreihe von zwölf Tönen geht auf die Absicht zurück, die Wiederholung jedes Tones so lange wie möglich hinauszuschieben. Ich habe in meiner Harmonielehre dargelegt, dass die Betonung, die ein Ton durch verfrühte Wiederholung erfährt, ihn in den Rang einer Tonika zu erheben vermag. Dagegen werden durch die regelmäßige Verwendung einer Reihe von zwölf Tönen alle anderen Töne auf die gleiche Weise betont, und dadurch wird der einzelne Ton des Privilegs der Vorherrschaft beraubt.“
Die von ihm angestrebte Gleichwertigkeit des Tonvorrats wird aber gerade durch das Prinzip der Zwölftonreihe konterkariert, denn dadurch wird auch im atonalen Bereich Redundanz[6] erzeugt.
Es ist daher fraglich, ob man die geschichtliche Entwicklung des Codes immer als Fortschritt annehmen sollte. Überdies haben manche Musiker bewusst auf Codes aus früheren Epochen zurückgegriffen und damit überraschende Wirkungen erzielt. Im Zug der Globalisierung kann ein in einem Kulturkreis entstandener Code auch in anderen Ethnien übernommen und eventuell angepasst werden. So wurde beispielsweise die tonale abendländische Musik von amerikanischen Negern adaptiert und abgewandelt zu Musikformen des „Jazz“ und „Rhythm and Blues“. Diese wurden dann sogar zurück importiert, wie etwa durch den Pianisten Friedrich Gulda.
Es kann gelingen, einen Computer so zu programmieren, dass er die Syntax voll beherrscht, also alle Regeln der Harmonielehre, des Kontrapunktes, der Formenlehre und andere befolgt. Er könnte so Kompositionen im Stil von Mozart oder Bruckner generieren. Was aber fehlt wäre die Genialität, die Ausdruckskraft, durch die erst ein musikalisches Kunstwerk entstehen kann. Durch KI erzeugte Kunst kann deshalb nicht ernst genommen werden.
Die Musik braucht eine verständliche Syntax um etwas auszudrücken. Wenn sie diese Voraussetzung erfüllt, dann kann sie entweder keinen Ausdruck haben, weil sie trivial ist, oder sie hat Ausdruck und ist deshalb genial. Außerdem muss der Hörer in der richtigen Stimmung sein, um den dargebotenen emotionalen Ausdruck empfinden zu können.
[1] „Du holde Kunst, in wieviel grauen Stunden,
Wo mich des Lebens wilder Kreis umstrickt,
Hast du mein Herz zu warmer Lieb’ entzunden,
Hast mich in eine beßre Welt entrückt!“
[2] Le nuove musiche, Florenz 1601
[3] https://www.academia.edu/42869689/Die_Erfindung_der_Harmonie_in_der_Musik_1_Kapitel_
[4] In der Textform dieses Essays können keine Musikstücke dargeboten werden. Dazu verweise ich auf die Hypertext-Version unter der Adresse:
www.wbaudisch.de/ Tonsprache.html
[5] Komposition mit zwölf Tönen (Typoskript) Gesammelte Schriften, Bd. 1 S. 380 zitiert aus https://de.wikipedia.org/wiki/Zwölftontechnik#cite_note-8
[6] Die Redundanz entsteht nicht durch die absolute Häufigkeit der einzelnen Töne, sondern durch die Verbundwahrscheinlichkeiten von Tonfolgen oder Akkorden. Bei Vorliegen eines bestimmten Intervalls von zwei aufeinander folgenden Tönen kann abhängig davon, welche der 48 Reihen gerade vorliegt, mit erhöhter Wahrscheinlichkeit auf den oder die nächsten Töne geschlossen werden, weil sich diese aus dem vorliegenden Intervall und seinem ein- oder mehrmaligen Vorkommen in der Zwölftonreihe ergeben. Erhöhte Wahrscheinlichkeit bedeutet aber geringere Entropie und Redundanz.