Sprache, Dichtung und Musik - Welche Zusammenhänge gibt es?

D

D1g1t4l D3t0x3r

Offline bis Juli '24. Erreichbar via PN.
Im jüngsten Thread, in dem (abermals) postuliert wurde, dass kein Synthesizer mit dem einer oder anderen akustischen Instrument "mithalten" kann, gehörte ich zu der Fraktion, die den Sinn einer solchen Diskussion eher in Abrede stellte.

Ein Synthesizer ist ein Musikinstrument, das sich gegenüber anderen Musikinstrumenten, die freilich ihrerseits wieder andere Alleinstellungsmerkmale haben, durch ein gewaltiges, vor allem in diverse Richtung zugleich gestaltbares Klangspektrum auszeichnet. Diese Definition ist bewusst technisch agnostisch und schließt mechanisch-akustische Synthesizer mit ein.

Bedingt durch die Freiheiten, die einem diese Geräte in Bezug auf die Klangarchitekrur eröffnen, schränkt sich der musikalische Strukturreichtum auf Motivebene und auf Formebene ein. Weder Produzenten noch Konsumenten können sich auf vielgestaltige Melodien/Harmonien/Rhythmiken/Metriken und auf unterschiedliche Klangfarben zugleich konzentrieren. Das ist mein Postulat, mit dem ich begründen wollte, warum die Diskussion sinnlos ist, weil es keine gemeinsame Vergleichsgrundlage gibt. Zumindest, solange es zwar synthetische Interpretationen klassischer Werkr gibt, indes nicht viele, keinen Technotrack von Cellisten oder Pianisten.

Das könnte man theoretisch ausprobieren, indem sich ein paar Personen zusammen fänden, die ein und dasselbe Gedicht, sagen wir die "Sachliche Romanze" von Erich Kästner, auf Youtube gibts bestimmt eine gesungene Interpretation etwa von Hermann van Veen, in zwei Versionen vortragen: eine rhetorisch frei intonierte und eine nicht intonierte mechanisch auf der gleichen Tonhöhe und im metronomgenau gleichen Tempo pro Silbe. Dann finden sich zwei weitere Teilnehmer, die jeweils alle Aufnahmen der einen bzw. der anderen Fassungen silbenweise zerschnippeln und nach künstlerischem Gusto neu zusammensetzen.
In der Studienphase frage man bisher Unbeteiligte und Uneingeweihte, ob ihnen der freirhetorisch intonierte oder der musikalisch eingeebnete Entwurf besser gefiele. Der Gewinner kriegte nen Synthesizer oder so.

Das wäre zumindest ein wissenschaftlich-methodischer Ansatz zu Klärung der Frage. Leider total ohne Chance, Freiwillige zu finden, die den Plan durchziehen. Ob der Ansatz überhaupt gut ist, weiß ich nicht, da ich kein aktiver Wissenschaftler bin.

Aber das nur zur Frage der gegenseitigen Ausschließlichkeit freier Klangfarbengestaltung und elaborierter Musikalität.

Das Thema könnte sich auch darum drehen, wie man Synthesizer konfigurieren könnte, um bestimmte Silben zu synthetisieren. "stumm" etwa klingt doch etwa wie ne Tom in der Tonlage einer Bassdrum, oder? Mit "stummstummstummstummstummstummstumm..." würden Beatboxer Gabber machen. Sind Beatboxer hier, die das bestätigen könnten?
 
Genauso könntest du auch 100 andere Songwriter und Onomatopoeten verlinken. Wenigstens eine Begründung, warum du ausgerechnet (... nachgucken ...) Linton Kwesi Johnson gewählt hast, idealerweise mit Augenmerk auf den Themenbezug ... Danke.
 
Manche behaupten der Mensch spräche erst seit 50 - 100 000 Jahren.
Sie sind zT wohl auch der Ansicht dass es vorher kein Bewusstsein gegeben habe.

Es gibt auch die Ansicht Sprache seit durch rhythmische Laute die gemeinsame rhythmische Tätigkeiten synchronisierte entstanden.

Die Theorien sind Hintergrund des Romans Snowcrash.

Vom unfreiwillig Freudianischem Aspekt der Theorie abgesehen halte ich wenig davon, auch wenn Körnchen von Wahrheit dran sein mögen.

Aber das wäre eine sehr direkte und ursprüngliche Verknüpfung von Musik und Sprache.
 
Zuletzt bearbeitet von einem Moderator:
Aber das wäre eine sehr direkte und ursprüngliche Verknüpfung von Musik und Sprache.
Eine andere mögliche Verknüpfung als die prähistorisierende wäre die künstlerische Synthese von sprachartigen Lauten, der Bedeutung entzogen, als Werkzeug der Musik. Inverses Beatboxing also. Normales Beatboxing ist ja das Nachmachen von perkussiven Instrumenten mit dem Artikulationstrakt, inverses Beatboxing die Synthese von Lauten zu nichtsprachlichen, musikalischen Zwecken. Vielleicht in irgendeiner Sprache vorkommenden oder nicht vorkommenden, oder nur im Artikulationstrakt eines fiktiven Tieres, Außerirdischen. Es geht nicht um das Nachmachen echter Sprache, oder von Tierstimmen. Wiewohl eine Herausforderung für sich, ist das ein anderes Thema.

Es könnte also um Experimente mit Synthesizern gehen, um von Note zu Note wenig bis stark, kontinuierlich oder zwischen mind. 2 Polen springend variierte Klangfarben zu generieren und damit Musik zu machen, und zwar auch gerne mit mikrotonalen Skalen über 12TET. Große Ambitus, Ambiti, Ambiten (Rahmenintervallweiten, Tonhöhenspannen) müssen wiederum nicht sein, wenn ihr mich fragt, gerne nur rhythmisch und sprachliche Prosodie ist ja auch nicht streng chromatisch. Mich würden viele changierende Klangfarben und zu viele melodiöse Tonfolgen, komplizierte Rhythmen und Harmonien vermutlich stressen und nerven, aus dem eingangs dargestellten Grund.

Beispiele mit meinem Projekt sind in Arbeit. Ich möchte aber erst mal der Konkurrenz den Vortritt lassen, und nein, nicht dass ich mir da soo sicher wäre vorpreschen zu können, eher weil erhältliches Zeug hier eh mehr Anklang findet als DIY-Gewirk. Wohlgemerkt denke ich, dass das auch mit handelsüblichen Produkten umgesetzt werden könnte. Müsste doch gehen, indem man mit Sequencern nicht Tonhöhen, Längen und Intensitäten programmiert, sondern Filtereinstellungen oder so, nicht? Unter der Haube ist ja eh alles MIDI oder VC-Gedöns?
 
Interessantes Thema, hatt nicht die gute Björk zb ein Album gemacht das komplett oder größtenteils mit aus dem Mund erzeugten Lauten etc konstruiert wurde?!
 
Beispiele mit meinem Projekt sind in Arbeit. Ich möchte aber erst mal der Konkurrenz den Vortritt lassen, und nein, nicht dass ich mir da soo sicher wäre vorpreschen zu können, eher weil erhältliches Zeug hier eh mehr Anklang findet als DIY-Gewirk. Wohlgemerkt denke ich, dass das auch mit handelsüblichen Produkten umgesetzt werden könnte
ich hatte früher ja synthetische Stimme eingesetzt.
Dabei hab ich als Text oft genommen was mir quer durch den Kopf ging,
teilweise auch Pseudosprache.
Die Silben passen dann meist erstmal nicht zu den Noten.
Dabei entsteht dann Gesang der ohne Inhalt ist, ähnlich wie Musik in einer Sprache die man nicht versteht. Der Hörer baut sich daraus aber teilweise neue Texte zusammen und interpretiert etwas hinein.

https://soundcloud.com/permacchina/transfigurations-iv
 
Klingt ne Tom in der Tonlage einer Bassdrum nicht so in etwa wie eine Bassdrum?
Zumindest ist die Menge von Bassdrums in aktuellen Samplepacks groß genug (nur ne Hörensage, s. Kickdrum tasting video drüben im Techno-Bassdrum Thread), dass sich darin gerne auch ne tom-like bass drum verstecken könnte.

Aber generell, nach ein paar skizzenartigen Versuchen in puncto changierender Klangfarbenvariation hab ich zwar noch längst keine unterscheidbaren Sprachlaute, aber zumindest die durchaus überzeugende Einbildung, da zupfte ein Mensch auf seinem Bass. (Bassspieler werden mir ganz sicher widersprechen, viele andere Musiker bestimmt auch.)

Code:
# Backup von mir für mich, öffentlich für alle anderen, die das verarbeiten können, irgendwann mal.
title: Freie Laute ;0solo: ;1character: ;1- A: 0.03:1,7*2;4,8 ;2R: 0.15:3;2,2;3,0 ;2VOLUMES: [100, 85, 92, 85, 87, 78, 65, 62, 59] ;1- ATTR: morphed ;2 10: ;3TIMBRE: 1500:100;3,67;5,89*2;10,75;12,73 ;3MORPH: ;3- 1 9;1,11;3,8 ;3- 9 6;1,4;2,5;3,4 ;3PROFILE: ;3- match: 1 ;4S: 2:100;4,80;10,85;13,70 ;3- match: 9 ;4S: 100;6,75;9,70 ;2 1: ;3TIMBRE: 1800:100;3,67;5,89!;10,85;12,73 ;3A: 0.01:1,4;2,5 ;3MORPH: ;3- 1 6;1,4;2,5;3,4 ;3- 9 9;1,10;3,8 ;3- 2n+1 2:10;1,11;2,9;3,10 ;0measures: ;1beats_per_minute: 67 ;1stress_pattern: 2,1;2,1,0;1,0 ;1upper_stress_bound: 100 ;1lower_stress_bound: 95 ;1elasticks_pattern: 3;2,3,1,2 | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o+.=__o==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o+_.=.o__o==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_  | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "3;1,10;4,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o++==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o+.o__o==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o+_.=.o__o==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "7;2,8;5,1" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_pattern: 3;2,1,3,2 ;1elasticks_shape: 8;1,7 ;0 0: E2 o_.o.o__o+3==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,7;1,6 ;0 0: E2 o_.+.=__o==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,6;1,5 ;0 0: E2 o+_.=.o__o==_ | _articles: ;1o: { morphed: "1-10" } ;0 _meta: ;1elasticks_shape: 8;0,5;1,4 ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,4;1,3 ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,3;1,2 ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,2;1,1 ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "1-10" } ;0_meta: ;1elasticks_shape: 8;0,1;1,0 ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0_meta: ;1elasticks_pattern: 3;2,3,1,2 ;1elasticks_shape: false ;0 0: E2 o_.o.o__o+4==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.+.=__o==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o+_.=.o__o==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.o.o__o+==_ | _articles: ;1o: { morphed: "L1;P3,4;1,5,6;1,4;U10" } ;0 0: E2 o_.o.o__o+==_

Anhang anzeigen voicinger.ogg
 
klingt wie Beatboxing durch ein Digeridoo.
Liegt vielleicht auch mit am Rhythmus.
 


News

Zurück
Oben