Beispiele für dynamische Panoramen? - Richtung, Distanz und Breite einzelner Stimmen als kompositorisch veränderliche Parameter

D

D1g1t4l D3t0x3r

Offline bis Juli '24. Erreichbar via PN.
Mit Richtung meine ich Links-Rechts-Panning via Lautstärke und/oder Phasenspielereien.
Mit Distanz meine ich die zwischen Instrument und Hörer, die mal mehr, mal weniger von der Lautstärke und Dynamik des Instruments für mich hörbar unterschieden wird.
Mit der Breite glaub ich das gewichtete Mittel aus der Summe und der Differenz der Stereo- oder Surroundkanäle zu meinen. Ich hoffe, ich habe das richtig verstanden, wurde mir hier mal so erklärt. Wirft aber Fragen auf im Zusammenhang mit nicht mittig positionierten Stimmen. Muss mal probieren, ob es genügt, die Stimme vor der Summen-/Differenzbildung zu pannen.

Gibt es da Beispiele abseits der Kunstkopfstereophonie? Kann sich auch um gescheiterte Studien handeln, Hauptsache nicht Kunstkopf. Gerne auch weniger musikalisches, eher Klangtheater-Artiges. Mit Klangtheater meine ich, wenn Töne oder Motive als Charaktere im gedachten Raum in Interaktion treten, dadurch auch verformt werden können. Könnte man auch Raummusik nennen.

Ich befürchte, da gibts keine und das Thema wird zerlabert. Dafür nähme ich alle Schuld auf mich, denn ich bin eben verwegen genug, mir ein lila-schwarz-weiß kariertes Eichhörnchen in einem Exoskelett vorzustellen und zu fragen, ob vielleicht schon jemand ein solches lila-schwarz-weiß kariertes Eichhörnchen in einem Exoskelett gesehen hat. Kann ja sein. Diese Macke von mir ist bekannt. Der kleine Narzisst in mir denkt bestimmt, alle Welt würde vor mir auf die Knie fallen, wenn es das nicht gibt, dann aber ich um die Ecke komme mit dem lang ersehnten lila-schwarz-weiß karierten Eichhörnchen in einem Exoskelett.
Scherz beiseite, ich bin eigentlich nur auf der Suche nach recherchableren Begriffen als die vagen in diesem Post.

Die Frage ist im Kontext meines Projekts zu sehen, grob erklärt selber programmierte Studien darüber, was an skriptgesteuerter Computermusik möglich ist, wenn man auf Echtzeitsteuerbarkeit verzichtet (davon hab ich keine Ahnung, bin überzeugt, dass ich auf dem Gebiet der Welt nix geben kann, alles schon da). Betrachtet man skriptgesteuerte Computermusik ohne diese Anforderungen an Latenz, stören mich viele Dinge an den bisher ausgekundschafteten Lösungen und meine, das insgesamt besser zu können. Außerdem lerne ich so Python.
Zur Nachnutzung ist das Projekt leider nicht geeignet. Niemand hat so viel Geduld wie ich, behaupte ich mal. Kein Musiker will ernsthaft Symbole kodieren und dann auf einen Fortschrittsbalken gucken. Jeder braucht halt ein Quentchen eingebildete Einzigartigkeit.
Ich kann mittlerweile Klang modellieren, diese anhand von Noten in PCM-Samples verwandeln und all das in eine Audiodatei gießen - für die Ohren ist das von Musik nicht zu unterscheiden. Da hab ich dann Links/Rechts-Panning und Laut/Leise-Spannen pro Stimme. Und ich kann, zunächst ganz unabhängig davon, statt alle Stimmen in eine Audiodatei zu gießen, jede einzelne in eine eigene, ihnen einzeln Hall hinzufügen und sie mittels simpler Summe wieder zusammenführen. Bevor ich diese Arbeitsweise naiv vereinfacht ins Hauptprojekt integriere und mir möglicherweise den Weg zum Klangtheater verbaue, sollte ich eine Trockenlern- und Inspirationsphase einschieben. Bei mir ist der Prokrastinationsdrang dann am höchsten, wenn mein Unterbewusstsein noch an Detailproblemen nagt. Passives Grübeln.
 
Zuletzt bearbeitet:
Danke. Ich suche eher Beispiele - sprich, Stücke - die inhaltlich mit diesen Parametern im Stereopanorama spielen, idealerwise mit relevanter Bedeutung: Zum Beispiel könnte ein Katzenmotiv ein Mausmotiv "jagen" von links-Mitte nach rechts-Ferne oder so. Surroundpanorama nützt mir leider mangels entsprechender Technik bei mir und meinem avisierten Publikum eher wenig (ich kann schon froh sein, wenn es mal über was anderes als Handy-Builtins abhört). Tiefenwirkung gibts somit nur über variierendem Hall.
 
Hmm, meinst du sowas wie z.B. in "Indo Silver Club" oder "Alive" von Daft Punk (Album Homework)? Als weiteres Beispiel würde mir noch das Album "No Protection" von Mad Professor/Massive Attack einfallen, wenn man das bekifft hört dann ergeben sich ganz krasse Effekte.
 
Keine Ahnung, kenn ich ned, kann sein. Was lässt dich annehmen, dass ich das meinen könnte? Für mich/Außenstehende wären weitere Infos zur Einordnung gut.


Als weiteres Beispiel würde mir noch das Album "No Protection" von Mad Professor/Massive Attack einfallen, wenn man das bekifft hört dann ergeben sich ganz krasse Effekte.
Wird einem im nüchternen Zustand schlecht davon, also von der Musik? Nicht dass das nur bekifft gehört werden kann. Das Beispiel hör ich mir gerade auf Youtube an. Meine Ohren haben schon seitlich wegdriftende Hallfahnen gehört. Jepp, sowas mein ich.
 
Zu Deinem Spoiler: es gab in der Vergangenheit schon mehrere Projekte, wo Musik Computergesteuert generiert wurden. Von Jarre z.B. gibt es das hier:


Ergebnisse können z.B. so aussehen: www.youtube.com/watch?v=-6AaK5XbJmY


Hast Du Dich schon mal mit "Max for Live" beschäftigt?

Und zur Räumlichkeit: Stereo ist natürlich eine Einschränkung. Man kann binaural arbeiten, allerdings sollte/muss dann auf Kopfhörern abgehört werden. Noch mehr Räumlichkeit geht dann eigentlich nur mit Installationen von mehr Lautsprechern, also z.B. im Rahmen von speziellen Kunstinstallationen. Das ist ja ein Problem für jeden, der den normalen Stereoraum verlassen möchte, es wird Hardware vorausgesetzt, die man eben nicht bei jedem voraussetzen kann. Selbst die günstigsten 5.1 Systeme sind ja nicht in jedem Wohnzimmer vorhanden.
 
Zuletzt bearbeitet:
ich mache 4- und 6-Kanal seit vielen Jahren, aber dazu muss man eben mal raus aus der Bude und in ein Konzert gehen.

Das ist ja, was ich meine. Echter Mehrkanal setzt eine entsprechende Technik voraus, die viele nicht zu Hause haben und unterwegs natürlich schon gar nicht. Daher geht sowas dann nur in entsprechende Installationen, wo die Leute hinkommen müssen. Das zu den Leuten hinzubringen, beschränkt sich in der Allgemeinheit auf Stereo und einige psychoakustische Effekte, ist aber im Vergleich immer limitiert.
 
Hast Du Dich schon mal mit "Max for Live" beschäftigt?
Nein. Hat eine GUI. Und selbst wenn ich bereit dafür wäre, bekäm ich mein bisheriges Zeug gar nicht dareinintegriert. Max/MSP oder das quelloffene Pure-Data - virtuelles Kabelgewirr um Formelboxen - interessiert mich in diesem Thema genauso wenig wie generative Ansätze. Es geht mir um Beispiele für Klangwerke, die raumbezogene Variablen einbeziehen. Wie diese Klangwerke erstellt worden sind, ist von nachrangigem Interesse. Wenn du also Beispiele hast, wo raumklangrelevante Module (nicht nur für Hall, sondern zur veränderlichen Stimmpositionierung mittels Hall, Phase und/oder Panning) verwendet wurden: gerne her damit. :)

Du willst dich mit OpenAL und PyOpenAL beschäftigen.
Das Beispiel klingt schon mal nach räumlichen Spielereien. Und OpenAL nach ner pfundigen Abhängigkeit. Wer Seifenkisten baut, hat keine Verwendung für eine ganze Werkstatt mit Hebetrasse für Großmulden-Kipper.

Das ist ja ein Problem für jeden, der den normalen Stereoraum verlassen möchte, es wird Hardware vorausgesetzt, die man eben nicht bei jedem voraussetzen kann.
Ja. Komisch, dass das Problem in der Malerei nicht besteht. Da bringt man Räume auf Papier oder Leinwand und fertig, seit Jahrhunderten, schon zu Zeiten als man Leute bei Verwendung unverständlicher Begriffe wie 3D-Installation unter Hexereiverdacht stellte.
Und ja, auch im Stereo gibt es ja sowas wie Raumklang. Der funktioniert anders als bei vorhandenen 5.1-Lautsprechern, nicht mit Mehrkanalbalance, aber manchmal überzeugend genug, dass das Gehirn sich einen Raum einbildet. Damit das geht, ist vermutlich mehr Wissen erforderlich als dafür, jeder Stimme ne x-beliebige Hallfahne zu geben, damit sie nach was klingt. Dazu muss wohl jede Hallfahne sozusagen das Produkt sein von Raummodell, also dem gleichen wie alle beteiligten Stimmen und einer Position in diesem Raum. Jede Aufnahme eines analogen Orchesters zeigt ja, dass Raumklang nicht von der Zahl der Lautsprecher abhängen muss.
Wie mein Gehirn gelernt hat, beim Hören von Radio unbedingt wegzuhören, wenn der Wetterbericht läuft, haben andere gelernt, dass es bei synthetischer Musik keinen (in sich konsistenten) Raum gibt, die Vorstellung eines Raums also Energieverschwendung wäre. Vielleicht muss man bekifft sein, dass man das kurz vergisst, um Musik zu hören, bei der sich Stimmen räumlich bewegen.
 
Tipp: Wer ambitioniert ist auf der eigenen Nasenspitze zu hüpfen, frage zunächst in einem Forum für Gymnastik und Akrobatik, ob es schon entsprechende Videos gibt. Wenn nicht, ist der eigene Schweinehund plötzlich ganz klein ... :D

Anhang anzeigen directions.mp3 Mit Kopfhörern oder im Studio anzuhören. (Stereo)

Und dann frage man ganz scheinheilig, ob Profis das nicht können oder nicht wollen. Vermutlich letzteres. Musik, in der die räumliche Position und Bewegung von Stimmen eine Rolle spielt, muss man bewusst hören. Als Begleitmusik beim Autofahren zum Beispiel kann sie sogar die Verkehrssicherheit beeinträchtigen. Daher sind Stimmen in der Musik nach wie vor stationär. Auch in diesem Beispiel nicht so wirklich beweglich, hab gleiche Stimmen halt im Raum herteilt und lasse sie im Anschluss aneinander klingen.

Ob ich Bewegungspfade umsetze, weiß ich noch nicht, erst mal wieder das Unterbewusstsein daran arbeiten lassen. Inzwischen gehen auch Bewegungspfade. Die ersparen mir, jeden Ton einzeln zu positionieren, und auch Stimmen duplizieren muss ich nicht mehr. Die Position eines Tons im virtuellen Raum ist ja eigentlich auch nur ein Klangparameter von beliebig vielen, die man ja alle beliebig manipulieren kann. Gestatten: ein Test mit einer synthetischen Interpretation von Franz Schuberts "Auf dem Wasser zu singen", Audio im dortigen Thread.
Code:
{"stage": {"L0": "7|0 0 kindopia", "L1": "6|1 0.5 kindopia", "L2": "5|2 2 kindopia", "L3": "4|3 4 kindopia", "R3": "3|4 4 kindopia", "R2": "2|5 2 kindopia", "R1": "1|6 0.5 kindopia", "R0": "0|7 0 kindopia", "XL": "3|2 0.5 marimba", "XR": "2|3 0.5 marimba"}, "instrument marimba": {"NOT_CHANGED_SINCE": "2022-04-02 13:11:02", "A": "0.03:1,10;2,30;3,30;4,28", "S": "0.2:40;1,36;2,34;8,32", "R": "0.5:1;1,0", "AM": "3[1,1];1:3", "FM": "5.31f[1;1,0;3,0];4:1"}, "instrument kindopia": {"NOT_CHANGED_SINCE": "2022-04-02 13:11:02", "description": "free-style piano, sounds like it's been made of glas", "character": {"R": "1:10;3,4;4,0", "TIMBRE": "15000:100;3,86;5,92;6,85;8,69;9,65;12,100;17,94", "SPREAD": "30:-5+10;0,4;3,1;4,6;5,3;7,9;8,7;12,0", "VOLUMES": "30:100;1,85;2,95;5,70;30,0", "PROFILE": [{"A": "0.015:1,1;3,1;5,1", "S": "4:100;1,105;2,108;3,80;4,75;5,75;25,70"}, {"S": "4:100;1,68;2,75!;3,82;4,85;5,90;8,60;40,40"}, {"match": 4, "S": "4:100;1,40;2,45!;40,40"}, {"match": "8n", "V": -30}, {"match": 10, "A": "0.02:1,1;2,1"}, {"match": 30, "A": "0.01:1,1", "S": "2:10;1,0"}]}}, "measures": [{"_meta": {"beats_per_minute": 78, "stress_pattern": "2,0,1,0;1,0;1,0,0", "upper_stress_bound": 100, "lower_stress_bound": 95}, "L0": {"0": "C4 o;2 o++*2"}, "L1": {"3": "D4 o;2 o++ o+"}, "L2": {"6": "E4 o;2 o+ o++"}, "L3": {"9": "F4 o;2 o++*2"}, "R3": {"12": "G4 o;2 o++*2"}, "R2": {"15": "A4 o;2 o++ o+"}, "R1": {"18": "B4 o;2 o+ o++"}, "R0": {"21": "C5 o;2 o++*2"}}, {"_meta": {"stress_pattern": "2,0,1,0;2,0,1,0"}, "XL": {"0": "C4 o_, D4, E4, F4", "8": "G4 .o, A4, B4, C5"}, "XR": {"0": "C5 .o, B4, A4, G4", "8": "F4 o_, E4, D4, C4"}}]}
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben