Natürlicher Klang bei elektronischer Musik

ganje

ganje

Benutzerdefiniert
Anlässlich des folgenden Zitates stelle ich die Frage wie man die Natürlichkeit in die elektronische Musik überträgt.

Man versucht Natürlichkeit zu übertragen, von der wir bei elektronischer Musik prinzipbedingt weit entfernt sind.

Da wäre zu hinterfragen wie man das adaptieren könnte.

Ich bin kein Experte auf diesem Gebiet, aber mir schwebt Folgendes vor:

- Nicht mehr als nötig quantisieren
- Dynamik bewahren -> Nicht totkomprimieren
- Bei Drums: Pro Step leichte Differenzen in Gate, Velocity und/oder Pitch einbauen
- Kurze Drum Pattern nicht loopen, sondern es auf mehr Steps verteilen, damit es nicht wie ein statischer Loop klingt. Ich meine: Aus einem 8 Step, ein 16 oder 32 Step Pattern machen, mit den zuvor genannten Differenzen und dann loopen.
- Mehrere Sounds/Samples vom gleichen Instrument verwenden, z.B. bei Drums 2 Snares verwenden um verschiedene Schlagklänge zu bekommen
- Statischen Sounds mit LFOs oder Filterfahrten Leben einhauchen.
- Wenn möglich, Akkorde/Melodien per Hand einspielen. Wenn nicht, Anfang und Ende + Velocity für jede Note so programmieren, als hätte man
- Delay Zeit nach Gehör einstellen
- Sounds im Raum verteilen
- Ausschließlich analoge Hardware verwenden
- Niemals über Kopfhörer mixen/mastern
- Nicht zu jung oder alt sein


Mehr fällt mir gerade nicht ein. Was sagt ihr zu dem was ich geschrieben habe und habt ihr andere Ideen?
 
Zuletzt bearbeitet:
vieles ergibt sich bei mir automatisch (auf Klangebene schon durch die Nutzung analoger Klangerzeuger, analoger Recordingkette und entspr. Patches).

Ansonsten:
  • Nicht mehr als nötig quantisieren
    ich stelle oft nur 90-95% Quantisierung ein

  • Dynamik bewahren -> Nicht totkomprimieren
    Spieldynamik gibt es auch durch Klangveränderungen, nicht nur bei der Lautstärke (z.B. Velocity auf Filter, sonstige Mod-Amounts etc.)

  • Bei Drums: Pro Step leichte Differenzen in Gate, Velocity und/oder Pitch einbauen
    Ich arbeite nicht mit Step-Sequencern, aber teilweise nutze ich FX-Ketten mit leicht variablem Output (z.B. zufällige Pan- oder Abstandsmodulationen)

  • Kurze Drum Pattern nicht loopen, sondern es auf mehr Steps verteilen, damit es nicht wie ein statischer Loop klingt. Ich meine: Aus einem 8 Step, ein 16 oder 32 Step Pattern machen, mit den zuvor genannten Differenzen und dann loopen.
    Wenn ich Drums einspiele, mache ich das teilweise auch so.
    Auch: Unterschiedliche Spuren mit unterschiedlich langen Loops, so ergeben sich automatisch variierende Überschneidungen.

  • Mehrere Sounds/Samples vom gleichen Instrument verwenden, z.B. bei Drums 2 Snares verwenden um verschiedene Schlagklänge zu bekommen
    check.

  • Statischen Sounds mit LFOs oder Filterfahrten Leben einhauchen.
    Ich habe oft LFOs mit S&H oder S&G-Modulationen auf diversen Parametern in den Patches.
    Zusätzlich: Bei (teil)analogen Synths kommt es bei Audiorate-Modulationen (z.B. Crossmod, Filter-FM) automatisch zu nicht ganz deterministischen Ergebnissen bei ansonsten identischen Noten ...

  • Wenn möglich, Akkorde/Melodien per Hand einspielen. Wenn nicht, Anfang und Ende + Velocity für jede Note so programmieren, als hätte man ...
    Ja, das mache ich meistens so - Quantisieren und Korrigieren kann man bei Bedarf immer noch.

  • Delay Zeit nach Gehör einstellen
    oder mit leicht variierenden Delayzeiten (Modulation der Delayzeit)

  • Sounds im Raum verteilen
    Panagement II ist mein Standardtool auf jeder Spur ...

  • Ausschließlich analoge Hardware verwenden

  • Niemals über Kopfhörer mixen/mastern
    ich wechsle gerne ab

  • Nicht zu jung oder alt sein
    verd ...
 
Zuletzt bearbeitet:
Darüberhinaus müsste man mal definieren was mit "natürlich" eigentlich gemeint ist ? (Jo, ich weiss es "für mich" )
Ich auch. Mir reicht das, um hier Anregungen zu geben. Muss ja nicht "richtig" sein für jeden.

//

Was "natürlich" ist, ist natürlich subjektiv. Organisch auch. Mir fällt auf die Schnelle auch kein Adjektiv ein, das objektiv ist, außer die Wissenschaft hat es mißbraucht und da eine Empirik eingebaut.
Wenn Synthesizer kybernetisch oder androidisch klingen reicht das oft. Robotisch würde mir nicht reichen.

Banalytic ist für mich der Held in Sachen synthetischer Organik.
Banalytic, wo bist du? Wir brauchen dich hier.

Der ESQ-1 hatte eine LFO-Mod-Funktion, die "Human Feeling" hieß oder so. Hab ich geliebt. War sofort biologisch, der Sound.
Eigentllich finde ich Adjektive doof. "Doof" auch. :)
 
Nichts für ungut, will auch gar niemandem zu nahe treten, aber den obigen Text finde ich schrecklich und ich finde das ist ein "Mindset" das genau das Gegenteil vom hier angesprochenen Ziel ist.
Es geht um "Natürlichkeit". Die soll nach der Beschreibung erzeugt werden indem ich ganz viel darüber nachdenke wie ich (quasi) mathematisch natürlich werde. Data versucht Menschsein zu verstehen.
Bin kein Müsli oder Hippi, aber das entfernt sich noch weiter vom natürlichen - also dem wie ich es in der Musik verstehe. Damit ist ja kein Chaos gemeint, sondern Umsetzung von "Gefühl" in Musik. Die menschliche Komponente, wie es aus dem Künstler "herausfließt" existiert da überhaupt nicht. Geht es nicht genau darum?
Du trittst mir nicht zu nahe. Aber kann es sein, dass wir unter "Sound" unterschiedliche Dinge verstehen?

Ein Sound ist für mich ein zählbarer Begriff. Ein Sound zu einem Note-on-Event (MIDI), mehrere Sounds zu mehreren Note-on-Events, Musiker nennen das gemeinhin Töne. Wobei MIDI jetzt nur Lingua-Franca sei, meine Sprache ist es nicht, nur der Konkretisierung halber.
Wenn es um natürliche Spielweise geht, geht es auch für mich noch nicht um "Sounds", wie ich Sounds verstehe. Auch wenn ich meine eigenen Modellierungskonzepte habe, was die Ausgestaltung von Takten, Phrasen und Stimmen angeht, aber hierzu möchte ich noch weniger nicht ins Detail gehen, geschweige was demonstrieren (off-topic, und angesichts der wenigen Jahre des Instrumentalunterrichts würde ich mich nur lächerlich machen, Dunning-Kruger par excellence; bei der Umsetzung fremder Noten, wie zuletzt von Beethovens Pathétique, ist das ziemlich Malen nach Zahlen).

Im Jargon der Jazzer umfasst "Sound" viel mehr, die sagen und meinen "Wasser", wo ich differenziere zwischen "Wasser" und "Tropfen". Bei den Sommeliers ist es umgekehrt, die sagen "Tropfen" und meinen oft die ganze Flasche, wenn nicht gar das Fass oder den Jahrgang.

Also falls es nicht klar war: In meinem ersten Beitrag wollte ich "Sound" als "Realisierung eines bestimmten musikalischen Tons" verstanden wissen. Über höhere musikalische Ebenen habe ich keine Aussagen gemacht, bitte deute nicht mehr hinein als drin ist.
 
Sowohl der Ausdruck "natürlich" als auch "synthetisch" verdient es hinterfragt zu werden. Schon bei der Pfeifenorgel werden mehrere Töne übereinander gelegt, bei der Hammond ebenfalls, beides ist im Grunde Additive Synthese.
Die Klänge der ersten Sampler waren aus heutiger Sicht so markant schlecht, dass diese Teile schon wieder als Klang-Originale angesehen werden. Damals sollte das aber "natürlich" sein :cool:
Zu dem Thema passt vielleicht besser der Ausdruck "lebendig" oder "dynamisch" im Gegensatz zu "statisch". Denn ich sehe es ja auch so, dass ein Wenig Ungenauigkeit der Musik manchmal ganz gut tut.
Und wenn man nicht gerade ein akustisches Instrument von Hand spielt, warum dann nicht mit etwas Random nachhelfen, ein wenig Rauschen und Verzerrung zufügen? Aber "natürlich" ist streng genommen nur die eigene Stimme. Oder Händeklatschen!
 
Mein derzeit favorisierter Drummer ist der Singular Sound Beatbuddy. Der klingt bereits bei sober erstaunlich menschlich. Er bietet zudem die Spielarten one beer, tipsy, drunk und wasted. Bitte unbedingt auf wasted stellen, dann klingt alles noch natürlicher. Beschreibung für diesen tollen Modus: All over the place with shifting tempo, random fills, transitions and accent hits
 
Zuletzt bearbeitet:
Zuviel Menschlichkeit/Lebendigkeit wird ein Musikstück nicht bekömmlicher machen. Ein wenig davon macht es hingegen zu etwas besonderem. Elektronische Musik hat mich seit gedenken gerade wegen ihrer
Maschinenartigen Präzession geflasht. Ich finde es aber auch wichtig immer zu versuchen Lebendigkeit rauszukizeln. Im Allgemeinen geht da viel durch Layern sei es Drums oder Pad oder was auch immer.
Ein organisch Klingender Track muß meiner Meinung nach langsam wachsen. Modukationseffekte sparsam eingesetzt sind eine gute Sache. Zuviel davon kann dazu führen daß ein Track nervt.
 
- Ausschließlich analoge Hardware verwenden
- Niemals über Kopfhörer mixen/mastern
- Nicht zu jung oder alt sein
Also ich finde es wichtig mit Kopfhörer zu arrangieren /abzumischen, weil ich da am besten die ganzen links/rechts Einstellungen vornehmen kann. Natürlich prüfe ich immer gegen die Monitore. Zudem soll die Musik
auch via Kopfhörer so gut wie möglich klingen. Es findet dann ein Kompromiss statt der unbedingt nötig ist wie ich finde.


Damit ist ja kein Chaos gemeint, sondern Umsetzung von "Gefühl" in Musik. Die menschliche Komponente, wie es aus dem Künstler "herausfließt" existiert da überhaupt nicht. Geht es nicht genau darum?
das ist natürlich auch wichtig. Es gibt reine Tanzmusik die so gut gemacht ist, daß sie ein Träger ist für die coolness oder Lebensfreude des Machers.
 
Zuletzt bearbeitet:
Ohjeee... Da wird in steps und rastern gedacht.

Hört euch mal nen Hiphop Beat an. Die werden klassisch einfach in ne MPC oder was ähnliches geklopft. Genau in dem einklopfen ist das Feature versteckt, was ihr sucht.

Der Rhythmus des Einklopfens wird durch Atmung und Fusstippen stabil gehalten und durch die Rückenmuskulatur in die Arme übertragen ausgeübt. Daher atmet und wippt man mit dem Beat um ihn stabil zu halten.

Welchen Seiteneffekt hat das? Der Rhythmus des Beats ist durch den natürlichen Atemrhythmus des Menschen der ihn spielt geprägt, die Musik atmet quasi mit, das kommt auch unterbewusst im Ohr des Hörers an, wenn man es deutlicher machen will kann man Effekte obendrauf atemrhythmisch pulsieren lassen. Also delay oder reverb nicht dauerhaft an, sondern auf den Fussschalter und im Rhythmus zum Beispiel jedem 2ten ausatmen triggern bis wieder eingeatmet wird. Usw. (Ja sicher kannste das auch als Automation in deiner DAW zeichnen und klar kannste dir nen Beat zusammen klicken, du musst dir nur bewusst sein, das vermenschlichung über Atmung funktioniert)
 
Ja, interessante Sicht. Ist wohl was dran. Eine alte MPC quantisiert natürlich letztendlich natürlich auch mit 96 ppq.

andererseits leben bestimmte Stile aber gerade von einer gewissen Kälte, dh Starrheit. Wie zB Techno im Allgemeinen. Da würde ich nicht mit diesen organischen Aspekten herangehen wollen.
 
Ja, interessante Sicht. Ist wohl was dran. Eine alte MPC quantisiert natürlich letztendlich natürlich auch mit 96 ppq.

andererseits leben bestimmte Stile aber gerade von einer gewissen Kälte, dh Starrheit. Wie zB Techno im Allgemeinen. Da würde ich nicht mit diesen organischen Aspekten herangehen wollen.

Guter Techno ist auch organisch. Wobei der Basisrhythmus eher Herzschlag Rhythmus ist und Elemente obendrauf dann atmen. Das Trance artige tanzen was diesen natürlichen Rhythmus prägt machen wir Menschen schon seit Anbeginn unserer Geschichte, Musik dafür zu designen sobald es elektronisch ging, ist instinktiv für uns richtig. So starr ist das eigentlich nicht, genau daher braucht man auch den Swing Knopf an ner Drum Maschine.

Witzig in der Richtung ist zum Beispiel free jazz / Impro Musik, das ist quasi kontrolliertes abnormales abstrahieren von der Atmung. Mit dem Atem eine Geschichte erzählen usw.

Disclaimer: Das kann man sicher auch anders sehen, ist aber für den ein oder anderen ne interessante Meinung, daher teile ich sie.

Selbige hat sich bei mir in den Diskussion mit einer klassisch ausgebildeten Klavierspielerin und Bildhauerin in der Basis geformt und dann mit der internationale agierenden Free Jazz / Noise Community xfest mass verstärkt, speziell der Impro Anteil.
 
Zuletzt bearbeitet:

Das ist ein spannender Diskussion Parameter.

Lies mal dazu:


Die sagen man soll den Speed verdoppeln damit das weniger auffällt. Allein dass die sich darüber Gedanken machen. Interessante Anregung. Danke für's triggern.
 
Zuletzt bearbeitet:
Achso um das noch zu erweitern, es gibt natürlich mehrere Quellen für sowas die dem menschlichen Hirn als natürlich vorkommen. Tanzbares ist meist körperlich rhythmisch. Allerdings kann man auch strukturelle Schallereignis Reproduktion von gewohnten Umgebungsgeräuschen anpeilen. Das kann auch spannend sein. Einfach mal Sequencen Fieldrecorden und dann Strukturen dort rauslesen, gerne auch Geschwindigkeitsmanipuliert.
 
Da gelten für Menschlichkeit und Natürlichkeit andere Formeln
Angenommen, du hast es ernsthaft gemeint, auch wenn meine Ironiesensoren kräftig fiepen:
Für "Menschlichkeit" und Natürlichkeit gibt es keine Formeln. Zumindest keine, die sich in Software gießen lassen. Regelmäßigkeit ist maschinell, lässt sich in Software implementieren (in "Formeln" sagt der Mathematiker, in Algorithmen der Programmierer), aber für Natürlichkeit muss man die Regelmäßigkeit einhegen durch zwei Dinge, für die sich am Ende statische Daten praktisch empfehlen – darum geht es im zweiten Spoiler, aber dich interessiert ja brennend die reine Lehre:

Zufällige, kontinuierliche und dazwischen gemischte Abweichungen von diesen Regelmäßigkeiten. Dies ist des Pudels Kern.

Jede Abweichung von der statischen maschinellen Regelmäßigkeit könnte man beschreiben durch zweierlei:
  • eine Zufalls- und
  • eine Kontinualkomponente.
Letzteres sei quasi ein variabler Bias für den Zufall. Das Mischungsverhältnis dieser beiden Komponenten unterliegt als Abweichung demselben Prinzip auf fraktale Weise. Der Programmierer nennt das Rekursion, die man leider nur versteht, wenn man Rekursion versteht, so ein bekanntes Bonmot.

So eine Kontinualkomponente lässt sich verbildlichen durch einen Doppelfader oder nem 2D-Touchpad mit nem Menschen davor, der diese Fader "nach Gefühl allein" bedient. Der eine Fader bestimmt, ob der Zufallsgenerator eher Zahlen an dem einen oder dem anderem Ende der Skala ausgibt. Der andere Fader bestimmt die Streubreite der Werte des Zufallgenerators.

Um obigen Ansatz der Rekursion zu vereinfachen, lass uns diesen einkapseln in eine gemeinsame Kontrollinstanz, den Dirigent für obiges Doppelfader-Ensemble, auch genannt: die Ohren.

Dank seiner Ohren weiß der Musiker jederzeit, welchen Aspekten seiner Musik er eher bewusste Aufmerksamkeit widmet und wo er sich aufs Muskelgedächnis verlässt.

Nun habe ich keine Mitglieder eines Ensembles, die ich vor ihre Doppelfadern drappieren könnte. Nur meine zwei widerspenstigen Hände, die umso störrischer sind, umso rhythmischer sie agieren sollen, Klavierlehrer reihenweise abdanken lassen, und sich gewöhnlich an der Computer- oder gar Handytastatur wohler fühlen. Denn Rhythmus ist hier, wenn überhaupt, nötig um schnell zu werden, mit dem Grundpuls identisch. Ein Mensch mit Behinderung muss halt mal Umwege gehen, deren Sinn sich Gesunden nicht erschließt.
Wenn ich der Software in meiner Datei sage, mach dies so, jenes so, also mach es so, dass es sich für mich an dieser oder jener Stelle so anhört wie mir vorgestellt (oder, zefix!, halt wie geschrieben) – dann gibt es zwei Seiten, eine maschinelle interne, und eine volatile externe oder kopfinterne, je nach Perspektive der lesenden Maschine oder des schreibenden Menschen.

Die maschinelle interne sagt: eine bestimmte Note wechselt bei 12,316% vor dem, sagen wir, 15. 24stel-Tick des Taktes zur nächsten. Sie wechselt also an Position 15 - 12,316 / 100 ab Taktanfang, in Ticks, deren Länge wiederum vom wie auch immer eingestellten, mehr oder weniger statischen Tempo abhängen.

Das allein "denkt" das System und weiß nicht, ob das absichtlich ist oder rein zufällig, um rhythmuslabiles Spiel oder stilistisch bedingtes "rubato" darzustellen.
Die volatile externe Seite ist aus Sicht der Software undefiniert.
Ob ich die Noten via MIDI-Controller auslese und an dieser Stelle den durch "menschliches" oder "mangelhaftes" Spiel reingeratenes Offset nicht ausbügle, oder ob ich in meiner Steuerdatei als Attribut der betreffenden Note explizit bestimme: shift: -0.12316 – das Ergebnis ist das gleiche. Woher dieser Wert kommt, steht in keiner "Formel", die single source of truth ist die Steuerdatei.

Dass ich noch nicht auf die passenden Werte komme, oder Kurvensplines, die Werteverläufe annähern, hat dann zwei unterschiedliche Gründe. Auch die lassen sich aus keiner "Formel" erlesen, resultieren rein aus menschlichem Gemängel:

Erstens, es handelt sich um noch weiter auszubildende Fähigkeiten, von deren Ausbildbarkeit ich aber prinzipiell ausgehe, sonst würde ich mir die Mühe nicht machen. Mithilfe Instrumenten und hin und wieder Instrumentalunterricht diese Schätzerfahrung aufzubauen und diese wieder aus dem Muskelgedächnis zu lösen, bewusst zu verstehen, das braucht halt Übung, Zeit.

Zweitens fehlt mir auch mal schlicht die Geduld, was aber nicht schlimm ist, dann setze ich mich wieder daran, wenn gerade welche da ist. Während ich bei einem Instrument befürchten muss, dass auch viele andere Faktoren nebst Geduld eine Rolle spielen, dass mir das Spiel besser gelingt. Manchmal hab ich einen schlechten Tag ...

Auch Geduld betreffend, Punkt 2b also: Klänge zu rendern kostet Zeit in meinem Workflow, während ich einen Fortschrittsbalken beim Fortschreiten Betrachten, gespannt sein kann. Aus je mehr unterschiedlichen Klängen ein Musikstück besteht, und je mehr Kurven pro Klang, und Schwingungen gerendert werden müssen über die ganze Tondauer, die Anzahl der Layer etc., das alles macht das Rendern zu einer Geduldsprobe. Daher hab ich meinem Server auch befohlen, mich oder wen anders nicht mehr als zehn Milliarde gezählte Einheiten zu berechnen, dann muss ich drei Stunden Pause machen. Unterwegs sollte ich eigentlich eh keine Musik machen, von wegen Handynacken und so.

Hier mal ein Muggenschnipsel. Nur ne Minute möglicherweise miserabler Musik (M.m.m.M.) – ob sie euch geschmacklich gefällt, spiele hier mal keine Rolle, selber bin ich schon durchaus zufrieden:

Code:
# Öffentliches Online-Backup, https://demo.neusik.de/sompyle könnte mirs rendern # https://neusik.de/2024-01-19/yesterdays-snow.spls.txt enthält echten YAML-Code.
stage: ;1p: 1|1 0 ;0instrument p: ;1NOT_CHANGED_SINCE: 2024-01-18 19:14:10 ;1character: ;1- A: 0.03:1,1;3,1 ;2R: 0.2:1;1,1;3,0 ;2VOLUMES: 7:100;1,90;2,75;5,70 ;2TIMBRE: 7000:100;1,115!;2,90;3,102!;4,84;6,104;7,78;8,99!;10,68;11,95!;16,93;20,90 ;2PROFILE: ;2- match: 1 ;3FM: 3f;5:2 ;2- match: 10 ;3FM: 2f[6;1,1;4,0];3:1 ;1- ATTR: stress ;2 100: ;3MORPH: ;3- 1 10;2,11;3,9 ;3- 4 15;1,16;3,14 ;3- 9 6;3,7;5,6 ;3- 2n+1 8;1,6;2,7 ;3SPREAD: [0, -2, +34, +5, -5, +6, -17, -3] ;2 90: ;3MORPH: ;3- 1 13;2,11;3,9 ;3- 4 15;1,16;3,14 ;3- 9 5;3,7;5,6 ;3- 2n+1 8;1,6;2,7 | _meta: ;1stress_pattern: 4,2,3,1;1,0,0 ;1beats_per_minute: 90 ;1upper_stress_bound: 100 ;1lower_stress_bound: 96 ;1elasticks_pattern: 4;5,6,4 ;1elasticks_shape: 2;2,5;3,4 ;1cut: 6 ;0p: ;1.6, G4 .o_* | p: ;1D5& o_--=_, D4&7 o.o+4_-_-4 | _meta: ;1elasticks_shape: 3;0,1;2,5;3,4 ;0p: ;1C4&maj9 oo__ -5+-5_4+___ | p: ;1 2: F3maj7 o-=_3-4_ | _meta: ;1elasticks_shape: 2;2,5;3,4 ;0p: # { 0: E2 1, 1: G2 1, 2: G2 1, 3: D2 7, 10: G2 2 } ;1E3m7 oo+o --_6++_ | _meta: { skip: off } ;0p: ;1# D3 oo+9+oo-3--+4_3+_4 ;1D3m7 oo++o+-o-o-++_3-o | _meta: ;1elasticks_shape: 3;0,1;2,5;3,4 ;0p: ;1D3 oo+7_, B3 o_+ +7+2+3+5_-_ | p: # { 1: G5 2, 3: E6 1, 4: E6 4, 8: E5 1, 9: D6 1, 10: B5 4 } ;1 1: G4 o_+9o_3-12+10-3+ | _meta: ;1elasticks_shape: 2;2,5;3,4 ;0p: ;1A4 oo+5, C5 o_6-7__ | p: # ;1E4 ooo+12_.--oo--.++__ | _meta: ;1elasticks_shape: 3;0,1;2,5;3,4 ;0p: ;1 1: C5 o_6-8+___ | p: ;1 1: G4 oo-3_ =+4__+-__ | _meta: ;1elasticks_shape: 2;2,5;3,4 ;0p: C5maj7 o_--_+_-4+_-4_++ | _meta: ;1offset_seconds: 0 ;0p: D4m oo++_-_++__-.-_ | _meta: ;1elasticks_shape: 3;0,1;2,5;3,4 ;0p: ;1G3m oo++_-_++__-.-_ | p: ;1fig: 0 o++o=_+_ o=__o-o-+_ ;1 0: <fig:A4m | _meta: ;1elasticks_shape: 2;2,5;3,4 ;0p: <fig:D4m | p: A4&7 o++o=_+-- =__o-o-+_ | p: <fig:D4m | p: <fig:A4m | _meta: ;1elasticks_shape: 3;0,1;2,5;3,4 ;0p: <fig:D4m | _meta: ;1elasticks_shape: 5;2,4;3,0 ;0p: A4&7 o++o=_+-3 +2__o-o-+_ | _meta: ;1elasticks_shape: false ;1beats_per_minute: 90-75 ;1upper_stress_bound: 100;2,100;3,95 ;1lower_stress_bound: 95;1,83;2,89 ;0p: <fig:D4m

Schön wären weitere Beispiele elektronisch produzierter natürlicher Klänge von euch.

EDIT 19.1.: ogg-file zu neuer Formatversion geändert zu mp3, können mehr mit anfangen.
 
Zuletzt bearbeitet:
Ich versuche mal nicht, den Begriff "Natürlichkeit" definieren zu wollen (du wirst schon wissen, was du meinst und mit welcher Antwort du was anfangen kannst), und auch nicht zu hinterfragen, wie viel Natürlichkeit in elektronischer Musik überhaupt wünschenswert ist (du willst es halt natürlicher haben).
Ich versuche auch, meine Musik (Ambient, Soundscapes im weiteren Sinne, siehe z. B. unter "Your Tracks" mein Video einer Klangperformance im Gertrudenberger Loch in Osnabrück) "natürlich", "organisch" oder "lebendig" klingen zu lassen, und zwei Sachen, das zu erreichen, fallen mir noch ein:

- nur ein einziges Hallgerät/Plugin benutzen, damit es klingt wie in einem einzigen Raum aufgenommen (oder mehrere identische Geräte/Plugin-Instanzen mit unterschiedlicher Predelay-Zeit zur Tiefenstaffelung).
- hier und da akustische Instrumente bzw. Samples von akustischen Instrumenten einstreuen.

Andere genannte Methoden (Dynamik, Osmose etc.) benutze ich auch. Auch die Komposition an sich kann "Natürlichkeit" vermitteln, wenn es einen Flow gibt, einen Aufbau, eine "Geschichte".

Schöne Grüße
Bert
 
Ach so, noch ein Gedanke: Unquantisierte Musik kann unnatürlicher klingen als gut quantisierte, manchmal sogar als komplett totquantisierte. Das ist paradox, aber ich merke es immer wieder mal, dass ich es als homogener und natürlicher empfinde, wenn ich Parts ziemlich stark quantisiere, die ich eigentlich schön locker echt eingespielt lassen wollte. Ich denke da wahrscheinlich zu stark in Rastern, in Schablonen, bin total abgestumpft.

Zuviel Menschlichkeit/Lebendigkeit wird ein Musikstück nicht bekömmlicher machen. Ein wenig davon macht es hingegen zu etwas besonderem. Elektronische Musik hat mich seit gedenken gerade wegen ihrer
Maschinenartigen Präzession geflasht. Ich finde es aber auch wichtig immer zu versuchen Lebendigkeit rauszukizeln. Im Allgemeinen geht da viel durch Layern sei es Drums oder Pad oder was auch immer.
Ein organisch Klingender Track muß meiner Meinung nach langsam wachsen. Modukationseffekte sparsam eingesetzt sind eine gute Sache. Zuviel davon kann dazu führen daß ein Track nervt.

Das Geheimnis liegt darin, nicht alles zu homogenisieren. Einer meiner Lieblingstricks ist es, Dynamiken stehen zu lassen, während die Noten quantisiert sind. Oder andersrum; den Sound komplett undynamisch machen, aber die Unsauberkeiten beim Einspielen behalten, Noten nur an einem Ende zu homogenisieren statt an beiden. Oder so krumme Reverbs und Delays im Hintergrund stattfinden lassen, parallele unquantisierte Off-Layers basteln, dass die Hauptspur zwar nach vorne zimmert, aber rundherum "angedickt" wird, wie ein guter Chor, der, so sehr er auch auf den Dirigenten schaut, nie ganz 100% aufeinander liegt (was er auch muss, sonst Phasenauslöschung).
 
@Scenturio: Kann sein, dass dein Ogg-Decoder im Browser "veraltet" ist, ich in einer zu neuen Version des Standards enkodiert habe? Werde ich heut Abend durch MP3 ersetzen. Hab ein lädiertes Gewissen gegenüber Moogulator, schließlich hab ich ihm auf den Ohren gelegen, dass er das Format erlaubt.
 
Natürlichkeit ist ein Teil, so etwas wie eine Farbe.
Wenn du in einem Song einen Teil oder etwas natürlicher machen möchtest oder organischer, so hast du unzählig viele Optionen.
Als Pianist nutzt du das anders als als Synth-Nutzer oder Sequencer-Organisator, dennoch ist das von den offensichtlichen Dingen (Sound, Dynamik, Geräusch) auch wohl sehr die Spielweise, die sicher auch bei einem Klavier genutzt würde. Einen wilden Fluß mit vielen extremen Kurven würdest du vielleicht mit vielen kurzen Staccati und kleinen Arpeggioclustern versehen und einen Baum würdest du vielleicht mit auf und ab schwellenden Tönen mit langsamen gebundenen Bögen spielen?
So etwas geht auch mit dem Synthesizer und kann in Einheit sein.
Einen Einklang wirst du bei so einer Aufgabe vermutlich eh anstreben, also eine überlegte Koordination aus Rhythmik, Melodie und Dynamik bis hin zu den Sounds und den Variationen.

Also musst du natürlich nicht nur mit Pys.Models arbeiten oder so - was fast "plump" wäre, du kannst und wirst aber vermutlich eher keine starren 8-Noten Sequenzen im EBM Stil und dazu ohne Dynamik verwenden, weil angeblich ein Automat keine Natürlichkeit hat. Olaf Scholz hat sie wohl auch nicht, aber er ist ein Mensch.
Du kannst es auch Nuancieren - ist "Poppy" ein natürliches Wesen oder ein Puppe oder eine KI? Wir sehen aber ein "Mädchen".
Du kannst durchaus mit Überraschungen arbeiten.
Freiheit!

Ich finde, "natürlich" ist wie "Winterlandschaft" einfach eine sehr offene Idee, zu der sehr viele Antworten passen würden.
 
Seit wann ist Musik natürlich?
Auch wenn die Frage wohl rhetorisch gemeint war, gibt sie ernst genommen Anlass für ein bisschen Meta-Stammtisch :cool::

Meine Antwort: Seit es Menschen gibt.
Sprache, Tanz, Trance, Trauer, Angst, "In den Schlaf Summen", Liebe und son Zeug.
Was von schwingenden Körpern (zB Felle, Luft) und vor allem den Stimmbändern und dem Sprechapparat an Klang abgegeben wird, ist super-natürlich. Die Himr-Areale, die das entscheiden ebeno.Nachdem Neusiker zu Recht mangelnde Präzision und ungenaue Recherche anmerkt: KORRIGIERT: Die Amygdala (Emotion) und das Broca-System (Sprach- und Musizierzentrum) sind ja auch natürlich entstanden. Wobei ich die Amygdala interessanter finde beim Prozess "Was klingt natürlicher: A oder B". Denn es ist ja die emotionale Instanz, die uns Muckern dabei hilft zu entscheiden wie der Klang ästehtisch organisiert werden muss, damit der Begriff "Natürlicher" passt. Welche Areale denn nun wann genau aktiv sind, ist mir zu neurologisch-akademisch und zu wenig musikalisch.
Die Biochemie des Menschen und seine soziale Interaktion, die durch organisierte Geräusche entstehen können, sind also auch "natürlich": Ob der Indigene eine Terz so wundervoll singt, dass ihn sein Stamm dafür liebt oder die Crowd Miley Cyrus ist schnuppe. Es ist sogar egal, ob dabei Melodyne unhörbar parametrisiert wurde.
Im Grunde klingt Electronica dann natürlich, wenn es indirekt auf "son Zeug" (siehe oben) verweist oder es sogar erzeugt.

Das hier im Thread gemeinte "natürlich" meint aber einfach nur "nicht maschinell" oder "nicht automatisch" oder so – als Höreindruck. Das wird dann aber schnell persönlich.
Am Ende liegt der Grad der notwendige Natürlichkeit bei electronica -Details an der Hörerfahrung des Einzelnen (Bias).
Wer Synthesizermusik generell nicht mag (hört), sondern nur von Handgespieltem an maximal elektroakustischen Instrumenten erreicht wird, für den kann man noch so viele Tricks zur Entmaschiniisierung anwenden, der hört/spürt/assoziiert/erlebt das "Natürliche" in Electronica eh nicht.

So sehe ich das jedenfalls.

Eigentlich geht es auch nicht um "Imitation von Natürlichkeit" oder Programmmusik und Impressionismus (Naturerlebnisse/Wahrnehnung natürlicher Ereignisse als Musik darstellen, Sound-Nachbau von Nicht-KLang quasi).
Das Interessante sind meines Erachtens die Assoziationen die beim Hörer entstehen. Auch unbewusste Assoziationen, Ahnungen, Empfindungen, Gespür. Dann wird die offensichtliche Elektronik eben nicht mehr nur als rein elektronisch wahrgenommen.
Da gehts vor allem um Hörgewohnheiten.

Wer "natürliche" Synthi-Musik macht, erzählt vielmehr etwas über uns Menschen. Und eben nicht nur über technische Tricks. Zumindest sehe ich das so. Vangelis' "Spiral" ist da sehr interessant. Was ist bei diesem Stück wann und warum "natürlich", und was nicht? Das war damals ganz anders "unnatürlich", als heute. Stefan Betke aka Pole ist Mitte der neunzoger mal sein Waldorf 4-Pole runtergefallen und hat nur noch komplexes, aber organisches Random Geblubber von sich gegeben. Das hat der direkt schnippselweise für seinen Signature-Dub-Sound genutzt und zack klang die Mucke "biologisch".

Wenn man nun eine elektronische Musik gemacht hat, und findet, es fehlt ihr hie und da oder konzeptionell an Natürlichkeit, und möchte das erzeugen, dann muss man vor allem sein Gehör geschult haben.
Sonst hört man nicht, ob es Pitch ist oder Transienten, oder die Zeitachse, oder der Raum, oderoderoder. Was dann im Einzelfall entautomatisiert klingen muss, ist dann zuerst eine künstlerische Frage (Amygdala) und dann erst eine technische.

Das natürlichste am Musikinstrument Synthesiser, ist eh nicht das Material-Komposit der Circuit, der Strom oder die Frage nach Geräusch oder Ton. Sondern der Zugang (UI), die Lautsprechmemebran und der Raum in dem der Lautsprecher steht. Eigentlich auch noch eine Limiter.
Der Tänzer braucht am besten den Club. Der Filmfreund nen guten Saalsound. Der Lauscher am besten Kopfhörer. Orte und Membran gehören für mich zum Synthesizer dazu. Mit diesem Denken verleihe ich auch meinen ganz nackten, rohen Synthsounds Würde.
 
Zuletzt bearbeitet:
Die Amygdala, die dann aus menschlicher Klang-Organisation menschliche Musik macht, auch.
Du kennst die Hauptfunktion der Amygdala, des sogenannten Mandelkerns, anscheinend nicht wirklich gut. Kann es sein, dass du sie mit irgendwas anderem verwechselst?

Sie nimmt eine Schlüsselposition bei der Bewertung jedweder äußerer Reize ein. Musikalisch isse eher nicht. Um meine Aussage zu untermauern, empfehle ich die Wikipediaseite über die Amygdala zu besuchen und darin entsprechende Stellen zu finden, viel Spaß (musik, ton, klang, rhythmus: jeweils 0 Treffer).
Welche Quellen kannst du anführen?

Wer Synthesizermusik generell nicht mag (hört), sondern nur von Handgespieltem an maximal elektroakustischen Instrumenten erreicht wird, für den kann man noch so viele Tricks zur Entmaschiniisierung anwenden, der hört/spürt/assoziiert/erlebt das "Natürliche" in Electronica eh nicht.
Die mäßige Regelmäßigkeit des mütterlichen Herzschlags, ihre Notwendigkeit übertragen viele auf vieles jenseits des Rhythmus, gar jenseits der Musik. Aber dennoch verbindet uns alle diese Erfahrung, die wir der frühen Ausbildung des Gehörsinns verdanken. Manche andere sind die übermäßige Regelmäßigkeit gewohnter. Für sie ist es kein Problem, der Einfachheit in der Musikproduktion halber auf Unregelmäßigkeiten ganz zu verzichten.
Technokultur gäbs heute vermutlich nicht ohne die Erfahrung der Stahlfabrikarbeiter in einem klanglich regelmäßigsten und lauten Umfeld.

Weiteres im Buch "Die Welt ist Klang" von einem Herrn Behren(d?)s. Gibts auch als Hörbuch, darin sind sogar jeweils zu jedem Kapitel passende Musikpassagen enthalten. Hatte damit einen Hörsturz "kuriert", selbstverständlich so leise eingestellt wie gerade noch im Ruhigen hörbar.
 
Das ist eine interessante (und sachlich geführte) Diskussion. Sehr lehrreich. Meine Frage, seit wann Musik denn natürlich klingt, war übrigens ernst gemeint. Ist denn nicht jede Musik künstlich? Natürliche Klänge sind die der vom Menschen unbeeinflussten Natur (die es strenggenommen gar nicht gibt, aber das ist Haarspalterei, oder?). Ich erinnere auch daran, dass Innovationen in der klassischen Musik stets erst als "unnatürlich" bezeichnet wurden.

Ganz generell ist die Unterscheidung natürlich/künstlich sehr voraussetzungsvoll und selten fruchtbar, IMHO.

Noch zu dem Argument, Techno sei erst durch die industrielle Arbeitserfahrung möglich geworden: Ich glaube das nicht. Welcher Teil der Produzenten und Rezipienten hat solche Erfahrungen gemacht? Adorno lag mit seiner ähnlichen These, Jazz sei die Pervertierung der Fließbandarbeit bei Ford, schon daneben.
 
…die Frage wie man die Natürlichkeit in die elektronische Musik überträgt.
(…)
- Bei Drums: Pro Step leichte Differenzen in Gate, Velocity und/oder Pitch einbauen
(…)
- Wenn möglich, Akkorde/Melodien per Hand einspielen. Wenn nicht, Anfang und Ende + Velocity für jede Note so programmieren, als hätte man
Ich tue mich sehr schwer mit der Vorstellung, man könne "Natürlichkeit" in einem Noteneditor über das Bearbeiten von Notenbeginn, -ende und Anschlagsstärke programmieren. Sicher, man kann diese Werte zufälligen Variationen unterwerfen, aber warum sollten solche zufälligen Variationen (meinetwegen auch noch in Verbindung mit entsprechend zufälligen Klangveränderungen) allein der Schlüssel zur "Natürlichkeit" sein?

Anders gesagt: Ich wüßte aus dem Handgelenk nicht, wie ich "Natürlichkeit" überhaupt definieren sollte, bzw. wüßte ich gerne, was unter "Natürlichkeit" verstanden wird. Ist damit nicht auch untrennbar die musikalisch-emotionale Intention der das Instrument spielenden Person verbunden, die sich in eben nicht zufälligen Abweichungen vom technisch möglichen Ideal niederschlägt? Und wie will man das programmieren?

…habt ihr andere Ideen?
Die Synthesestrukturen der Mehrzahl der derzeit erhältlichen elektronischen Instrumente (Modulsynthesizer ausgeschlossen) bieten von Haus aus keine Möglichkeit, dem erstellten Klang einen "Körper" zu geben, der unabhängig von den gespielten Tonhöhen bestimmte Frequenzbereiche teilweise radikal betont und andere absenkt. Je nachdem, wie stark diese Anhebungen und Absenkungen ausgeprägt sind, kann das aus einem Sägezahn ein Streichinstrument machen. Das kann man mit Festfilterbänken oder Resonatoren machen, z.B. Delays mit sehr kurzen Verzögerungszeiten und hohem Feedback.

Im folgenden Beispiel hat ein gewisser Kenneth Elhardt einen Jupiter-8 durch ein Boss SE-70 gejagt, das unter anderem ein "20Tap Delay" bietet, also ein Multi-Delay aus 20 einzelnen Delays, die er in den Resonanzbereich gebracht hat und nach Gehör gestimmt hat.
Anhang anzeigen Kenneth Elhardt %22Roland Jupiter-8 Strings%22.mp3

Du kennst die Hauptfunktion der Amygdala, des sogenannten Mandelkerns, (…) Sie nimmt eine Schlüsselposition bei der Bewertung jedweder äußerer Reize ein. Musikalisch isse eher nicht.
Nein, aber sie ist für die emotionale Bewertung aller Sinnesreize zuständig, also auch von Musik: Wenn mir ein Stück Musik so nahe geht, dass ich Gänsehaut bekomme, ist meine Amygdala "schuld".

Die mäßige Regelmäßigkeit des mütterlichen Herzschlags, ihre Notwendigkeit übertragen viele auf vieles jenseits des Rhythmus, gar jenseits der Musik. Aber dennoch verbindet uns alle diese Erfahrung, die wir der frühen Ausbildung des Gehörsinns verdanken. Manche andere sind die übermäßige Regelmäßigkeit gewohnter. Für sie ist es kein Problem, der Einfachheit in der Musikproduktion halber auf Unregelmäßigkeiten ganz zu verzichten.
Technokultur gäbs heute vermutlich nicht ohne die Erfahrung der Stahlfabrikarbeiter in einem klanglich regelmäßigsten und lauten Umfeld.
An Vermutungen, warum es "Technokultur" gibt, mangelt es nicht, und dieser Bezug zur Stahlindustrie ist…nun ja: Würde diese Vermutung stimmen, müsste "Technokultur" ja in Gebieten ohne Stahlindustrie wahrnehmbar geringer verbreitet sein.

Die – ja nicht nur von Dir ins Spiel gebrachte – Verbindung elektronischer Tanzmusik zur "Industrie" ist – wie so vieles in diesem so schwer fassbaren Reich der Musik – ein im Nachhinein erdachter Erklärungsversuch; ein Versuch, nach dem Geschehen dieses in Sinnzusammenhänge zu stellen.

So kann man "King Kong und die weiße Frau" (USA 1933) als die Angst des weißen vor dem schwarzen Manne, der ihm die Frauen raubt, sehen bzw. lesen, ebenso wie man "Godzilla" (Japan 1954) als Verarbeitung der Atombombenabwürfe auf Hiroshima und Nagasaki sehen bzw. lesen kann. Zwingend im Sinne von "das war die Motivation der Schöpfer dieser Werke" oder "das war der Grund für die Entstehung dieser Werke" sind diese Lesarten / Interpretationen allerdings nicht.

Denn dass das Aufwachsen in einem Industriegebiet nicht zwingend zu technoider Musik führt, hat Herbert Grönemeyer bereits 1984 mit "Bochum" deutlich gemacht: Da ist trotz des besungenen "Pulsschlag aus Stahl" kein Techno zu hören, sondern – äh – ehrlicher, handgemachter Deutschrock (jaja, ob das nicht schon ein Widerspruch in sich ist, darüber könnte man lange streiten). ;-)

Hatte damit einen Hörsturz "kuriert", selbstverständlich so leise eingestellt wie gerade noch im Ruhigen hörbar.
Tut mir leid, dass Dir das passiert ist, und es freut mich, dass es Dir wieder besser geht! Bei uns hat jemand auch einen Hörsturz erlitten, zurückgeblieben ist eine deutliche Höhendämpfung auf einem Ohr. Wenn ich fragen darf: Waren Deine Symptome ähnlich, und hast Du diese mit Deiner Konzentrationsübung auf gerade noch hörbare Sprache beheben können?
 
Zuletzt bearbeitet:
An Vermutungen, warum es "Technokultur" gibt, mangelt es nicht, und dieser Bezug zur Stahlindustrie ist…nun ja: Würde diese Vermutung stimmen, müsste "Technokultur" ja in Gebieten ohne Stahlindustrie wahrnehmbar geringer verbreitet sein.
hat der Mensch nicht laaange bevor es Stahlindustrie gab, das rhythmische Trommeln erfunden, und dies (gemeinsam, repetitiv) nicht auch zur Erzeugung tranceartiger Zustände eingesetzt?
 
Anders gesagt: Ich wüßte aus dem Handgelenk nicht, wie ich "Natürlichkeit" überhaupt definieren sollte, bzw. wüßte ich gerne, was unter "Natürlichkeit" verstanden wird.

Abwesenheit von Artefakten, vielleicht. Unser Hirn ist trainiert, wahrzunehmen, wenn sich in der Savanne ein Grasbüschel unnatürlich bewegt - da schleicht der Löwe. Und da unser Wahrnehmungsapparat hauptsächlich damit beschäftigt ist, Informationen zu *verwerfen* (die 99 normalen Grasbüschel), bekommen wir das gar nicht mit. Dazu natürlich unsere musikalische Prägung über Jahrzehnte hinweg (inklusive der Änderungen, die diese mitmacht).

Ist damit nicht auch untrennbar die musikalisch-emotionale Intention der das Instrument spielenden Person verbunden, die sich in eben nicht zufälligen Abweichungen vom technisch möglichen Ideal niederschlägt

Ja. Aber wenn der Musiker weiß, wie er zB Traurigkeit hervorbringt, könnte er beim Spielen auch an Pizza oder Bratkartoffeln nachher? denken... sagt man, bin nicht ganz davon überzeugt.
 
Ich würde darunter den reinen Synthesizer verstehen wenn man in so läßt wie er ist ohne verfremden durch Effekte usw.
Das klingt dann oft direkter irgendwie und Effekte dünnen den Sound häufig eher aus.
 


Zurück
Oben