Additive Synthese - Neue Werkzeuge werden gesucht.

Dieses Thema im Forum "Musik" wurde erstellt von mc4, 11. März 2011.

  1. mc4

    mc4 -

    Abgespaltet aus dem Thread Klangfarbenkomposition, der ja eigentlich recht interessant angefangen hat,
    dann aber wieder von den üblichen destruktiven Trolls zerlegt wurde.
    Ich unterhalte mich hier gerne mit Leuten, auch und gerade solchen, die andere Auffassungen von Musik haben,
    die ewigen Nichtskönner und Besserwisser bleiben bitte draussen.

    Die additive Synthese erlaubt ein sehr feines Raster im Umgang mit Klangfarben, die Bewältigung der einzelnen
    Obertöne gestaltet sich aber sehr schwierig, da man für eine vollständige Resynthese quasi jede Sinuswelle
    automatisieren müsste.

    Hier sollen Gedanken ausgetauscht werden, welche Werkzeuge verwendet werden können, um die Klänge wie eine
    Skulptur zu formen. Als Beispiel aus der grafischen Welt hatte ich schon einmal das Sculpt-Programm ZBrush genannt.
    Spezielle Brushes ermöglichen dem Künstler Material und/oder Farben in verschiedenen Detailierungsstufen
    auf- oder abzutragen.

    Wie könnte ein vergleichbares Werkzeug in der Audiowelt aussehen?
     
  2. dowser

    dowser -

    Was haben Klänge eigentlich mit Farben gemein?
     
  3. mc4

    mc4 -

    Sie sind das Grundmaterial.
     
  4. kl~ak

    kl~ak -



    tja und nun bin ich doch dabei :mrgreen:


    [​IMG]

    meinst du soetwas ?
     
  5. dowser

    dowser -

    ..das beantwortet meine Frage aber nicht - was ist Klangfarbe, worüber reden wir hier?
     
  6. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...die Klangsynthese ist mit der Farbsynthese gleichzusetzen, nur das sie in einem anderen Frequenzspektrum "stattfindet".
    Wenn also Jemand von einer "Klangfarbe" spricht meint er die Zusammensetzung eines einzelnen Klanges aus diversen/unzähligen Sinuswellen(und deren Lautstärkeverlauf).

    Das macht eine "Klangfarbe" aus.

    Genauso verhält es sich mit optischen Farben, sie finden nur in einem anderen Frequenzspektrum(im sichtbaren Bereich) statt.
    Additive, subtraktive Synthese gibt es dort genauso wie auch diverse andere Synthesen wie z.B. Frequenzmodulation etc. möglich sind um eine andere "Farbe" zu gestalten.

    Man muß sich einfach von den hörbaren Frequenzen lösen:
    Wo es eine Welle gibt gibt es auch die beschriebenen Vorkomnisse bereits der Natur oder als Synthesemöglichkeiten...
     
  7. dowser

    dowser -

    dann ist also "sehen" und "hören" - "das Gleiche" oder doch "dasselbe"?
     
  8. kl~ak

    kl~ak -

    natürlich ! du siehst ja nicht das objekt und deren farbe, sondern nur die reflektierten wellen. genauso wie du nicht die geige hörst sondern nur die übertragene welle.

    anderes organ = andere empfindung ___ klar jetzt :roll:


    also ist soetwas wie der shaper gemeint oder über was für tools willst du reden ?
     
  9. mc4

    mc4 -

    @jaash
    Was macht der wavefolder?
     
  10. dowser

    dowser -

    mhh, nicht ganz --- wie kommen denn die Wellen in mich herein? Woher weiß ich denn, das das die Klangfarbe "SOUNDSO" ist und nicht "dieseda"?
     
  11. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...das gleiche, und nicht dasselbe.

    Ohr und Auge sind auch sehr unterschiedlich entwickelt.
    Wobei das Ohr "frequenzmäßig" und "anpassungsmäßig" die "Nase"(!?) vorn hat.

    Das Frequenzband was das Ohr hören kann ist sehr viel breiter als das Frequenzband was das Auge sehen kann.
    Und stell Dir mal vor Du bist in einem dunklen Zimmer, Du siehst alles verrauscht.
    Geh mal in ein leises Zimmer, und siehe da...das Zimmer rauscht nicht!?

    Ebenso der Vergleich vom ganz Dunkelen ins extrem Helle zu gehen.
    Das Ohr kann sich schneller frequenmäßig anpassen.

    Und so weiter, und so fort!...
     
  12. gringo

    gringo aktiviert

    'Ne Tüte voller Frequenzen. Packt man auf den Küchentisch und stellt die Zutaten zusammen.
    Dann kocht man. Nicht jeder bekommt dabei ein leckeres Gericht zusammen.

    Wenn es nicht schmeckt, leckt man sich die Finger und sagt:
    Ich bin ein experimenteller Underground-Pointillist aus der Zukunft.
     
  13. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...beim Hören, wird die Luft zu Schwingungen angeregt, die widerrum dein Trommelfell in Schwingungen versetzt.
    ...beim Sehen, ist es schon schwieriger, weil es da eine klitzekleine physikalische Ungeklärtheit gibt, die sich "Welle-Teilchen-Dualismus" nennt.
    Die Idee ist das sich ein Masse-Teilchen, welches wir mal "Lichtquant" nennen auf deiner Netzhaut wiederfindet und dort eine elektrische Nervenreaktion auslöst.

    Nur können mit unserem physikalischen Modell Masseteilchen sich natürlich nicht wie eine Welle verhalten, weil sie ja "ausschwingen" würden aufgrund ihrer Masse.
    Und leider gibt es für das Licht beide Beweise:::
    - Der Beweis einer Welle, durch Beugung am Lichtspalt.
    - Der Beweis einer Masse durch den sog. Goldfolienversuch, bei dem Licht-Quanten andere Teilchen aus der Folie lösen.

    Ein interessantes Buch zu den Themen ist "Auf der Suche nach Schrödingers Katze" von John Gribbin...
     
  14. dowser

    dowser -

    schön und gut, was passiert also im Ohr oder im Auge? Wie wird es umgesetzt?
     
  15. kl~ak

    kl~ak -

    nichlineare synthese nennt sich das _ das hörerlebnis sagt einem dann doch mehr. einfach gesagt ist es ein wavemultiplier bzw waveshaper, der obertöne hinzufügt, die von der eingangswelle abhängig sind _ ab einem bestimmten wert wird die wellen form verbogen bzw gespiegelt ....

    mann kann aus einer sinus nahe zu jede wellenform machen und die (grund)tonhöhe bleibt erhalten aber es kommen weitere hochfrequente unterschwingungen hinzu

    nicht schön azuhören aber zum verständnis...



     
  16. Xpander-Kumpel

    Xpander-Kumpel engagiert


    Ohr:

    Klangerzeugung->Luft gerät in Schwingung->Trommelfel schwingt->Hammer schwingt->Amboß schwingt->Steigbügel schwingt->Ovales Fenster schwingt->Flüssigkeit in der Höhrschnecke schwingt->Haarzellen geraten in der Höhrschnecke(Cochlear)in Bewegung und sondern durch die Bewegung Elektrolyt ab, das widerrum einen elektrischen Impuls auf den Hörnerv gibt, der widerrum im Gehirn als "Tonereignis" erkannt wird. Also ein rein objektiver, mechanisch, elektrischer Prozess.

    Auge:

    Keine Ahnung!
     
  17. kl~ak

    kl~ak -

    @xpanderkumpel

    ich glaub da hält dich jemand zum narren ....
     
  18. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...na dann weiß er jetzt immerhin zum ersten mal wie sein Scheiß Gehör funktioniert!!! :fawk:
     
  19. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...um nochmal zum Thema zu kommen, ist der Kawai K5000 hier in der Diskussion schon out?
     
  20. dowser

    dowser -

    also letztlich bleiben wir bei einem "elektr. Impuls " hängen - im Ohr wie im Auge...was wird denn dann aus dem elekt. Impuls am Ende deiner Beschreibung (Ohr) ? Wie wird es zum Ton oder zur Farbe?
     
  21. Moogulator

    Moogulator Admin

    War nicht das Thema Spectralzerlegung in dem besagten Thread dem tonalen Obertonreichtum entgegengestellt worden?
    Was darüber hinaus wäre denn halbwegs steuerbar und interessant genug und auch praktikabel genug?

    Du hast ja schon selbst erkannt, bei sagen wir mal 4000 Obertonkanälen hättest du ne Menge unter Kontrolle zu halten und das Ergebnis ist selten 1/1000 so spektulär wie es sich in Worten anhört. HAtte drüben im Thread ja schon von Macros gesprochen. Diese könnte man zumindest verwenden. Das bisher wirkungsvollste ist das vom K5000 bekannte Formantfilter oder die Morphmethode beim Virsyn Cube. Aber nun, schnell gehen muss nicht alles. Alternativ kennst du ggf. sicher diese Zeichenmethode in der ein Bild quasi als Spectrogramm verwendet werden kann. Zuerst hat das Metasynth gemacht, später gabs natürlich auch Nachbastler. Hier gibts auch Methoden mit Farben und so weiter und die Pinselformen helfen das in Kontrolle zu bringen. Das ist schon effektiver, da es auch durch die Auftragung wieder ein wenig Partitur-Style ist.

    Trackbasiert oder Instrumentbasiert ist hier also die Frage. Instrumentbasiert ist dabei die erstere Methode, die untere ist trackbasiert und hat eigentlich zum "Synthesizer" einen Abstand gewonnen. Ggf. ist es auch interessant die Trennung Elektronik vs. Synthesizer zu besprechen. Dazu noch algorithmische Beschreibung vs. klassische Partitur. Ein Autoplayer "Noodle" in einem Modularsystem kann so gesehen ein Teil oder vollständig so eine Umsetzung sein, jedoch vielleicht mit Systemen wie Kyma (so wie das konzipiert ist mit Timeline und Ausführzeitleisten) in Teilen auch anders konstruiert. Anderes Beispiel: Audiomulch 2.X …
    Aber es geht mir nicht um die Geräte und Software sondern die Methode. Wer jedoch SPIELEN will in Echtzeit, der wird immer einen großen Teil instrumentbasiert machen.

    Pulse in gewisse Dichte zu bringen, Cloud-/Granularsynthese (nicht diesen Samplekram sondern die richtige Granularsynthese) wäre auch ein Beispiel, wie manche Dinge eben nur schwer "per Instrument" zu spielen wären.
     
  22. kl~ak

    kl~ak -

    also ich habe das erste mal mit dir zu tun und schon stehst du auf meiner ignoreliste .... so schnell gehts _ viel spass noch
     
  23. Xpander-Kumpel

    Xpander-Kumpel engagiert

    Das macht dein Hirn und ist davon abhängig wo der Strom im Hirn ankommt.
    Dein Hirn ist in z.B. Sehbereiche, Hörbereiche, ...etc. aufgeteilt.
    Genau die Punkte wo der Sehnerv, der Hörnerv, etc. in das Stammhirn andocken.
    Wenn man das Hirn genau dort elektrisch stimuliert hast Du einen Hör-, oder Seh-Eindruck.
    Genauso funktionieren künstliche Stammhirnimplantate, die z.B. Höreindrücke ermöglichen.
     
  24. dowser

    dowser -


    schade, ich hätte auch gerne noch andere Meinungen gehört.
     
  25. dowser

    dowser -

    gibt es da Quellen, wo und wie das Gehirn das macht? sorry die einfache Frage?!
     
  26. mc4

    mc4 -

    Dann mach doch einen neuen Thread auf, das Thema ist ja nicht uninteressant, aber in ganzer Ausbreitung hier etwas OFF-Topic.
     
  27. mc4

    mc4 -

    Ja, diese Spectrogramm-Darstellung kommt der Idee von Material und Werkzeug ähnlich wie bei einem Bildhauer schon entgegen.
    Interessant ist deine Aussage, dass feinste Detailarbeiten womöglich gar nicht gehört werden. Ist das wirklich so?
    Das geht ja dann auch in die Rubrik: Können Synthesizer noch überraschen?
     
  28. tom f

    tom f Moderator

    auch wenn es denn wohl ziemlich ot ist und ich das dann nicht weiter hier diskutieren will um nicht den thread komplett zu verwässern, aber:

    ich finde die hier erwähnte "gleichheit" von "hören" und "sehen" schon ziemlich falsch dargestellt...

    denn rein physikalisch haben doch licht ud schall nichts gemeinsam bis auf die tatsache dass man sie beide mittels parameter wir frequenz und amplituide beschreibt

    licht = elektromagnetismus - benötigt kein medium - handelt sich um TRANSVERSALWELLEN (lichtgeschwindigkeit)
    schall = benötigt ein medium (flüssig oder gasförmig) es handelt sich um LONGITUDINALWELLEN (sehr sehr viel langsamer also obiges, geschwindigkeit vom medium abhängig UND verliert sehr schnell energie durch reibung im medium)

    jetzt mal ganz unabhängog von der art wie das ganze dann vom menschen wahrgenommen oder das wahrgenommene verarbeitet wird

    mfg
     
  29. Summa

    Summa wibbly wobbly timey wimey

    Das ist doch das Wichtigste, ich denke in beiden Faellen spielt die Mustererkennung eine wichtige Rolle.
     
  30. Xpander-Kumpel

    Xpander-Kumpel engagiert

    ...genau, gemeinhin auch als "Welle" beschrieben, genau wie im Absatz erwähnt...


    Bin raus...
     

Diese Seite empfehlen