Additive Synthese - Neue Werkzeuge werden gesucht.

weinglas schrieb:
Mit dem hat man nicht nur die ersten 16 Harmonischen im direkten Zugriff. Sie sind auch voll CV-steuerbar! Ich gebe allerdings zu, dass ich meinen RS370 nur im polyphonen Modus und meistens mit Wavetables nutze. Daher habe ich diesen Expander auch nicht :roll:

Das Ding sieht spannend aus, gibt es irgendwo Sound-Beispiele, wo mal jemand das im additiven Sinne verwendet hat?
 
mc4 schrieb:
weinglas schrieb:
Mit dem hat man nicht nur die ersten 16 Harmonischen im direkten Zugriff. Sie sind auch voll CV-steuerbar! Ich gebe allerdings zu, dass ich meinen RS370 nur im polyphonen Modus und meistens mit Wavetables nutze. Daher habe ich diesen Expander auch nicht :roll:

Das Ding sieht spannend aus, gibt es irgendwo Sound-Beispiele, wo mal jemand das im additiven Sinne verwendet hat?

Die Kombi ist wohl viel zu selten dafür. Hier gibt es zwar ein paar Samples von "parallel worlds" (die unteren sind monophonen sind additive Synthese):

http://www.analoguesystems.co.uk/module ... MP3_v2.htm

Aber da wird es eher für Rhytmik verwendet.
 
mc4 schrieb:
Summa schrieb:
Nein, es gibt auch in div. Gruppen, Even, ODD, 5th, Dark, Bright, All etc.

Danke, die Gruppen klingen interessant, werde mal googeln, was die genau machen...


Wenn ich einen halbwegs benutzerfreundlichen rein additiven Synth entwerfen muesste, wuerde ich auf harmonische Huellkurven komplett verzichten. Ich wuerde aehnlich wie bei einem Wavetable Synth zwischen mehrere Spektren "morphen", aber statt der reinen Ueberblendung ein gezieltes Steuern der Spitzen (aka Formanten) des Spektrums ermoeglichen. Wobei das Programm die Spitzen des jeweiligen Spektrums selbsstaendig erkennen sollte und der User beim jeweiligen Breakpoint/Zielspektrum zu jedem Quellformanten einen Zielformanten zuorden und art der Transformation (z.B. reines ueberblenden, auf den neuen Punkt bewegen und dabei Bandbreite etc. des Formanten anpassen, etc.) angeben kann.
Gezeichnet wird immer der Lautstaerkenverlauf aller Harmonischen, das Muster/Grundklangfarbe des Spektrum wird durch einfaches ein-/ausschalten einzelner Harmonischer pro Breakpoint erreicht...
Dazu kommt Art und Modulationstyp der Rauheit, was praktische ein getrennte Steuerung und Modulation der Harmonischen ab einer bestimmte Frequenz (Hiss/Noise, Trennschaerfe ) bedeutet, weil die sich Normalerweise nicht mehr so genau identifizieren und damit nur schwer editieren lassen.
Nicht harmonische Spektren (fuer metallisch/glockiges) lassen sich z.B. durch Spreizung des Spektrum erreichen, das ist ein Punkt den ich schon bei div. additven Synths gesehen hab', aber noch nicht 100%ig weiss nach welchen Regeln das passiert...
Dazu kommt noch die Emulation genereller Filterfunktionen LP/BP/HP, damit sich bei Bedarf mehr oder weniger typische Synth Sounds realisieren lassen...

Nur so als Anregung....
 
Puuh, das müste man mal Punkt für Punkt durchgehen.. ;-)

rückwärts:
klassische Filter machen Sinn, wo additiv zu umständlich wird, nehme ich aber aus der Betrachtung erst mal raus.

Beschäftigen wir uns mit Spreizung:
Nicht harmonische Spektren (fuer metallisch/glockiges) lassen sich z.B. durch Spreizung des Spektrum erreichen

Wie klingt das, wenn man Teilbereiche einer Pitchreihe mit gleichen Abständen (equidistant) zusammendrückt oder auseinanderzieht?
Das muss ich mal ausprobieren, oder hat jemand so ein Beispiel da?
 
Hast du dir die Demo von Virsyn Cube schon angeschaut? Bei meinem letzten Auftrag fand ich die Technik sogar noch was brauchbarer, der Synth ist aber noch nicht released...
 
Das mit dem brauchbarer bezog sich auf 'nen anderen noch nicht veroeffentlichten Synth...
 
dowser schrieb:
Was haben Klänge eigentlich mit Farben gemein?
Frequenzen? In unterschiedlichen Bereichen, für beide haben Menschen unterschiedliche Sensoren: Ohr und Auge, plus Gehirn und Rest. Es gibt auch Menschen deren Gehirn etwas anders verkabelt ist und da können sich beide Frequenzsensoren vermischen, jemand kann dann Klänge als Farben empfinden. Synästhesie. http://de.wikipedia.org/wiki/Synästhesie
 
Zur Zeit versuche ich mit dem Axoloti einen additiven Synth zu basteln. Zwei Herausforderungen sehe ich vor der großen Parameteranzahl in der additiven Synthese:
- Wie lässt sich das Spektrum eines Klangs mit wenigen Parametern steuern? Im Sinne eines Makros.
- Wie lässt sich die zeitliche Veränderung eines Spektrums mit wenigen Parametern steuern?
Meine aktuelle Überlegung ist, so etwas ähnliches wie einen prozeduralen shader in 2D/3D auf ein Spektrum anzuwenden. Das Tonbeispiel verwendet eine Funktion um die Pegel der Teiltöne zu bestimmen:

Pegel[n] = |cos(a*n)|
wobei n die Nummer des Teiltones, und a∈ℝ der variable Parameter ist. Phasenlage und Frequenz der Teiltöne ist fix (Frequenz[n] = n*f(0)).
 

Anhänge

  • 200601_10tet05.mp3
    312,8 KB · Aufrufe: 28
+1 für parameterflut

vernünftig umzusetzen ist das eigentlich nur in kyma/composer (wo du es von beispielen abschreiben kannst) oder wenn du sehr gut bist, in C++.

denn meiner meinung nach wird man nicht umhin kommen jeden teilton einzeln zu steuern wenn man jedes teilton einzeln steuern will, wie auch.

die einzige denkbare abkürzung sind wavetable sets a la LPC, aber dazu muss man wohl mehr als nur studiert haben. und es braucht ein bischen latenz, jedenfalls bei der ersten geburt.

auch über generelle methoden zur vereinfachung, rasterung der modulationsgeschwindigkeit und sowas kann man zwar nachdenken, aber im endeffekt ist es immer und in den meisten umgebungen mit einem riesenaufwand verbunden, z.b. 1024 sonstwas zu steuern, in listen zu schreiben, zu berechnen oder was auch immer. :)

für dein soundbeispiel z.b. ("verschiedene aber statische filtereinstellungen für jedes ereignis") könntest du auf signal rate modulation verzichten, das wäre auch eine solche vereinfachung oder einschränkung. allerdings eine bei der sich dann die frage stellet, warum man es überhaupt additiv macht, denn solche "presets" ließen sich auch einfach sampeln.
 
achso makros. was sicher nett ist, ist dem user zu erlauben teiltöne zu gruppen zusammenzufassen. diese kann man dann entweder getrennt voneinder in der amplitude verändern, oder ihre form, also die summe aller amplituden, hoch und runter schieben.
 
gruppen wären halt eine fortsetzung des prinzips der addition von teiltönen. wenn er dabei erst mal nur an sich selbst denkt, dann hat das der user das ja noch halbwegs im griff. :)

die technik dazu, also ein simpler matrix mischer zusätzlich zum dem, der den grundklang macht, wirst du eh mehrfach haben wollen, z.b. für hochpass / tiefpass / bandlimiting oder einfach nur um "variations" von deinem soundpatch zu machen.

aber so wirklich eine best idea habe ich da genau wo wenig wie ich auch keine best practice kenne.

mir als max user stellen sich eh die haare zu bergen wenn ich mir vorstelle 500 oder 1000 teiltönen einzeln die amplitude zu modulieren und dann noch einen zusaätzlichen modulator dran zu hängen.

da gabs doch mal so einen TDM synthie around 2002 - kam der überhaupt jemals raus? - silber und grün war das ding und ich weiss nicht mehr vom wem. 500 teiltöne und der user konnte amplitude, panorama, envelope und pitch für jeden einzeln einstellen. wie hieß der?
 
- Wie lässt sich das Spektrum eines Klangs mit wenigen Parametern steuern? Im Sinne eines Makros.
Ich habe das folgende nie als Programm umgesetzt, sondern nur so als Grundidee beim additive-Sounds-Bauen benutzt. Ich bin von dem altbekannten Konzept ausgegangen, einige wenige Spektren zu haben, und dann Verlauf zwischen denen zu machen.

Abstand statischer Teiltöne zu einander (zB jeder dritte),
Abstand velocity-abhängiger Teiltöne zu einander - das bedeutet: es können andere Teiltöne auf velocity reagieren, als das Basisspektrum
Der Rolloff (wie im Beispiel von user 'leiter' in Jensens link)
Entsprechend ein Rolloff für die dynamischen Teiltöne


Dein Klangbeispiel ist übrigens großartig!
 
Pegel[n] = |cos(a*n)|
Abstand statischer Teiltöne zu einander (zB jeder dritte),
Beides sind Beispiele für ein Ausdünnen von Teiltönen, für das ich mal irgendwo den verallgemeinerten Begriff "Spaltklang" gelesen habe.
Am bekanntesten ist eine nichtadditive Herstellung durch Mischen von 2 Sägezahnschwingungen gleicher Frequenz und Amplitude und verschiedener Phasenlage. Ist eine der beiden invertiert, ergibt das eine Rechteckschwingung mit einer Pulsbreite je nach Phasenunterschied. Ist ein Spaltklang!
Die erwähnte 7-Parameter-Formel deckt im Grunde "alles" an Möglichkeiten für Spaltklänge ab.
 
Zuletzt bearbeitet:
Es gibt auch diese subtraktive Steuerung wie in Razor https://www.native-instruments.com/de/products/komplete/synths/razor/

Oder auch eine erweiterte Idee wie in AddStation (Visyn).

Erstere hat den Vorteil schnell bedient werden zu können und den Nachteil, dass man am Ende eben die Nachteile der subtraktiven Beschränktheit wieder rein bekommt.

Das hier https://www.sequencer.de/synthesize...e-werkzeuge-werden-gesucht.54919/post-2054984
ist super! @miku
Guter Weg.

Das Problem könnte und wird sein die ganzen eigentlich gleichen Frequenzen im Griff zu halten und man muss sie auch tunen können, sonst landet man beim Microwave/Wavetable-Problem - mit natürlicher Obertonreihe ist man nämlich nicht voll dabei und kann nur "gewöhnliche" Sachen machen.

Das war auch Thema im letzten SequencerTalk als Denkansatz.
Und es ist definitiv noch Arbeit zu leisten bei der Steuerung. Und auch bei dem woraus das basiert. Hier ja Sinus und eine Armada von OSCS mit Freq, Hüllkurven und so --
Die Vorgänger haben Grade und Ungrade, Bänder von 5-10 Nachbarkurven und so genommen.

Das alles könnte man mit einer Art Macroedit verfeinern.
Aber besser ist man macht eine Metaebene auf die grob hilft die Richtung zu treffen die dann mit 2-3 Knöpfen funktioniert "Berg-Tal - Glättung" Gruppenselektiv und mit Tuning separat.

Dann hast du ein bisschen einen Microfreak Effekt bei diesen Parametern und kannst dann fein nachstellen in den echten Edits.

Ggf. auch mit anderen Macros die quasi da einloggen wo du zuletzt geschraubt hast.
 
So funktioniert das leider nicht mit der Entwicklung von Musikinstrumenten, denn das wäre eine reine technische Implimentierung ohne jeglich Gedanken an UX.

ich versteh zwar nicht genau, was du sagen willst, aber lustigerweise denke ich auch so:

auch wenn ich nur MIR was baue, habe ich stets eine imaginäre gruppe von usern vor mir und/oder eine handvoll echter kollegen und betatester parat, die "mitbauen". das hilft sehr um sich nicht ganz so sehr zu verzetteln.

ein axoloti core kann ja nun nicht unbedingt so eingesetzt werden, dass man z.b. 1000 teiltöne individuell von außen steuert. insofern ist wohl sein wunsch nach "makros" schon genau das, nämlich der versuch von anfang an an schnittstellen - und ein user interface - zu denken.
 
Zuletzt bearbeitet:
Vielen Dank für eure Hinweise, bin noch dabei, das zu überblicken.

Mit meinen Experimenten bin ich soweit:
- Ein Spektralgenerator erzeugt mit einer Funktion Werte für die Teiltöne. In den Tonbeispielen aus Ressourcenmangel nur die ersten 12 Teiltöne. :sad:
Die aktuell verwendete Funktion reduziert auf weniger Teiltöne: Wert[n] = ( |cos(a*n)| + cos(a*n) ) / 2
Zur Zeit kann der Parameter a manuell gesteuert werden.

- Die Werte zweier Spektralgeneratoren werden zusammen gemischt (als Pegel für die Teiltöne) (für nuancierteren Charakter im Spektrum). Für jeden Teilton gibt es eine ADSR Hüllkurve. Die Werte eines dritten und vierten Spektralgenerators steuern die Attack-Zeit, und die Decay- und Release-Zeit. Jeder Teilton hat dadurch potentiell eine individuelle Hüllkurve. (ähnlich K5000)

Das Klangbeispiel ist ein sehr früher Test, und planloses drehen an der Reglern. ;-) Falls ihr euch wundert, dass die Sequenz seltsam klingt, das Projekt implementiert auch noch andere exotische Aspekte. Der Oszillator verwendet eine 10-tönig temperierte Stimmung (120 Cent pro Halbtonschritt -> 10 Töne / Oktave). Die Frequenzen mancher Teiltöne sind NICHT harmonische, also ganzzahlige Vielfache der Grundfrequenz. Dies bewirkt, dass die Intervalle konsonanter klingen. Mehr hier: https://www.springer.com/gp/book/9781852337971 oder hier: https://sethares.engr.wisc.edu/paperspdf/cmj98.pdf
 

Anhänge

  • 200601_10tet02.mp3
    3,9 MB · Aufrufe: 10
  • 200601_10tet04.mp3
    2,2 MB · Aufrufe: 11
Zuletzt bearbeitet:
Ich würde KI mal in den Raum werfen. An der Parameterflut sind übrigens schon andere gescheitert.
Als jemand, der KI kritisch bis ablehnend gegenübersteht eingedenk des naiven Glaubens an vermeintliche Kräfte, die auf schieren Missverständnissen ihrer Grundlagen beruhen, kann ich nicht an mich halten und erhebe Einspruch:

Künstliche Intelligenz ist nicht nötig, vorausgesetzt man sieht das mit der Additiven Synthese nicht ganz so streng. Es müssen nicht unbedingt reine, schnöde Sinuswellen sein, die man superponiert (summiert; warum man in der Wellenlehre von Superposition spricht, scheint mir historisch begründet, da von summierbaren diskreten Samplewerten bis vor einem Dreivierteljahrhundert noch gar keine Rede war).

Wenn man vom Parametertupel Volume+Frequenzfaktor+A+D+S(+T)+R pro Teilton abweicht, beziehungsweise um untenstehende Eigenschaften erweitert, verliert man selbstverständlich Kontrollierbarkeit, aber wenn es darum geht, mit möglichst wenig Parametern viel Klangtiefe (Obertöne) zu erzeugen, bei unterproportional steigendem Rechenaufwand, dann sieht man die dafür hinzugewonnene Serendipität beim Herumspielen mit all diesen Parametern eben positiv.

Das ist dann der gleiche Fluch und Segen der FM-Synthetiker: Man kann alles machen, man weiß nur nicht wie was genau. Und: Je mehr man an etwas arbeitet, umso mehr fällt man der eigenen Betriebstaubheit zum Opfer. Aber was will man machen? Kontrollieren kann man zwar am besten die reine additive Synthese, aber will man die Parameterflut durch Künstliche Intelligenz beherrschen (lassen), hat man die Unvorhersagbarkeit ja doch nur lediglich auf eine andere Ebene verlagert.

Was man so schön übereinander schichtet (das ist die eigentliche Übersetzung des Begriffs Superposition), kann ja jeweils im Prinzip alles sein, so lange dieses Alles sich rechnerisch nach der jeweiligen Teiltonfrequenz richtet. Statt Sinus etwa ein anderer primitiver Oszillator: Rechteck, Sägezahn, Dreieck, Rauschen. Theoretisch könnte man diese Elementarschwingungen ihrerseits schon mal mischen, und wenn man in die Mischung die weiteren aufgezählten Eigenschaften einbezieht, ist das dann quasi Superposition von n×f auf n×f, also ein Primenakkord, unisono oder wie auch immer, halt mehrere "Alles" gebunden an denselben Faktor n.

Zudem kann man die Oszillation mit Frequenz- und Amplitudenmodulation versehen. Die Modulationen können unterschiedliche Stärken und Hüllkurven haben, und die Modulationsfrequenz kann LFO-generiert und statisch sein, oder ein Produkt der Trägerfrequenz mit einem Faktor.

Waveshapen kann man so einen aufgebohrten Teilton zusätzlich. Also mehr oder weniger gezielt das Spektrum einer Welle, im Falle von Sinus eine einsame Spitze etwa, verbreitern oder verengen.

Und dass jeder dieser aufgebohrten Teiltöne, die ich übrigens einfach mal "Sympartial" getauft habe, seine eigene Hüllkurve haben sollte, dürfte klar sein, darauf gehe ich nicht weiter ein. Die Volumenverteilung der Teiltöne ist für den additiven Synthetiker auch ein alter Hut. Wohl mehr als Formantengestaltung und der Abkehr von der Äquidistanz, d.h. der harmonischen Obertonreihe, und der Interpolation von Eigenschaften der Teiltöne zwischen denen, die man eckdatenmäßig genau spezifiziert hat?

An der Stelle bin ich sogar dazu übergegangen, die Sympartials nicht mehr als Sträuße von Eigenschaften zu definieren, sondern die Eigenschaften einzeln an Teiltonnummern (mit oder ohne Cent-Abweichung von der generisch definierten Obertonreihe, die ihrerseits im Verlauf von der natürlichen Obertonreihe) zu binden. Ich sage also nicht, Sympartial bei 3f hat diese oder jene Eigenschaften, sondern ich sage, diese oder jene Eigenschaft bitte 3f zuordnen, oder alle n×f wo n % 6 = 2 ist etwa.
Teiltonnummern kriegen ggf. interpolierte Eigenschaften ihrer Nachbarn zugeordnet. Im Gegenteil muss ich schon sagen, #x hab keine FM, z.B., um sowas zu verhindern. Dan kann es schon mal vorkommen, dass sich das Ergebnis anhört wie ein Trabbi, weil sich die Sympartials irgendwie auf die Füße treten.
Determinismus und Serendipität ("zielorientiertes Stochern im Nebel und Stolpern über die ein oder andere Überraschung") ist mir wichtiger als Echtzeitmusik. Für die reicht mir ein Klavier und entsprechender Unterricht, damit ich auch sehe, was ich alles nicht kann.

Genau, das ist der Nachteil: Echtzeit ist bei so einer Flexibilität unmöglich. Echtzeit braucht auf festes Parameterbündel und darauf optimierte Schaltkreise/Algorithmen. Interpolation, verschachtelte Entscheidungsbäume, welche Frequenzen angesichts einer individuellen Note mit ihren Solleigenschaften wie stark sind und welche klanglichen Eigenschaften konkret ausprägen, das ist damit nicht in Echtzeit möglich, da geht der Workflow langsam und immer mit einer gewissen Vorfreude einher und die Sache setzt ergo eigene gewisse Enttäuschungstoleranz voraus.

EDIT: Bevor ich mir durch Lesen der ersten Replik ausgerechnet von @einseinsnull den anstehenden Arbeitstag evtl. versauen lasse ;-), liefer ich schon mal ein Beispiel in Form einer synthetischen Interpretation eines Barockwerks, Händels Passacaille. Ja, ist meine Site, aber keine Werbung, dafür mit der Instrumentspezifikation in Textform, die leider nicht alles tut, was hier behauptet wird, ein maßgeschneidertes Beispiel liefere ich bei Interesse nach. Nicht, dass mir unterstellt wird, ich würd hier nur Dinge aus dem blauen Dunst behaupten, blanke Theorie. Nein, alles hier Beschriebene wurde getestet, hat Hand und Fuß.
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: AAM

man kann da so viele deplazierte fremdworte reinpacken wie man will, aber auch davon hat ein axoloti nur 8 sample buffer für wavetables zur verfügung, und vor allem auch nur eine bestimmte auswahl von signal prozessen.

wie man an den soundbeispielen sehen kann sind 20 cosine generatoren schon vollkommen ausreichend um etwas interessantes zu machen.
 
Deplazierte Fremdwörter kannst du mir gerne einzeln unter die Nase reiben.

Aber vor allem hab ich auch auch gar nicht in Abrede gestellt, dass man aus wenig Flexibilität viel machen kann - das ist Kreativität. Sondern, dass man KI irgendwie sinnvoll gebrauchen kann, um die Parameterflut bei der additiven S. zu beherrschen, um damit interessante Sounds hervorzubringen. Allenfalls könnte man ein maschinelles neuronales Netz ein Konglomerat von Parametern einzustellen lehren, um einen gegebenen Sound nachzumachen. Das hat wiederum nichts mit Kreativität zu tun.

Künstliche Intelligenz macht nach, sie implementiert Vorstellungen einzelner in der Wirklichkeit aller. Sie begreift nicht. Aber gerade die additive Synthese ist wie geschaffen dafür, Klang als Struktur zu begreifen, statt wie bei der subtraktiven Synthese als Effektnetzwerk, also reines prozessorientiertes Wissen um konkrete Geräte anzuhäufen. Jeder Chirurg kann Anatomie, also zielgerichtet agieren. Subtraktive Synthese ginge in diesem Vergleich stattdessen mit dem Wissen einher, welcher Spezialisten was wann am OP-Tisch machen sollte, um welches Leiden am zu heilen. So würde auch KI "lernen" - ohne Sinn und Verstand.
 
…liefer ich schon mal ein Beispiel in Form einer synthetischen Interpretation eines Barockwerks, Händels Passacaille. Ja, ist meine Site, aber keine Werbung, dafür mit der Instrumentspezifikation in Textform, die leider nicht alles tut, was hier behauptet wird, ein maßgeschneidertes Beispiel liefere ich bei Interesse nach. Nicht, dass mir unterstellt wird, ich würd hier nur Dinge aus dem blauen Dunst behaupten, blanke Theorie. Nein, alles hier Beschriebene wurde getestet, hat Hand und Fuß.
Es mag nur meine eigene Wahrnehmung sein, aber in mir bauen Deine Texte eine Erwartungshaltung auf, die Deine Musikbeispiele nicht erfüllen.

Das klingt schlicht leblos. Und hörst Du die Notenfehler im Vergleich zum Original nicht?
 
Zur Zeit versuche ich mit dem Axoloti einen additiven Synth zu basteln.
(…)
In den Tonbeispielen aus Ressourcenmangel nur die ersten 12 Teiltöne.
(…)
Das Klangbeispiel ist ein sehr früher Test, und planloses drehen an der Reglern. ;-) Falls ihr euch wundert, dass die Sequenz seltsam klingt, das Projekt implementiert auch noch andere exotische Aspekte.
Ich kann mich dem Urteil von @fanwander nur anschließen! Gehe ich recht in der Annahme, dass Dir Carlos' "Beauty in the Beast" von 1986 bekannt ist?
 


Neueste Beiträge

News

Zurück
Oben