Beste Additive Synthesizer

memristor schrieb:
Die Obertonfrequenzen sind dabei immer harmonisch und statisch, wenn Du dagegen zB ne Klaviersaite anschlägst, sind alle Obertöne leicht inharmonisch
und dazu gibt es lauter feine und komplexe Schwebungen der ganzen Obertöne - das kann man mit Wavetables so nicht erzeugen.

Treffer, versenkt :)

Und die hören auch nicht auf mit ihrem dynamischen Treiben im zeitlichen Verlauf.

Daher sind die additiven Synthesizer immer abhängig von der Modulation Section. Ist die mit einer Art Random Function ausgestattet, klappt das schon besser. Alles andere ist Orgel im weitesten Sinne. Sollte man aber auch nicht unterschätzen, mit einem Satz Drawbars lässt sich bei sorgsamem Umgang eine Menge anstellen. Die Interaktion macht dabei einen eigenen Job, muss man nichts mehr künstlich anschubsen.

Du könntest mal ein bisschen nach Novachord umschauen, falls nicht bereits geschehen. :)
 
K5000 :supi:

Ist das Modul auch klassisch Additive?
Harmonic-Oscillator-sml.jpg


http://www.schneidersladen.de/de/verbos-harmonic-oscillator.html
 
Cyclotron schrieb:
Habe frisch den oben genannten Athlon von 2009 geschenkt bekommen, da der Vorgänger nach 10 Jahren dahingeschieden ist. Erzeugt wurden diese Wavetables mit Audio-Term (genauer gesagt, mit der XFORM Funktion). Abgespielt werden die dann mit dem Wavetable - Oszillator vom VAZ Modular (bei dem die "Crossfade" Option aktiviert sein muss, sonst geht es aufgrund der Slotgröße nicht).

Als Soundquelle hab ich alles mögliche in die Resynthese gestopft, von Sprache bis hin zu einminütigen Atmosounds.

Oder Musik. Die folgende Wavetable war eigentlich mal ein 20 Sekunden - Ausschnitt aus einem meiner Tracks. Habe die spektralen Peaks etwas hochgezogen, um es etwas gläsener zu bekommen:


play:


Wie gesagt, das ist ein einzelner OSC mit LFO auf der Waveposition.

Das ist ja ein Emulator der AudioTerm und da damit das proframm nur mit der Original Geschwindigkeit des Emulierten systems arbeitet was vllt 3-8mhz sein dürften würde ich mal den autor fragen wie man einstellen kann das man da die bremse/throttle rausmacht , wie bei emulatoren von spielekonsolen wenn die bremse draußen ist wird das spiel mit voller leistung des rechners berechnet und dann hat mit so 1000x geschwindigkeit
 
Klaus P Rausch schrieb:
memristor schrieb:
Die Obertonfrequenzen sind dabei immer harmonisch und statisch, wenn Du dagegen zB ne Klaviersaite anschlägst, sind alle Obertöne leicht inharmonisch
und dazu gibt es lauter feine und komplexe Schwebungen der ganzen Obertöne - das kann man mit Wavetables so nicht erzeugen.

Treffer, versenkt :)

Und die hören auch nicht auf mit ihrem dynamischen Treiben im zeitlichen Verlauf.

Daher sind die additiven Synthesizer immer abhängig von der Modulation Section. Ist die mit einer Art Random Function ausgestattet, klappt das schon besser. Alles andere ist Orgel im weitesten Sinne. Sollte man aber auch nicht unterschätzen, mit einem Satz Drawbars lässt sich bei sorgsamem Umgang eine Menge anstellen. Die Interaktion macht dabei einen eigenen Job, muss man nichts mehr künstlich anschubsen.

Du könntest mal ein bisschen nach Novachord umschauen, falls nicht bereits geschehen. :)


sieht man schon bei alten kirchenorgeln die meist 20x oder mehr register haben , und das sind zwar dann keine perfekten sinus formen aber klangcharacter lässt sich sehr verändern
 
Cyclotron schrieb:
Das sind Wavetables mit 33 Slots (a 2x 131072 Samples). Die haben jeweils 65536 Partials pro Stereokanal. Jeder Partialton hat eine fixe Phase. Die Phasen sind so berechnet, dass es keine Wiederholungen gibt - kontrollierter Zufall sozuagen. Besser wäre, die ans Material anzupassen und damit den RMS zu reduzieren, aber so weit bin ich noch nicht. Ist alles ganz am Anfang.

Die Audiobeispiele zeigen auch nur einen einzelnen Oszillator, keine FX oder Unisonogeschichten. Das ist zwar in gewissem Sinne unflexibel, aber in Echtzeit geht das nun mal noch nicht, da geht die CPU baden. Diese Methode hier kostet mich beim Abspielen 9% CPU - mit allen 10 Fingern und viel Release. Und der Editor berechnet die Wavetable in 500 ms. Sind immerhin 32MB / 1,6 Minuten Audio, wobei das über eine Multithread FFT läuft, die mit jeder Transformation zwei Stereokanäle verarbeitet.
Das würde ich jetzt nicht mehr unbedingt als Wavetable bezeichen sondern eher als additiv,
auf die Art kann man ja erstmal jeden Klang in der Länge des Wavetables synthetisieren.
Die Wavetable spielt dann auch mit sehr tiefer Pitch unabhängig von der Pitch des Sounds wenn ich das richtig verstehe?
 
dstyl schrieb:
Das ist ja ein Emulator der AudioTerm und da damit das proframm nur mit der Original Geschwindigkeit des Emulierten systems arbeitet was vllt 3-8mhz sein dürften würde ich mal den autor fragen wie man einstellen kann das man da die bremse/throttle rausmacht , wie bei emulatoren von spielekonsolen wenn die bremse draußen ist wird das spiel mit voller leistung des rechners berechnet und dann hat mit so 1000x geschwindigkeit

Audio-Term ist kein Emulator, es ist eine ganz normale Windowsanwendung und die läuft mit voller Geschwindigkeit. Im Falle von XFORM erfolgt die Klangberechnung sogar auf mehreren Kernen, abhängig von der Ausstattung des genutzen Rechners und der Datenmenge.

memristor schrieb:
Das würde ich jetzt nicht mehr unbedingt als Wavetable bezeichen sondern eher als additiv,
auf die Art kann man ja erstmal jeden Klang in der Länge des Wavetables synthetisieren.
Die Wavetable spielt dann auch mit sehr tiefer Pitch unabhängig von der Pitch des Sounds wenn ich das richtig verstehe?

Das Prinzip ist aber dasselbe, die Slots sind einfach nur größer. Bei der Länge wird natürlich die wahrgenommene Tonhöhe nicht mehr durch die Länge der Grundschwingung festgelegt, da die ja im Prinzip bei ~0,34 Hz liegt. Das ist eigentlich dazu gedacht, Soundscapes und Pads zu synthetisieren. Je länger und komplexer der Klang, desto lohnender. Hier funktionieren genau die Sounds gut, die bei normalen Wavetables gar nicht gut gehen. Man kann aber auch recht kurze Klänge drastisch in die Länge ziehen bzw. verkürzen. Das Ergebnis ist nicht so detailliert wie z.Bsp. bei Paulstretch wegen der begrenzten Slotzahl, dafür gehen solche Änderungen später beim Spielen auch in Echtzeit.
 
Wie immer steht und fällt daß alles mit der Bedienung, 10.000 Parameter mit denen ich in ner halben Stunde das größte mögliche Chaos anrichten kann will ich nicht.
Ohne schlaue Makros geht da gar nix. :kaffee:
Und wenn ich auf nem anderen Weg schneller zum Ziel komme dann nehm ich den.

Ich bin auch zu faul mir wavetables selbst zusammen zu friemeln, lieber irgend nen kack in die resynthese stecken :kaffee:
Waldorf Nave halte ich da für einen bedientechnischen Quantensprung was wavetables betrifft :kaffee:
Anstatt mir auf anderem weg wavetables zu erstellen flieg ich auch lieber auf grains durch nen sample.
Das Leben kann so einfach sein. :kaffee:
 
robotwalla schrieb:
Wie immer steht und fällt daß alles mit der Bedienung, 10.000 Parameter mit denen ich in ner halben Stunde das größte mögliche Chaos anrichten kann will ich nicht.
Ohne schlaue Makros geht da gar nix. :kaffee:
Und wenn ich auf nem anderen Weg schneller zum Ziel komme dann nehm ich den.

Ich bin auch zu faul mir wavetables selbst zusammen zu friemeln, lieber irgend nen kack in die resynthese stecken :kaffee:
Waldorf Nave halte ich da für einen bedientechnischen Quantensprung was wavetables betrifft :kaffee:
Anstatt mir auf anderem weg wavetables zu erstellen flieg ich auch lieber auf grains durch nen sample.
Das Leben kann so einfach sein. :kaffee:

Ich denke das die meisten leute in dieser hinsicht sehr verweichlicht sind und sich nicht die mühe machen sich mal ein paar stunden an nen synth zu setzen , ich kenne leute die selbst den venom für zu schwierig halten diese sollten sich einfach einen vst sampler holen a la nexus und gut ist. Ich verstehe nicht wie man den sinn von synthesizer so ausblenden kann, es geht darum dicke sounds zu machen die niemand änderes hat für den rest kauft man sich ein keyboard oder was auch immer. Aber an makros mangelt es bei additvien wirklich nicht probier mal das zynnsub fx ist wirklich sehr gut zu bedienen auch mit sytrus und harmor haben die wenigsten probleme.
 
dstyl schrieb:
Ich verstehe nicht wie man den sinn von synthesizer so ausblenden kann, es geht darum dicke sounds zu machen die niemand änderes hat für den rest kauft man sich ein keyboard oder was auch immer.
Das wäre schön aber so ticken die Leute nicht: jeder schielt nach dem, was der andere gerade hat und macht. Darum klingt auch alles ziemlich gleich. Grundsätzlich würde eine handvoll Standardsounds ausreichen und noch einige zur pers. Belustigung.
 
intercorni schrieb:
dstyl schrieb:
Ich verstehe nicht wie man den sinn von synthesizer so ausblenden kann, es geht darum dicke sounds zu machen die niemand änderes hat für den rest kauft man sich ein keyboard oder was auch immer.
Das wäre schön aber so ticken die Leute nicht: jeder schielt nach dem, was der andere gerade hat und macht. Darum klingt auch alles ziemlich gleich. Grundsätzlich würde eine handvoll Standardsounds ausreichen und noch einige zur pers. Belustigung.
Jeder bestimmt nicht. Insbesondere auch schon mal gar nicht die Leute die die Sounds machen die mit Produkten oder kommerziell erhältlich sind.
Da reden natürlich die Marketing und "Produkt"typen rein, und wollen dann noch 10 Dubstep Woomples.
Für viele Leute ist Soundschrauben und dabei mit Links oder Rechts rumdudeln schon die Erfüllung, der Grund warum man das Zeug hat.

Aber es stimmt daß es heute eine Masse an "Konsumeristen" gibt die im Prinzip Luftguitarre spielen wollen und dabei so klingen wie X.
Und das mit ihrem Selbstportrait in die Welt bringen wollen.
Und zwar durchaus auch Leute die professionell sein wollen oder qua Fakt auch sind.
 
Man muss ja erst mal klarstellen das dies an sich keine schlechte sache ist, es ermöglicht leuten ihre kreativität ohne viel einarbeitung umzusetzen. Aber wir sind hier in einem Synthesizer forum um mehr über diese tollen instrumente zu wissen und zu lernen. Nun halten ich es persönlich für unpassend in einem thread zu posten in dem es um gute und schlechte additive synthese geht die ein ziemlich weites feld ist einfach zu posten bin zu faul dafür :D

Und wie sagt der Koch je mehr gewürze desto mehr hab ich spaß
Für mich persönlich zählt das auch für synths

Aber ich muss euch beiden recht geben das monokultur in sachen sound herscht
aber warum das mit synthesizern verwechselt wird mmmh ???
 
Ich hab' die Erfahrung gemacht dass Synthese austauschbar ist, dass man mit vielen Methoden zum selben Ziel kommen kann, so fern man nur die Wahrnehmung und nicht 1:1 die Wellenform kopieren will. Dass ein FM-Synth schon mal nach Ringmod oder Wavetablesynthese klingen kann und man z.B. aus manchen Analogen auch tolles FMiges rauskitzeln kann. Bestimmte Sounds sind mit manchen Synthese-Formen einfach nur besser, schneller und mit weniger Aufwand zu erreichen.
 
Ja das stimmt legidlich der weg ist anders, und der eine sound ist auf zb analog synths schneller zu machen und umgekehrt aber jede synthese ermöglicht auch sehr spezifische Sounds die ich nur dort bekomme.
Ich frag mich aber was das mit ,,Synths,, ohne einstellbare Parameter zu tun hat?
Falls das gemeint war
 
Bezog sich auf die Gewürze, im Prinzip lassen sich die meisten Sounds auf Tonhöhe, Formanten und ein paar Texturen zerlegen und entsprechend nachbauen, eigentlich brauch man kein Gewürzkasten, macht die Sache aber manchmal was einfacher.
 
Cyclotron schrieb:
Hier noch zwei Produktvideos zum oben von mir genannten Acxel:

http://youtu.be/_Mhbf2EWKo0
http://youtu.be/b9nKykmMi-k

Ist leider auch wieder schnell in der Versenkung verschwunden, war auch sauteuer.
Ist das noch ein Bestandteil der additiven Synthese, was er im ersten Video ab 2:05Min. macht?
Das erinnert mich eher schon an RT Timestretching/Granular, als an additive Synthese...
Wird das über die Envelopes der Harmonic Generators gesteuert....wenn ja "wie"?


Gruss
 
7f_ff schrieb:
Ist das noch ein Bestandteil der additiven Synthese, was er im ersten Video ab 2:05Min. macht?
Das erinnert mich eher schon an RT Timestretching/Granular, als an additive Synthese...
Wird das über die Envelopes der Harmonic Generators gesteuert....wenn ja "wie"?


Gruss

Ja das ist additiv gemacht, mehr als das und eine Prise FM ist da nicht drin. Später im Video malt er in diversen resynthetisierten Sounds additiv herum bzw. nutzt das -/+ Makro, um "per Hand" erstellte Sounds zu strecken.
 
Cyclotron schrieb:
Ja das ist additiv gemacht, mehr als das und eine Prise FM ist da nicht drin. Später im Video malt er in diversen resynthetisierten Sounds additiv herum bzw. nutzt das -/+ Makro, um "per Hand" erstellte Sounds zu strecken.
Ist dir das "wie" bekannt, also wie das in mit der additiven Synthese (hier bspw. im Acxel) gemacht/umgesetzt wird?


Gruss
 
Nein. Ich weiß auch nicht mehr darüber, als Google und Nil Parent verraten. Zumindest bei der Analyse von Samples sind schon ca. 30 Parameter zu setzen (so war es zumindest beim zwischenzeitlich aufgegebenen Acxel II), um ein möglichst optimales Ergebnis zu erhalten. Daraus könnte man folgern, dass das verarbeiten von Samples technisch nicht mit dem Herumschieben/Interpolieren von ein paar trivialen Phasen- und Magnitudensnapshots abgetan ist.
 
Es gibt verschiedene Ansätze, der eine, etwas aufwändigere ist, aus dem Sample die Teiltöne als Tracks zu extrahieren,
das hat ein paar Fallstricke weil nicht in jedem Audiomaterial in jedem Fall durchgehende Tracks für die Teiltöne gefunden werden können
und die Anzahl der Teiltöne nicht gleich bleiben muss.

Der andere Ansatz ist einfach das per FFT zu wandeln, und dann die Phasen beim abspielen neu zu setzen und
die Magnituden zu shiften. Das geht dann mit jedem Material, hat aber den Nachteil daß die Wandlung Latenz durch das FFT hat.

Dann gibts noch einen hybriden Ansatz, bei dem man in nem ersten Durchgang zB mit einem großen FFT die Pitch extrahiert,
und in einem weiteren Durchgang das Audio pitchabhängig auf ein kleineres FFT mapt (zB zb mit 64 bins),
und daraus die entsprechenden Teiltöne ableitet, ohne Tracks zu suchen.

Alle drei Ansätze sind erst dann interessant wenn man die Formanten extrahiert und neu setzt,
idealerweise durch eine gehörgerechte Filterung so daß Partials nicht als Formanten erscheinen.
Es geht aber auch ein einfaches interpoliertes Verbinden der Peaks als spektrale Hüllkurve.

Alle Ansätze haben aber das Problem daß wenn man Zeit und Pitch unabhängig voneinander manipuliert,
Transienten nicht mehr in Phase sind, was je nach dem mehr oder weniger verwaschen klingen kann.

Dazu gibt es verschiedene Ansätze die aber darauf rauslaufen die Phasen an einem Punkt willkürlich zu setzen,
eine ideale Lösung gibt es da grundsätzlich nicht.
 
Summa schrieb:
Bezog sich auf die Gewürze, im Prinzip lassen sich die meisten Sounds auf Tonhöhe, Formanten und ein paar Texturen zerlegen und entsprechend nachbauen, eigentlich brauch man kein Gewürzkasten, macht die Sache aber manchmal was einfacher.
Pfeffer und Salz ist die Kunst :D oder OSC und Filter ja wie beim essen geschmacksache aber auch hier gilt echter genieser kocht selbst der rest kann MC

Ich denke bei additvier synthese hat man viele gewürze

wird ja schon ne richtige weisheiten sammlung :idea:
 
Doch alle 3 methoden , wobei ich aus erfahrung sagen kann das diese eigentlich für bestimmte anwendungen nicht nutzbar sind zb Acapella aus einem lied extrahieren , die DIY methoden hat da weit bessere ergebnise als irgendwelche hitec algorythmen und da steckt man nur nen stecker halb in die clince :D würde mich mal interessieren ob das auch ein formant filter ist , und warum immer nur die stimme unberürht bleibt
 
memristor schrieb:
Es gibt verschiedene Ansätze, der eine, etwas aufwändigere ist, aus dem Sample die Teiltöne als Tracks zu extrahieren,
das hat ein paar Fallstricke weil nicht in jedem Audiomaterial in jedem Fall durchgehende Tracks für die Teiltöne gefunden werden können
und die Anzahl der Teiltöne nicht gleich bleiben muss.

Der andere Ansatz ist einfach das per FFT zu wandeln, und dann die Phasen beim abspielen neu zu setzen und
die Magnituden zu shiften. Das geht dann mit jedem Material, hat aber den Nachteil daß die Wandlung Latenz durch das FFT hat.

Dann gibts noch einen hybriden Ansatz, bei dem man in nem ersten Durchgang zB mit einem großen FFT die Pitch extrahiert,
und in einem weiteren Durchgang das Audio pitchabhängig auf ein kleineres FFT mapt (zB zb mit 64 bins),
und daraus die entsprechenden Teiltöne ableitet, ohne Tracks zu suchen.

Alle drei Ansätze sind erst dann interessant wenn man die Formanten extrahiert und neu setzt,
idealerweise durch eine gehörgerechte Filterung so daß Partials nicht als Formanten erscheinen.
Es geht aber auch ein einfaches interpoliertes Verbinden der Peaks als spektrale Hüllkurve.

Alle Ansätze haben aber das Problem daß wenn man Zeit und Pitch unabhängig voneinander manipuliert,
Transienten nicht mehr in Phase sind, was je nach dem mehr oder weniger verwaschen klingen kann.

Dazu gibt es verschiedene Ansätze die aber darauf rauslaufen die Phasen an einem Punkt willkürlich zu setzen,
eine ideale Lösung gibt es da grundsätzlich nicht.

Gibt es zu den genannten Methoden eigentlich irgendwo eine halbwegs anschauliche Literatur, die ich auch als - sagen wir mal - mathematischer Idiot verstehe? Beispielsweise, wie man Pitch Envelopes trackt oder Formanten identifiziert? Was ich bislang gefunden habe lässt mich meist sparsam gucken. Meine Mathevorlesungen sind nun schon 15 oder 20 Jahre her und waren für mich damals schon hartes, trockenes oder schimmeliges Brot. Eine Ausnahme dagegen war z.Bsp. das FFT- und Phasenvocoder - Tutorial von Herrn Bernsee samt grundlegender Beispielcodes - sowas in der Art wäre toll.
 
Ich glaube nicht, ich hab das alles nach und nach gelernt indem ich mich wirklich endlos durch Papers gequält hatte,
auch ohne jedes Detail zu verstehen, und dann durch Erfahrung, man verstehts vielleicht erst wenn man viel damit rumspielt.

Ich überleg schon länger selbst n kleines Buch/Fiebel "DSP für Musiker" zu schreiben.
Vieles ist nämlich in der Praxis doch leicht(er) wenns klick gemacht hat, und wenn man mal die theoretische Ameisenschrift weg lässt.
Irgendwie werden nirgends die Basics erklärt.


Was aber vielleicht hilft und wohl so gedacht ist, ist das Buch von Miller Puckette, hab grad kein Link, das heißt glaub nur "Book",
der hatte PD (und davor das früher MAX) entwickelt, in dem Buch sind auch Beispiele in PD
(was ich aber selbst nie benutz habe), sind auch nette Anregungen für dies und das drin

Eine Methode (offline) Pitch zu tracken, die aber schnell ungenau wird, ist das "Cepstrum",
das ist das Spektrum des Magnitude Spektrums.
Kurz: wenn man einen harmonischen Ton hat, hat das Spektrum ja Peaks bei den ganzen Obertönen, immer im selben Abstand.

Das Spektrum von diesem Spektrum hat dann einen einzelnen Peak, entprechend der Frequenz des Abstandes der Peaks im richtigen Spektrum.
Weil das Originalspektrum ja praktisch, ungefähr, eine sich wiederholende Wellenform ist (wenn auch mit Decay oder so)
(In der Praxis kann es mehrere Peaks im Cepstrum geben, aber bei nem "normalen" Klang müsste einer dominieren)

Der eigentliche Peak im Cepstrum liegt aber normalerweise zwischen zwei Bins, man muss dann noch
interpolieren um die genaue Position (und Frequenz) zu finden, das muss man sich suchen wie das geht,
gibt die Methode Spitze einer Parabel durch 3 Punkte, kann ich nicht auswendig, da nimmt man den Peak und die zwei Nachbarbins
(vielleicht ist das aber bei Bernsee, die Quelle hatte ich auch mal)

Was überhaupt wichtig ist (oder für mich war) ist zu sehen daß Phasenschritt pro Zeit
und Frequenz dasselbe sind, und das alle Schwingungen im Prinzip Kreisbwegungen
mit einem Phasenschritt pro Zeit und Amplitude als Radius sind, und Projektion davon auf eine Achse.
Das erklärt auch alles was mit "Kreisfrequenz" zu tun hat, Aliasing, usw, wenn man öfters drüber nachdenkt, usw

Wenn man das verinnerlicht hat und sich bildlich vorstellen kann werden dann auch Filter klar,
nicht im Detail so daß man dann Filterdesigns auspucken könnte, aber das Prinzip, warum sie jeweils funktionieren,
eben weil ein Sample Delay einem Phasenschritt entspricht, je nach Frequenz mit andere Länge.
Mir jedenfalls wurden solche Sachen erst nach und nach klar, über wirklich öange Zeit, das ist so aus ganz verscheidenen Ecken zusammengewachsen.

Miller Puckett hat da immer so dreidimensionale Spiralen gezeichent in seinem Buch,
das ist im Prinzip das, aber auch er macht oft nen ziemlichen Sprung finde ich, also so ganz für Musiker ist es nicht.

Aus der Schule hab ich in der Beziehung auch praktisch nix mitbekommen

EDIT: hier isses: http://msp.ucsd.edu/techniques.htm
 

Similar threads



News

Zurück
Oben