Additive Synthese - Neue Werkzeuge werden gesucht.

Hmmm, ich dachte es geht darum, einen Sound mit möglichst wenigen Parametern zu generieren und ändern zu können?
Also ohne "jeden der 1000 Puzzleteile" einzeln anzupacken.
Da ist die prozedurale Shader-Idee doch ein evtl. gangbarer Ansatz?
Nebenbei könnte das evtl. auch visualisiert werden (vergleichbar zu den Wavetables in den diversen Software-Geschichten, siehe z.B. PPG Infinite)


https://youtu.be/uyHyjv_1ouA

Der Shader ist ja eine von mir erwähnte statistische Gewichtung. Allerdings würde ich diese nicht in Farben oder farblichen Abstufungen aufgliedern, denn
es gibt viele Musiker, die mit Farben und zeichnen bzw modellieren rein gar nichts am Hut haben. Das wird auch schnell unübersichtlich.
Am einfachsten wäre eine wirklich einfach Envelope, Mehrfachsegment, die basierend auf einem bestimmten Algorithmus (oder KI) die zugeordneten
Hüllkurvenverläufe steuert.

Das UI und Bedienkonzept vom PPG Infinite habe ich übrigens zusammen mit Wolfgang Palm entwickelt.
 
Viel zu umständlich: wer will sich schon ständig einen Handschuh zum editieren überziehen?
Klar, war auch nur schneller Brainstorm.

Dennoch kann ich mir vorstellen, dass es irgendwie möglich sein müsste, eine Struktur wie die Visualisierung im PPG Infinite-Video irgendwie intuitiv zu bearbeiten. Vielleicht mit einem sensiblen Multitouch-Display, das beidhändig bedient werden kann, oder irgendwas holografisches.

Am "schönsten" fände ich es immer noch, wenn ich einen Klumpen Knete bearbeiten kann, und ihn dann unter den Scanner vom Synth lege, und der dann gesagt einen (mehr oder weniger) wohlklingenden Sound daraus errechnet. Ok, das muss dann natürlich nicht zwangsläufig Additiv sein, aber könnte vielleicht ein Teilaspekt sein.

Andere Ansätze könnten eher auf Resynthese bzw. auf der Analyse gesampleten Materials basieren. Dann hat man eine Ausgangsbasis, die sich dann mit geeigneten Makroparametern verformen lässt.

Ist natürlich alles noch eher naive Spinnerei, denn
Am einfachsten wäre eine wirklich einfach Envelope, Mehrfachsegment, die basierend auf einem bestimmten Algorithmus (oder KI) die zugeordneten
Hüllkurvenverläufe steuert.
das sehe ich beim aktuellen technischen Stand auch so. Dennoch denke ich, dass mit neuartigen Interfaces, die Nutzen aus der intuitiv beherrschbaren Motorik des Menschen ziehen, noch einiges in der Richtung gehen könnte.
(Und sei es irgendwann das direkte Brain2Chip-Interface, das die KI steuert, die den Klangverlauf steuert ... )
 
habe ich das eigentlich komplett falsch verstanden, oder ist das eigentlich nichts anderes als Layering bei entsprechend ausgestatteten oder multitimbralen Synthesizern? (Den Wortbestandteil "Partial" nutzt du ja auch, und ich setze das immer in Analogie zu den bekannten Roland-Partials).

Anders gefragt: Unterscheit sich ein Sympartial bei dir qualitativ so grundlegend von einem typischen Synthesestrang (der ja auch oft sowohl subtratktive als auch Elemente von FM oder Obertonanreicherung enthäht), dass sich die eigene technische Bezeichnung lohnt?
Dass ich projektintern eine Klasse Sympartial getauft habe, bindet mich ja jetzt nicht auf Ewigkeit und nach außen an den Begriff. Irgendwie musste ich das Aggregat von Hüllkurve und Oscillation ja nennen, um von anderer Stelle darauf verweisen zu können. Die wichtigste Funktion, die dieses Aggregat hat, ist die Synthese der Samples für eine gegebene Dauer.
Layer in der Soundsynthese? Ist mir neu, den Begriff kannte ich bisher nur aus der Bildbearbeitung. "Layer" könnte ich aber tatsächlich verwenden für ein konkret angewendetes, für eine bestimmte Frequenz zu einem bestimmten Volumenanteil für eine bestimmte Tondauer ausgebildetes Sympartial, das habe ich provisorisch und uninspiriert Protopartial genannt habe. Danke für deinen Beitrag.
Ein S. als solches ohne diese Metadaten, im Sinne eines Potenzials, wobei Frequenz und (mglw. im Sinne von Formanten frequenzabhängiger) Volumenanteil noch gar nicht klar ist, geschweige die Tondauer, ist vielleicht am ehesten mit einer Schwingungsmode eines Instruments vergleichbar, die ja eigentlich auch "existiert", ob wir sie nach mechanischer Anregung hören können oder mangels Anregung nicht. Aber das geht hier schon stark ins metaphysische. Existiert kinetische Energie? Existiert potenzielle Energie? Das kann man so sehen oder anders.

Lustig, wenn mir der Begriff der Additiven Synthese verwehrt wird für die Wiederverwendung, aber wenn ich dann eigene Begriffe erfinde, ist es auch wieder nicht recht. Spektraladditive Synthese stellt dabei einen Kompromiss dar. Dass er auch inhaltlich nicht ganz passt, eigene Hüllkurve pro hinzuaddiertem Spektrum spiegelt der Begriff ja nicht wieder, spricht wiederum für Layering.
 
Zuletzt bearbeitet:
Irgendwie musste ich das Aggregat von Hüllkurve und Oscillation ja nennen, um von anderer Stelle darauf verweisen zu können.
Einen Begriff für die Kombination aus Oszillator & Lautstärkehüllkurve hat Yamaha mit dem immensen Erfolg der DX-Serie ihrer FM-Synthesizer etabliert: "Operator".

Die kanadische Firma Technos hat mit ihrem additiven Resynthesizer Axcel wiederum den Begriff "Synthesis Cell" für die Kombination aus Oszillator, Frequenz- und Lautstärkehüllkurven eingeführt, aber nicht etablieren können, da dem (überaus interessanten!) Instrument keinerlei Erfolg beschieden war.

Lustig, wenn mir der Begriff der Additiven Synthese verwehrt wird für die Wiederverwendung, aber wenn ich dann eigene Begriffe erfinde, ist es auch wieder nicht recht.
Aber was hast Du denn erwartet, wenn Du versuchst, einen etablierten, trennscharfen Begriff aufzuweichen, oder einen eigenen Begriff für etwas einzuführen, für das bereits Begriffe existieren? Du suchst doch die Auseinandersetzung – ich darf da Dich selbst zitieren:
"Ein Forum ist zum Diskutieren da. Diskussion heißt, sich mit der eigenen und mit fremden Haltung(en) auseinandersetzen."
 
Die kanadische Firma Technos hat mit ihrem additiven Resynthesizer Axcel wiederum den Begriff "Synthesis Cell" für die Kombination aus Oszillator, Frequenz- und Lautstärkehüllkurven eingeführt
wobei ich das zusammengezogen als "SynCel" (notfalls auch "Synxel" oder "Synthel" :cool: ) in Analogie zum Pixel wieder ganz griffig finde. ;-)
 
Dass Operator und Synthesis Cell in die Diskussion eingeführt wird, Begriffe, die ich beide noch nicht kenne, hätte ich von dir am wenigsten erwartet. ;-) Leider erscheinen sie mir mindestens genauso unbeholfen und nichtssagend wie manche meiner Begriffe. Wäre ich damit gekommen, hättest du mir womöglich selbiges vorgeworfen: Dass das doch ganz was anderes wäre und ich hier nur trittbrettfahre oder so.

Aber was hast Du denn erwartet, wenn Du versuchst, einen etablierten, trennscharfen Begriff aufzuweichen, oder einen eigenen Begriff für etwas einzuführen, für das bereits Begriffe existieren? Du suchst doch die Auseinandersetzung – ich darf da Dich selbst zitieren:
"Ein Forum ist zum Diskutieren da. Diskussion heißt, sich mit der eigenen und mit fremden Haltung(en) auseinandersetzen."
Zu dieser Haltung stehe ich auch. Lustig finde ich halt die Inkonsequenz in dem, was ich von dir auf das von mir verfasste zu lesen kriege. So langsam hab ich das Gefühl, du findest den Menschen, der sich hinter dem flowdy-Account verbirgt, einfach doof, und nimmst jeden Strohhalm, um alles möglichst gegen den gemeinten Sinn zu verstehen. Aber egal, um Befindlichkeiten soll es hier nicht gehen. Nur ist halt Diskussion nicht zielführend, wenn wir uns gegenseitig Inkonsequenz vorwerfen.

Du kritisierst eigentlich meine Gewohnheit, und diese Kritik nehme ich an, Tatsachen (Begriffe) zu schaffen und zur Vermeidung von zu viel Gegenwind nachträglich zurechtzubiegen, statt zunächst zurückhaltend zu fragen und die Tatsachen gemäß der Antworten zu gestalten.
Eben das ist der Nachteil des Einfach-mal-machens statt erst lange rumzutheoretisieren oder mich in für Greenhorns noch unverständlicher Literatur zu verlieren: Man muss dann trotzdem die Dinge benennen, sei es, um sie im eigenen Kopf händelbar zu machen (mein Denken, gewiss nicht nur meins, ist objekt- und prozessbezogen symbolisch), oder um sie anderen zu erklären. Und bäng, hat man sich bzw. hab ich mich an die Begriffe gewöhnt, kenn auch nix anderes, und steh, konfrontiert mit Kritik an diesen Begriffen, scheinbar sturköpfig da.

Ich möchte abschließend aber daran erinnern, dass dieser Thread nicht meine Begriffsverwirrungen und -neufindungen zum Thema hat, sondern moderne Umsetzungskonzepte der additiven Synthese, die es erlauben, die Massen an Parametern intuitiv zu konfigurieren. Und mein proof-of-concept-bewehrter Vorschlag ist eben, diese Parameter zu reduzieren, statt Sinustöne Spektren zu addieren, das traditionelle strenge Konzept der additiven Synthese also bewusst etwas aufzuweichen. Und das habe ich eingangs auch so gesagt. Vielleicht hast du es überlesen, @serge, sonst hättest du nur das zitieren müssen und darauf lediglich geantwortet: "So wollen wir aber nix aufweichen, additive Synthese ist ultimativ feingranular, das haben wir schon immer so gehalten, Thema verfehlt, sechs, in die Ecke mit dir und hör endlich auf weiter zu denken als vom Papst erlaubt."

Und ich untermauere das mit
  1. Psychoakustik: Dem Gehör ist es egal, ob Teilton Ordnungsnummer n eine Attackphase von 3ms hat oder 3,5ms. Was Klang psychoakustisch ausmacht, sind Verläufe und Verhältnisse. Damit meine ich nicht nur Hüllkurven, Teiltonvolumenverhältnisse, Formanten etc. Sondern auch etwa, dass sich das ungefähre Amplitudenmaximum (Hold) zunehmend länger hält zwischen Teilton #x und #y. Und dass die Hüllenden mancher Teiltöne sich einander gleichen, eben weil sie zur gleichen Schwingungsmode gehören. Ich untermauere meinen Vorschlag also auch mit
  2. Mechanik: Schwingungsmoden können nämlich mehrere Sinustöne ergeben (1 vom eigentlichen Schwinger plus div. vom umgebenden Resonanzkörper), halt ganze, fixe Spektren jeweils regiert von einer gemeinsamen Hüllkurve. Um den neuen, allseits unbekannten Begriff "Sympartial" zu vermeiden, müsste ich Schwingungsmode sagen, aber wetten dann werfen mir wiederum die Akustiker Begriffsklitterung vor, weil ich noch etwaigen Missverständnissen aufsitze? Also sage ich, ein "Sympartial" ist die maschinell-synthetische Repräsentation einer Schwingungsmode. Sie mit einem Sinusteilton gleichzusetzen oder als einfachen Sinuston zu realisieren und dafür halt mehr Sympartials zu nutzen, das ist eine Vereinfachung, die uns hilft damit umzugehen, aber so einfach ist das nicht in der Natur.
 
Zuletzt bearbeitet:
Wie man das letztendlich nennt ist doch scheiß egal. Haupsache ist doch das es einen leichten Zugang zu der Synthese gibt.
 
Jetzt ist für mich hinterher. Ausgedacht, implementiert und getestet ist schon alles, das Problem mit der Dokumentation für Dritte ist also ziemlich aktuell. Und egal, was für geniale Ideen ich meine umgesetzt zu haben - wenn ich die nicht rüberbringen kann, ist alles für die Katz.

Andererseits, ja, könnte ich damit auch einfach Musik machen und gut. Das mache ich auch. Fahre halt zweigleisig.
 
Ich habe immer mal mit dem ZynAddSubFX rumgebastelt, also mit dem additiven Teil davon. Das ist echt die Hölle und wenn du da was neues hinsichtlich Bedinkomfor entwikelst fänd ich das gut.
 
Aber vor allem hab ich auch auch gar nicht in Abrede gestellt, dass man aus wenig Flexibilität viel machen kann - das ist Kreativität. Sondern, dass man KI irgendwie sinnvoll gebrauchen kann, um die Parameterflut bei der additiven S. zu beherrschen

es spricht überhaupt nichts dagegen sich auch mal mit scheinbar abwegigen, hoch abstrakten ideen zu beschäftigen, das machen wir alle gerne mal und so ist schon manches auch ugesetzt worden.

ich wollte hier nur darauf hinweisen - und das thema hatten wir beide ja schon öfters - dass es schlichtweg unmöglich ist "KI zu benutzen" wenn man nicht schon vorher eine handvoll "standard sachen" implementiert hat.

bezogen auf die "unterfrage" mit dem axoloti wäre also in schritt 1 erst mal zu schauen, wie man da parameterwerte kombinieren und morphen kann, wie man sie vielleicht auch abspeichern kann, und welche verfahren und ideen man sich bei den bisher existierenden additiven synthies abschauen kann.

und der fragesteller ist das schon recht weit fortgeschritten; so nutzt er z.b. exotische skalen als obertöne und wie man einen simple lowpass erreicht weiß er auch.

deep learning und generative elemente bekommst du beim besten willen in einem axoloti nicht realisiert. dafür sind hochleistungsgraphikarten zuständig.
 
Das hieße also das es auf sowas wie Presets hinauslaufen würde die man dann verändern kann, richtig?
 
Das lehne ich mit Verweis auf die eigentliche Besonderheit der additiven Synthese nach wie vor ab:

das geht einfacher.

wenn ich nichts übersehe ist das doch der charakter aller begriffe von "synthese" in unserem sinne, dass zunächst einmal ein spektrum synthetisiert wird.

bei FM erzeugst du das spektrum durch FM, bei substraktiver synthese zunächst einmal durch filterung, und bei der additiven synthese zunächst mal durch layern von tönen.

das man das auch kombinieren oder ändern kann, ändert nichts an den gegenständen.

mischen ist eben nicht "additive synthese" sondern "mischen" ist mischen, und beim "layern", bei LPC, bei lemur, bei resyntheseverfahren oder beim gleichzeitgen hören eines waldkauzes und eines rasenmähers ist das auch so, dass man das übliöcherwiese nicht als "additive synthese" bezeichnet.

dass bei all diesen verfahren auf eine höhren abstrakten ebene irgenwo ein logisches oder arithmetische "UND" (oder PLUS") eine rolle spielt, macht nicht all diese verschiedenen dinge zu einem.
 
Das hieße also das es auf sowas wie Presets hinauslaufen würde die man dann verändern kann, richtig?

es hieße, dass man parameter erst mal haben und festlegen muss, bevor man sich überlegen kann, wie man sie moduliert oder einstellt.

der axoloti kann z.b. nur 8 samples laden. damit fällt additive synthese mit 9 harmonischen wellenformen aus. egal ob mit oder ohne künstlicher intelligenz und anderen... sagen wir mal... umstrittenen ideen. :)
 
Zuletzt bearbeitet:
Könnte man das nicht einfach "Struktur-Synthese" nennen? Weil ich meine schon dass das Kind einen Namen haben sollte. Wir können ja mal so rumraten, geht ja auch.
 
So langsam hab ich das Gefühl, du findest den Menschen, der sich hinter dem flowdy-Account verbirgt, einfach doof, und nimmst jeden Strohhalm, um alles möglichst gegen den gemeinten Sinn zu verstehen. Aber egal, um Befindlichkeiten soll es hier nicht gehen.
Du stellst hier die Vermutung in den Raum, ich würde aus persönlicher Abneigung Dir gegenüber unredlich argumentieren. Widerspruch dagegen machst Du unmöglich, indem Du diesen vorab als nicht zum Thema gehörig bezeichnest, sondern als "Befindlichkeit", um die es hier "nicht gehen soll". Gleichzeitig räumst Du Dir selbst wiederum das Recht ein, nicht nur über Deine Befindlichkeit zu Reden, sondern mir ad-hominem-Motive zu unterstellen.

Ist das Deine Vorstellung einer Diskussion auf sachlicher Ebene?

Und mein proof-of-concept-bewehrter Vorschlag ist eben, diese Parameter zu reduzieren, statt Sinustöne Spektren zu addieren, das traditionelle strenge Konzept der additiven Synthese also bewusst etwas aufzuweichen. Und das habe ich eingangs auch so gesagt. Vielleicht hast du es überlesen, @serge, sonst hättest du nur das zitieren müssen und darauf lediglich geantwortet: "So wollen wir aber nix aufweichen, additive Synthese ist ultimativ feingranular, das haben wir schon immer so gehalten, Thema verfehlt, sechs, in die Ecke mit dir und hör endlich auf weiter zu denken als vom Papst erlaubt."
Aber genau das habe ich gemacht: Ich habe Deinen Vorschlag, statt "Sinustöne durch FM oder AM erzeugte Spektren zu addieren" zitiert und darauf geantwortet, zur Erinnerung:
"Ich empfinde das als Begriffsverwirrung, die niemandem etwas nutzt, denn dächte man diese Deine Argumentation konsequent zu Ende, dürfte man bereits die Mischung zweier FM-Klänge als additive Synthese bezeichnen. Nun zeichnet sich aber die additive Synthese vor allen anderen Syntheseverfahren durch die Möglichkeit aus, jeden einzelnen sinusförmigen Teilton unabhängig von den anderen detailliert kontrollieren zu können – und eben diese unabhängige Teiltonkontrolle ist weder bei FM noch bei AM gegeben."

Auf Albernheiten a la "Denkverbote" habe ich verzichtet. :)

Und bäng, hat man sich bzw. hab ich mich an die Begriffe gewöhnt, kenn auch nix anderes, und steh, konfrontiert mit Kritik an diesen Begriffen, scheinbar sturköpfig da.
Das ist des Pudels Kern. Selbst wenn man Dir von mehreren Seiten nahelegt, von Deinen nur für Dich selbst sinnvollen Begriffen Abstand zu nehmen, beharrst Du darauf. Das sei Dir unbenommen, aber es führt naturgemäß zu Diskussionen und Mutmaßungen.
 
Ich habe immer mal mit dem ZynAddSubFX rumgebastelt, also mit dem additiven Teil davon. Das ist echt die Hölle und wenn du da was neues hinsichtlich Bedinkomfor entwikelst fänd ich das gut.

Bedienkomfort, wie ihn du wie die meisten verstehen, kriegen nur Konzerne mit eigener QA und Testlaboren hin, und manche Open-Source-Communities, die das Glück hatten, jemand mit Ahnung auf dem Gebiet zur Mitarbeit zu motivieren. Bedienkomfort ist für mich einzelnem Nerd auch, wenn etwas via Texteditor bedient/programmiert/konfiguriert werden kann und ich die Sprache schön eingängig finde. Was bei selbstentwickeltem Zeug wahrscheinlich ist. Neben Musik mag ich eben Text in all seinen Formen.

Für die meisten, die intuitive Interfaces gewohnt sind, schlicht unzumutbar, jedwede imperative Werbung ist daher Zeitverschwendung. Bedienkomfort im allgemeinen Sinne, irgendwas Grafisches, Haptisches, müssten andere auf der Basis meiner Arbeit bauen. Ob das je passiert, weiß ich nicht. Gute Doku würde es zumindest begünstigen. Es ist ja nicht so, dass ein solches Interface unbedingt ganze Musikstücke realisieren helfen muss. Rohe Sounds bauen - Mit Widgets rumhantieren, in Text kodieren, an mein Programm weiterreichen, Sound generieren, Import als WAV in die DAW eigener Wahl zur Weiterverwurstelung, und meine Fürsprache wär ihm/ihr sicher. Träumen ist schön. Wird wohl nie der Fall sein, eben mangels Echtzeitfähigkeit meiner Herangehensweise, wo im Vorfeld der Synthese die Tondauer definiert sein muss. Damit bleibt der einzige Vorteil übrig: Transparenz von Text. Text kann ohne spezielle Interfaces im Texteditor erstellt werden, mit Binärdaten geht das nicht, jedenfalls nicht ohne sich einen Knoten ins Hirn zu machen.
Experimentiere auch mit Faltungshall und diversen anderen, Equalizer, Kompressor etc., davon unabhängig. Neuerdings guck ich mir auch LMMS an.

@serge: Okay, dann verstehe ich aber nicht dein Problem damit, dass ich auf deinen Einwand hin nach einer Alternative gesucht habe, erst das ist Anlass meiner Unterstellung. Und ich habe auch gefragt vorher, wie ich das Kind sonst nennen sollte. Darauf gabs nur ein Lies-mal-Bücher ...
Wäre es zur Abwechselung nicht mal einen Versuch wert, etwas Lektüre einzuschieben, um sich einen fundierten Überblick darüber zu verschaffen, was es an Syntheseverfahren bereits gibt und wie diese in Fachkreisen genannt werden, bevor Du "die Ärmel hochkrempelst"?
was in Abrede stellt, dass ich das nicht schon längst getan habe (wohl gemerkt, etwas Literatur != alles was es gibt, oder auch nur, was ihr im Regal stehen haben mögt), ... dass auf mich abwinkend gewirkt hat.
Layering ist schon mal sehr gut, späterer Vorschlag von @Scenturio. Nicht besser als meine spektraladditive S., aber mit dem unbestreitbaren Vorteil, dass der Begriff etabliert ist und nicht erst erklärt werden muss. Dass ich nichts lieber täte als eigene Begriffe gegenüber anderen, etablierten durchzusetzen, stimmt nicht. Es ist nur halt so, wie du mir eben recht gibst, dass anfangs provisorische Begriffe sich schnell etablieren im eigenen Kopf, diese blöde Filterblase aus Knochen und Hirnhaut.
Nicht zuletzt: Dein an den Tag gelegter Unterton macht es mir zugeben schwer, sachlich zu bleiben. Statt hier wild rumzuzitieren wie vor einem Gericht und Postings von vor Jahren auszugraben, kannst du ja mal deine Postings auf subtextueller Ebene mit anderen vergleichen, nur für dich.
 
Bedienkomfort, wie ihn du wie die meisten verstehen, kriegen nur Konzerne mit eigener QA und Testlaboren hin, und manche Open-Source-Communities, die das Glück hatten, jemand mit Ahnung auf dem Gebiet zur Mitarbeit zu motivieren. Bedienkomfort ist für mich einzelnem Nerd auch, wenn etwas via Texteditor bedient/programmiert/konfiguriert werden kann und ich die Sprache schön eingängig finde. Was bei selbstentwickeltem Zeug wahrscheinlich ist. Neben Musik mag ich eben Text in all seinen Formen.

Du musst das ja nicht alleine machen, oder? Open Source muss es ja aucht nicht sein. Denke schon das wenn etwas gut an SW ist, das die Leute dafür zahlen. Nicht alle, weil ich bin z.Z. ne arme Sau, aber prinzipiell geht da doch sicher was.
 
Einerseits: Die Additive Synthese leichter zugänglich zu machen, wäre prima.
Andererseits - das haben sicher schon viele versucht.

Die Zusammenhänge sind einfach sehr komplex. Wenn man eine vernünftige Synthese-Power möchte, braucht man viele Obertöne mit vielen Parametern, siehe K5000. Sonst klingt es halt leicht "dünn" und "statisch" und man schöpft die Möglichkeiten des Konzepts nicht aus.

Und wie soll man tausende von Parametern so strukturieren, dass eine einfache Bedienung
möglich wird, aber das komplexe Soundpotenzial erhalten bleibt?

Mir fallen dazu verschiedene Konzepte ein, alle nicht von mir, alle mit Nachteilen:

1. Statistik:
Statistik ist sehr mächtig, man kann damit vieles beschreiben und ordnen. Gruppen von Obertönen also, Frequenzbetonungen und Absenkungen, Strukturen, Verläufe etc. Vorteil: Es hat nicht unbedingt Ähnlichkeit mit herkömmlichen Syntheseformen, weil es abstrakt ist.
Nachteil: Auch Statistik braucht Modelle, die die Komplexität reduzieren, und das
muss nicht immer gut klingen.

2. Psychoakustik:

Hier könnte man die berühmte KI sich austoben lassen. Ein lernendes System, dem
der Programmierer "beibringt", die Tausende von Parametern so zu strukturieren, dass
es mit wenigen Einstellungen "gut klingt" und sich "musikalisch verhält".

Nachteil: Auch ein solches System muss erstmal entwickelt werden, und es wird
beim den Usern wohl kaum Einigkeit darüber geben, ob es gelungen ist. Dem einen
ist es noch zu komplex zu bedienen, dem anderen hat es zu wenig Möglichkeiten,
der dritte findet den Grundsound einfach mies. Wetten?

3. Simulation

Mit der Addition von Sinustönen kann man theoretisch alle möglichen Verfahren
simulieren: Subtraktiv, Verzerrung/ WaveShaping, vermutlich mit genug Aufwand
sogar FM oder physikalische Modelle. Nur: Warum sollte man das machen, wenn der
Aufwand so hoch ist und ein nicht-additiv-simuliertes Filter auch noch besser klingt?
Die Originale sind ja schon vorhanden!

4. Kombination dieser Ansätze
Das kann man natürlich probieren. Wir simulieren erst ein E-Piano mit KI, verfremden es
dann mit statistischen Methoden und schicken es dann noch durch ein komplexes,
dynamisch gesteuertes Filter. Das Problem hier: diese Schritte sind nicht miteinander
kompatibel, es ist gewissermaßen ein "destruktives Verfahren." Ich kann also die vielen
Rotweinsorten, die ich da zusammengeschüttet habe, nachher nicht mehr trennen :)
 
Okay, dann verstehe ich aber nicht dein Problem damit, dass ich auf deinen Einwand hin nach einer Alternative gesucht habe, erst das ist Anlass meiner Unterstellung. Und ich habe auch gefragt vorher, wie ich das Kind sonst nennen sollte. Darauf gabs nur ein Lies-mal-Bücher ...
Aber die Frage nach der Literatur stammt doch ebenfalls von Dir:
Hast du einen Tipp für Lesezeug, das ich idealerweise in einer üblichen Universitätsbibliothek finde?

Worauf sonst sollte ich mich beziehen, wenn nicht auf Deine Posts?
Statt hier wild rumzuzitieren wie vor einem Gericht und Postings von vor Jahren auszugraben, kannst du ja mal deine Postings auf subtextueller Ebene mit anderen vergleichen, nur für dich.
 
Einerseits: Die Additive Synthese leichter zugänglich zu machen, wäre prima.
Andererseits - das haben sicher schon viele versucht.
(…)
4. Kombination dieser Ansätze
Das kann man natürlich probieren. Wir simulieren erst ein E-Piano mit KI, verfremden es
dann mit statistischen Methoden und schicken es dann noch durch ein komplexes,
dynamisch gesteuertes Filter. Das Problem hier: diese Schritte sind nicht miteinander
kompatibel, es ist gewissermaßen ein "destruktives Verfahren." Ich kann also die vielen
Rotweinsorten, die ich da zusammengeschüttet habe, nachher nicht mehr trennen :)
Diese Schritte wären aber kompatibel, wenn sie stets auf der Ebene der additiven Synthese erfolgen würden, ihre Ergebnisse also stets als Kombination einer Vielzahl von Sinusoszillatoren samt zugehörigen Hüllkurven vorliegen würde.

Dann könnte man all diese Verfahren beliebig kombinieren, um z.B. ein Spektrum über FM zu erzeugen, was aber im Ergebnis nicht als FM vorliegt, sondern in additiver Form, bei der man dann z.B. die Frequenzhüllkurven einzelner Obertöne bearbeiten kann.

Sprich: Man könnte andere Syntheseverfahren (inkl. Resynthese von Samples) als Makros zur Erzeugung komplexer additiver Spektren ansehen.
 
ich wage zu bezweifeln, das 2.) überhaupt geht, und ich denke darüberhinaus auch, dass das nicht der sinn der übung sein kann, wenn das instrument die klanggestaltung automatisch erledigt.

bei 3. bin ich absolut bei dir - und das ist ein bischen das problem von additiver synthese.

bei wavetablsynthese macht das sinn: dort vereinfachst du verfahren, indem du alles, was du vorher berechnen kannst, vorher schon mal berechnest und späater, vereinfacht gesagt, nur noch ein sample abspielst.

macht man hingegen das gleiche mit einem synth, der aus 256 teiltönen besteht, die gleichförmig über das spektrum verteilt sind (oder so verteilt, also getuned, sind, wie es für die simulation gerade sinn macht), dann wird eigentlich fast alles, was man damit nachbilden kann, letzlich technisch aufwendiger als das original. :)

im gegensatz zum K2500 haben wir heute zwar die rechenpower, um auch 500 oder 1000 tönchen einzeln zu stimmen und ihre amplitude zu modulieren, aber es stellt die frage wozu, wenn man den gleichen sägezahn mit einem wavetable buffer oder einem polynomischen dingsbums viel einfacher generieren kann.

zu 4., ja, das beliebige addieren oder crossfaden zwischen verschiedenen sets oder algorithmen ist dann am ende die einzige stärke des verfahrens.

fun fact:
obwohl es die technik grundsätzlich viel weniger hergäbe, kann man in der praxis eher mit einem waldorf wave als mit einem K2500 resynthese von beliebigem material hinbekommen. an den tau editor kommen beide verfahren nicht ran. und selbst bei dem modulierst du nicht 1000 teiltöne live mit 1000 signalen.
 
Zuletzt bearbeitet:
Dann könnte man all diese Verfahren beliebig kombinieren, um z.B. ein Spektrum über FM zu erzeugen, was aber im Ergebnis nicht als FM vorliegt, sondern in additiver Form, bei der man dann z.B. die Frequenzhüllkurven einzelner Obertöne bearbeiten kann.

Das war durchaus so gedacht und ist wohl auch möglich.
NUR: Die damit erzeugnten Additiven (Teilton-) Parameter SIND dann eben genau die Suppe, der man nicht mehr ansehen kann, woraus sie besteht. Du kannst also die Teile nachträglich nicht mehr trennen und einzeln bearbeiten.
 
das schöne aliasing von FM ist dann auch weg.
:D
Andererseits muss das doch nicht zwingend so sein, denn ließen sich nicht auch diese Artefakte berechnen und dann in additiver Form darstellen? Dann könnte man es sich auf additiver Ebene aussuchen, ob man diese Artefakte nicht vielleicht sogar stärker betonen möchte, mit anderen Hüllkurven versehen möchte etc.
 
im gegensatz zum K2500 haben wir heute zwar die rechenpower, um auch 500 oder 1000 tönchen einzeln zu stimmen und ihre amplitude zu modulieren, aber es stellt die frage wozu, wenn man den gleichen sägezahn mit einem wavetable buffer oder einem polynomischen dingsbums viel einfacher generieren kann.
Wie du die Sachen erzeugst ist mir als User eigentlich egal, wenn damit so Sachen wie der niedliche Morphing Filter der Virsyn Cube oder Formant Filter wie im Kawai K5000 funktionieren.
Prinzipiell sind Synthese Formen austauschbar, man kommt auf vielen Wegen zu sehr ähnliche Ergebnissen, wichtig ist es imho die jeweiligen Stärken der Synthese Formen zu kennen und diese Benutzerfreundlich zu machen, ohne groß die Möglichkeiten einzuschränken. Keine Kompromisse bei den Möglichkeiten den Klang zu verbiegen - durch den Wolf zu drehen bzw. interessante Verläufe zu erzeugen, nur weils progammiertechnisch vielleicht ein klein wenig effizienter realisierbar ist.
 


Neueste Beiträge

News

Zurück
Oben