Additive Synthese - Neue Werkzeuge werden gesucht.

.
Ja.

Bitte, warum sollen da nur "Gruselsounds" entstehen, wenn man die Intensitäten aller Teiltöne als Kurve zeichnen kann? Beim Zeichnen von Wellenformen kann ich den Einwand verstehen, aber warum beim Zeichnen von Lautstärkeverhältnissen der Teiltöne?
Weil das nichts wird, aus meiner Sicht heraus. Kannste ja gener probieren. Ich halte davon nix. 64 Teiltöne sollte man doch eingestellt bekommen. Ist auch irgendwie krank, aber anders gehts ja nun mal nicht.
 
Ja.

Bitte, warum sollen da nur "Gruselsounds" entstehen, wenn man die Intensitäten aller Teiltöne als Kurve zeichnen kann? Beim Zeichnen von Wellenformen kann ich den Einwand verstehen, aber warum beim Zeichnen von Lautstärkeverhältnissen der Teiltöne?
Es ist imho praktischer mit Stützpunkten zu arbeiten, um den Überblick über die Lautstärkenverhältnisse zu behalten, um dann vielleicht (bei Bedarf) pro Harmonische per Kurve den Übergang zum nächsten Stützpunkt definieren zu können. Weil es einfach nur nach Orgel klingt, wenn einzelne Harmonische zu laut und damit zum 'nem Grundton werden.
 
64 Teiltöne sollte man doch eingestellt bekommen. Ist auch irgendwie krank, aber anders gehts ja nun mal nicht.
Nun ja, die Eingangsfrage dieses Threads war ja gerade, wie sich die Parameterflut besser bändigen ließe, die sich aus Anzahl der Teiltöne mal Lautstärkenhüllkurvenparameter mal Frequenzhüllkurvenparameter mal Phasenlage mal Frequenz mal Lautstärkewert ergibt: "Hier sollen Gedanken ausgetauscht werden, welche Werkzeuge verwendet werden können, um die Klänge wie eine Skulptur zu formen." Deine Aussage (miss?)verstehe ich jetzt so, als sei dies Deiner Ansicht nach von vornherein ein fruchtloses Unterfangen.
 
... Deine Aussage (miss?)verstehe ich jetzt so, als sei dies Deiner Ansicht nach von vornherein ein fruchtloses Unterfangen.
Du darfst nicht vergessen dabei, ich weiß es ja auch nicht besser, deshalb komme ich zu diesem schluss - das muss ja nicht das Ende vom Lied sein, das ist nur der Verständnispunkt an dem ich mich befinde. Das muss nicht das Ende sein. Nur weiter bin ich noch nicht, verstehst du?
 
Eine Skulptur ist imho schlecht, das ist toll beim mixen und mastern um den Überblick über die Freuquenzen zu behalten, aber man kann damit nicht die nötigen Muster (den ich oben als Barcode für die Ohren umschrieben hab') erzeugen, aus denen dann die verschiedenen Wellenformen werden. Einfachstes Beispiel ist SAW, löscht man die geraden Harmonische raus bekommt man ein Rechteck, abhängig vom Muster entstehen neue Klangfarben.
 
Es ist imho praktischer mit Stützpunkten zu arbeiten, um den Überblick über die Lautstärkenverhältnisse zu behalten, um dann vielleicht (bei Bedarf) pro Harmonische per Kurve den Übergang zum nächsten Stützpunkt definieren zu können. Weil es einfach nur nach Orgel klingt, wenn einzelne Harmonische zu laut und damit zum 'nem Grundton werden.
Warte, vielleicht reden wir von verschiedenen Dingen (vielleicht erklärt das auch mein potentielles Missverständnis mit @Altered States?): Ich rede davon, ein statisches Spektrum einstellen zu können, indem ich ein Koordinatensystem habe, auf dessen X-Achse die Teiltöne und auf dessen Y-Achse deren Intensitäten eingetragen sind. Darin könnte ich nun durch das Einzeichnen einer Gerade (oder einer Kurve) ein Obertonspektrum ganz einfach einstellen, oder übersehe ich da etwas? Das war ja auch der Grundgedanke beim Grapher, der Eingabeeinheit des Technos Axcel (trotz der miserablen Videoqualität immer noch sehenswert):

https://www.youtube.com/watch?v=_Mhbf2EWKo0


https://www.youtube.com/watch?v=b9nKykmMi-k


Für die Frequenzen liesse sich – ebenfalls ein Koordinatensystem denken, bei dem auf der X-Achse wiederum die Teiltöne und auf der Y-Achse die Abweichung von der ganzzahligen harmonischen Frequenz jedes dieser Teiltöne eingetragen wäre. Sprich: Sind alle Teiltöne exakt ganzzahlige Harmonische, wäre der Graph identisch mit der X-Achse, würde dagegen der vierte Teilton eine etwas höhere Frequenz als die zugehörige ganzzahlige harmonische Frequenz, würde an Stelle der Punkt etwas oberhalb der X-Achse verlaufen. Ich bin mir sicher, dass man das auch irgendwo im Video sieht, wenn ich die Zeit finden sollte, werde ich die entsprechende Stelle raussuchen.

Verschiedene solcher Spektren ließen sich dann erstens zeitlich anordnen und automatisch in einstellbaren Zeiten überblenden. Analog ließen sich Interpolationen mit weiteren Spektren für Modulationen durch Velocity und Controller denken.

EDIT: Ich habe die kläglichen Überreste meiner Keyboards-Hefte durchgeschaut, den Artikel von Bob Moog zum Technos und den darin verwendeten Makros habe ich offenbar entsorgt. Immerhin bin ich im Netz auf diesen schönen Überblick über den Technos gestoßen.
 
Zuletzt bearbeitet:
@Summa


Eine SAW wird immer ein Sägezahn bleiben, allersdings wird die nicht mit der additiven Synthes gleich gut aufhgelöst, darin sehe ich noch das Problem, also das die unten wie oben klingt.
 
Für die Frequenzen liesse sich – ebenfalls ein Koordinatensystem denken
Ich bin mir nicht sicher ob das nötig ist, die Frequenzen für jedes Partial bestimmen zu können, wenn man mehrere additive Quellen/Oszillatoren zur Verfügung hat. Es hätte natürlich den Vorteil dass man bei bestimmten Spektren Teiltöne/Obertöne einsparen kann, aber ich denke man verliert schnell den Überblick, wenn die Teiltöne nicht mehr in der richtigen Reihenfolge sind.

Das war ja auch der Grundgedanke beim Grapher, der Eingabeeinheit des Technos Axcel (trotz der miserablen Videoqualität immer noch sehenswert):
Hab mir das Video nicht komplett angeschaut, ist doch recht trocken und genau das Zeichnen der Envelopes ist in der Form wie es (bei 6.10) gezeigt wird nicht sonderlich sinnvoll, er nutzt dabei Harmonische die jeweils einen Grundton abbilden (wegen des maximalen Levels), also praktisch sowas wie Sinus Oszillatoren, erzeugt damit den Orgelsound vor dem ich gewarnt hab', bei Spektren mit mehr Harmonischen, die nicht nur aus Grundtönen bestehen ist diese Verfahren wahrscheinlich weniger sinnvoll.
Das Zeichnen des Spektrums - wie im Video am Anfang gezeigt wird, ist genau das was ich bei K5000 (am Editor) und div. Software per Mouse mache, aber das ist nur der erste Schritt, man sollte dann noch Gruppen von Harmonischen rauslöschen, sonst ist das nicht mehr als ein sehr genaues Filtern. Das ist das was ich als Stützpunkte nutzen würde, mit Zeitangabe und Steigung, wegen mir gezeichnet und/oder komplexer Hüllkurve zwischen diesen Punkten.

Eine SAW wird immer ein Sägezahn bleiben, allersdings wird die nicht mit der additiven Synthes gleich gut aufhgelöst, darin sehe ich noch das Problem, also das die unten wie oben klingt.
Naja, dafür gibts verschiedene Lösungsansätze, bei 'nem FM-Synth packe ich einfach ein wenig Feedback auf den additiven Oszillator, das füllt (je nach Implementation) die fehlenden oberen Harmonischen auf, geht sicher auch per Waveshaping oder Noise Modulation der (vorhandenen) oberen Harmonischen. Weil man den Anteil der höhren Harmonischen nicht so detailiert wahrnehmen kann, selbst bei tiefen Tönen - es fällt nur auf das obenrum was fehlt.
 
Zuletzt bearbeitet:
das ist weil du halt einfach auf deinem eigenen stern lebst und - ohne hier irgendeinen anspruch auf "normal" haben zu wollen - die normalsten dinge nicht kennst.

dass frequenzen sich überkreuzen ist z.b. immer dann der fall, wenn du eine stimme und aber auch formanten hast. (beispiel klar?)

Kurz: Nein. Formanten sind nicht freibeweglich in der Frequenzdomäne eines Klangs in dreidimensionaler Betrachtung (Frequenz, Amplitude, Zeit). Das widerspricht meinen Kenntnissen aus dem gymnasialen Physikunterricht und aus der Literatur zu den Grundlagen des Klangs und der Klangsynthese.

Hm, wie erkläre ich das am besten? Am besten mit einer Analogie: der Tribünenwelle in einem Sportstadion, geläufiger unter der Bezeichnung "La Ola". Richtig ist folgende Antwort auf die Frage, wie so eine Welle entsteht: Eine Reihe von Leuten stemmen ihre Bierplautze oder strecken zumindest ihre Arme in die Höhe, genau in dem Augenblick, wo der Nachbar zur anderen Seite der Wellenrichtung gelegenen Körperseite sich in Bewegung gesetzt hat, nicht vorher. Die Leute hinter ihnen auf den Rängen bewegen sich synchron zu den vorstehenden.

Wenn man die Hypothese der unabhängig frequenzvariablen Teiltöne auf diese Analogie überträgt, müsste die Erklärung so lauten: Da rotten sich Fans zu einem Pulk zusammen und überklettern Schenkel, Kopf und Sitz - durch die ganze Tribüne hinweg. Wie weltfremd, absurd, grotesk - würdest du so eine Erklärung deinem ggf. vorhandenen Fünfjährigen liefern, würde der aber aber die Stirn runzeln und die Mama fragen gehen.

Nicht klar? Okay. Ich lebe dann halt auf meinem eigenen Stern, von mir aus sieh das so. Mein Stern heißt Akustische Modellierung, und ist eigentlich ein Asteroid.
Akustische Modellierung ist wiederum eine eigens ersonnene, provisorische Bezeichnung, denkbar als Unterform der allgemeinen Physikalischen Modellierung und neben der mechanisch orientierten Modellierung à la Pianoteq. Die deckt mein Ansatz auch wieder nicht ab. "Hammer", "Saite", "Resonanzboden", "Stimmstock", "Schalloch", "Schallbecher" etc. bilde ich ja gar nicht so konkret nach, diese Elemente des Instrumentenbaus werden sich nicht mal in der Dokumentation wiederfinden.

Ich entwickle meinen Synthesizer so, dass ich die getroffenen Designentscheidungen grob physikalisch erklären kann. Unabhängig frequenzvariable Töne übersteigen meine Kenntnisse oder widersprechen ihnen. Selbst wenn sich die Teiltöne überkreuzen könnten, und so sieht es aus selbst nach der Einführung von Korridoren für Frequenzvariation (FV) und -modulation (FM) aus, würde ich dieses Feature nicht an die große Glocke hängen.
In die Dokumentation schreib ich rein, dass die FV-Hüllkurve -1/0/+1-normiert ist: 0 ist Nullvariation, also keine Abweichung von der Obertonreihe, bzw. vom übergeordneten spectral spread. +1 ist Anhebung auf die nächste, -1 auf den vorigen unvariierten Teilton. Eine Fehlermeldung bei Fließkommawerten jenseits dieses Bereichs wird es nicht geben, kann ja sein, dass der gemeine Benutzer (ich vermutlich) doch mal damit experimentieren möchte. (Die mathematische Formel zur Ausrichtung und Skalierung der Hüllkurve hab ich die letzten Tage schon mal gemacht, möchte aber hier nicht so sehr ins Detail gehen

Ob physikalische oder akustische Modellierung, reine (sinuston-)additive Synthese, um die geht es hier geht, ist noch mal was anderes. Da sitze ich also mangels Raumschiff alleine auf meinem Asteroiden und glotze mit meinem Teleskop zu anderen, älteren Sternen, wie die so meinen, wie Klang und Musik "normalerweise" gemacht wird. Und bilde mir meine Erklärungen, die wie in aller mehr oder weniger empirischen Wissenschaft bekanntlich immer ein Kompromiss sind zwischen Wunsch und Wirklichkeit.
Empirie heißt, Hypothesen werden überprüft. Ich habe es überprüft und bisher haben all meine bewussten oder unfreiwilligen Versuche mit Überkreuzungen meine Ohren bewogen, vom Kopf weg hin zur Kloschüssel zu rennen, hätten sie denn Beine. Das klingt eindeutig falsch, siehe der Vergleich mit der gerissenen Geigensaite, die sich in die einzelnen Pferdehaare entdrillen.

Vielleicht meinen wir mit Überkreuzen auch unterschiedliche Dinge. Ich: Wenn sich ein Teilton in der Frequenzdomäne höher bzw. tiefer "bendet" als ein benachbarter Teilton. Die behauptete Notwendigkeit dieser Möglichkeit deckt sich nicht mit meinem Verständnis von Mechanik und Instrumentenakustik, da es so etwas in der Natur nicht gibt: In einem Festkörper sind die Moleküle miteinander verknüpft und können daher gar nicht freischwingen im Raum. Schwingungsmoden, und deren Entsprechungen sind wie gesagt das, was ich addiere, sind nicht unabhängig voneinander, sie interagieren. Überkreuzungen innerhalb von Festkörpern sind niemals akustisch motiviert. Meinst vielleicht Interferenz oder so?

Was ist eigentlich dagegen einzuwenden, mit mehreren Events ("Noten") zu arbeiten, die natürlich gegenläufig gepitchbendet werden können? Kann mir zwar nach wie vor nicht vorstellen, dass das musikalisch wertvoll angewendet werden könnte, aber hey, Filterblase und so.

Wenn Anteile im Klang im Spektrum wandern sollen, wie das in der Tat mit Stimmformanten mithilfe des Artikulationstrakts geschehen kann, erscheint es mir logischer, frequenzstationäre benachbarte Teiltöne zeitversetzt in der Amplitude an- und abschwellen zu lassen.
 
es wäre ja auch ein wunder gewesen, wenn du mal ausnahmsweise mal mit dem rest der welt damit konform gehen würdest, was ein formant ist.

"Als Formant bezeichnet man in der Phonetik und Akustik die Konzentration akustischer Energie in einem unveränderlichen Frequenzbereich, unabhängig von der Frequenz des erzeugten Grundtons"


Hm, wie erkläre ich das am besten?


du solltest es wohl am besten gar nicht erklären.
 
Zuletzt bearbeitet:
Ich bin mir nicht sicher ob das nötig ist, die Frequenzen für jedes Partial bestimmen zu können, wenn man mehrere additive Quellen/Oszillatoren zur Verfügung hat. Es hätte natürlich den Vorteil dass man bei bestimmten Spektren Teiltöne/Obertöne einsparen kann, aber ich denke man verliert schnell den Überblick, wenn die Teiltöne nicht mehr in der richtigen Reihenfolge sind.

so machen das ja die diversen resyntheseverfahren, du hast ein festes set von 1000 teiltönen, und die werden dann dazu benutzt, die 1000 lautesten teiltöne aus dem original material darzustellen und die zuordnung ist dabei frei bzw du hast gar keinen einfluss darauf.

wenn man allerdings diesen tatbestand (der resynthese) erfüllt, dann ergeben sich dadurch keine neuen möglichkeiten/notwendigkeiten, denn das gibt es das ja schon, und etwas neues wird da wohl erst daraus, wenn man das alles irgendwie massiv einschränkt und vereinfacht.
 
Zuletzt bearbeitet:
@Summa
Eine SAW wird immer ein Sägezahn bleiben, allersdings wird die nicht mit der additiven Synthes gleich gut aufhgelöst, darin sehe ich noch das Problem, also das die unten wie oben klingt.

eine "gute" saw, die oben nicht klirrt, besteht aus genau solchen teiltönen wie sie ein A.S. auch macht, nur dass man das normalerweise ein wenig anders berechnet als einfach consines zu addieren - das ginge aber auch. :)
 
@einseinsnull


Leider läuft der ZynAddSubFx unter Tracktion 7 nicht mehr richtig und ist praktisch unbenutzbar. Das war mein einziger wo ich ein wenig versucht habe Sounds per additiver Synthesemöglichkeit zu basteln. Leider klang das dann teils in den unteren Oktaven muffig, oder ich habe was falsch gemacht.
 
wenn man allerdings diesen tatbestand (der resynthese) erfüllt, dann ergeben sich dadurch keine neuen möglichkeiten/notwendigkeiten, denn das gibt es das ja schon, und etwas neues wird da wohl erst daraus, wenn man das alles irgendwie massiv einschränkt und vereinfacht.
Es geht ja in diesem Thread um additive Synthese und dessen Bedienung, da ist es hilfreich bestimmte Funktionen ein klein wenig zu "boxen" bzw. in überschaubare Strukturen zusammen zu packen. Resynthese ist meiner Erfahrung nach ein wenig wie granulare Synthese, die ewige Suche nach einem ergiebigen Quellsample, das sich mit den vorhandenen Funktionen interessant verbiegen lässt. Spannend aber mühsam, geht mir dann doch zu sehr Richtung Glücksspiel ;-) Vom Sounddesign aus meiner Sicht eine ganz andere Geschichte als additive Synthese, auch wenn sich das wahrscheinlich gut in einem Synth vereinen lässt.
Möglich dass man nach einiger Zeit einem Sample schon anhören kann ob es auf einer bestimmten Engine gute bzw. interessante Ergebnisse liefern wird, so weit hab' ich mit Cube 2 nie getrieben und mit dem V-Synth XT der hier steht und Absynth müsste ich mich was granulare Synthese (bzw. elastic Audio) betrifft irgendwann mal (bzw. nochmal bei Absynth) intensiver beschäftigen.
 
Letztendlich drückst du dich damit vor Entscheidungen. Der User will immer alles und ist genauso verwirrt. Das ist jedenfalls meine Erfahrung.

das ist leider richtig.

also, dann gibt es 64 und fertig.

und weiter? was ist z.b. mit den oben angesprochenen grundwellenformen. von denen ja mindestens 2 die invertierung von teiltänen verlangen. soll man sowas überhaupt machen? ist immerhin recht blöd weil man dann nicht bei 0. anfängt.

entscheide da auch mal was. mir würden spektren langen.
 
1) Ich erzeuge mir durch die Mischung von vier Sinusschwingungen mit den Frequenzen f, 2f, 3f und 5f ein Klangspektrum: Das ist additive Synthese, denn ich habe vollen Zugriff auf und unabhängige Kontrolle über jeden einzelnen sinusförmigen Bestandteil des Klangspektrums.

2) Nun nehme ich das Beispiel (1), nur das die Schwingung 5f nicht mehr von einem Sinusoszillator erzeugt wird, sondern von einem 2-Operatoren-FM-Pärchen, das nun auch keinen Sinus mehr erzeugt, sondern eine komplexe Schwingung mit eigener reichhaltiger Obertonstruktur. Hier habe ich es mit einer Mischung aus additiver Synthese (voller Teiltonzugriff für die drei Sinusoszillatoren f, 2f und 3f) und 2-Operatoren-FM zu tun – denn bei der FM habe ich eben nicht mehr die volle unabhängige Kontrolle über jeden einzelnen sinusförmigen Bestandteil des FM-Klanges.

3) Schließlich stelle man sich Beispiel (2) erneut vor, aber mit einer entscheidenden Änderung: Statt die Schwingung von 5f über klassische FM (also FM des Carriers durch den Modulator) zu erzeugen, wird auch diese Schwingungsform additiv erzeugt, nämlich über ein entsprechendes Makro, das dem Benutzer zwar die Parameter der FM zur Verfügung stellt, das Ergebnis dieser FM aber als additives Spektrum erzeugt. In diesem Falle ist das Ergebnis "additive Synthese" zu nennen, da der Anwender auf Wunsch vollen unabhängigen Zugriff auf jeden einzelnen sinusförmigen Klangbestandteil hat – wenn er das FM-Makro für 5f abschaltet, nachdem er darüber das Ergebnis einer FM als additives Spektrum hat erzeugen lassen.

Und jetzt werde ich bei einer Tasse Tee dem draußen niedergehenden Regen lauschen und mich fragen, ob ich dazu "Granularsynthese" sagen darf.

Ich bin da an einer Stelle etwas anderer Ansicht, aber ich will eigentlich nicht den Thread mit meinen Überlegungen belasten. Zumindest bisher hatte ich die Sache folgendermaßen verstanden, und die Terminologie folgendermaßen benutzt:

Der Unterschied zwischen einem Einzelton mit verschiedenen harmonischen Obertönen und einem Akkord, der nur die Töne einer Obertonreihe umfasst, ist eigentlich der, dass die Partialtöne des Einzeltons alle immer in Phase sind. Daher war für mich bisher Additive Synthese eine solche, bei der es gelingt, diese Obertöne in Phase zu erzeugen.

Wenn ich also zu einem Einzelton mit Frequenz f und Obertönen 2f, 3f, "n"f einen zweiten Ton hinzu mische, sagen wir mit Frequenz 3f, der durchaus auch Obertöne haben darf (also 6f, 9f, 12f, …), und es gelingt mir, diesen Ton in Phase beizumischen, dann hört man im Gesamten einen einzelnen Ton, und das ist für mich durchaus additive Synthese. Das ist eben mehr als was ein Mischpult kann! Ob, wie serge schreibt, "der Anwender auf Wunsch vollen unabhängigen Zugriff auf jeden einzelnen sinusförmigen Klangbestandteil hat", wäre für mich zweitrangig. Erstens, weil ja auch nachträglich nicht mehr feststellbar ist, ob das der Fall war. Zweitens, weil die Symtheseart sich nicht dadurch ändert, dass der Anwender vielleicht die Teiltöne 65 und 67 nur gemeinsam in der Lautstärke beeinflussen kann. Zumindest wäre eine Definition per diesem Detail für mich etwas akademisch…

Das heißt, ich hätte diese Syntheseart weniger über die Anzahl der Regler für den Anwender als über das Ergebnis definiert.

Soweit mein Verständnis. Ich wollte eigentlich damit nicht nach Wochen im Forum die Diskussion sprengen, aber es nagt nun doch an mir…

Für die Diskussion (die ich aber kaum verfolge, weil die Schreiber wie immer viel zu disziplinlos durcheinanderreden) hilft vielleicht noch folgender Gedanke: Wenn ich die "odd"-Obertöne als Gruppe bearbeiten kann, heißt das ja, dass ich einen Ton der Frequenz 2f hinzumischen kann und in der Lautstärke mit allen Obertönen unter Kontrolle habe. Wie wäre es nun mit den weiteren primzahligen Tönen? 3f mit Obertönen, 5f mit Obertönen, 7f mit Obertönen, 11f mit Obertönen? Ich bin sicher, dass ich mit jedem derartigen Regler ein sehr charakteristisches Element des resultierenden Klangs beeinflussen kann. Wenn ich dazu noch ein paar gängige Obertonlautstärkeverläufe für jeden davon auswählen kann (wie etwa 3f, 9f, 15f, 21f, also nur ungeradzahlige Vielfache des hinzugefügten Frequenz 3f, sind ja "untereinander" eine Rechteckschwingung), dann müsste das doch reichen, oder? Je ein Regler für die ersten soundsoviele primzahligen Obertöne, dazu dort ein Auswahlschalter zwischen vier oder fünf Standard-Wellenformen (mithin jeweils einer charakteristischen Schar von Obertönen), dann müsste ich doch schon ein Stück weiter kommen, oder?

Dazu braucht man dann zuletzt noch einen Regler wie "even", hier also nun die verbleibenden, hohen, primzahligen Obertöne als Ganzes.
 
Zuletzt bearbeitet:
nun, das ist der grund, warum manche die A.S. offenbar gerne auf die obertonreihe reduzieren wollen: weil es dann scheinbar leichter ist die phasen zueinander zu kontrollieren. aber wozu sollte man das wollen? die lassen sich auch so jederzeit zurücksetzen.

es ist wie bei dem sägezahn: man will ja wohl nicht ernsthaft dem user überlassen die phase eines jedes teiltones einzustellen um damit herumzuexperimentieren. wenn überhaupt gibt man ihm... ja was eigentlich.

Ja, aber meine Einlassung kommt halt sehr spät, drei Wochen nach dem Originalposting.


nicht ganz: 11. März 2011
 
nun, das ist der grund, warum manche die A.S. offenbar gerne auf die obertonreihe reduzieren wollen: weil es dann scheinbar leichter ist die phasen zueinander zu kontrollieren.
Ja, das ist sicher richtig. Aber nichtharmonische Teiltöne kommen im nächsten Semester. Die brauchen wir natürlich, wie schon oben angesprochen, für die Attack-Phase; ob sie uns danach, im Ausklingverlauf viel helfen, müssen wir mal ausprobieren. Analysen von Glockenklängen und sowas könnten da interessant sein, die ja durchaus auch als "harmonisch" wahrgenommen werden.

Vor wirklich nichtharmonischen Elementen würde ich persönlich mich zunächst für Obertöne von Untertönen und dergleichen interessieren. Anschließend für leichte Verstimmungen dessen, was wir bis dahin hatten. Und, ja, da hat 110 recht, die wird man dann in die Phase zwingen müssen.
 
Zuletzt bearbeitet:
nun, das ist der grund, warum manche die A.S. offenbar gerne auf die obertonreihe reduzieren wollen: weil es dann scheinbar leichter ist die phasen zueinander zu kontrollieren. aber wozu sollte man das wollen? die lassen sich auch so jederzeit zurücksetzen.

Aus dem selben Grund aus den wir mit 12 Frequenzen mit einem entsprechenden Verhältnis Musik machen und nicht die Frequenz einfach frei wählen, weils einfacher ist und viele Zusammenhänge auf diese Weise leichter zu verstehen sind. Also im Prinzip aus dem selben Grund aus dem auch die FM Ratio Frequenzen den Harmonischen entsprechen.
 
ich dachte wir sind schon in semester II :sad:

nicht gradzahlige teiltöne braucht man noch für viel mehr als nur für die attackphase. :)

Also im Prinzip aus dem selben Grund aus dem auch die FM Ratio Frequenzen den Harmonischen entsprechen.

tun sie das bei dir? bei mir nicht. bei yamaha auch nicht.
 
Zuletzt bearbeitet:
wo ist es denn so? ich habe das noch nicht gesehen, meiner erinnerung hatten die DX/TX ratio wie 1.03, 1.49, 1.98 usw. und ich finde FM mit ganzahliger ratio auch mega-langweilig. :]

gut daran ist nur, dass man die berechnung abkürzen kann.
 
wo ist es denn so? ich habe das noch nicht gesehen, meiner erinnerung hatten die DX/TX ratio wie 1.03, 1.49, 1.98 usw.
Beim FB01 gibts nix anderes ;-) Die Zwischenschritte sind sinnvoll, z.B. zum transponieren und um Chords zu erzeugen, sicher auch für metallisches, aber die ganzen Ratio Werte sind sinnvoll um die FM besser zu verstehen. Man versteht die Zusammenhänge besser als wenn man das mit Halbtönen probieren muss.
 
es wäre ja auch ein wunder gewesen, wenn du mal ausnahmsweise mal mit dem rest der welt damit konform gehen würdest, was ein formant ist.

"Als Formant bezeichnet man in der Phonetik und Akustik die Konzentration akustischer Energie in einem unveränderlichen Frequenzbereich, unabhängig von der Frequenz des erzeugten Grundtons"
Was glaubst du denn, was ich denke, sei ein Formant? Dein Wikipedia-Zitat trägt bei mir Eulen nach Athen. Und überhaupt setzt du dich damit ja selbst ins Unrecht. Lies unveränderlicher Frequenzbereich. Da kannst du nicht wandernde Formanten, etwa für Diphthonge, mit Frequenzvariation erklären oder umsetzen.

Also okay, zwei Klangbeispiele. Nicht für dich, du willst ja nicht verstehen, sondern für jene, die meinen letzten Post untermauert sehen möchten.

Beispiel 1: 1s 300Hz, 20 Teiltöne. Der 19. ist 20dB stärker als die anderen und ändert seine Frequenz von 19×300Hz auf ein Achtel davon. Sicher hätte ich auch mehr Teiltöne runterpitchen können. Dann wäre er klanglich etwas breiter. So hab ich dich verstanden, als du freie Frequenzänderung von einzelnen Teiltönen mit Formanten in Zusammenhang gebracht hast, und tatsächlich, so ist es kein Formant, das siehst du doch ein? Das Ohr kann das jedenfalls nicht integrieren und hört zwei Klänge.

Beispiel 2, zum einen als grafisches Diagramm über Zeit und Amplitude, und zum anderen als Klang, höre sound2.mp3. Von Teilton 20 bis 10 lass ich die Teiltöne zeitversetzt an- und abschwellen.
sound2-outline.png

EDIT: Falls es wen interessiert, wie diese Beispiele zustande kommen und wer zufällig etwas mit Programmierung am Hut hat, siehe mein Projekt-Wiki, wo ich u.a. auf wandernde Formanten eingehe.
 

Anhänge

  • sound.mp3
    9,9 KB · Aufrufe: 6
  • sound2.mp3
    10,5 KB · Aufrufe: 9
Zuletzt bearbeitet:
Was glaubst du denn, was ich denke, sei ein Formant?

ein formant ist für dich ein gegenstand, über den du reden kannst.

du willst ja nicht verstehen

es gibt da eigentlich nichts falsch zu verstehen.

wenn ich in zwei sich überlappenden wertebereichen in dem einen einen festen wert habe und in dem anderen einen variablen, dann kreuzen sich diese beide werte.

da nützen dir dann auch deine pseudowissenschaftlichen abhandlungen (oder "beispiele" über irgendein ganz anderes thema) nichts mehr dabei, mich vom gegenteil zu überzeugen.
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben