Wissenschaftliche Arbeit über Additive Synthese für die Un

Der Cube macht bei der Resynthese im Prinzip genau das, er s

Der Cube macht bei der Resynthese im Prinzip genau das, er schiebt die 512 Partiale hin wo er sie braucht. Wobei das Problem ist nicht das Nachbilden oder die Anzahl der Partiale sondern die Analyse vorhandener Klaenge ist.
 
Is neuronale Synthese auch Resynthese?

Arbeitet doch auch


Is neuronale Synthese auch Resynthese?

Arbeitet doch auch so oder wie war das mit der Hartmann Klospülung?
 
Anders betrachtet ist die additive Synthese nix anderes als

Anders betrachtet ist die additive Synthese nix anderes als die 'andere Seite' der PCM. Dazwischen liegt die oben erwähnte Fourier-Transformation.

Formal muß man die Gültigkeit der Fourier-Transformation 'nur für periodische Signale' beachten, praktisch führt das dazu, das man Zeit und Frequenzauflösung nicht beliebig wählen kann.

Praktisch durchsetzen tun sich die Synteseformen bei denen man mit wenig Parametern viel erreichen kann.

Eine Hammondorgel ist in erster Näherung ein additiver Synthesizer, der von jedem statischen Sound die ersten Harmonischen nachbauen kann.
(Umgekehrt hört sich ein Additiver Sound aus den Hammondgrundtönen schon deutlich nach 'Orgel' an.)
Hat sich durchgesetzt, klingt aber eigentlich auch nur wegen seiner Implementations-Fehler nach was ...

Ohne die subtraktiven Synthziser mit schon deutlich mehr Parametern hätte es sowas wie die (erfolgreiche!) FM-Synthese wohl nie gegeben.

Das Verhältnis zwischen 'möglichen Einstellungen' und 'brauchbaren Sounds' wird immer schlechter.

Bei PCM ist es so schlecht, das man praktisch niemals die Abtastwerte selber bearbeitet sondern nur sampled, also anders erzeugte Klänge 'resynthetisiert'.
 
[quote:afd3448e9a=*Noise-Generator*]Is neuronale Synthese au

Noise-Generator schrieb:
Is neuronale Synthese auch Resynthese?

Arbeitet doch auch so oder wie war das mit der Hartmann Klospülung?

nein! neuronal ist das nicht.. allerdings wird auch eine analyse gemacht und daraufhin ein "sample" abbild geschaffen,was dann mit den 13 parametern, die die programmier vorgesehen haben verwurstet..
 
[quote:87e0cd43a7=*Fragile SoulFire*]ich wei

Fragile SoulFire schrieb:
ich weiß, dass es philosophische Unterschiede gibt. Die additive synthese hat sich ja schließlich nicht umsonst so lange eigentlich nie durchsetzen können, da die anderen syntheseformen einfach "praktischer" sind.

Die Musikwissenschaftler jedoch denken nicht (immer) wie Musiker. Die wollen auf einer ganz weiten Meta-Ebene philosophieren, rein theoretisch.
Mein Gedanke war jetzt: Man hat den idealen theoretisch Fall, dass wir tausende SinusOSC haben im hörbaren Bereich, ganz übertrieben sogar jede ganzzahlige Frequenz hat einen Sinus Oscillator. Unter der Vorraussetzung müsste doch jeder beliebige, statische Klang nachgebildet werden können, oder nicht?
Bei nichtstatischen Klängen müsste man die utopische Option hinzuziehen, dass jeder OSC soetwas(!) wie eine ENV braucht, die die Lautstärke steuert. Technisch ist das erstmal undenkbar umzusetzten, aber ich möchte nur von Hirngespinnsten ausgehen.

Versteht ihr meinen Gedankengang? Falls ja: Ist dem so?

1) nee, eher weil es technisch sehr aufwendig war, erst der K5000 konnte das so "richtig".. alles davor war dauteuer..

2) das ist nicht theoretisch, es ist einfach falsch, wenn man FM und additiv gleichsetzt.. es ist eine ganz andere Grundlage.. (sorry.. ist halt so.. )

statisch ist FM aber immernoch generativ, additiv eben nicht (reine mischung)..

theorie erlaubt leider imo diese denkweise nicht..
(hoffe ich HELF dir dabei.. aber es ist leider so.. wobei die leute, die dich checken ,vermutlich weniger drüber wissen..)
 
Es gibt schon Software die FM Synthese auf einem additiven S

Es gibt schon Software die FM Synthese auf einem additiven Synth umsetzt, allerdings ist ein FM Synth spielbar, man kann div. Parameter veraendern und dafuer muesste man bei einem additiven Synths das Spektrum jeweils neu berechnen.

Die Trennung zwischen statisch und generativ ist nicht so einfach, man kann z.B. durch Ueberlagerung von Saegezahn + invertiertem Saegezahn einen Pulsweitenmodulierten Sound erzeugen. Grundaetzlich laesst sich durch Ueberlagerung oft das gleiche oder aehnliche Ergebnisse wie durch Modulation erzeugen, nur muss man dazu das Richtige ueberlagern, was meist mit groesserem Aufwand verbunden ist...
 
[quote:350f9cb273=*Moogulator*][quote:350f9cb273=*Fragile So

Moogulator schrieb:
Fragile SoulFire schrieb:
ich weiß, dass es philosophische Unterschiede gibt. Die additive synthese hat sich ja schließlich nicht umsonst so lange eigentlich nie durchsetzen können, da die anderen syntheseformen einfach "praktischer" sind.

Die Musikwissenschaftler jedoch denken nicht (immer) wie Musiker. Die wollen auf einer ganz weiten Meta-Ebene philosophieren, rein theoretisch.
Mein Gedanke war jetzt: Man hat den idealen theoretisch Fall, dass wir tausende SinusOSC haben im hörbaren Bereich, ganz übertrieben sogar jede ganzzahlige Frequenz hat einen Sinus Oscillator. Unter der Vorraussetzung müsste doch jeder beliebige, statische Klang nachgebildet werden können, oder nicht?
Bei nichtstatischen Klängen müsste man die utopische Option hinzuziehen, dass jeder OSC soetwas(!) wie eine ENV braucht, die die Lautstärke steuert. Technisch ist das erstmal undenkbar umzusetzten, aber ich möchte nur von Hirngespinnsten ausgehen.

Versteht ihr meinen Gedankengang? Falls ja: Ist dem so?

1) nee, eher weil es technisch sehr aufwendig war, erst der K5000 konnte das so "richtig".. alles davor war dauteuer..

2) das ist nicht theoretisch, es ist einfach falsch, wenn man FM und additiv gleichsetzt.. es ist eine ganz andere Grundlage.. (sorry.. ist halt so.. )

statisch ist FM aber immernoch generativ, additiv eben nicht (reine mischung)..

theorie erlaubt leider imo diese denkweise nicht..
(hoffe ich HELF dir dabei.. aber es ist leider so.. wobei die leute, die dich checken ,vermutlich weniger drüber wissen..)

Danke, ich nehme jede Hilfe an, darum habe ich ja mein altvertrautes Forum aufgesucht :)

ich stimme dir zu, aber ich glaub wir reden an einander vorbei.

ich möchte nicht FM und Additive Synthese gleichsetzen. Es geht auch erstmal nicht um reale Umsetzung, oder sogar spielbare Realisierungen. Ich will gänzlich in die Theorie, der Philosophie, einstiegen, auch wenn ich vllt. einen wirklich utopischen Extremfall behandle.

Durch die addierung einzelner Sinusschwingen (tausender) und anpassung ihrer Lautstärke müsste doch jeder statische Klang reproduzierbar sein, oder?
Beim Resultat (nicht Erzeugung!) des Signals muss es doch egal sein, ob die Momentaufnahme eines Klanges den Ursprung in FM, Wavetable oder subtraktiver Synthese hatte. Oder erreicht die FM Synthese Frequenzen, die die additive Synthese (in einer momentaufnahme) nicht erreichen kann (was ich mir nich vorstellen kann?).
 
ja, das geht.. da der sinus eben sowas wie ein atom eines kl

ja, das geht.. da der sinus eben sowas wie ein atom eines klanges ist ,kann mit vielen "sinussen" faktisch alles zusammengesetzt werden.. das ist wahr..

ein dreieck wäre halt eine mischung aus entsprechend vielen sinus-OSCs auf vielfachen des grundtons..

es ist natürlich egal, WIE du das erzeugst, soweit könnte man auch eine mischung aus versch wellenformen oder eine FM aus X OSCs nutzen.. und vieles mehr..


nein, FM kann nicht "mehr" erzeugen, es ist nur komplexer und könnte also auch in additiv generiert werden.. da haste Recht.
 
[quote:07b8ad9982=*Moogulator*]
die FM w


Moogulator schrieb:
die FM würde ich da weniger drin sehen, ausser dem genannten "nebenzustand"..

Das ist jetzt aber etwas verwirrend ausgedrückt.

In dem genannten Nebenzustand findet nämlich gar keine Frequenzmodulation statt!

Es stimmt nicht, das FM-Synthese u. U. "gleichzeitig" auch additive Synthese sein kann, wohl aber beherrschen FM-Synthesizer stehts in begrenztem Maße auch additive Synthese.
 
Danke - jetzt sind wir auf dem selben Nenner. :)

Meine ak


Danke - jetzt sind wir auf dem selben Nenner. :)

Meine aktuelle Gliederung:

Die historische Umsetzungsentwicklung und das theoretische Zukunftspotential des Modells der Additiven Synthese

0. Vorwort
(Beschreibung der Ziele der Arbeit)
1. theoretische Grundsätze
(Fourier, Analyse, Resynthese, Grenzen, Probleme und sonst all den theoretischen Kram)
2. Umsetzungsentwicklung
(Wo wird das additive Synthesemodell historisch umgesetzt.(Synths, etc.) Eine Chronik. Analyse auf dem Synthesizermarkt, die sich ab dem Softwarezeitalter geändert hat)
3. Potential und Zukunft der additiven Synthese
(Verwandschaften mit anderen Syntheseformen, theoretische Möglichkeiten und Grenzen des Modells, Zukunft des Modells)

anhand grob dessen werde ich arbeiten. Denken es tauchen fragen auf, die ich hier nochmal stellen werde.
Danke, ihr wart bei meiner Themendefinierung sehr hilfreich!
Werde euch im Quellenverzeichnis lieb erwähnen ;-)
 
[quote:27c0ef6dc6=*Fragile SoulFire*]

[i:27

Fragile SoulFire schrieb:
Durch die addierung einzelner Sinusschwingen (tausender) und anpassung ihrer Lautstärke müsste doch jeder statische Klang reproduzierbar sein, oder?
Beim Resultat (nicht Erzeugung!) des Signals muss es doch egal sein, ob die Momentaufnahme eines Klanges den Ursprung in FM, Wavetable oder subtraktiver Synthese hatte. Oder erreicht die FM Synthese Frequenzen, die die additive Synthese (in einer momentaufnahme) nicht erreichen kann (was ich mir nich vorstellen kann?).

Durch Fourier-Transformation läßt sich JEDES signal in eine reihe von sinussen zerlegen. Auch APERIODISCHE signale (das wird oft vergessen. man muß nur die dauer der periode gegen unendlich gehen lassen..).
und wenn sich jedes signal in eine reihe sinusse zerlegen läßt, kann man theoretisch auch aus einer unendlichen anzahl sinus-schwingungen JEDES denkbare signal erzeugen (egal ob das dann einem fm-sample, einer klospülung oder der warpkern-interferenz eines wurmlochfurzes ähnelt.. ;-) ). diese forier-reihen sind unendlich, wobei die amplituden immer geringer werden. deshalb kann man sich in der praxis mit z.b. 512 oszillatoren zufriedengeben, weil weitere obertöne dann vernachlässigbar werden...

nach einer übersetzung von fouriers buch würde ich nicht suchen. die fourier-rechnung wird in jedem ingenieurs-mathe-buch behandelt (z.b. "mathematik für ingenieure 2" von lothar papula, falls du nach einer quelle für die fußnoten suchst.)
ansonsten isses auch auf wikipedia ganz schön erklärt: http://de.wikipedia.org/wiki/Fourier-Transformation[/quote]
 
[quote:32bef92e78=*Fragile SoulFire*]Durch die addierung ein

Fragile SoulFire schrieb:
Durch die addierung einzelner Sinusschwingen (tausender) und anpassung ihrer Lautstärke müsste doch jeder statische Klang reproduzierbar sein, oder?

Das ist genau was Fourier gezeigt hat.
Nimm ein peridisches Signal (das ist das was du mit statisch bezeichnet hast) beliebiger Länge und du kannst es in in eine Summe aus Sinusschwingungen zerlegen.
Z.B. ein ganzen Musikstück mit 200 Sekunden Länge, dann hast du alle 1/200tel Hz einen Oszilator. (Also 4.000.000 Stück bis 20khz)
Gibt hinterher halbsoviele Oszilator-Lautstärken wie vorher Abtastwert-Pegel(Samples). (Die andere Hälfte der Information steckt in der Phasenlage.) Das ist zur Klangerzeugung allerdings genauso unbrauchbar wie der Versuch alle Samplewerte einzeln zu bearbeiten.

Deswegen beschränkt sich das 'statisch' bzw. die verwendete Periode auf den musikalischen Grundton, auch weil es sonst nicht als Instrument spielbar wäre.

Absynth hat so einen 'statischen Rohton' Oszilator, man kann dort entweder Kurvenform oder Spektrum zeichnen. Der wird dann aber in eine klassische subtraktive Klangerzeugung geschickt.

Richtige Additive haben dann schon eine Hüllkurve pro Oszilator. (Jedenfalls irgendwo im inneren.)
Dennoch können sie damit lange nicht mehr alle möglichen Sounds bauen!
Der Cube hat deshalb noch andere Verfahren eingebaut: z.b. Vibrato (LFO-FM aller Oszilatoren), Rauschen, Spreizung der Oszilatorstimmung. (Nebst subtraktivem Zeugs und Effekten). In der Resynthese kann er seine Oszilatoren einzeln in der Frequenz einstellen.

Die reale Ausführung ist also schon mehr an die praktischen Erfordernisse angelehnt als das 'theoretische' Modell aus der Fourier-Transformation.

Eine *brauchbare* Synthese muß die Menge der Parameter so beschränken, dass möglichst viele unbrauchbare Sounds rausfallen und möglichst wenig brauchbare verloren gehen. Ausserdem sollten die Parameter eine nachvollziehbare Wirkung auf den Klang haben. Ein Syntheziser der 'theoretisch' jeden Klang erzeugen kann ist ebenso einfach zu konstruieren wie unbrauchbar: einfach eine Sampledatei mit dem Audioeditor erzeugen (malen mit der Maus) und abspielen...
 
[quote:52cc239c9f=*Fetz*]Eine *brauchbare* Synthese mu

Fetz schrieb:
Eine *brauchbare* Synthese muß die Menge der Parameter so beschränken, dass möglichst viele unbrauchbare Sounds rausfallen und möglichst wenig brauchbare verloren gehen. Ausserdem sollten die Parameter eine nachvollziehbare Wirkung auf den Klang haben. Ein Syntheziser der 'theoretisch' jeden Klang erzeugen kann ist ebenso einfach zu konstruieren wie unbrauchbar: einfach eine Sampledatei mit dem Audioeditor erzeugen (malen mit der Maus) und abspielen...

willkommen in der Wissenschaft :)
Nein, ich verstehe euch - musikalisch macht dieser Gedankengang von mir keinen Sinn, ich weiß. Aber ich setze mich mit der additiven Synthese auseinander (oder besser mit dem Modell). Bei modellen sind nun mal grade die Grenzen das interessante, an die wir gemeinsam grade uns heranspinnen.

Nochmals vielen Dank für eure konstruktiven Beiträge.
Ich klappere jetzt punkt für punkt die stationen meiner gliederung ab und werde euch bei fragen natürlich miteinbeziehen.

mal schaun, ob wir nach fertigstellung den thread verstecken, oder löschen, nicht dass mein Prof mir schummeln unterstellt...
Forschung is Forschung. Im Diskurs lernt man mehr als aus reinem Lesen.
 
[quote:c41ae65aa2=*Fragile SoulFire*]
Forschung is Forschun


Fragile SoulFire schrieb:
Forschung is Forschung. Im Diskurs lernt man mehr als aus reinem Lesen.

das war dein bester bisher ;-) und ist genau das was ich heute super oft einfach vermisse, weil man heut eher allein mit büchern gelassen wird,außer man machtschule und selbst da ist das ne modeerscheinung :roll:

stimmt die aussage, das es in der natur keinen reinen sinus gibt ?
 
[quote:59b9cc13ed=*chain*]
stimmt die aussage, das es in de


chain schrieb:
stimmt die aussage, das es in der natur keinen reinen sinus gibt ?

naja, also DER IDEALE sinus ist wohl ebenso abstrakt, wie der mathematische punkt ohne flächen-ausdehnung etc...
wo kommt die aussage denn her?
 
[quote:6bd326784e=*Fragile SoulFire*]
mal schaun, ob wir na


Fragile SoulFire schrieb:
mal schaun, ob wir nach fertigstellung den thread verstecken, oder löschen, nicht dass mein Prof mir schummeln unterstellt...
Forschung is Forschung. Im Diskurs lernt man mehr als aus reinem Lesen.

ich glaub nicht, das dir jemand schummeln unterstellen würde. du hast dich hier doch nur informiert, bzw. recherchiert. das ist doch legitim. es hat dir ja hier keiner die arbeit geschrieben oder so...

ich würde die arbeit übrigens gerne mal lesen, wenn sie fertig ist! würde mich interessiern, sowohl inhaltlich als auch vom aufbau und der art wie man argumentieren muß, wenn man so ein thema wissenschaftlich angeht.
aber erstmal viel erfolg beim schreiben!
 
danke! Nat

danke! Natürlich dürft ihr die Arbeit danach lesen. Wenn sie gut geworden ist, würde ich sie sogar Moogulator für die HP zur Verfügung stellen.

Nachfrage zur Sicherheit:
Das Frequenzspektrum, das ein Mensch hören kann, umfasst c.a. 20.000 Hz, richtig?
 
Als H

Als Hörbereich wird oft 20Hz-20.000Hz angegeben.
Der Einfluß der Randbereiche für den Klangeindruck wird aber oft überschätzt, der Nutzbereich ist eher 40-16.000Hz, wobei mit zunehmendem Alter die Hörfähigkeit nach oben hin absinkt.

Genaueres findet man unter 'Fletcher-Munson', Kurven gleicher Lautheit:
http://de.wikipedia.org/wiki/Bild:Akustik_db2phon.jpg

Die Kurven sind m.e. allerdings mit Vorsicht zu geniessen, da relativ alt und wohl zum Teil auf die damalige Technik zurückzuführen.
 
ja, es sit eigentlich sogar noch weniger bei vielen.. (einig

ja, es sit eigentlich sogar noch weniger bei vielen.. (einige hören schon 13000 nicht mehr)..
 
[quote:76f0aa79cc=*Moogulator*]ja, es sit eigentlich sogar n

Moogulator schrieb:
ja, es sit eigentlich sogar noch weniger bei vielen.. (einige hören schon 13000 nicht mehr)..

jaja, da gibts einige, gefährlich wirds dann, wenn solche Leute Mischpulte bedienen und nichts mehr mitbekommen :evil:
 
momentaner Zwischenstand.
Ist nur meine erste Niederschrift


momentaner Zwischenstand.
Ist nur meine erste Niederschrift. Quellen + inhaltlicher, sowie formeller Korrektur kommt noch.

meine frage: ist bisher irgendetwas "falsch", oder "falsch formuliert?

1. Theoretische Grundsätze

1.1 Die Fourieranalyse und Sinusaddition

1822 veröffentlichte der französische Ingenieur(Roads, S. 1075), Mathematiker und Physiker Jean Baptiste Joseph Fourier (1768-1830) in Paris unter dem Titel Theorie analytiques de la chaleur einen Beweis dafür, dass sich jede noch so komplexe periodische Schwingung als Summe endlich bzw. unendlich vieler simultaner Sinusschwingungen mit unterschiedlichen Amplituden, Frequenzen und Phasen dekonstruieren lässt. Im Umkehrschluss betrachtet, bedeutet diese hierarchische Betrachtungsweise der so genannten *Fourieranalyse* ebenso die Möglichkeit, aus diskreten Sinusschwingungen eine komplexe Schwingung zu konstruieren (*Fouriersynthese*), womit schon der grundlegenste Kerngedanke der Additiven Synthese formuliert wurde. Im Gegensatz zur weitaus verbreiterten subtraktiven Synthesetechnik setzt die Additive Synthese, wie schon aus dem Namen ableitbar, auf die Addition von Sinuswellenformen. Anstatt sich aus einem obertonreichen Spektrum den gewünschten Klang wortwörtlich herauszufiltern, geht man bei der Additiven Synthese den genau umgekehrten Weg: Das gewünschte Spektrum wird direkt aus den benötigten Teiltönen zusammengemischt. Die Sinusschwingung wird auf Mikroebene deshalb ausgewählt, weil sie sich nicht filtern lässt und somit keine Obertöne besitzt, womit sie ideal als eine Art Atom eines Klanges fungieren kann. Ähnlich wie sich jegliche Materie aus immer gleichen Zutaten wie Atomen, Elektronen und dergleichen aufbaut, kann jeder Klang als eine Mischung von elementaren Schwingungen verstanden werden, wobei durch ihre Obertonfreiheit die Sinuswelle die elementarste aller Schwingungen darstellt. Auch technisch hat sich der Sinus als purste Wellenform für Oszillatoren bei additiven Synthesizern etabliert, da er durch seine relativ simple mathematische Definition vergleichbar leicht elektronisch umsetzbar ist.

Wenn man davon ausgeht, dass der Mensch durchschnittlich ein Frequenzspektrum hörbar wahrnehmen kann, welches ungefähr 15.000 Hertz (u.a. altersabhängig) umfasst, wäre dementsprechend im Idealfall eine gleiche Anzahl von Oszillatoren von Nöten, um Klänge in dessen Rahmen zu (re)synthetisieren. Diese Umsetzung wäre natürlich mit einem gewaltigen technischen und finanziellen Aufwand verbunden, wenn man vergleicht, dass subtraktive Synthesizer meist mit nicht mehr als drei Oszillatoren ausgestatten waren und trotzdem schon einige tausend Deutsche Markt kosteten. Zudem kommt noch hinzu, dass Fourier seine Theorie auf periodische Signale bezieht, dass heißt: bei unperiodischen, dynamischen Klängen wäre eine ebenso hohe Anzahl an Modulationsquellen (wie beispielsweise Hüllkurvengeneratoren) notwendig, um jedem Oszillator einen individuellem Lautstärkeverlauf zu ermöglichen.
Diese Veranschaulichung mag erklären, warum die Additive Synthese in der elektronischen Instrumentenentwicklung des 20. Jh. eher eine untergeordnete Rolle gespielt hat, besonders da die analoge Realisierung noch weitaus aufwendiger und kostspieliger wäre, als eine digitale Umsetzung, die sich aber erst viel später erst richtig entwickeln sollte. Dennoch versuchte man schon früh diese Probleme zu bewältigen, was folgende Chronik dokumentieren sollte.

2. Umsetzungsentwicklung des Additiven Synthesemodells - Eine Chronik

2.1. Die Orgel

Eigentlich ist das Konzept der Additiven Synthese bereits seit Jahrhunderten existent, da die Orgel schon allerspätestens im 14. Jahrhundert einen vergleichbaren Entwurf anwendete. Dieser setzt auf mehrere Pfeifenreihen gleicher Bauart. Normalerweise wird eine, manchmal jedoch auch mehrere, dieser Pfeifenreihen zu einem Register zusammengefasst, welches ein- und ausgeschaltet werden kann. Die Register erzeugen verschiedene Tonhöhen, die durch die Fußtonzahlen gekennzeichnet werden, welche sich auch bei einem Großteil der Synthesizer durchgesetzt hat. Man unterscheidet zwischen Grundregister und Aliquoten, wobei Letztere durch bewusste Kombination maßgeblichen Einfluss auf die Klangfarbe wegen ihrer Abstimmung mit Obertönen haben. Doch die Registrierung entscheidet ebenso über die unterschiedlichen Lautstärken der einzelnen Pfeifenreihen, was sich genauso auf die resultierende Klangfarbe bzw. der so genannten Disposition einer Orgel auswirkt.

Es ist spannend zu wissen, dass man wohl nirgendwo Orgeln mit identischem Klang finden wird, da jede Orgel eine individuelle Konstruktion ist, bei der Material, Maße oder Bauart geschmacks- oder bauortsbedingt variieren. Auch jede Epoche bevorzugte sein eigenes, spezielles Klangbild, das nur noch vom Organisten durch die Wahl der Register umgesetzt werden musste.

Wie man sieht, wurden schon deutlich vor Fouriers Lebzeiten Klänge durch Addition zusammengesetzt. Jedoch erzeugten die Orgelpfeifen längst keine puren Sinuswellen, aber dennoch wurde die Mischung von Teiltönen schon praktisch umgesetzt. Es ist nicht bekannt, ob Fourier sich in irgendeiner Art und Weise an der Orgelkonstruktion orientierte, als er sein Theorem postulierte. Jedenfalls ist festzuhalten, dass er das Phänomen ,Klang; bis aufs Äußerste präzisieren wollte, bis er mit dem Sinus als kleinsten Bestandteil einer Schwingung am Ende seines Erstrebens angekommen war.

jetzt danach wollte ich die elektronische Orgel ansprechen. Die Hammond. Meine Frage, weil ich dazu nirgendwo etwas finde: Basiert die Hammond auf Sinuswellen?
 
Die Idee hinter der Hammond-Orgel sind zwar Sinuswellen, die

Die Idee hinter der Hammond-Orgel sind zwar Sinuswellen, die praktische Ausführung ('Zahnräder', die mit einer Art E-Guitarren-Tonabnehmer arbeiten) klingt aber doch schon eigen.
 
*Wenn man davon ausgeht, dass der Mensch durchschnittlich ei

"Wenn man davon ausgeht, dass der Mensch durchschnittlich ein Frequenzspektrum hörbar wahrnehmen kann, welches ungefähr 15.000 Hertz (u.a. altersabhängig) umfasst, wäre dementsprechend im Idealfall eine gleiche Anzahl von Oszillatoren von Nöten,"

quatsch.
-schreib da doch lieber die weit verbreiteten 20-20000 Herz
-man braucht nicht pro hertz einen Oszillator, das macht keinen Sinn,
man kann ja bei 100Hz, 100.5Hz, 100,01Hz usw oszillatoren schwingen lassen.
Schau dir einfach mal die den Tonhöhen zugehörigen Frequenzen an.


es wäre im Idealfall eine Komposition von unendlich vielen Oszillatoren im besagten Frequenzspektrum vonnöten.
Da wir aber nur auf einige hundertstel eines Hz Tonhöhen differenzieren können (ich glaube typisch was so ca. 20cent) kann man diese Zahl reduzieren.
Zudem kann man die Zahl weiter reduzieren wenn man psychoakustische Effekte und vielleicht sogar den Klirrfaktor der "Anlage" mit einrechnet.
Man kann also vom kontinuierlichen Frequenzspektrum zum diskreten übergehen. Trotzdem gibt es in dem sinne unendlich viele Frequenzschritte im Hörfrequenzbereich. Bei der digitalisierung muss jedoch zwangläufig sowieso eine diskretisierung erfolgen, d.h. wenn man sich auf digitaler ebene bewegt...
 
[quote:3abc07e57a=*Fetz*]Die Idee hinter der Hammond-Orgel s

Fetz schrieb:
Die Idee hinter der Hammond-Orgel sind zwar Sinuswellen, die praktische Ausführung ('Zahnräder', die mit einer Art E-Guitarren-Tonabnehmer arbeiten) klingt aber doch schon eigen.

Was ja letzten Endes den angenehmen Sound einer Hammond ausmacht.
Zumal die Obertöne nicht statisch sind, sondern aufgrund der mechanischen Konstruktion (die Wheels sitzen nämlich auch nicht richtig fest auf den Wellen) ständig variieren und eine Wechselwirkung mit anderen Tönen (vor allem bei Röhren-Hammonds) hat.

Reine Sinusorgeln (elektronische Orgeln, mit mehr oder weniger "idealem" Sinus) sind dementsprechend klanglich "tot". Oder sind, umgangssprachlich, Piepsorgeln.
 
[quote:0f7174f709=*komons.de*]

quatsch.
-schreib da doch


komons.de schrieb:
quatsch.
-schreib da doch lieber die weit verbreiteten 20-20000 Herz
-man braucht nicht pro hertz einen Oszillator, das macht keinen Sinn,
man kann ja bei 100Hz, 100.5Hz, 100,01Hz usw oszillatoren schwingen lassen.
Schau dir einfach mal die den Tonhöhen zugehörigen Frequenzen an.


es wäre im Idealfall eine Komposition von unendlich vielen Oszillatoren im besagten Frequenzspektrum vonnöten.
Da wir aber nur auf einige hundertstel eines Hz Tonhöhen differenzieren können (ich glaube typisch was so ca. 20cent) kann man diese Zahl reduzieren.
Zudem kann man die Zahl weiter reduzieren wenn man psychoakustische Effekte und vielleicht sogar den Klirrfaktor der "Anlage" mit einrechnet.
Man kann also vom kontinuierlichen Frequenzspektrum zum diskreten übergehen. Trotzdem gibt es in dem sinne unendlich viele Frequenzschritte im Hörfrequenzbereich. Bei der digitalisierung muss jedoch zwangläufig sowieso eine diskretisierung erfolgen, d.h. wenn man sich auf digitaler ebene bewegt...

ja klar. das ist ja nur die theorie, die bisher aufgeschrieben wurde. die steht auch in vielen büchern so ähnlich.

später komm ich halt dazu, dass der mensch ja eigentlich in einem gewissen rahmen differenziert hören kann, und wie die Firmen ihre synthesemodelle umgesetzt haben.
 
Wenn man davon ausgeht, dass der Mensch du
Wenn man davon ausgeht, dass der Mensch durchschnittlich ein Frequenzspektrum hörbar wahrnehmen kann, welches ungefähr 15.000 Hertz (u.a. altersabhängig) umfasst, wäre dementsprechend im Idealfall eine gleiche Anzahl von Oszillatoren von Nöten, um Klänge in dessen Rahmen zu (re)synthetisieren

Das hört sich an, als ob du da etwas mißverstanden hast.

Wenn du einen Ton von 440Hz hast, dann reichen die Oszilatoren
440, 880, 1320, 1760,2200,2640,3080,3520, 3960, 4400, 4840, 5280, 5720, 6160, 6600, 7040, 7480, 7920, 8360, 8800, 9240, 9680, 10120, ....
vollständig aus um jeden Klang mit dieser Frequenz zu Synthtisieren.

Ist dein Ton aber 440,1 Hz brauchst du Oszilatoren von 440.1 880.2, 1320.3... Hz.

Die Vorraussetzung für die Fouriertransformation heisst: *periodisch*.
Wenn du beide obige Töne gleichzeitig wiedergibst hat die Fouriertransformation eine Periode von 10 sekunden (0.1Hz nämlich das KGV von 440 und 440.1)!

So etwas wie ein Klavierton verarscht einen dabei völlig: aufgrund der Saitensteifigkeit sind die Obertöne gespreizt. Daher ist die Periodendauer mitnichten der (Grund)ton der Saite sondern irgendwas im 0.xx Hz Bereich!


P.S.: Frequenzspektrum ist IMHO immer von bis, so wie du Hz verwendet hast hört es sich nach Mengenangabe an.
 
[quote:e8e57f9298=*Fetz*]
Wenn du einen Ton von 440Hz hast,


Fetz schrieb:
Wenn du einen Ton von 440Hz hast, dann reichen die Oszilatoren
440, 880, 1320, 1760,2200,2640,3080,3520, 3960, 4400, 4840, 5280, 5720, 6160, 6600, 7040, 7480, 7920, 8360, 8800, 9240, 9680, 10120, ....
vollständig aus um jeden Klang mit dieser Frequenz zu Synthtisieren.


kann sein, dass ich etwas misverstanden habe. deswegen frage ich ja nach.
ist wirklich JEDER Klang dieser Frequenz synthetisierbar?

Ist dein Ton aber 440,1 Hz brauchst du Oszilatoren von 440.1 880.2, 1320.3... Hz.

Die Vorraussetzung für die Fouriertransformation heisst: *periodisch*.
Wenn du beide obige Töne gleichzeitig wiedergibst hat die Fouriertransformation eine Periode von 10 sekunden (0.1Hz nämlich das KGV von 440 und 440.1)!

ich dachte periodisch bezieht sich auf einen klang, der sich zeitlich nicht ändert, bzw. der sich konstant wiederholt..?
 
theoretisch ja, praktisch nein, da es daf

theoretisch ja, praktisch nein, da es dafür dann doch mehr OSCs brauchte und auch komplexere Hüllkurven und etwas, das genau zu steuern (Makro)..

geräuschhaftes geht dann durch verstimmen einige OSCs oder durch versetzen, wie beim http://www.sequencer.de/syns/kawai Kawai K5000 ..
 
Das t

Das tückische steckt in 'dieser Frequenz' bzw. im 'periodisch'.

Bei einem Orchester, das den Kammerton a spielt hat die Periodendauer des Klanges nix mit den 440Hz zu tun. Der Klang schwurbelt ja auch deutlich vor sich hin, ein eindeutiges Indiz für niederfrequente Anteile, d.h. den Klang erfasst man eigentlich nur mit einer entsprechend langen Periodendauer (10sec ist da schon ein ganz passabler Wert)

(Oder man muss für jede Schwingung eine neue Transformation (mit neuen Ergebnisoszilatoren) machen. Da wird man feststellen das in Schwingung eins die Grundperiode 440.2 Hz entspricht in Schwingung zwei 440.0 usw. Das ist das was die additiven Synthies dann letzlich machen.)

Eventuell greifst du dir mal einen Audioeditor und spielst eine 'Schwingung' eines Tons periodisch ab - das klingt sofort vollsynthetisch.

Insofern ist der Begriff des 'statischen Klanges' irreführend, ein Musiker wird den nicht so verstehen wie man ihn für die 'Periodendauer' der Fouriertransformation benötigt.
 
verstehe,

heisst das, dass es bullshit ist, was ich da ge


verstehe,

heisst das, dass es bullshit ist, was ich da geschrieben habe - oder das es zwar nicht verkehrt ist, vllt. aber etwas kompliziert dargestellt?

über die "praktische" umsetzung komm ich noch zu sprechen, wenn ich die synths vorstelle, die die additive synthese umgesetzt haben.
 


News

Zurück
Oben