Organischer 3D Oszillator

Dh einen DC Remover braucht man so oder so, das ist Standard bei solchen Sachen.

Wenn man einen Kondensator lädt für Sägezahn hat man auch erstmal Offset den man entfernen muss.

es gibt keinen grund post filter für etwas zu verwenden, was man es genau so gut hätte gleich anders machen können, weil es doch vorausberechenbar ist.

ein sägezahn oder ein cosinus oder "irgendwas mit pi" hat immer eine bekannte range - anders als gaussches rauschen oder eine gesangsaufnahme.
 
@2bit was Du an Grafiken produzierst ist für mich irrelevant.
Es ist mir aber zu müßig da drauf einzugehen.
 
Leute, ich klink mich aus der Diskussion aus, ihr dürft gerne weiter fabulieren.
 
...aber das ist genau der punkt: für einen komplexen cosinus oszillator braucht man nämlich 2 audio signale.
Soso, braucht man das? Für einen reellen Oszillator reicht doch ein komplexer Zahlenraum, der ja eine Ebene ist, 2D, und die Zeitachse verläuft orthogonal durch diese.
Oder besser gesagt: Sinus ist reell, Cosinus ist imaginär. Aber ich befürchte, deine Antworten findet wieder mal keinen Anschluss in meinem autodidaktisch-dilettantisch angeeigneten Halbverständnis. Bear with me.
 
Aber stimmt schon, dass die dritte Dimension nur eingebildet sein kann: An sich ergibt sich die eigentliche Zweidimensionalität des Audiosignals schon daraus, dass "aus Sicht" des Trommelfells nur die Auslenkung nach innen und außen gibt entsprechend der Schwankungen der Druckverhältnisse, als Funktion über die Zeit. Auch PCM kodiert pro Kanal nur die Amplitude über diskrete Zeitpositionen.
 
Soso, braucht man das? Für einen reellen Oszillator reicht doch ein komplexer Zahlenraum, der ja eine Ebene ist, 2D, und die Zeitachse verläuft orthogonal durch diese.
Oder besser gesagt: Sinus ist reell, Cosinus ist imaginär.

er ist gar nicht nur imaginär in dem sinne, denn man spricht an vielerlei stellen in der signalverarbeitung von imaginären signalen, die aber äh... trotzdem tatsächlich existieren.

ich dachte bei dieser cosinus sache daher auch sofort an den komplexen sinus, der genau das ist, nämlich 2 signale.

wobei dort dann jedes der signale (die ja jeweils aus zeit vs. werte bestehen) als eine dimension gilt und man dann von einem zweidimensionalen oszillator spricht, der aus x = cos(Θ) und y = sin(Θ) besteht.

wobei die amplitude genau so fest vorgegeben ist wie der offset zwischen beiden und auch am verhältnis von periode und frequenz ist nicht zu rütteln - man kann das ganze dings mit einem einzigen wert beschreiben, z.b. "50".

Aber ich befürchte, deine Antworten findet wieder mal keinen Anschluss in meinem autodidaktisch-dilettantisch angeeigneten Halbverständnis. Bear with me.

mein möglicherweise bestehender einfluss akademischer sichtweisen und begriffliochkeiten muss nicht richtiger oder besser sein, aber er erleichtert die kommunikation ganz erheblich - auch für autodidakten und eklektiker, zu denen ich ja genau so gehöre wie du.

wenn so ein mathematiker richtig loslegt versteht man eh nix mehr. und was nützt mir auch zu wissen, was z.b. modulo eigentlich ist, wenn es doch eh in sämtlichen programmiersprachen "falsch" benutzt wird.

und da sich die akademiker ja auch permanent darum streiten wie irgendwas zu machen und zu nennen ist und wer nun recht hat, sollte man das alles nicht überbewerten.

nur die grundprinzipien sollte man beachten; wenn man die these aufstellt, dass es eine dritte dimension in einem elektrischen oder digitalen system gibt, sollte man das auch begründen können.
 
Zuletzt bearbeitet:
hab oben mal n spontanes Demo** reingestellt
Quali ist mies, musikalisch ists auch nix aber war erster Take

** Screenrecording vom Tablet, dh 1 Finger Touch Bedienung
 
Zuletzt bearbeitet von einem Moderator:
Hab im Eingangspost ein anderes Video reingestellt.

Die Posts hier sind ja echt wieder Absurdistan, kann mich gar nicht erinnern.
 
Die Frage ist ob ichs Dir per PM soweit erkläre dass Dus in Pure Data nachbauen kannst.
Ich mach aber grad schlechte Erfahrung damit es jemand anders zu erklären.

Dabei ist es ganz einfach, erstens ist es nur AM/ FM.
Zweitens gibts einfach nur 3 Phasenoscis die im Kreis flitzen,
und ein Punkt der aus den 3 Positionen resultiert.
Der Sound ist dann der Abstand zum Mittelpunkt in 2D.

In der Praxis läuft das auf 2 mal AM raus, sin * sin und cos * cos, und 1 mal Sqrt (x^2 + y^2).
 
das erklären mit worten ist halt immer ein bischen schwierig bei so zeugs und die audio beispiele schienen niemanden wirklich überzeugt zu haben.

den versuch per PM zu wagen hätte der versuch vermutlich noch eine reihe weiterer vorteile und bedarf auch keiner vorherigen erlaubnis meinerseits. :)
 
Video oben ist aktualisiert.

wovon ich bitte ausehen sind weitere Trollkommentaee.
Wer sich willens und in der Lage sieht das für ein open source Projekt auf ARM oder als VST zu portieren mag mich per PM kontaktieren mögen,
 
dafür müsstest du es halt mal erklären und das willst du ja nicht.

aber ein casio piano VST wollte ich schon immer mal haben.^^
 
wovon ich bitte ausehen sind weitere Trollkommentaee.
Wer sich willens und in der Lage sieht das für ein open source Projekt auf ARM oder als VST zu portieren mag mich per PM kontaktieren mögen,
Dein Deutsch könnte echt mal nen Firmware-Update gebrauchen. Das sehe ich als eine (aber nicht die einzige) Voraussetzung dafür, dass Leute Interesse an deinem Projekt bekunden. Ohne das kanns auch passieren, es ist nur recht unwahrscheinlich.

Frag dich: Sollte ein Genius mit einer revolutionären Idee, wenn er sie schon nicht kurz und bündig erklären kann oder erst gar nicht möchte, auch nach der Devise "Wasch mich, aber mach mich nicht nass" verfahren?
 
Also gut, dann poste ich es hier nochmal, weil es sonst untergeht.

Ich suche jemand der Interesse hat das für VST und/ oder Standalone für ARM Linux zusammen zu einem open source Produkt zu entwickeln.
Wobei das Endergebnus kommerziell sein kann, Erkenntnusse und Funktion aber schon während der Entwicklung open source sein sollen.

Vorausetzungen sind Erfahrung damit, Verständnis von einfacher Geometrie und trigonemtrischen Funktiinen sowie DSP Basiskenntnisse.

Die UI Elemente im Demo
x Spin
y Spin
xyz Feedback
Radius Attack
Radius Decay
- undisclosed ( braucht eine etwas asführlichere Erklärung)
z Spin = Keyboard Pitch

https://youtube.com/watch?v=skrdhhr0QFw


S
ound wird interessant ab ca 1:30. Es ist nur eine Mono Voice mit einem Oszillator.
Das ganze stellt ca 1/3 eines bestehenden Synthesizerkonzepts dar.
 
Zuletzt bearbeitet von einem Moderator:
"undisclosed" habe ich in meinem lebenslauf auch ein paar mal stehen, was beim betätigungsfeld politik leider manchmal nicht anders geht.

es führt allerdings regelmäßig nur dazu, dass die leute dann fragen, was da denn stehen würde, wenn ich es hingeschrieben hätte. :)


okay, also das verfahren besteht aus xyz feedback und radius attack. dann ist ja jetzt alles klar.
 
"undisclosed" bleibt es erstmal Dir gegenüber.
Ein Grund dafür ist dass das Feature noch nicht in der finalen Form ist. Es ist aber in der Form neu.

Interessant dass der Thread von gestern 4k auf heute 5k Zugriffe gesprungen ist.
Aber so gut wie niemand hat das aktuelle Soundbeispiel angehört.
Von hier wohl weniger als 9 Leute.

Mir fällt ehrlich gesagt gar keine Technik ein die diese Klangvielfalt hätte mit diesen Klangeigenschaften die dazu mit so wenigen Parametern erreichbar wären.

Es wäre schwer das mit Wavetables hinzubekommen, und jeder Klang würde so lange zum "Schrauben" brauchen wie das gesamte Video lang ist, oder länger.

Mit FM sieht es ähnlich aus. Physical Modeling dito.

Im Synth kommen natürlich noch ein paar Parameter, Funktionen und damit Klangmöglichkeiten dazu. Und natürlich steckt auch ein bisschen mehr dahinter.

Das Video ust übrigens kein Demo dass ich für das Forum gemacht habe.
Ich hab nich eher spintan entschlossen es zu posten.
 
Hat eben nochmal n Quantensprung gemacht, klingt fast physisch jetzt


was man ab Sekunde 25 hört ist wie schnell man vom Stringsound zum Piano kommt

Edit: noch paar mehr Sounds
 
Zuletzt bearbeitet von einem Moderator:
Ha.
Der Synth hat übrigens nur 4 × 4 Parameter.

Zum Vergleich: ein Mini Moog hat 53, ein DX 7 168.
 
Ich finde die Sounds recht brauchbar für so einen DIY-Ansatz.

Kurze unqualifizierte Frage am Rande: Lassen sich Faust-Projekte eigentlich in ein VSTi komplieren/wrappen, oder läuft das ausschließlich in der eigenen Runtime?
Als Oszillatormodell für die Korg Engine (NTS-1/'Logue) wäre das auch interessant.
 
Faust kann für ne ganze Reihe von unterschiedlichen Umgebungen exportieren.
Man braucht aber dann in der Regel noch einen Wrapper oder zusätzlichen Code,
weil mehr oder weniger nur der Audiopart damit gemacht wird.
Man kann als C, C++ Rust und noch paar kompilieren, Web Assembly zB
kann dann VSTs machen, iOS Apps, Android Apps, es gibt Export für bestimmte Eurorack Module, Code für Pure Data Module, usw.

Faust generiert dann erstmal aus dem Faust Code anderen Code, der dann wieder kompiliert werden muss, dh da wird mehrfach kompiliert was nicht ganz unproblematisch ist aber eben erlaubt das alles zu machen.
Der generierte Code ist auch kaum lesbar.

Die Sprache selbst ist ja schon mal super kompakt, und der generierte Code ist
dann das als relativ radikal minimale Aneinanderreihung und Verschachtelung der Operationen wie sie abgearbeitet werden, was das ganz schnell macht oder machen soll.

Im Code sind aber Kommentare die es erleichtern (sollen) dann da die Schnittstellen anzusprechen für Parameter- und Audioübergabe.

Für Android usw lässt sich wohl relativ bequem aus dem Webinterface exportieren
( habs noch hicht versucht) aber man hat dann erstmal die StandardUIElemente die die
Leute vorbereitet haben.

Ne andere Möglichkeit ist sich nur bestimmte zeitkritische kleine Bausteine zu machen und die dann in der gewohnten Entwicklungsumgebung einzubinden.

Das ganze ist ziemlich crazy eigentlich.

Die Sprache ist auch n ziemlicher Hammer, einerseits gibts recht wenig Befehle usw.
aber man muss vollkommen anders denken. Hab auch davon wiederum nur die Basics drauf, ist recht verkopfte Knobelei zum Teil.
 
Für Korg könnte sein dass man abspecken muss, inzwischen pasdiert da unter der Oberfläche ziemlich viel.
Aber man könnte wohl C exportieren, und dass dann aussenrum anpassen und für Korg kompilieren.
 
Zuletzt bearbeitet von einem Moderator:
ich hab grad mal in son Code für Pure Data reingeschaut, kann sein dass da auch Pure Data Strukturen exportiert werden.
Also nicht nur Externals Modul sondern ein Patch mit Kabeln.
Irre wenn das so ist.
 
Ich habe mal versucht, mir die Sache selbst herzuleiten - vielleicht ist das ja ähnlich wie Dein Ansatz.
Dabei sind fx, fy und fz die Rotationsfrequenzen in X- Y- und Z-Richtung.

Rotation um X-Achse Y(X) = sin 2pi*fx*t Rotation um Y-Achse X(Y) = sin 2pi*fy*t Rotation um Z-Achse Y(Z) = sin 2pi*fz*t X(Z) = cos 2pi*fz*t ANNAHME: Die X und Y Koordinaten der ersten beiden Rotationen werden mit den X und Y Koordinaten der Z-Rotation multipliziert. Es folgt: Y(X)(Z) = sin (2pi*fx*t) * sin (2pi*fz*t) X(Y)(Z) = sin (2pi*fy*t) * cos (2pi*fz*t) ABSTAND VOM KOODINATENURSPRUNG (Projektion, Z entfällt) A^2 = X^2 + Y^2 A = sqrt ((sin (2pi*fx*t) * sin (2pi*fz*t))^2 + (sin (2pi*fy*t) * cos (2pi*fz*t))^2)
 
Dazu hab ich einen einfachen PD Patch gemacht:

Bildschirmfoto-1.jpg

Es gibt drei simple Hüllkurven für die Rotation in X- und Z-Richtung sowie den Verstärker. Das "modu-1" Objekt überblendet jeweils zwischen dem Audiosignal an seinem Eingang und dem Festwert von 1. Musikalisch spielbar ist das natürlich noch nicht- getriggert wird es per Mausklick rechts oben....

Aber Deine Versuche in Faust scheinen ja gut voranzugehen - vielleicht kriegst Du's ja alleine hin?

Hier ein kurzes Sample zu meinem Aufbau:

Anhang anzeigen trigonometrisch.mp3
 
Zuletzt bearbeitet:
Ist glaube ich gleich.
Bei mir geht das dann noch durch eine Pickup Distortion und es passieren ne Menge andere kleine Dinge.

Ich habs allerdings vor paar Tagen gegen einen ähnlichen FM Algorirhmus getauscht der sich davon ableitet.

Der Grund ist dass das zuviel Rechnung wurde und der DC Offset der dann doch Probleme verursacht hat, dh nicht der Offset selbst sondern die Diskontinuität bei Stimmenklau.

Und zwar hab ich jetzt einfach nur noch

OscY -> Phase Osc X -> Phase Osc Z.
Osc Z -> Out.

Ist nicht mehr das selbe, ich ha aber die Startphasen so gesetzt dass es entsprechend das oscy Cosinus ist und bei Oscx hatte ich die Startphase zusätzlich plus 90° weil wenn bei der Vector Berechnung beide die gleiche Frequenz hatten das nicht gut klang wenn nicht einer nochmal 90 versetzt war.

Ich skaliere auch die Kreise unterschiedlich per Velovcity.
Am Anfang wae Velocity nur auf die Z Dimension gelegt, so dass das sozzsagen Linsenförmig wird und dann flach bei 0.

Jetzt in der FM Version habe ich es so dass die Envelope mehrfach angewendet wird:
Oscy * Env, Oscx * Env, Oscz * Env.
Das war vorher schon ähnlich.

Mir ist ùbrigens gar nicht ganz klar was die Unterschiedr zwischen der FM Version und der Rotation ganz genau sind.
Wenn man einfach nur die Rotation beschleunigt und verzögert ist es erstmal das selbe wie Phasenmodulation.
Aber im Zusammenspiel mit der dritten Dimension ist es mir dann nicht mehr klar.

Was übrigens interessant aussieht ist wenn man die XY Werte die für den Output verwendet werden sich 2D anzeigen lässt.
Die Z Tiefe kann man noch auf Helligkeit oder so legen, weiss nicht ob das in PD geht.
 


News

Zurück
Oben