Totgesagte leben länger - Digitale Synth-Engine fertig

Ich würde auch erstmal sagen, das Du alle Eigenschaften der CPU (SIMD Befehlssätze wie z.B. SSE2, eventuell Inline Assembler) ausnutzen solltest, bevor Du was ganz neues mit den Grafikkarten angehst, zumal Du damit die Kompatilität einschränkst. Nicht alle Karten von NVIDIA unterstützen dies und es ist fraglich, ob es nicht bei den Rechenvorgängen zu hohen Latenzen kommt, besonders bei der Rückgewinnung der Daten aus den Texturen.
 
Hey, das seh' ich genauso ... :lol:

Und auch wenn mit dem noch zu programmierenden Synth nicht viele Stimmen möglich sein werden bei einem fiktiven Durchschnitts-PC; für wirklich gut klingende Bass- und Leadsounds inklusive Filter würde es allemale reichen. Und mir persönlich ein Kauf wert. Da würde ich schon noch das lästige Bouncing in Kauf nehmen, um Rechenpower wieder freizukriegen. So, wie man halt erst einmal irgend einen Platzhalter-Effekt nimmt, um sich selbst an einer ungefähren Vorstellung zu orientieren und hinterher, wenn es dann ans Eingemachte geht, die wirklich heißen Eisen auffahren lässt. (Kennt man ja z. B. vom Reverb-Prozedere der letzten Jahre)

Vielleicht geht ja auch noch was, wenn man die Mehrkern-Technologie ausnutzt? Keine Ahnung, inwiefern das bei Synths etwas bringt.
Und das Ganze dann wie gesagt kombinieren mit der Option, als User selbst den Rechenleistungsverbrauch bestimmen zu können.
Beim Massive z. B. habe ich auch mal zwischen den versch. Modi hin- und hergeswitcht und größtenteils keinen eklatanten Unterschied (der es mir wert wäre, die CPU härter schuften zu lassen) feststellen können. Bei vielen Sounds ist das halt auch nicht wirklich nötig.

Aber da du keine Dual- oder Quadcore-Maschine hast, fällt diese Option wohl leider aus. :|

Und die Idee, vielleicht mal bei DSP-Kartenherstellern anzufragen, ob sie Interesse hätten, dein Baby lauffähig auf ihren Karten zu machen, hatte ich anfangs auch. Doch das würde wohl auch wieder nur neue Hürden aufstellen und zudem die oben angesprochene Kompatibilität einschränken. Immerhin kann man auf einer PoCo Mark One ganze 4 Virus-Instanzen laden .. (sofern Multilizenz vorhanden) Bei 16 (?) Stimmen pro Instanz. Nun, wenn deine Engine 4 Stimmen pro DSP könnte, wäre das für mich auch noch okay. Für geile Leads und Bässe reichts wie gesagt. Und man könnte das Ding als ultimativen Bass- und Lead-Synthie verkaufen. ;-) Eine völlig neue Qualität abseits von Virus und Novation. Vielleicht würden sich aber auch die Leute von Use-Audio für deinen Synth interessieren? Würde mich nicht wundern, wenn sich NI in gar nicht so langer Zeit bei dir melden würde .. mit dem Absynth haben wir ein solches Beispiel, wo jemand schon einen Synth fertig hatte und dann "eingekauft" wurde. Das ist halt insofern interessant, weil du nach Leuten fragtest, die dir beim Programming helfen können. Vielleicht würden sie sich aber auch nur für das Know-How interessieren und nur dein Wissen einkaufen wollen.
Genug phantasiert .. 8)

Naja, alles ist möglich ..
 
BUMP!
Wie geht es eigentlich weiter mit diesem hoch interessanten Projekt? Letzter Stand war ja wohl eine geeignete Platform zu finden. Wäre so etwas mittels FPGA realisierbar?

Resofreak hat sich dieses Jahr ja noch nicht gemeldet, ist das ein gutes oder ein schlechtes Zeichen?

Würde mich freuen, wenn es hier weitergeht.
 
Hallo an alle und ein frohes neues auch wenns spät ist. Danke für euer reges Interesse an dem Projekt. Hatte zwischendrin extrem viel zu tun und kaum Zeit weiter an der ganzen Sache weiter zu arbeiten. Im moment wird die Cuda-Plattform als Basis anvisiert. Danke für die positiven Feedbacks. Ja auch die Soundbeispiele Resofreak.10004 und Resofreak.10006 gehören zur aktuellen Synthengine.

Habe mich auch mit einen guten Freund zusammen getan und wir werden
uns die Arbeit teilen damit das ganze in einem realistischen Zeitrahmen befindet. Jetzt hängt es erst mal daran den Rahmen GUI VstI Interface CUDA-Interface in den Griff zu bekommen um überhaupt mal die rudimentären FUnktionen zu programmieren und zu testen.

@JonnySun

Danke für deine Lobeshymnen da werde ich ja ganz verlegen... :oops: :kussi:
Freu mich sehr darüber dass man auch die pedantische und penible Arbeit hört die ich dort reinstecke und es auch gefällt. :frolic:
Das mit der variablen Qualitätsstufe ist auch ne gute Idee ums flexibler
für die Bedürfnisse des Users zu machen...


Anbei neue Beispiele, da ich noch etwas an den Verzerrungen geändert habe damit es nicht ganz so statisch klingt. (dynamische Sättigung und andere Effekte hier die ersten Ergebnisse)

Wie immer ohne Eq oder Effekte

Demo Sequenz 1
http://www.twango.com/media/Resofreak.p ... reak.10014

Demo Sequenz 2
http://www.twango.com/media/Resofreak.p ... reak.10015


Sequenzen 3-5 zeigen die Sättigungseigenschaften des Filters

Demo Sequenz 3 Extremes Overdrive
http://www.twango.com/media/Resofreak.p ... reak.10018

Demo Sequenz 4 Im nichtlinearen Bereich mit Hochpass
http://www.twango.com/media/Resofreak.p ... reak.10017

Demo Sequenz 5 Im nichtlinearen Bereich ohne Hochpass
http://www.twango.com/media/Resofreak.p ... reak.10016

P.S.:

Habe einen Dual Core, und die Idee mit Assembler ist ja nicht schlecht,
nur Assembler kostet noch mehr Entwicklungszeit und ist extrem aufwendig. Die Latenzzeiten von dem CUDA-System kann ich noch nicht
abschätzen ist aber ein Ansatz. Jedoch wenn Universal Audio das hinbekommt ohne extreme Latenzen Nvidia-Karten als DSP-Karte zu misbrauchen sollte es irgendwie machbar sein....
Klar schränke ich damit ein, jedoch reicht selbst ein Dual-Core mit 3,6 Ghz nicht aus für eine Stimme. Und ansich wird der Synth keine Eierlegendewollmilschsau sein. Sondern das machen, was er gut kann guten Sound. Daher finde ich eure Ideen und Ansätze gut. Wir werden sehen wie das Kind sich entwickelt, und werde eure Wünsche im Hinterkopf behalten...
 
Resourcen-Hunger

Resofreak schrieb:
...jedoch reicht selbst ein Dual-Core mit 3,6 Ghz nicht aus für eine Stimme...
:shock: :shock: :shock:
Unglaublich! Bezieht sich dieser Resourcen-Hunger jetzt auf Deinen Reaktor-Prototypen oder bist Du hier schon in C/C++ oder einer anderen Programmiersprache gelandet?
 
Re: Resourcen-Hunger

mc4 schrieb:
Resofreak schrieb:
...jedoch reicht selbst ein Dual-Core mit 3,6 Ghz nicht aus für eine Stimme...
:shock: :shock: :shock:
Unglaublich! Bezieht sich dieser Resourcen-Hunger jetzt auf Deinen Reaktor-Prototypen oder bist Du hier schon in C/C++ oder einer anderen Programmiersprache gelandet?
ich glaube nicht, dass REAKTOR für eine Stimme dabei in die Knie gehen würde.
 
Das ganze ist noch in der Core Funktion von Reaktor realisiert. Also ist das der Resourcenhunger von Reaktor für eine Stimme. C kommt bald wir sind dran am arbeiten
 
Resofreak schrieb:
Das ganze ist noch in der Core Funktion von Reaktor realisiert. Also ist das der Resourcenhunger von Reaktor für eine Stimme. C kommt bald wir sind dran am arbeiten
aha - trotzdem erscheint mir der CPU-Hunger sehr groß, aber ich denke, du hast das Filter selbst konstruiert und es ist sehr aufwändig in der Emulation? An den Klangbeispielen kann man das noch etwas schwer abschätzen. Vielleicht wäre ein direkter Vergleich mit den vorgegeben REAKTOR-Filtern mal zu schön, um den Klangunterschied durch einen A-B-Vergleich zu hören?

ciao herw

PS: sehr spannendes Projekt :D
 
Wenn du dir das Overdrive-Beispiel der Sounds angehört wirst du den Unterschied merken. Bei den Standardfiltern von Reaktor kannst du am Signalpegel drehen wie du willst da ändert sich am Sound nix. Dass ist hier der Fall. Sowie die Filtermodell das Signal nicht andicken, wenn du sie ohne Resonanz fährst. Außerdem hat die Resonanz keine Obertöne und Seitenbänder wenn du sie dir im Spektralanalyser anschaust, das Modell von mir hat sie jedoch. Und diese Obertöne sind auch abhängig vom Eingangssignal.
 
Wenn du das kommerziell machen willst dann würde das nur sinn machen
wenn du deine Plugins im Bundle mit einer DSPkarte verkaufst so das man eine stabile Hardware hat und die Soundengines darauf optimiert werden.Ansonsten scheitert die ganze Geschichte daran das deine Plugins auf verschiedenen Rechnerkonfigurationen lauffähig sein müssen wenn deine Algorithm CPU abhängig sind und eine konstante Soundqualität ohne Latenzen und störenden Glitcheffekten nicht mehr garantiert ist.
Die von vielen beklagte mittelmäßige Soundqualität bei den NI Plugins
rührt vom PC Konzept her und nicht weil deren Programierer geschlampt haben.Ich ziehe hier mal Vergleiche mit einem PC und einer Videospielkonsole,zumindestens in der Vergangenheit war das so gewesen
das Exclusivspiele die auf Konsolen optimiert waren technisch besser
aussahen als PC-spiele,so das man eine konstante Bildrate von 60 Frames/s hatte.Als die Dreamcast Konsole ende 98 herauskam sahen die ersten Spiele wie Sonic Adventure besser aus als damalige PC-spiele,so wurden schon massig Bumpmapping Effekte eingesetzt,obwohl der PC zu dem Zeitpunkt leistungsstärker war und mehr Speicher hatte als Segas Konsole.Und selbst als die Konsole schon 2 jahre auf dem markt war sahen Spiele wie Shenmue besser aus,dank der Optimierung.Oder Segas
Spielhallen Klassiker wie der Scud Race Arcadeautomat,bis heute konnte man den nicht 1:1 auf dem PC emulieren und das sagt schon viel aus.
Der Polysix in der PC Version hat max. 32 Stimmen in der Oasys bis zu 172 Stimmen.
 


News

Zurück
Oben