Klangqualität vs Rechenleistung.

A

Anonymous

Guest
Komme gerade darauf, da ich ein altes Toshiba Satellite Pro geschenkt bekommen habe, mit Northwood 2.0 GHz und das eigentlich gar nicht so lahm ist, also im Gegensatz zu meinem noch älteren P-III Teil mit 600 Mhz. Mit nicht zu hungrigen Plug-Ins geht das schon, bin aber noch am herum probieren.

Wie seht ihr da denn so die Entwicklung? Meint ihr der Bedarf an immer mehr Rechenleistung ist gerechtfertigt, oder nicht?

Keine Ahnung wie ihr das seht, aber so ein Plug-In wie der Synth1 ist doch sicher nicht als schlecht klingend zu bezeichnen und da der so wenig Rechenleistung braucht, frage ich mich, warum das nicht generell bei VSTi's so ist. Klar, komplexere Instrumente brauche eben mehr Rechenleistung, aber, wenn ich jetzt mal annehme, der Synth1 da würde praktisch die Doppelte Anzahl der einzelnen Baugruppen haben, zuzüglich eine Mod-Matrix, würde der doch sicherlich immer noch nicht mehr als zwei Instanzen einer Version verbraten, oder? Wenn man den Klang nicht mag, dann kann ich das natürlich verstehen, aber was meint ihr, wohin sich das noch entwickeln wird generell bezogen auf die Rechenleistung im Verhältnis zur Klangqualität. Hört man das irgendwann überhaupt noch?
 
habe für mich den unterschied vom pentium IV zum coreduo bei bandproben schon stark gemerkt - vorher ächzte ich mit kontakt plus effekte plus synth am limit, jetzt ist meist noch luft. zum vergleich synth1 gegen andere vst kann ich dir nichts sagen, weil ich den nicht gut kenne.

aber zb ist es so, dass der sylenth1, der ultra analog oder auch der tassman anfangen, ganz mächtig zu aliasen, wenn man den lfo so schnell wie es eben geht einen virtuellen VCA modulieren lässt oder - weil man beim ultra analog den LFO so schnell gar nicht einstellen kann - eine sehr schnell eingestellte hüllkurve loopt und z.B. auf den oscillator pitch routet. das klingt dann schon sehr digital-geräuschig. beim [_] (bitte synth mit oversampling/option für hohe qualität, die viel CPU verbraucht einsetzen) klingt das anders. ob "analog" weiß ich nicht, jedenfalls ist es nicht dieses aliasing-geräusch.

ps: ich kann aber auch mit einem alten laptop noch eine menge anfangen, muss mich halt nur danach richten.
 
@ fab

Da bin ich. :prost:

Zu Kontakt kann ich wieder überhaupt nichts sagen, habe auch die Produktentwicklung da nicht wirklich verfolgt. Klar, Rechnerseitig tut sich da ja auch etwas, also beispielsweise die Speicheranbindung etc. Als ich von meinem AMD XP mit 1800 Mhz auf meinen AMD 64 X2 (Dualcore) mit 2700 Mhz umgestiegen bin, war das ein heftiger Leistungsschub, auch bei der alten Tracktion Version die nur einen Kern für sich nutzt. Die Plug-Ins die ich aber nutze, verbrauchen ja nicht mehr als vorher, ich kann davon eben mehr verwenden. Ich benutze z.B. auch immer noch gerne den Kompressor aus den mda-Plugins, wenn ich denn einen benötige. Brauchst du öfter etwas Neues an Plug-Ins? Ich komischer Weise nicht. Ich muss manches aber auch eh offline berechnen lassen, ist halt so.

Bei mir ist das irgendwie wie mit Hardware, ich nutze das was ich schon immer gerne an Plug-Ins genutzt habe. Da fällt Reaktor natürlich ein wenig aus dem Rahmen, denn da kommt es halt darauf an was man damit macht, bzw. machen will.
 
ja und vorm krieg hatte ich auch nix elektronisches - da musste ich harmonika spielen ...

also illya hab dich nicht so - aber wenn du willst kannst meinen alten atari haben - der sollte von der rechenleistung zumindest für EINE ad-hüllenkurve reichen :fawk:
 
Ich ver....ten.. Bitte etwas mehr Konzentration beim..

barfly.jpg



 
hey illya - gratuliere zum neuen avatar - der macht mich ganz spitzt - und noch ne größere gratulation zum neuen wohnort - wer im puff wohnt ohne dort zu arbeiten hats geschafft :mrgreen:
 
Ja, ist toll hier. Die ganze Budweißer Werbung ist auch toll. Ich muss nur noch mein Geschlecht ändern. :mrgreen:

budweiser_si_800.jpg
 
OK, der Thread ist schon auf der ersten Seite im %§&%§. Jaaaaaa, ich liebe es!

 
Rechenleistung ist immer gut. Macht die ganze Sache einfach komfortabler. Gerade bei der Ideenfindung, wenn zig Synths nebeneinander rumliegen. Da machen sich die Körner eines Core i7 schon bemerkbar. Aber auch so einer kommt schnell an seine Grenzen. Sei es durch Layer-Exzesse mit Synths ala Massive, Nebula-Reihenschaltungen oder die neuen U-He Sachen Ace/Bazille. Gerade das Thema Modular-Mimic bietet noch viel Spielraum für Entwicklungen. Ein Eurorack im Reason-Style auf Centrino-Basis - und das in 5 Jahren. Wär doch was.
 
Illya F schrieb:
@ fab
Da bin ich.

moin.

Brauchst du öfter etwas Neues an Plug-Ins?

nein, d.h. ja.

eigentlich habe ich alles. manchmal stören mich aber dinge für meinen live-kram, so etwas wie midi-controller-belegung oder umschaltzeiten für den patch-wechsel. deshalb habe ich schon mehr dinge als ich dringendst bräuchte. dann gibt es so ausprobiererei, z.b. fm und physical modeling kram zb, dinge, die ich letztlich (noch) nicht so furchbar viel benutze, aber die mich interessieren. und schließlich das leidige thema "xyz klingt jetzt noch besser". z.b. bei amp simulationen, instrumenten- samples und synthesizern mit analog-ähnlichen funktionen. in der tat sind da ein paar sache in den letzten jahren verbessert worden, wofür es bei hardware ewigkeiten gebraucht hätte. und schließlich: wenn mehr geht (CPU, RAM, festplatte) denk ich mir: ach dann lädste halt hier noch schnell ein clavinet dazu. und ein schöner hall und vielleicht hier und da noch ein subtiler effekt...

kurz: beschränkung auf wenige instrumente, die man wirklich gut kennt ist meine theorie, mit der praxis gibt es da eine kleine dissonanz.
 
Illya F schrieb:
im %§&%§. Jaaaaaa, ich liebe es!
Echt jetzt? Ich probier trotzdem mal eine vernünftige Antwort:
VST ist eben nicht VST. Es kommt eben auf die Programmierung an.
Synth1 ist z.B. kein Synthedit-Synth. Meine Annahme ist, dass so gut wie alles in Maschinensprache oder Assembler programmiert ist, also sehr nah an der Maschine und damit effizient. Viele der heutigen Programmierer können aber diese Programmmiersprachen nicht mehr. Ableton Live wird z.B. in C++ programmiert, haben ich mal gehört.
Sogenannte Hochsprachen, die dann im Einzelfall zudem noch objektorientiert daherkommen, sind von der Programmierung viel bequemer. Erkauft wird diese Bequemlichkeit aber mit einem enormen Verwaltungsoverhead bei der Ausführung, den wir als Anwender nur deswg. nur noch in Randbereichen (wie eben Softsynths) merken, weil die heutigen Maschinen so performant sind.
 
kalyxos schrieb:
Meine Annahme ist, dass so gut wie alles in Maschinensprache oder Assembler programmiert ist, also sehr nah an der Maschine und damit effizient. Viele der heutigen Programmierer können aber diese Programmmiersprachen nicht mehr. Ableton Live wird z.B. in C++ programmiert, haben ich mal gehört.

:? bei solchen generalisierungen bin ich vorsichtig, ohne tiefes verständnis liegt man leicht mal ziemlich daneben. dass "modulare" vsts, in die man fertige module in beliebiger menge und verschaltung frei laden kann, tendenziell mehr ressourcen brauchen ist wahrscheinlich richtig. über die geeignetheit von programmiersprachen für audiosoftware würde ich mir als nutzer kein urteil erlauben.
 
Der Synth1 ist jetzt kein schlechter Synth, aber die Qualitaet der Einzelteile schon ein ziemlicher Kompromiss, selbst wenn einem das bei Filter, Saettigung und Oszillatoren nicht auffaellt, sollte einem das spaetestens bei den recht stufigen monfonen LFOs klar werden. Fuer bestimmte Sounds ist etwas Trash sogar von Vorteil oder wird zumindest nicht als stoerend empfunden, wie z.B. bei Sounds aus Dance und dem sogenannten "Weiberelectro" Bereich...
 
JB schrieb:
Rechenleistung ist immer gut. Macht die ganze Sache einfach komfortabler. Gerade bei der Ideenfindung, wenn zig Synths nebeneinander rumliegen. Da machen sich die Körner eines Core i7 schon bemerkbar. Aber auch so einer kommt schnell an seine Grenzen. Sei es durch Layer-Exzesse mit Synths ala Massive, Nebula-Reihenschaltungen oder die neuen U-He Sachen Ace/Bazille.
Massive habe ich nicht. Bezüglich Nebula, habe Nebula-2, kann ich sagen, dass ich ab und an die EQ's noch benutze, aber mit den einfachen in meinem ollen Tracktion-1 auch gut zurecht komme. War zwar Nebula Nutzer seit Anfang an, habe das aber irgendwann nicht mehr so richtig verfolgt. Von Ace/Bazille hatte ich mich nur mit den Demos etwas beschäftigt und die mag ich klanglich auch schon, aber ich nutze momentan schon öfter einen Modularen für Reaktor den herw gebaut hat. Ja, der braucht auch schon gut Rechenleistung, aber den habe ich halt schon. Will damit sagen, dass ich damit eben schon gut zurecht komme und nichts weiter momentan benötige.

fab schrieb:
kurz: beschränkung auf wenige instrumente, die man wirklich gut kennt ist meine theorie, mit der praxis gibt es da eine kleine dissonanz.
Ist doch OK. Muss ja nicht zwangsläufig dazu führen, dass man nicht auch mal über den Tellerrand schaut, vor allen Dingen nicht, wenn man mit etwas nicht zufrieden ist.

kalyxos schrieb:
Sogenannte Hochsprachen, die dann im Einzelfall zudem noch objektorientiert daherkommen, sind von der Programmierung viel bequemer. Erkauft wird diese Bequemlichkeit aber mit einem enormen Verwaltungsoverhead bei der Ausführung, den wir als Anwender nur deswg. nur noch in Randbereichen (wie eben Softsynths) merken, weil die heutigen Maschinen so performant sind.
Aha. Von Zusammenbau aus "Lego" kann man da dann aber noch nicht reden, oder doch?
 
Summa schrieb:
Der Synth1 ist jetzt kein schlechter Synth, aber die Qualitaet der Einzelteile schon ein ziemlicher Kompromiss, selbst wenn einem das bei Filter, Saettigung und Oszillatoren nicht auffaellt, sollte einem das spaetestens bei den recht stufigen monfonen LFOs klar werden. Fuer bestimmte Sounds ist etwas Trash sogar von Vorteil oder wird zumindest nicht als stoerend empfunden, wie z.B. bei Sounds aus Dance und dem sogenannten "Weiberelectro" Bereich...

Sollte einem das spätestens klar werden. = Das dürfte dem aufmerksamen Hörer auch nicht entgangen sein.

Uertz-Style?

Das kannst du sicherlich noch besser. Klingt zu sehr nach Standgas. :D
 
Sollte auch kein Review werden, dafuer wuerde mir im Moment auch die Zeit fehlen ;-) Das mit den stufigen monofonen LFOs ist dir aufgefallen?
 
Nein, ist es nicht, also das stufige, bzw. nur, dass da irgendetwas nicht stimmt. Ich höre doch auch nicht annähernd so gut wie du, ist eben so, oder war schon immer so. Wüsste auch nicht wie ich mein Gehör verbessern sollte, wenn da etwas nicht richtig funzt bei meinen Ohren.

Ich habe mich nur bei der FM immer gewundert, warum die so anders, oder auch komisch klingt. Habe das bei meinen Drones gemerkt. Ich vermute das soll so nicht sein. Letztendlich habe ich das dann eben für mich genutzt. Vielleicht könnte ich das was ich da in Verbindung mit dem KTgranulator so gemacht habe ja gar nicht mit Reaktor etc. machen, weil das irgendwie eben auf Reduzierung/Einsparung von Rechenleistung beruht. Wäre doof, aber wissen tue ich das natürlich nicht, ich benutze Teil ja fast nur dafür. FM mit Reaktor nutze ich jetzt erst mit einem der Modularen Ens. von herw. DAS klingt schon gänzlich anders. :D
 
Die FM ist schon ganz ok, besser als bei den meisten VAs. Haelt z.B. brav die Tonhoehe, selbst beim verschieben der Pulsbreite des Modulators...
 
kalyxos schrieb:
Erkauft wird diese Bequemlichkeit aber mit einem enormen Verwaltungsoverhead bei der Ausführung
Naja, "enorm" ist doch etwas übertrieben. Ein in Assembler und C++ versierter Kollege von mir (der u.A. eine Zeit lang seine Brötchen damit verdiente, Plugins zu "Plattform-übersetzen") sagte mir dass die C++ -Compiler heutzutage recht schlau sind, und dass der kompilierte Code meist doch erstaunlich kompakt daher kommt. Auf die Assembler-Ebene runterzugehen lohnt sich nur in Spezialfällen. Vieles punkto Ressourcenbedarf hat vorallem mit mathematischer Fitness und ausgeklügelter und cleverer Programmierung zu tun. Man bewegt sich hier ja viel im Bereich der höheren Mathematik. Beispiel: FFT benötigt ja nur ein Bruchteil der normalen Fourier-Transformation, bedient sich aber eines mathematischen Kniffes der ohne das nötige Hintergrundwissen kaum zu kapieren ist. Wer mal in CCRMA-Papers und anderer höherer DSP-Literatur rumstöbert, stösst immer wieder auf solche eleganten Vereinfachungsmöglichkeiten für Audioprozesse. Auch ein damit einhergehendes Bewusstsein für den cleveren Einsatz von Lookup-Tables etc.. Wer da nicht fit ist, programmiert u.U. zu rechenintensive Routinen.
 
tim schrieb:
kalyxos schrieb:
"enorm" ist doch etwas übertrieben. ...erstaunlich kompakt daher kommt.
Mein enorm ist genau so relativ und subjektiv wie das erstaunlich kompakt. Ich orientiere mich immer noch gern an den Produkten der Demo-Scene. Was die Jungs und Mädels da in ein paar MB großes Binary reinpacken, ist der Wahnsinn. Und das wirst Du mit keinen noch so "schlauen" gcc hinbekommen.
Aber dein Einwand bezgl. der ineffizienten Algorithmen ist korrekt, kommt aber nach m.M. nur noch erschwerend hinzu. Ich bin weiterhin der Meinung, dass die heutige SW nicht sehr effizient programmiert wird. Speicher und Taktung sind ja auch kein wirkliches Problem mehr, bzw. ein Problem des Users: Soll er sich doch einen stärkeren Rechner kaufen ... Leider gibt es auch in der Computerszene zuviele Leute (wie in der Autoindustrie), die immer nur den PS bzw. kW huldigen ...
 
Ich hab 'nen ähnliches "Luxusproblem" - mein olles MBP (Core nicht-2 Duo aus 2006) hab ich gerade ersetzt durch etwas Zeitgemäßeres - und auf der alten Mühle ein "handoptimiertes/mundgeblasenes" Gentoo-Linux (+ Musiksoftware) draufgebastelt.

Inwieweit das alles zuverlässig & wohlklingend funktioniert erforsche ich noch gerade. Meine Hoffnung ist die, daß - obwohl die Open Source Auswahl nicht allzu groß ist - einige Dinge möglicherweise besser, ressourcenschonender und letztendlich frei (von kommerziellen Lizenzen) funktionieren - Jugend forscht, die Hoffnung stirbt zuletzt ;-)
 
kalyxos schrieb:
Mein enorm ist genau so relativ und subjektiv wie das erstaunlich kompakt.
Nein. Ich beziehe mich da auf die Aussagen meines Kollegen, der wie gesagt beruflich direkt mit dieser Materie zu tun hatte. Denn ich hatte genau dieselben Bedenken wie Du bezüglich höheren Programmiersprachen und hatte ihn genau hierauf angesprochen. Ich kolportiere lediglich aus sachkundiger Ecke. Genauer ins technische Detail kann ich leider nicht gehen, da ich das letzte Mal auf dem C64 in Assembler programmiert habe (lang ist's her :mrgreen:), und die wenigen damals verfügbaren Compiler (für Basic) in der Tat nicht wirklich schlanken Code fabrizierten, mit vielen Redundanzen, unnötigen Pointer-Resettings etc. drin. Moderne C++ -Compiler seien da angeblich viel intelligenter.

Ich bin weiterhin der Meinung, dass die heutige SW nicht sehr effizient programmiert wird.
DAS stimmt definitiv. Mein Kollege hat beim Plattform-Übersetzen allerhand programmiertechnische Peinlichkeiten gesehen, auch in Audio-Software die nicht unbekannt ist (und die ich deshalb aus Diskretionsgründen auch nicht erwähnen werde). Da liegt meiner Meinung nach das Problem
 
tim schrieb:
unnötigen Pointer-Resettings etc. drin.
Erklär doch mal, was ein Pointer-Resetting ist :mrgreen:

(Hinweis:
- Was ist eine Referenz auf ein Objekt - in C++ - oder z.B. auf den Heap - in C?
- Was ist Pointer-Arithmetik?
- Und/oder (letztendlich): Wie räumt man Speicher frei?)

Zusammengefasst: Dein Beitrag ist F.U.D. ("ein Bekannter/FeF hat behauptet, daß ...").
=> beweise!

*ullsh*t
 
finde es natürlich toll, wenn ihr es mit diesen erkenntnissen besser macht als die derzeit am markt auftretenden entwickler. in der zwischenzeit nehme ich mit den dingen vorlieb, die es schon gibt und das ist ja nicht so wenig. der beste maurer ist immer noch der, der kommt und anfängt zu mauern...
 
audiotrainer schrieb:
Zusammengefasst: Dein Beitrag ist F.U.D. ("ein Bekannter/FeF hat behauptet, daß ...").
=> beweise!

*ullsh*t
Hm? Ich bin doch ganz offen darüber dass ich das lediglich kolportiere von einem Sachkundigen. Und zwar weil ich mit eben derselben Frage punkto höhere Programmiersprachen vs. Assembler an ihn herangetreten bin. Habe nichts zu "beweisen" :?, bin nicht im Rechthabe-Modus, und die Identität Dritter würde ich hier in einem Forum sicher nicht Preis geben, erst recht nicht wenn es gute Kollegen sind.

Und mit pointer resetting meinte ich dass der Basic-Compiler den ich damals beim C64 benutzt hatte bevor ich direkt mit Assembler zu coden begann, beim Compilieren von FOR-NEXT -Schleifen jeweils immer zwei Counter-Bytes (also 16 bit, für Schleifen bis 65536) initialisiert und benutzt hat, auch wenn die Schleife kurz genug gewesen wäre um mit einem Byte (also bis 256) realisiert zu werden, und dadurch effizienter hätte gemacht werden können. Dazu noch Zeropage-Adressen verwenden um nochmals ein paar Taktzyklen zu sparen... aber eben, das war 8-bit Steinzeit. "Counter" wäre zugegebenermassen das bessere Wort gewesen als "pointer". Reicht das?

Netter Tonfall übrigens. Was ist eigentlich mit diesem Forum los in letzter Zeit?
 
@ Alle

Mir fällt da gerade etwas auf/ein.

Genau genommen müsste es eigentlich heißen, Klangqualität vs. Stromverbrauch, oder zumindest so ähnlich. Letztendlich dreht es sich ja darum, dass man immer nur mit der gerade verfügbaren Rechenleistung auskommen muss, bzw. das tut als Anwender. Die Rechenleistung steigt ja aber von Jahr zu Jahr und deshalb, so vermute ich, kann man die Klangqualität, eventuell irgendwann einmal, gar nicht mehr der dann verfügbaren Rechenleistung gegenüberstellen. Meine, so eben meine Vermutung, irgendwann ist die Klangqualität eben so herausragend, dass da keine Steigerung mehr möglich ist und sich nur noch die eine Seite nach oben bewegt, nämlich die der verfügbaren Rechenleistung. Von daher wäre doch eine Betrachtung der Klangqualität pro Watt oder so, eventuell sinnvoller?

Mir geht es schon um bestmögliche Ausnutzung der verfügbaren/gegeben Rechenleistung auf Computern und letztendlich hat man ja schon Mehr Rechenleistung pro Watt.. Wenn man jetzt noch berücksichtigt, dass wir an dem steigenden Strompreis eh nichts ändern können, dann glaube ich langsam das es eher heißen müsste "Klangqualität im Rechner unter Berücksichtigung der Entwicklung des Strompreises.". Hmm..
 
Also die Resourcen-Hungrigkeit aus der Sprache abzuleiten geht IMO nicht. Was DSP-Algorithmen angeht, so braucht man eh nur die C-Features von C++. Und heutige Compiler erzeugen mittlerweile besseren Assembler-Code als der Mensch oft jemals könnte - alleine Cache-Effekte, welche Compiler teilweise berücksichtigen - machen auf heutigen CPUs eine Menge aus!

Für DSP-Algorithmen sind diese ganzen Objekt-Orientierten Features häufig unnötige CPU-Fresser. Und wer in deinem DSP-Algorithmus dynamisch Speicher alloziert verliert schon mal eine ganze menge an Taktzyklen alleine durch den System-Call dahinter.

Natürlich braucht es, und das ist glaub ich das Hauptproblem, einen erfahrenen Programmierer, der sich auch mal anschaut was der Compiler aus seinem C++ Code macht, und den Compiler evtl. unterstützt indem er einfacher zu optimierenden C/C++ Code schreibt. Das ist aber häufig dann eine Optimierung die ganz am Ende kommt.
Wichtig ist, das der Programmierer weiß wie teuer welche Resourcen ungefähr sind (genau kann man das bei heutigen Rechnern und Betriebssystemen eigentlich gar nicht mehr sagen), und das berücksichtigt. Derjenige wird dann auch wissen, das C++ Objekt polymorphie einen extra Pointer-Zugriff auf den vtable braucht, und das Allokation von Objekten im Heap nicht umsonst ist usw. usf.

Ich hatte mich mal kurzzeitig selbst in das Thema DSP-Algorithmen eingelesen und bissl experimentiert. Würde mir, troz meiner mehr jährigen Erfahrung als C/C++ Programmierer nicht direkt zutrauen einen effizienten Soft-Synth zu Programmieren. Was da teilweise an Erfahrung was Signalverarbeitung und deren Programmierung drin steckt, ist enorm. Da müsste ich praktisch glatt nochmal ein Studium als Nachrichtentechniker hinter mein Informatiker Diplom her schieben.
 
Illya F schrieb:
Meine, so eben meine Vermutung, irgendwann ist die Klangqualität eben so herausragend, dass da keine Steigerung mehr möglich ist und sich nur noch die eine Seite nach oben bewegt, nämlich die der verfügbaren Rechenleistung. Von daher wäre doch eine Betrachtung der Klangqualität pro Watt oder so, eventuell sinnvoller?

auch hier gilt sicherlich, dass grenznutzen abnimmt

http://de.wikipedia.org/wiki/Gossensches_Gesetz

der sprung vom "steinberg model e" zum "mininimonsta" war bestimmt viel größer, als der unterschied zu den neuesten super-hungrigen synths (DCAM und Co.).

rechenleistung und stromverbrauch hängt aber nicht immer zusammen, mein altes P4 laptop verbraucht deutlich mehr als mein coreduo. (und das nochmal wesentlich (!) weniger, seit ich mir eine SSD geleistet habe.)
 


Neueste Beiträge

News

Zurück
Oben