Klangunterschiede zwischen DAWs

Dieses Thema im Forum "DAW / Komposition" wurde erstellt von magic_erkan, 3. Februar 2010.

  1. Ich frage mich ob Cubase, Logic, Live... eigentlich unterschiedliche Qualitäten haben, wenn eine Aufnahme gedithert und exportiert wird.
    Hängt das von den Programmalgos an sich ab, oder liegt es einfach am "frontend", und was reingeht, oder passiert da noch viel unterschiedliches bei der internen (Weiter-)Verarbeitung???

    Gibt's da überhaupt noch hörbare Unterschiede?

    http://www.weiss.ch/p2d/p2d.html

    sonst würde es soch für sowas keinen markt geben oder :roll:

    Also ohne Plugins einfach Aufnahme->Export....
     
  2. Zolo

    Zolo Tach

    Also ich behaupte das kommt in erster Linie darauf an wie die DAW aussieht und was du über die DAW denkst. Dementsprechend wirst du auch genau das hören was du erwartest. Wenn du ein mehrfachen Blindtest machst (es wird im vergleich abgespielt und du musst eraten welches Schnippsel zu welcher DAW gehört) aber wirst du merken das du die Unterschiede gar nicht raushören kannst. Vor ein paar Monaten hat jemand seine Diplomarbeit einer englischen Tontechnikuni genau da drüber geschrieben. Verschiede Audiosummierungen in Protools, Cubase und Ableton etc. Keiner konnte da irgendwas raushören, obwohl es Messbar war (hat sich nach dem Phasendrehen nicht ausgelöscht).

    Größer sind die Unterschiede wenn nicht nur Audio summiert wird, sondern auch Plugins und Effekte der Spuren summiert werden. Ich habe mal einen solchen Test zwischen Cubase und Ableton erstellt. Also ganz genau Plugin einstellungen und Presets aufgeschrieben und die gleichen Spuren in beiden Sequenzern 1 zu 1 nachgebaut. Das ergebniss war hier auch wieder das gleiche: Meßbar ja aber keiner war in der Lage einen Unterschied zu hören (vorallem wo ich nicht gesagt habe welches der Cubase und welches die Ableton Mixdown war).

    Ich kann nur jeden Empfehlen einen solchen Test zu machen. Vorallem wo es ja mittlerweile von Ableton und Cubase eine Demoversion gibt zum Ausprobieren.

    Das allerwichtigste bei einem solchen Test ist, daß beide Versionen überall absolut genau die gleiche Lautstärke haben! In den Spuren wie auch am Ende der Mixdown. Denn wenn etwas nur 0,2 Db lauter ist wird es vom menschlichen Ohr als Transparenter und Druckvoller empfunden ;-)

    Das einzige wo ich mir nicht sicher bin, ist Logic. Logic ist eventuell das einzige Seqeuenzerprogramm was beim Summieren etwas schlechter klingt als andere. Ich selbst hab da keine Erfahrung, aber fast alle die ich kenne die mit Logic arbeiten hören angeblichen ein riesen Unterschied zum Hardware Summieren und bevorzugen das. Aber auf der anderen Seite kenne ich auch einige die den Mixdown ihres Ableton Songs im Cubase machen weil sie davon überzeugt sind, daß es dann besser klingt.

    Wie gesagt mein Tipp: hört nicht darauf was andere sagen! Macht selbst den Test und verlasst euch nur auf eure Ohren!

    Gruß Zolo
     
  3. Anonymous

    Anonymous Guest

    Aber nehmt auch die *Ohren*. "Wer das nicht hört ist blind" veranlasst viele dazu, sehr viel Geld für Unsinn auszugeben.
    Also: Foobar2000 runterladen, ABX-Plugin runterladen. Tracks mit DR-Meter (oder ähnlichem) auf gleiche RMS-PEgel ausmessen. (Nicht Peak/Normieren!)
    ABX-Test wirklich machen.

    (Und ja, Foobar2000 ist nicht schön - aber es tut seinen Zweck )
     
  4. frixion

    frixion Tach

    Kurze Antwort: Ja, es gibt hörbare Unterschiede zwischen den verschiedenen DAW's, allerdings sind diese Unterschiede eher Geschmackssache und kein Feature.
    Trotzdem kannst du mit (fast) jeder DAW (Fruity Loops vielleicht mal ausgenommen) sehr gute Ergebnisse erzielen (halbwegs gute Wandler vorausgesetzt), manche User schwören vielleicht dann eher auf den "Sound" von Samplitude oder Logic. :?:

    Ich arbeite derzeit fast nur mehr mit Live 8.1.1, obwohl Samplitude eigentlich "besser" klingt....aber leider nicht auf MacOS . Zwei Rechner möchte ich im Moment nicht im Betrieb laufen haben...zu laut für akustische Aufnahmen.
     
  5. Anonymous

    Anonymous Guest

    Aber natürlich sind die subjektiven (nicht technischen) Unterschiede viel größer als die technischen. Daher *müssen* die technischen Unterschiede mit einem entsprechenden Test überprüft werden. Das Postulat technischer Unterschiede, die nicht durch entsprechende Tests belegt sind ist pseudoaudiophile Dampfplauderei. Derartiger Unsinn ist in der Branche leider recht etabliert - aber das macht aus solche dummdreister Überheblichkeit natürlich keine sinnvolle Aussage.

    Im Ableton Handbuch sind die transparenten Sachen übrigens beschrieben - die eigentliche 'nackte' Engine ist eben transparent, die macht ja nix mit den Daten. Sobald man natürlich das Signal bearbeitet ist es mit so etwas vorbei, das fängt bei EQs an, dann kommt ganz lange nichts - und dann kommen so Dinge wie Dehnen oder Pitchen, das sind rein heuristische Algorithmen, die massive (hörbare) Fehler machen *müssen* - anders als ein EQ, der ein nachprüfbares "ideales" Verhalten[1] hat und da auch *sehr* dicht drankommt. Das wird ja oft durcheinandergeworfen. (Z.B. wird der Ableton Engine gerne mal der Klang des elastischen Audios angehängt, ein Vergleich zu einer anderen DAW, die nicht stretcht ist dann natürlich kompletter Unsinn - und wenn man stretcht, dann vergleicht man eben auch nur die Strecht-Algos, deren Fehler sind im Vergleich zu den 'üblichen' Fehlern der Audiobearbeitung allerdings gigantisch. )


    [1]Unterschiedliche EQs sind allerdings unterschiedlich definiert - wie man die Sollfunktion festlegt ist dem Konstrukteur freigestellt. Und *das* ist dann Bestandteil unstrittig unterschiedlicher Klangeingeschaften.
     
  6. marv42dp

    marv42dp bin angekommen

    Ich darf auch nochmal hierauf hinweisen:

    src: https://youtu.be/BYTlN6wjcvQ


    Da wird auch recht eindrucksvoll demonstriert, wie transparent auch die Signalbearbeitung mit EQs ist / sein kann (/ sollte - wenn Ableton das anders macht, wäre das für mich ein Minuspunkt).
     
  7. Anonymous

    Anonymous Guest

    Ein idealer EQ ist durch seine Übertragungsfunktion vollständig definiert. Reale EQs sind recht dicht an idealen EQs (sonst=schlecht, das gibt es in Digital auch, es ist aber nicht die Regel).
    Für einige gängige EQs kommt noch eine Eigenschaft dazu: Minimalphasigkeit. Ein solcher EQ ist bereits durch den Frequenzgang vollständig bestimmt.
    Übliche EQs sind nun auch noch einfache Versionen, d.h. sie haben eine niedrige Ordnung, ggfls. sogar so, dass alle Parameter einstellbar sind. Solche EQs unterscheiden sich dann nur noch in ihren Abweichung vom theoretischen Ideal voneinander, das ist aber wie gesagt sehr wenig (und ohne Test nach wissenschaftlichen Kritierien sind angeblich hörbare technische Unterschiede fast nur audioesoterischer Bullshit und der seltene Rest defekte (oder historische) Implementationen ).

    Praktisch folgt daraus, das EQs durchaus unterschiedlich ausgelegt seine können und sich daher ziemlich unterschiedlich "anfassen". Wenn man allerdings EQ "akademisch" vergleicht, in dem man sie messtechnisch(!) möglichst gleich einstellt und dann einen Hortest macht, werden die Unterschiede viel kleiner als die Benutzungserfahrung suggeriert.

    Analoge und digitale EQs haben übrigens ein unterschiedliches "natürliches" Verhalten, man kann das Verhalten analoger EQs digital (gut) annähern. Der Unterschied ist, dass aus einem analogen System 2. Ordnung dann eben kein digitales Filter 2. Ordnung wird (das verhält sich eben anders) sondern ein System höherer Ordnung.
     
  8. Zolo

    Zolo Tach

    Das sehe ich nicht so daß es hörbar ist. Wenn ich dir 9 genau gleiche Mixdowns von 3 verschiedenen Daws gebe. wirst du niemals die 3 verschiedene Daw's auseinanderpaldovern ohne es zu messen. Never !
    Wenn du aber damit arbeitest wirst du ganz ganz sicher sein unterschied zu hören. Das von mir angesprochene Phänomen ist auch im Video oben mehrmals erörtert.
     
  9. comboy

    comboy Tach

    ich würde auch eher sagen da hört man keine unterschiede, also soweit man jetzt DAW interne FX mal außen vor lässt.
    aufnehmen ist schließlich nur werte die vom wandler kommen abspeichern.
    mixen ist mathematisch nur eine einfache addition.
    ich wüsste beim besten willen nicht wo man da was anders machen könnte.

    comboy
     
  10. Moogulator

    Moogulator Admin

    Inzwischen arbeiten alle DAWs (die großen/Üblichen) alle mit 32Bit. Der Unterschied sind eher die Methoden um auf 16 Bit runterzurechnen und ähnliches, auch beim Mixing und EQing wird es sehr unterschiedlich. Aber rein Aufnahme und Mischen ohne großes EQing und Kompressorzeug (das hängt mehr vom Plugin oder der internen Mittel ab) kann man durchaus als sowas wie eine sehr gute hochwertige Basisbaustelle nehmen.

    Es gab zwar immer wieder Leute, die Cubase wegen der 32Bit nahmen, bevor Logic nachzog. Und das mal stellvertretend für die anderen Tools. Entscheiden würde ich aber stets nach dem Worksflow - also der Arbeitsweise mit dem Ding. Einzig Ableton hat aufgrund der besonderen Soundengine aber 32 Bit bestimmte Vor/Nachteile die mit der Granularengine zu tun haben. Das ist aber in den letzten Versionen ab 7 kaum noch ein Thema. FL Studio und Reason hingegen sind etwas beschränkter im Sound. Dennoch werden damit hier und da sehr coole Produktionen gemacht. Aber sie haben schon einen kleinen Nachteil hinzunehmen gegenüber den GroßDAWs.

    Der Rest hängt von Abhöre, Abhörsituation, Ohren, Subjektivität und Audiointerface mit ab. Wobei die Wandler heute eigentlich keine Rolle mehr spielen. Hier geht es um Bereiche zwischen Amöbenschnupfen und Eso. Man hat eben nicht selten schon 96% Qualität und holt sich den Rest sehr teuer rein, wo man darauf wert legt. Bei mir sinds die Synths, bei anderen Kompressoren und Outboard und bei dritten das Pult. Weil sie eben viel damit arbeiten. Solang keiner mit "Analog Summieren" in Zusammenhang mit irgendeinem Kleinpult kommt…

    Rest wurde schon beleuchtet.
     
  11. Danke für die Antworten!
     
  12. Anonymous

    Anonymous Guest

    Bei mir war das aber auch ein Krasser Unterschied, und zwar derbst. Ich bin mal wegen ein Paar Features kurzfristig von Tracktion1 auf Tracktion2 gewechselt und dachte erst da werden Automationsspuren falsch interpretiert. Wie das jetzt von beispielsweise Tracktion2 auf 3 ist, kann ich nicht sagen, jedenfalls bin ich nach 2-3 Stunden Fehlersuche wieder zurück zu Tracktion1 gegangen, konnte mir das auch nicht erklären. Den Unterschied hätte definitiv auch ein Tauber mit Krückstock gehört. Hatte dann versucht einfach Ähnliches nochmal neu zu machen, klang aber genauso beschissen und das lag weder an meiner Einbildung oder war Wurzel irgendeiner Eso-Hirn-Scheiße. Werde wohl oder übel doch noch irgendwann zu Reaper wechseln müssen, jedenfalls, wenn XP irgendwann gar nicht mehr auf modernen Maschinen laufen wird. Hatte Reaper mal vor kurzen ausprobiert und das klang da alles wie ich es gewohnt bin, kann aber auch sein, das der Synth1 (Daichi VSTi) irgendeine Macke hatte und es da zu einer Unverträglichkeit zwischen ihm und Tracktion2 kam und das eben am Plug-In lag und gar nicht am Host, nur kann es das ja auch nicht sein, also das Plug-Ins unter einem anderen Host auf einmal völlig anders klingen. Können natürlich schon, nur sollte das nicht sein.
     
  13. Zolo

    Zolo Tach

    Uff also ehrlich gesagt würde ich in solchen Fällen IMMER erstmal davon ausgehen das nicht die gleichen Vergleichbedinungen vorliegen. Ich sag mal: wenn man von Fakten reden will muss man wirklich agribig genau Messen und dann vergleichen (Blindtest!!!) - da reicht kein "ich hab das Gefühl gehabt das es viel besser klang" oder sich auf eventuelle Bugs in der DAW zu beziehen ;-)

    Klar jeder hat seine eigenen Erfahrungen und Meinungen. Ist ja ok. Aber im Netzt neigen die Menschen einfach schlichtweg dazu sich in die Schubladen reinzusetzten die andere aufmachen. In diesem Fall daß im Hinterkopf zwangsweise "na vielleicht klingt Tracktion schlechter als andere Daw's" und vielleicht lag am Ende tatsächlich nur ein Anwendungsfehler bei dir vor. Z.B. eine falsch eingestellte Option oder ein Bug oder oder oder.

    Gruß Zolo
     
  14. Die Klangunterschiede zwischen den DAWs sind minimal und ich würde eher darauf achten, wie mich
    die Benutzeroberfläche anspricht, ob ich damit gut zurecht komme, ob sie meinen Anforderungen genügt.
    Letztendlich mixt man dann auch so, dass einem das musikalische Resultat anspricht.
     
  15. nox70

    nox70 bin angekommen

    Nur mal am Rande - Fruity Loops gibt es nicht mehr. Große Unterschiede habe ich eigentlich nicht zwischen einer Mischung aus FLStudio 9 (letzte Version) und Samplitude LE hören können. Nur empfinde ich den Aufbau von FL besser als Kreativ/Midi- und Gedönstool, für`s Mixen halte ich die klassiche Sequencer Struktur a la Cubase für übersichtlicher.
     
  16. frixion

    frixion Tach

    OK, Zolo, wie du meinst, aber ich habe sehr wohl unterschiede zwischen Cubase SX1 und z.B. SX2/3 gehört (ohne interne EQ's etc., reine Audiofiles), ebenso zwischen Live 8 und Samplitude 8-11 und auch Logic 7/8/9.

    Aber ob diese Unterschiede für den 08/15-Rezipienten überhaupt hörbar sind, bezweifliche ich mehr als stark. Ich habe meine Ohren (und den Rest der drannhängt) halt trainiert, extrem analytisch zu arbeiten, was auch nicht immer ein Vorteil ist...und nein, das ist IMHO auch nix besonderes (ich höre nicht "mehr"), eher ein Audio-Fetish (keine Esotherik) von mir.

    So please, keine Scheuklappen-Grabenkämpfe wegen einem n-mal durchgekauten Thema, das scheinbar leider noch immer aktuell ist. Alles ist jut, die DAW's sind klasse (keine Ironie) aber keine Bandmaschine. :cool:

    lG,
    MüderPhil
     
  17. frixion

    frixion Tach

    :supi: Das wollte ich eigentlich auch ausdrücken, aber das ist so besser formuliert.
     
  18. Anonymous

    Anonymous Guest

    Du kannst aber noch eine Kettensäge von einem Presslufthammer unterscheiden, oder? So in der Liga spielte sich das nämlich ab und da braucht es ganz bestimmt, keinerlei Blindtests für.

    Aber selbst die Erklärung wird dir nicht reichen, zumindest, wenn Hihat und Ride für dich gleich klingen, von daher klinke ich mich hier mal aus.
     
  19. Zolo

    Zolo Tach

    @Illiya
    ICh wollte dir nicht erzählen das was du zu hören hast, sondern das es für mich nach einem Fehler klingt und nicht nach "dem Klang" der Daw ;-)

    @rixion
    Wie gesagt... Ich habs schon ausprobiert indem ich im Umfeld verschiedene Files rumgeschickt habe und mir jemand sagen sollte ob er ne "bessere" Daw raushören kann. Da war z.B. auch jemand dabei mit richtigem Mastering Studio. Ich weiß nicht ob du soo viel mehr hören kannst als manch anderer. Würde es gerne ausprobieren und dich auf die Probe stellen. Aber zum einen fehlt mir absolut die Zeit für einen solchen aufwendigen A/B Vergleich und zum anderen bin ich halt mittlerweile (!) auch sowas davon überzeugt das du es eh nicht schaffen würdest das mir auch die Motivation fehlt.

    Keine Ahnung was du denkst da rauszuhören... Aber im Blindvergleich würdest meiner Meinung nach nicht bestehen. Da würde ich auch um Geld mit dir wetten :cool:

    Gruß Zolo
     
  20. Zolo

    Zolo Tach

    Ich finde das ganze Thema kann man mit einem Satz auch abharken:
    Selbst wenn es Unterschiede im Klang gibt, sind diese dermassen minimal das ein falsch eingestellter EQ bei weitem viel mehr Qualität zerstört. Sogesehen sollte sich meiner Meinung nach nur jemand mit solchen letzten Quintchen beschäftigen der auch wirklich richtig perfekt in sehr bombig-tadelos guter Qualität abmischen kann. :mrgreen:
    Find ich... :nihao:
     
  21. Die Klangunterschiede sind höchst esoterisch. Ich hatte jahrelang in einem Studio mit Logic gearbeitet, was
    irgendwie immer scheiße klang. Letztendlich lag es jedoch daran, dass die eine völlig vermurkste
    Raumakustik hatten und dann auch alle Spuren immer auf 0dB normalisierten.
    Dafür kann Logic natürlich nichts :)
     
  22. Anonymous

    Anonymous Guest

    Dann ist der Unterschied ganz bestimmt ein Fehler. (Sei es nun im Test Set-Up (du machst etwas anders), in deiner Installation (eines der Programme spielt über den "Raumklangprozessor" der Soundkarte oder sowas), oder einem Programm, ggfls. auch einer, der nur in deiner Konstellation auftrat. )
     
  23. Anonymous

    Anonymous Guest

    Ja sicher, da hat Zolo (tut mir leid, bin da ein bisschen ausgeflippt :D ) irgendwie auch Recht, nur hat sich im Groben halt nichts verändert, also am Setup selbst, es waren ja die gleiche Projekt. Das war in der Zeit als ich eben hauptsächlich Drones gemacht habe und ich dachte schon, watt klingt das denn auf einmal so dünne? Da wurde aus einer breiten Drone regelrecht etwas anderes, also nun nicht die Abteilung da fehlt auf einmal ein EQ, oder nur ein Band davon wäre in den Keller gerutscht. Das klang auch beim Exportieren des gesamten Tracks so. Alle älteren Projekte die mit Synth1 als klanglieferant gemacht wurden klangen auf einmal so komisch, es waren ja auch keine Audiospuren, sondern eben alles Realtime und da erwarte ich schon das es gleich klingt. Leider habe ich diese verhunzten Exportierten Beispiele nicht mehr, hatte ja auch nach knapp 3 Stunden Beschäftigung damit die Schnauze voll. Wenn ich mich recht erinnere, weiß ich nur das die in der 2er Version an der Mix-Engine etwas gedreht haben, aber die sollte eher besser geworden sein und deshalb dachte ich mir daran kann es ja dann nicht liegen, aber selbst so ein schnödes Synthedit Plugin was ich immer für Drums verwendet habe, klang auf einemal wie so ein klein wenig durch einen statischen Phaser geschoben, zwar nur ein wenig, aber eben so das man sofort sagte "Äääähm.. Was ist das denn auf einmal?"

    Das war echt krass und dafür braucht ich keinen "Test" mehr, wenn man eine Handvoll seiner Plug-Ins nimmt deren Klang man schon gut kennt, da man sie eben jeden Tag nutzt und da kommt dann so ein merkwürdiger schon eben an einen phaser erinnernde Klang heraus. Hatte sich bis auf den Seq./Host eben nichts verändert, habe ja schon alle Parameter noch mal von Hand nachgeregelt, aber selbst da war es Grütze was man hören konnte.

    Ich sag mal von der "Effekt Stärke", bzw. das was tatsächlich an Unterschied hörbar war, entsprach das einer verstimmten Seite einer Gitarre und das hört man eben sofort. Wie das bei Tracktion 3 ist werde ich wohl nicht mehr herausfinden, denn irgendwann muss ich dann ja auch auf ein 64Bit-Host wechseln und das wird, so wie es aussieht wohl Reaper werden. Da es sich da oben um einen Fehler in der Konstellation handelte.. hmm. Kann gut sein, sonst müsste andere da ja auch die Hände über dem Kopf zusammen geschlagen haben, bzw. würde man davon wohl lesen. Können aber auch alle Taub sein.. Jaaaaa! :mrgreen:
     
  24. frixion

    frixion Tach

    Und was für files sollen das sein? Rein itb-summierte Audiospuren (welche Quelle)? Ich bin letztes Jahr bei Hannes Bieger (Sound und Recording Magazin) in seinem Berliner Studio gesessen und hab' mit ihm gerne über die Unterschiede diskutiert, ob man einen Unterschied hört, wenn man extrem gut aufgenommenen Material über ein Mackie 1604 VLZ (das stand bei ihm) oder ein Studer 962 (das steht bei mir) abhört.
    Ich bin echt kein Dogmatiker oder Esotheriker, was das betrifft, versuche weder zu sagen, dass ich mehr höre, oder mehr Ahnung habe...aber eine gewisse Gesprächskultur sollte doch möglich sein, ohne dass sich jemand tierisch aufregt, oder? SOn wichtig ist das Thema doch nicht. lol

    Außerdem bitte: Ich bin kein Rechthaber und liebe es richtiggehend, wenn ich mal falsch liegen sollte...falscher Stolz ist nicht mein Ding.
     
  25. Anonymous

    Anonymous Guest

    Frixion, mit welcher Signifikanz hast du den Unterschied der DAWs eigentlich getestet?
     
  26. Zolo

    Zolo Tach

    Also ich bin relaxed und nim dir nix übel oder so ;-)
    Hier wird geschachert und nicht gestritten :mrgreen:
     
  27. frixion

    frixion Tach

    Als ehemaliger Statistik-Student sehe ich diesen Terminus wahrscheinlich anders als du, oder nicht? Falls nicht, kann man natürlich nie 100%ig ausschließen, dass irgendwelche intervenierenden Variablen (und da gibt es in diesem Fall doch einige) unbemerkt bleiben, aber z.B. bezüglich Raumakustik habe ich versucht, diese so weit wie möglich auszuschließen.

    Aber wie soll man solche subjektiv wahrgenommene Frequenzdiskrepanzen quantitativ bzw. in Relationen darstellen? Messdiagramme bzw. Echtzeitanalyse (egal mit welcher Normierung oder Spektrum) müssen nicht immer mit dem jeweiligen Gehör bzw. Gehörgang des Rezipienten korrelieren, auch wenn eventuell da eine statistische Tendenz festgestellt werden könnte.

    Ich bin der sehr subjektiven Meinung, dass gerade dieses Spannungsfeld zwischen persönlichem Hören/Rezeption/Audio-Sozialisation und den "allgemeinen Musikangebot" (das ja eigentlich alle Hörgewöhnheiten/eigenheiten widerspiegeln müsste) besonders spannend ist... für Handymusik bräuchten wir nämlich nicht im geringsten so einen Frequenzgang. :lol:
     
  28. Also ich hör zwischen FL Studio und Cubase nen grossen Unterschied obwohl ich das garnicht wollte oder drauf geachtet und auch nicht geglaubt hätte. :)
     
  29. Anonymous

    Anonymous Guest

    Sagen wir mal so: im hiesigen Kontext (Hörtest) ist die Antwort entweder eine Zahl (die man sich vor dem Hörtest überlegt, als Statistiker kannst du das sicherlich auch während des Testes - mir ist das zu wirr) oder Dampfplauderei, warum man trotz fehlendem sinnvollen Hörtest natürlich trotzdem "ganz sicher" technische Unterschiede hört.

    Es geht dabei nicht um die Bewertung des Unterschiedes, sondern nur darum, das man vor jeder klanglichen Beurteilung natürlich erst mal testet, ob man *überhaupt* einen Unterschied hört. Auf diesen Test zu verzichten weil "wer das nicht hört ist blind" ist bei halbwegs kleinen Unterschieden (wie sie hier sicher der Fall sind) eine Garantie für Esoterikscheiß.

    Für eine Bewertung verwendet man üblicherweise Anker, das wäre hier z.B. ein "known bad" System, z.B. ein historisches mit 16 Bit Arithmetik. Ohne Anker wird jeder Unterschied aufgeblasen, das ist einfach eine zu erwartende Testverzerrung.

    Also, um von einem Unterschied zu behaupten, das er keine Audioesoterik ist, muss man:
    1.) nur den zu untersuchenden Unterschied testen. (Bei einigen meiner Klangbasteleien kann ich z.B. problemlos zwei Renderings unterscheiden, bei VAs im Projekt kein Wunder, sondern zu erwarten. )
    2.) doppelt Blind durchgeführt testen.
    3.) mit ausreichender (eben je nach gewünschter Signifikanz des Ergebnisses) Versuchszahl testen.

    Verzichtet man auf einen der Punkte, dann hat man eben kein sinnvolles Ergebnis im naturwissenschaftlichen Sinne und eine Schlussfolgerung auf eine technische Ursache ist dann nur Audioesoterik. "Ich hab zwar von nix 'ne Ahnung, erkläre aber trotzdem wie die Apparate funktionieren".
     
  30. frixion

    frixion Tach

    Ganz deiner Meinung.
     

Diese Seite empfehlen