Nur OnTopic AD-Wandler: Qualitätsvergleiche -- wie geht das eigentlich?

also kann ich mit 44,1 KHz aufnehmen, aber das Projekt in 88,2 kHz fahren? Sorry für die Anfängerfragen, aber bei mir mangelt es da noch an den Grundlagen

Bei einem modernen Computer ist das kein Thema mehr. Daher mache ich mir über sowas nicht so viele Gedanken ehrlich gesagt. Ich höre definitiv einen Unterschied , ob ich ein Projekt mit 44,1 oder 88,2 Rendere - ich kann Filter anders setzen und Plastizität und Räumlichkeit ist besser.

Was aber je nach Musik keine Rolle spielt. Ich mixe oft mehrere Räume, habe Signale in Bewegung usw.. Also ist auch wirklich eine Frage - tut das not ?

Auf der anderen Seite, die Rechner schaffen das, die Interface schaffen das , also schlimmer wird es nicht ..
 
sofern deine ausgangsfrage sich auf den reinen wnderlbaustein bezieht ist die übrgiens ganz witzig: wie man das misst? ich denke man muss das nicht messen, man weiß vorher was ein wandler macht und kann es ausrechnen.
Berechtigter Einwand. Ich spezifiziere daher: "Wandler" meint in meinem Fall aus Anwendersicht eine Black Box, von der wir nur zwei Dinge wissen: vorn geht analog rein, hinten geht digital raus. Um den eigentlichen, reinen Wandlerbaustein mag also noch beliebig viel herumgebaut sein.
 
das war gar kein einwand, ich war mir nur einen moment lang nicht sicher, ob das nicht sogar so gemeint sein könnte (obwohl es jemand anderes war, der mit dem wandler thema anfing)

vielleicht einfach nur ein bischen mein steckenpferd, zwischen dem "wandler" und der clock streng zu unterscheiden. ich habe an meinen motus früher einen big ben gehabt, und das hat halt echt einen unterschied gemacht.

andere haben aber ja bereits zurecht darauf hingewiesen, dass es heutzutage vor allem auf die analogen komponenten in einem interface ankommt. und die sind halt meist "dabei" und kein extra gerät. :)
 
Warum sollte man da als Musiker, Produzent oder Tonschaffender unterscheiden?

Der Wandler für mich ist das Gerät wo das analoge Kabel reingeht und das Digitale rauskommt. Auf das Gesamtsystem kommt es an.
 
du übersiehst halt, dass man bei der audioproduktion u.u. mehr mit audio macht als es aufzunehmen und wiederzugeben
Wirklich? Wenn das Signal von einem Großmembranmikro stammt, dann geht es typischerweise ab ca. 16 kHz mehr oder weniger steil bergab. Ich kann also, falls ich eine höhere Samplerate benötigen sollte, getrost upsamplen.

Kommst es von einem Digitalen Synth (z.B. D50) dann ist oberhalb von 20kHz durch die analogen Rekonstruktionsfilter am Ausgang des Synth auch nichts mehr los. Bei analogen Synth ist das manchmal etwas anderes, aber auch hier sind OPs am Ausgang und überhaupt in den gesamten analogen Schaltungen, die extra bandbegrenzt werden, z.B. damit sie nicht zum Schwingen neigen, i.d.R. sind das Tiefpassfilter mit ca. 20kHz Eckfrequenz.

U.s.w. man muss schon spezielle Mikros nehmen, um wirklich etwas Ultraschall mitzubekommen, den man dann nach unten transponieren kann. Das ist aber wirklich der Spezialfall.

d.h. also
1. Wenn ich ne Bass-Sequenz (oder n Synthlead, Pad etc..) eines Synths in die DAW recorde, die ich dann in the box noch etwas mit Effekten bearbeite, reichen 44 kHz vollkommen aus?
und
2. Will ich einen Sound aufnehmen, um den im Sampler-Plugin mittels bspw.. Granularsynthese zu verfremden, wäre eine höhere Samplingrate bei der Aufnahme besser?
Beides grundsätzlich ja.

Wenn ich nur Mitt 44.1kHz recorde, auf welche Probleme stoße ich dann während ich in der DAW damit arbeite? Geht dabei noch mehr Qualität verloren?
Es geht keine Qualität verloren, wenn Du weisst, was Du tust.

nimm ein einfaches samplinginstrument als beispiel. wenn du mit 44 khz einen 5 khz sinuston aufnimmst, dann besteht bei dem eine halbwelle aus nur 5 samples.

bei 44 khz ist kein problem, da du ja eh nur bis 22 khz hörst und 44 dir diese 22 bietet.

wenn du dieses material jetzt aber um 6 oktaven tiefer abspielst, dann besteht jetzt auch eine halbwelle bei 78 Hz nur aus 5 schritten. da reden wir dann über "ein drittel verzerrung" im stimmbereich.
Das würde ich eben nicht unterschreiben. Wenn Du einen Sinuston ohne Störgeräusche gut samplest und er beim Heruntertransponieren korrekt digital interpoliert wird (wie das ein guter Sampler eben machen kann), dann hast Du auch 8 Oktaven tiefer noch immer einen perfekten Sinuston. Ich habe das selbst mit vier und sogar nur zwei Samples ausprobiert. Es gibt natürlich eine Reihe von Synthesizern (z.B. Ensoniq ESQ-1, SQ-80, eigentlich fast alle alten Rompler), die gar nicht interpolieren, sondern beim Heruntertransponieren die wenigen vorhandenen Samples dann vielfach hintereinander auslesen, so dass harte Treppenstufen entstehen, die natürlich ein ursprünglich nicht vorhandenes Obertonspektrum darstellen, was bemerkenswerterweise von Vielen geschätzt wird).
 
Zuletzt bearbeitet:
Ich höre definitiv einen Unterschied , ob ich ein Projekt mit 44,1 oder 88,2 Rendere - ich kann Filter anders setzen und Plastizität und Räumlichkeit ist besser.
Genau das ist der Punkt: Wenn "Räumlichkeit" und "Plastizität" (was auch immer das ist) bei 88.2kHz "besser" werden, woran liegt das dann?

Jedenfalls nicht an Deinen Ohren, die dürften da etwas hören, was real ist.

Aber warum ist es real? Eine Erklärung wäre, dass einige Plug-Ins es sich zu einfach machen, z.B. nur mit Sample-Auflösung zeitliche Phänomene umsetzen. Das kann ein Delay, ein Chorus, alles Mögliche sein. Systemtheoretisch korrekt müsste immer interpoliert werden, aber aus CPU-Sparsamkeit hat man als Entwicklier da gerne "etwas optimiert", sprich ein minimalen Fehler eingebaut, den man kaum hören kann, der aber enorm Rechenzeit spart.

Da das aber eine Reihe von Entwicklern in vielen verschiedenen Plugins und DAWs gemacht haben, summieren sich all diese Fehler und es wird eben in den Höhen (denn da wirkt sich so etwas am meisten aus) etwas "weniger räumlich".

Leider gerantiert einem kein Hersteller, dass er in seinem PlugIn "systemtheroretisch korrekt" rechnet. Und solange in Tests die verbrauchte CPU-Zeit immer so ein extremes Kriterium ist ("man kann leider nur X Instanzen gleichzeitig öffnen"), müssen Hersteller eben auch auf diesem Gebiet gefallen und kleine Fehler akzeptieren.
 
Wirklich? Wenn das Signal von einem Großmembranmikro stammt, dann geht es typischerweise ab ca. 16 kHz mehr oder weniger steil bergab. Ich kann also, falls ich eine höhere Samplerate benötigen sollte, getrost upsamplen.

ja klar, das ist schon richtig.

Es geht keine Qualität verloren, wenn Du weisst, was Du tust.

es gibt halt so diese grenzfälle bei den anwendungen. man ja evtl nicht ausschließlich das o.g. mikrophonsignal anliegen, sondern da ist auch noch rauschen vom mischpult, hallfahne vom hall oder pfeiffen vom USB drin, und man will jetzt ein noisegate den noise abdruck lernen lassen oder sowas.

Das würde ich eben nicht unterschreiben. Wenn Du einen Sinuston ohne Störgeräusche gut samplest und er beim Heruntertransponieren korrekt digital interpoliert wird (wie das ein guter Sampler eben machen kann), dann hast Du auch 8 Oktaven tiefer noch immer einen perfekten Sinuston.

na perfekt nicht, aber ja, im normalfall würde man es interpolieren und dann ist es nicht mehr ganz so eckig. :)


würdest so weit gehen und alles über 44 oder 48 ablehnen?
 
Genau das ist der Punkt: Wenn "Räumlichkeit" und "Plastizität" (was auch immer das ist) bei 88.2kHz "besser" werden, woran liegt das dann?

die frage finde ich wirklich gut, denn genau die hatte ich mit da auch gestellt.

der eine redet von plastizität und der andere hält das für esoterik. lasst es uns doch einfach mal ausrechnen? :)


nebenbei bemerkt halte ich es für alles andere als best practice einen hall so zu programmieren, dass er nur sampledelays kann und dafür dann ggf. upsampelt.

um ehrlich zu sein, ich will gar nicht wissen, welches der von mit verwendeten geräte diesen unsinn macht und welches nicht. ;-)


however, es gibt anwendungfälle, wo es sinn machen kann: nämlich wenn du für die reflektionszeiten aus #gründen sowieso nur primzahlen benutzt (der raum sich also vom anwender nicht stufenlos exakt relativ in der größe ändern lässt)

(du sparst dann nicht nur die interpolation sondern kannst ganze vektoren buffern, und symetrierung brauchst du auch nicht mehr.)
 
Leider gerantiert einem kein Hersteller, dass er in seinem PlugIn "systemtheroretisch korrekt" rechnet. Und solange in Tests die verbrauchte CPU-Zeit immer so ein extremes Kriterium ist ("man kann leider nur X Instanzen gleichzeitig öffnen"), müssen Hersteller eben auch auf diesem Gebiet gefallen und kleine Fehler akzeptieren.


es gab irgendwann mal einen effekt, bei dem es sinn zu machen schien hochzusamplen, und dann hat man das da so gemacht.

dann kam das erste interface, das 96 unterstützt hat, und dann hat sich bald die DAW gedacht, na wenn es solche plug-ins gibt, dann macht es doch keinen sinn ständig hoch und runter zu gehen, dann machen wir doch gleich alles in 96.

dann hat sich jemand anderes mit weniger ahnung hingesetzt und sein produkt auch "96khz ready" gemacht. jetzt lief dann also auch das noisegate und der bitchrusher in hundeohrenqualität, just in case und außerdem ist esoterik ja nicht illegal.


meine theorie ist nun, dass es ab diesem zeipunkt einfach keinen sinn mehr gemacht hätte, DAW programme mit einer multirate funktion auszustatten und jedem plug-in zu erlauben hinten auszugeben, was es will.

manche dinge sollen einfach von der host festgelegt werden, und ein VST plug-in soll gehorchen, das ist in der API so und soll auch für den anwender so daherkommen.
aktuell geht es nicht mal processSetupsampleRate und maxSamplesPerBlock durch die host zu ändern ohne, dass das plug-in seine arbeit unterbrechen muss. umgekehrt wäre wohl der helle wahnsinn.
 
Genau das ist der Punkt: Wenn "Räumlichkeit" und "Plastizität" (was auch immer das ist) bei 88.2kHz "besser" werden, woran liegt das dann?

Jedenfalls nicht an Deinen Ohren, die dürften da etwas hören, was real ist.

Aber warum ist es real? Eine Erklärung wäre, dass einige Plug-Ins es sich zu einfach machen, z.B. nur mit Sample-Auflösung zeitliche Phänomene umsetzen. Das kann ein Delay, ein Chorus, alles Mögliche sein. Systemtheoretisch korrekt müsste immer interpoliert werden, aber aus CPU-Sparsamkeit hat man als Entwicklier da gerne "etwas optimiert", sprich ein minimalen Fehler eingebaut, den man kaum hören kann, der aber enorm Rechenzeit spart.

Da das aber eine Reihe von Entwicklern in vielen verschiedenen Plugins und DAWs gemacht haben, summieren sich all diese Fehler und es wird eben in den Höhen (denn da wirkt sich so etwas am meisten aus) etwas "weniger räumlich".

Leider gerantiert einem kein Hersteller, dass er in seinem PlugIn "systemtheroretisch korrekt" rechnet. Und solange in Tests die verbrauchte CPU-Zeit immer so ein extremes Kriterium ist ("man kann leider nur X Instanzen gleichzeitig öffnen"), müssen Hersteller eben auch auf diesem Gebiet gefallen und kleine Fehler akzeptieren.

Ich denke es liegt zum grössten Teil am internen Prozessing, wie das Ergebnis verschiedener Phasenlagen und Grains summiert wird. Keine Ahnung! Aber der Effekt ist auch stark Programm abhängig und an die Abhörsituation gebunden. Also ein Track, bei dem eine Handvoll Elemente gleichzeitig erklingen und der komplett nach vorne gemischt ist, da wird man auch definitiv keinen Unterschied hören. Ich hab hier Jazz Recordings, kann die High Res Version mit der CD Version vergleichen. Das Silber im Metall und die Abzeichnung ist hier besser, aber auch hier könnte ich das nicht beim ersten mal hören unterscheiden, also brauche eine Zeit um so Details auch zu checken. Bei meinen eigenen Tracks, da hab ich jeden Track auch schon zig Stunden gehört, bin da also „ eingehört „ ..
 
Ich war früher weder mit dem Apogee Ensemble happy, noch mit RME AD8, noch mit den Wandlern in meinem Allen Heath GSR24 R Pult. Seit ein paar Monaten hat sich das Thema komplett erledigt, da ich die Wandler im Presonus 2626 absolut genial finde. Müsste ich mehr Wandler haben, ich würde ganz sicher bei Presonus bleiben.

Ich summiere aber analog, aber das war vorher schon der Fall. D.h. auch dass alle meine AD's bei mir die Pres des Allen Heath GSR24 durchlaufen. Klanglich bin ich hier für mich im 7. Himmel und ändere erst was wenn das recht grosse Pult kaputtgeht. Ich fand schon die Pres vom Ghost absolut geil. Daher habe ich ja das GSR24, es sind dieselben von demselben Mann der die Firma gewechselt hat.


Die Beurteilung ist nur so gut wie die Monitore. Bei mir seit vielen Jahren die Event Opale mit den Berilium Hochtönern (es gab zwei Versionen).
 
1. Raumakustik
2. Lautsprecherqualität
3. Interface (Wandlerqualität)

bevor Punkt eins und zwei nicht zu mind. 90% abgearbeitet sind tut es auch ein 150€ Audio Interface.

96KHz und mehr macht bei extremer Nachbearbeitung schon Sinn. Pitch/Strech. Transienten hört man irgendwie auch besser, wenn das System auf 96KHz oder mehr läuft.
Hall löst irgendwie auch feiner auf. Die Erfahrung hab ich gemacht. Mein Setup lief einige Zeit auf 96KHz. Bleibt aber nach reichlicher Überlegung und hin und her hören doch auf 44,1KHz. Diese winzigen Nuancen sind für den A.... und machen aus meinem Müll auch keine goldene.
 
würdest so weit gehen und alles über 44 oder 48 ablehnen?
Niemals, ich finde 96kHz gut und wichtig. Sagte ja schon, dass bei DSP systemtheoretische Zwänge gegen eine niedrige Samplerate sprechen. Bei 96kHz ist dagegen alles entspannt (will sagen, die billigsten Algorithmen lösen noch hoch genug auf, um nicht ganz offensichtlich alles zu versauen).

Es ist kein Geheimnis, dass die hohen Frequenzen für die räumliche Ortung wichtig sind.
DIE hohen Frequenzen, die von 44.1-48kHz-Signalverarbeitung am stärksten versaut werden (20kHz bis runter vielleicht zu 12kHz) sind eben doch nicht so wichtig für die Ortung, aber sie erlauben es dem Gehör natürlich, festzustellen, dass eine Quelle in der Position nicht klar definiert ist. Auch ob die "Seidigkeit" (was ist das denn?!) verringert wird, u.s.w.

Ich hatte aber schon in meinem ersten Post am Schluss versucht darauf hinzuweisen, dass die Qualitätsunterschiede aktueller Wandler doch nur einen sehr kleinen Anteil an der Audioqualität haben und die Mikros, die Lautsprecher und natürlich auch der Raum einen viel größeren. Ich würde immer am meisten Geld in die Abhöre stecken, am zweitmeisten in zwei Mikros und dann erst kommt das Interface.

Bei meinen Speakern merke ich eben doch, dass wenn ich nicht genau im Sweet-Spot sitze, alles irgendwie nicht richtig klingt. Und das trotz Koaxial-Systemen. Bei den 2-Wege-Genelec, mit denen ich mal jahrelang arbeiten musste, fand ich das noch schlimmer, habe nie verstanden, wie man damit wirklich ernsthaft mixen will (obwohl es ja tausende Tonings tun), aber ich drifte ab.
 
Vermutlich weisen alle Studiolautsprecher einen erheblich größeren Fehler auf, als jeder noch so jeder schlechte Digitalwandler und dazu kommen noch die nichtlinearen Verzerrungen der Schallwandler. Daher behaupte ich mal, dass aussagekräftige Hörtests überhaupt nicht durchgeführt werden können und zusätzlich hört mit dem linken Ohr auch noch anders, als mit dem rechten.
 
Zuletzt bearbeitet:
Ne da ist nix berechnet. Pures Recording , ohne Filter.

da kannst du mal getrost davon ausgehen, dass da ein filter im spiel war wenn du die CD mit der studioaufnahme vergleichst. mehrere sogar.

und man benutzt ja auch nicht das gleiche interface um die CD abzuspielen.

noch blöder ist, dass man auch nicht so ohne weiteres zwei audiostreams mit unterschiedlichen eigenschaften vergleichen kann. um die differenz zu berechnen müsste man ja erst mal das format umwandeln. :)
 
da kannst du mal getrost davon ausgehen, dass da ein filter im spiel war wenn du die CD mit der studioaufnahme vergleichst. mehrere sogar.

und man benutzt ja auch nicht das gleiche interface um die CD abzuspielen.

noch blöder ist, dass man auch nicht so ohne weiteres zwei audiostreams mit unterschiedlichen eigenschaften vergleichen kann. um die differenz zu berechnen müsste man ja erst mal das format umwandeln. :)

Ich streame nur noch, alles über den gleichen Wandler. Was ist diese ... CD ?
 
zum Thema Samplerate, 44 vs.48 vs. 96 khz......inkl. vs. dem Thema upsampling gibts hier ein sehr interessantes Video.
kommt von "Fabfilter".


https://www.youtube.com/watch?v=-jCwIsT0X8M&t=2s


Es gibt so viel Unsinn zu Samplerate und Anzahl der Bits zu lesen, dass sich einem die Haare sträuben. Am schlimmsten wird es von technisch Halbwissenden, die durch Esoterik kompensieren. Fakt war, ist und bleibt für nächsten Jahrtausende, dass das menschliche Gehör nunmal keine Frequenzen oberhalb von 20kHz wahrnehmen kann
........nur das du dich mit deinen Aussagen auch gleich selbst zu der Gruppe gesellst die du grad niedergemacht hast.

Die Thematik scheint komplexer als man aufs erste denken würde..........
 
Ich hab hier Jazz Recordings, kann die High Res Version mit der CD Version vergleichen.

Ich streame nur noch, alles über den gleichen Wandler. Was ist diese ... CD ?


du vergleichst also CD Versionen, die du gar nicht hast, per stream mit der 32 bit aufnahme unter benutzung des gleichen wandlers und meinst, dass man so den unterschied zwischen verschiedenen samplingfrequenzen hören kann.

und natürlich ohne filter.

das macht sinn, jetzt habe ich das verstanden.
 
du vergleichst also CD Versionen, die du gar nicht hast, per stream mit der 32 bit aufnahme unter benutzung des gleichen wandlers und meinst, dass man so den unterschied zwischen verschiedenen samplingfrequenzen hören kann.

und natürlich ohne filter.

das macht natürlich sinn.

Ich habe einfach 2 verschiedene Streams der gleichen Aufnahme , was ist das Problem ? Kann also die originale Hi Res Aufnahme mit der runtrgerechneten Version vergleichen..
 
........nur das du dich mit deinen Aussagen auch gleich selbst zu der Gruppe gesellst die du grad niedergemacht hast.
Super Aussage. Hast Du das Video überhaupt komplett inhaltlich verstanden? Kannst Du überhaupt beurteilen, ob das, was da erzählt und gezeigt wird, auch wirklich korrekt ist?

Oder ist das für Dich schon Weisheit, weil eine Company dahinter steckt, die damit wirbt, gute Qualität hinzubekommen?

Vielleicht mal ein kleiner Denkanstoß: Ein amplitudenmodulierter Sinus (im Video ja durch Drums im Sidechain des Kompressors erreicht) muss zwingend ein breiteren Bin bekommen. Das ist bei den besten Digitalalgs so und das ist bei jedem Analoggerät ebenfalls so. Das ist nämlich die Natur von AM und kein Fehler.

Noch ein Denkanstoß: Wenn diese Firma es nicht schafft, eine Saturation zu entwickeln und zu verkaufen, bei der sie selber vorführen müssen, dass die erzeugten Obertöne aliasen und selbst mit ihrem "HQ"-Schalter nur durch eine intern noch höhere Samplerate in einen kaum hörbaren Bereich weggedrückt werden, dann ist das eigentlich schon Aussage genug!

Das sind genau die Verfahren, auf die sich meine Aussagen beziehen, dass sie bei höherer Samplerate weniger große Fehler produzieren. Deswegen sagte ich ja, daß bei 96kHz:
(will sagen, die billigsten Algorithmen lösen noch hoch genug auf, um nicht ganz offensichtlich alles zu versauen).

Ok, ich sollte vielleicht hier aufhören, sonst bekommen noch mehr Leute den Eindruck, ich wolle mich profilieren. Nein, will ich wirklich nicht, ich möchte wirklich nur mal ganz deutlich auf all die Fehler im Digitalen hinweisen, die ohne Ende (und teilweise auch ohne Wissen oder Rücksicht der Hersteller) von diversen Plug-Ins produziert werden.

Es gibt wirklich gute Gründe, nicht davon auszugehen, dass Digital oder auch 96/24 eine Garantie für beliebiges Bearbeiten ohne Hinzufügen von Fehlern ist.

Letzter Denkanstoß: Was bedeutet linearphasig oder minimalphasig eigentlich? Wird ja kurz im Video erwähnt. Linearphasig ist immer mit einem Blick in die Zukunft verbunden. Das bedeutet im schlimmsten Fall, dass die ach so tollen Filter bereits eine Impulsantwort erzeugen, wenn das Nutzsignal noch gar nicht begonnen hat. Sozusagen ein Vorecho, ähnlich dem Durchdrücken des Signals bei einem aufgewickelten Magnetband. Ganz tolle Qualität.
 
Super Aussage. Hast Du das Video überhaupt komplett inhaltlich verstanden?
Du greifst andere gleich im multipack komplett verallgemeinernd an ( ohne das irgend ne Veranlassung dazu gegeben gewesen wäre)
und kannst jetzt hankerum nicht mal das kleinste bisschen kontra (gegen genau das) ertragen ?

Das video von Fabfilter war das was "ich" hier in den Raum legen konnte.
Zu dem Thmenkomplex gabs auch schon anderswo diskussionen.........

Es veranschaulicht in der Tat etwas recht gut, nämlich vor allem: "dass es da einfach noch mehr gibt, als nur das offensichtliche".
 
Ich habe einfach 2 verschiedene Streams der gleichen Aufnahme , was ist das Problem ? Kann also die originale Hi Res Aufnahme mit der runtrgerechneten Version vergleichen..


da ist kein problem, ich versteh nur den zusammenhang nicht.

inwieweit soll das dabei helfen den klang zwischen verschiedenen interfaces oder unterschiedlichen samplinraten miteinander zu vergleichen, wenn du deine produktion auf 16 bit ruterrechnest? das sind doch 3 paar schuhe.

das geht nur, indem man das gleiche signal mit beiden wandelt und dann das eine von dem anderen substrahiert. was eben nicht ganz einfach ist bei unterschiedlicher samplingrate. ;-)
 
Das bedeutet im schlimmsten Fall, dass die ach so tollen Filter bereits eine Impulsantwort erzeugen, wenn das Nutzsignal noch gar nicht begonnen hat. Sozusagen ein Vorecho, ähnlich dem Durchdrücken des Signals bei einem aufgewickelten Magnetband. Ganz tolle Qualität.

das bedeutet es eigentlich immer. symetrische transferfunktion geht nicht ohne latenz. gleiche baustelle wie blit.

was fabfilter "vergisst" zu erwähnen ist, dass es nur einige wenige spezialanwendungen für phasenlineare filter gibt, oft will man das gar nicht. aber dort wo man sie braucht, sie sind sie dann halt so und das ist okay. :)
 
da ist kein problem, ich versteh nur den zusammenhang nicht.

inwieweit soll das dabei helfen den klang zwischen verschiedenen interfaces oder unterschiedlichen samplinraten miteinander zu vergleichen, wenn du deine produktion auf 16 bit ruterrechnest? das sind doch 3 paar schuhe.

das geht nur, indem man das gleiche signal mit beiden wandelt und dann das eine von dem anderen substrahiert. was eben nicht ganz einfach ist bei unterschiedlicher samplingrate. ;-)

Nein , es ging um Wahrnehmung bzw den Nutzen von Signalen die augenscheinlich über der menschlichen Wahrnehmungsgrenze liegen.. blablabla , nicht messbar, subjektiv , blablabla. Ist mir eigentlich auch scheiss egal was andere denken ;-)
 
mir nicht, ich will immer alle von meiner religion überzeugen.

also hört zu oder ihr kommt nicht ins nirvana:

um zwei interfaces miteinander zu vergleichen muss man ein analoges signal, was im idealfall auch keine digitalen quellen hatte, passiv splitten und dann mit beiden interfaces aufnehmen. dann berechnet man die differenz zwischen den beiden dateien.

alles andere ist esoterik und die ist haram.
 
btw. die argumentation von fabfilter gefällt mir.

das ist ungefähr das, was ich oben meinte, der move der DAW hersteller bzw anwender zu höheren samplingrates ist spätestens dann fragwürdig, wenn man voraussichtlich viele effekte benuzten wird, die davon gar nicht profitieren.

umgekehrt - das hat @dan schon angesprochen - muss man dann aber darauf achten, plug-ins von guter qualität zu benutzen, die dort wo es sinn macht eben die rate (und ggf auch die bittiefe) nur intern erhöhen.

nur sein beispiel mit der third harmonic ist ein wenig unglücklich, denn das hätte man auch lösen können, indem man das musiksignal bei SR/6 tiefpassfiltert bevor man es verzerrt. :)
 


News

Zurück
Oben