was bleibt von analog bei DAW Aufnahme?

kl~ak schrieb:
nordcore schrieb:
Hörbarkeit oberhalb 20kHz

es gibt auch noch die theorie, dass es eben diese frequenzen sein sollen, welche wiederum mit anderen im zusammenspiel sich auf die hörbaren frequenzen auswirken .... :dunno:

Was soll den das für eine Theorie sein? Wir bauen uns unsere eigenen physikalischen Naturgesetze? Obertöne mal umgekehrt? Da guck ich doch lieber Astro-TV.
 
mach mal locker - ich habe ja nicht gesagt, dass das so ist oder ich der meinung bin ! aber ich habe das schon oft in solchen gesprächen lesen können - auch hier im forum, dass sich die obertöne in ihrer gegenseitigen beeinflussung (periodische interferenz) wieder auf das audiospektrum auswirken sollen. eigentlich auch nicht unlogisch - inwieweit das reale effekte hat sei mal dahingestellt. :floet:

also - nicht so laut bellen => ist ja kein rechthaberthread hier ;-)
 
tecnaut schrieb:
Diese Frage, die ich hier stelle, muss ich ein wenig erläutern:

Bei der Vielzahl der neuen Produkte im analogen Sektor bin ich auch schnell begeistert und kaufwillig. Ich mag das Bediengefühl und komme so auch auf andere kreativere Ergebnisse als am Laptop mit Maus. So weit klar.
Vielfach hervorgehoben wird natürlich auch, dass analoge Synths einen besseren Klang haben. Ich habe dieses Gefühl bei meinen Geräten auch. Jedoch frage ich mich hin und wieder, ob bei meinen Aufnahmen von analog Hardware in die DAW (LIVE9) nicht "Einiges" verloren geht und für meine Kompositionen letztendlich am Laptop dann weniger geil klingen, als Software.

Also wenn ich meinen Dark energy in LIVE9 aufnehme über MOTU Ultralite dann klingt es weniger brilliant, oft schwammig (meine ich) Vielleicht täusche ich mich ja. Aber auch meine Elektrons MD und Octa mag ich live lieber als in einer Aufnahme.
Es kann natürlich daran liegen, dass ich nicht gut aufnehme. Aussteuerung, etc.......

Konkret hätte ich gerne einen Minitaur, habe ihn erlebt bei Brandt brauer frick- bei einem Konzert im Kölner Gloria und war begeistert wenn er zum Einsatz kam.
Lohnt sich der denn, wenn man ihn dann digital recorded?

Vielleicht hat sich das jemand ja auch schon gefragt??


ich meine du machst da was bei der Aufnahme falsch .. ich kann hier selbst mit größter Mühe keinen Unterschied hören

es gibt einige minimalste Abweichungen bei sehr komplexen Sounds (z.B. schnelle Filter FM mit relativ hoher Resonanz) bei der ich zwischen 44 & 96 kHz einen kleinen Qualitätsunterschied warnehmen kann, der ist aber so marginal das er bei nem kompletten Track nicht auffällt und schon gar nicht wenn man das irgendwo als mp3 präsentiert
 
kl~ak schrieb:
die obertöne in ihrer gegenseitigen beeinflussung (periodische interferenz) wieder auf das audiospektrum auswirken sollen. eigentlich auch nicht unlogisch - inwieweit das reale effekte hat sei mal dahingestellt. :floet:

doch, leider ziemlich unlogisch. schwingungen und wellen überlagern sich nämlich ungestört - ohne interferenzen.
 
also ich recorde nicht in die DAW, sondern MPC1k und octatrack, (16/44)
eigentlich ausschliesslich den Modular ( oder dann eben die sampler)

ich habs ab und zu dass ich recht erstaunt bin wie scheisse das signal aus MPc oder octatrack zurück kommt.
Modular und sampler liegen immer parallel am pult ( mixwizard).
zum test kann ich ja dann auch das schlechtere signal ---> sichtbar lauter machen
Manchmal find ich in den bässen fehlt was, womit ich im grunde genommen leben kann,
manchmal ist aber einfach das extreme feinzeichnen der frequenzen im modularsound verändert,
mitunter die ganze wirkung des sounds/ grooves ne andere.
das thema hat schon was , imho.


@ Theorist
wie hoch würdest du denn in der MPC bzw. octatrack auspegeln ?
( ich geh so hoch ich kann, wobei MPC hohe und tiefe signale unterschiedlich anzeigt, hab das jetzt aber langsam gebongt )
thanks anyway für deinen interessanten input !
 
siebenachtel schrieb:
ich habs ab und zu dass ich recht erstaunt bin wie scheisse das signal aus MPc oder octatrack zurück kommt.

Echt? Ich bin über die gute Soundqualität des Octatracks geradezu verwundert. Ich sample hauptsächlich meinen Minimoog und meinen Dotcom Modular Synth und bewege mich immer mehr weg von Cubase und Konsorten. Mag sein, daß das nur eine Phase ist (hab den Octatrack noch nicht sooo lang), aber ich finde den Klang sehr druckvoll und erfrischend.
 
Grundsätzlich funktionier auspegeln so:

1. Am Ausgang des Gerätes, das man aufnehmen will, sollte man möglichst hoch aussteuern. Das heisst voll aufdrehen. Es gibt natürlich Geräte, die dann bereits verzerren; ich glaube bei der Machinedrum ist das der Fall. Ich rede hier von Instrumenten und natürlich nicht von Mischern oder so. Steuert man zu leise aus, dann verschenkt man Pegel und der Rauschabstand ist zu hoch. Da muss man halt auch nach Gehör beurteilen..

2. Bezugspegel ist Folgendes: Bei unsymmetrischen Signalen, consumer Geräten, Cinch zum Beispiel, ist das üblicherweise - 10 dbV. Bei symmetrischen Signalen, professionellen Geräten, XLR zum Beispiel, ist das üblicherweise + 4 dbu. Geht man also mit einem unsymmetrischen Signal (-10 dbV) zum Beispiel in ein symmetrischen Mischpult Eingang (+ 4 dbu), dann wird man eher zu leise sein. Geht man mit einem symmetrischen Signal (+4 dbu) in einen unsymmetrischen Eingang (-10 dbV), dann wird man eher zu laut sein. Der Unterschied von +4 dbu Profi-Level zu -10 dbV Consumer-Level liegt bei ca. 12 db.

3. Bei analogen Geräten, Mischpulte zum Beispiel, hat man eine so genannte VU Anzeige. Wenn man nun ein voll aufgedrehtes Gerät anschliesst, dann sollte man am Mischpult den Gain Regler Pre-Fader abhören und auf 0 db VU aussteuern. Das macht man üblicherweise so, dass man den Kanal, den man aussteuert, Solo schaltet und die Monitor Sektion auf PFL schaltet. Dann wird einem der Eingangs-Pegel am VU Meter des Mischpultes angezeigt, der eben Pre-Fader-Level (PFL) anliegt. Wenn man nun an einem symmetrischen Msichpultkanal, der +4 dbu als Referenzpegel hat, ein symmetrisches Signal anliegen hat (ebenfalls +4 dbu), das mit 0 db VU an seinem Ausgang ausgesteuert ist, dann sollte man am Mischpult bei einer Gain-Regler Einstellung von 0 db auch 0 db VU angezeigt werden. Würde man ein unsymmetrisches Signal (-10 dbV) am symmetrischen Mischult Kanal (+4 dbu) anliegen haben, so muss man wahrscheinlich noch etwas aufdrehen bis das VU Meter 0 db VU anzeigt. Schiebt man nun den Fader auf die 0 db Mittelstellung, so sollte die VU Anzeige auch After-Fader-Listening (AFL) 0 db VU anzeigen. Mischpulte haben ein bisschen mehr Headroom, der dazu da ist, dass dynamische Signale nicht verzerren, wenn sie auch mal über 0 db VU gehen. Bei günstigen Kandidaten liegt der Headroom so bei 10-15 db, in der Top Profi Spitzen Liga auch mal bei 25-30 db.

4. Bei digitalen Geräten ist das anders. Dort gilt üblicherweise 0 db VU = - 18 dbfs. Das kann man überprüfen, indem man ein Gerät mit einer sauber ausgesteuerten VU Anzeige auf 0 dbVU aussteuert, üblicherwiese Fader auf 0 db Stellung, und dann in den Wandler gehen. Der Wandler sollte dann -18 dbfs anzeigen. Es gilt also: 0 db VU = -18 dbfs.

Dazu gibt es noch Abweichungen weil Europäer und US-Amerikaner andere Bezugsgrössen haben, aber wer es ausprobiert ist nachher schlauer.

Der wichtigste Tipp zum Schluss: Man kann mit einem digitalen Wandler auch lauter aufnehmen. Aber man kuckt sich am besten mal eine Wellenform an, die man aufgenommen hat. Ist sie oben abgesägt und hat oben eine flache Ebene auf dem Hügel der Welle, dann hat man zu laut aufgenommen :mrgreen:
 
theorist schrieb:
4. Bei digitalen Geräten ist das anders. Dort gilt üblicherweise 0 db VU = - 18 dbfs. Das kann man überprüfen, indem man ein Gerät mit einer sauber ausgesteuerten VU Anzeige auf 0 dbVU aussteuert, üblicherwiese Fader auf 0 db Stellung, und dann in den Wandler gehen. Der Wandler sollte dann -18 dbfs anzeigen. Es gilt also: 0 db VU = -18 dbfs.

Dazu gibt es noch Abweichungen weil Europäer und US-Amerikaner andere Bezugsgrössen haben, aber wer es ausprobiert ist nachher schlauer.

Der wichtigste Tipp zum Schluss: Man kann mit einem digitalen Wandler auch lauter aufnehmen. Aber man kuckt sich am besten mal eine Wellenform an, die man aufgenommen hat. Ist sie oben abgesägt und hat oben eine flache Ebene auf dem Hügel der Welle, dann hat man zu laut aufgenommen :mrgreen:
Danke für die ausführliche antwort ! etwas weniger ausführlich wäre absolöut ok gewesen ;-)

punkt 4. ist mir nicht ganz klar:
d.h. wenn ich am mixer 0db VU aussteure ( A&H Mixwizard) wären -18db(fs) eigentlich die adäquate aussteuerung an der MPC = richtig ?
und theoretisch bei allem darüber bereits verzerrungen möglich ?
= ich geh an der MPC nicht auf 0db(fs) los, und auch besser nicht nur auf -4 sondern eher richtung -12 bis -8 oder so ??

edit: den link erst jetzt gesehen, mal gucken
edit2: ok, ich geh an der MPC weiterhin möglichst nahe an die clip grenze.
 
Ich habe mal für mich einen Hörtest zwischen einem MOTU 828 und RME ADI 8 gemacht. Beides eher Budget/Mittleklasse Wandler.
Ergebnis: ich konnte sehr klare Unterschiede hören!
Aber: Ich konnte nicht sagen, welcher Wandler besser klingt.

Daher an den OP: ich denke die Unterschiede die du hörst sind wirklich da und nicht eingebildet.
 
intercorni schrieb:
Wenn du nur eine Spur aufnimmst klangt das schon anders?
Wenn nicht, würde ich die Mixing Kenntnisse mal aufbessern. Schlechter Sound kommt meistens nicht vom Equipment.

naja, wenn schlechte Wandler bei der Aufnahme die Hälfte vergessen ist das schon dadurch bemerkbar das man hinterher extrem normalisieren muss und es dumpf klingt, wenn es ganz dumm läuft kommt noch Rauschen oder Brummen dazu...

Allerdings bekommt man selbst mit einem fast Track Pro oder ESI 24XL brauchbare Aufnahmen seines Synthesizer hin, also es muss sich nicht gleich jeder ein Interface für min 800 € kaufen mit vorverstärkern und I/O anschlüssen die er nie oder nur selten benutzt, nur weil dieses Interface dann angeblich bessere Aufnahmen erzeugt. Auf der anderen Seite macht bestimmt die Kombination von Behringer Interface mit Chinch Eingäänge für 30 € und dem Korg monotron durchaus Sinn wenn man einen ganz bestimmten Sound sucht.

Es kommt auch auf die Bedienart an und welche Anforderungen man hat. Ich benutze meistens nur noch Samples oder ich Sample ab. Dadurch erspare ich mir dann die nervigen Ärgereien bezüglich der Latenzen oder vom MIDI Sync oder das man zu wenige Eingänge hat und erst recht spart man ein teures Analogpult. du brauchst ienen sehr sehr guten Sampler und eins oder 2 gute Synth, der Rest ist DAW und Controller
 
DrFreq schrieb:
naja, wenn schlechte Wandler bei der Aufnahme die Hälfte vergessen ist das schon dadurch bemerkbar das man hinterher extrem normalisieren muss und es dumpf klingt, wenn es ganz dumm läuft kommt noch Rauschen oder Brummen dazu...


du relativierst das ja selber - man bedenke dass nichteinmal der line in einer soundblaster 16 eine gut ausgepegelte aufnahme so versauen würde ;-)
 
soundblaster aufnahmen klingen sehr dumpf finde ich, ne soundblaster würde ich für expert sleepers plugins verwenden oder um eien monotron aufzunehmen
 
DrFreq schrieb:
soundblaster aufnahmen klingen sehr dumpf finde ich, ne soundblaster würde ich für expert sleepers plugins verwenden oder um eien monotron aufzunehmen


war auch nicht ganz ernst gemeint - das letzte dass ich mit einer sb-16 was aufgenommen habe ist etwa 18 jahre her :)
 
haesslich schrieb:
kl~ak schrieb:
die obertöne in ihrer gegenseitigen beeinflussung (periodische interferenz) wieder auf das audiospektrum auswirken sollen. eigentlich auch nicht unlogisch - inwieweit das reale effekte hat sei mal dahingestellt. :floet:

doch, leider ziemlich unlogisch. schwingungen und wellen überlagern sich nämlich ungestört - ohne interferenzen.

Autsch. Mische mal zwei um 180° zueinader gedrehte Schwingungen. Hallo Interferenz. Das hat nur rein gar nichts mit den Effekten der Digitalisierung zu tun.

Man kann sich diese angesprochenen "periodischen" Interferenzen aber durchaus durch Abtastung schaffen. Tastet man ein Signal ab, so können nicht hörbare Spektralkomponenten aus den Seitenbändern (über Nyquist) in das hörbare Basisband "gefaltet" werden. Das nennt sich Aliasing bzw. Foldover.
Die Aliasingkomponenten können sich durchaus durch Überlagerung mit Spektralkomponenten aus dem Basisband auslöschen bzw. verstärken. Das passiert auf jeden Fall, wenn das analoge Signal nicht bereits vor der Abtastung gemäß Nyquist bandbegrenzt ist.


PS: scheiß forum-timeout
 
Rampensau schrieb:
Autsch. Mische mal zwei um 180° zueinader gedrehte Schwingungen. Hallo Interferenz.

ja ok, ich habe mich mit den begrifflichkeiten schwer getan. zwei wellen überlagern sie sich. d.h. sie addieren sich. ja, das ist interferenz - im physikalischen sinne.
ich wollte wohl auf etwas anderes hinaus: weder ändert welle a die amplitude oder frequenz von welle b, noch umgekehrt. nur ist es so, dass welle a + welle b insgesamt = 0 ist. die signale ändern sich also nicht und beeinflussen sich nicht gegenseitig. das wollte ich eigentlich herausstellen.

und was diese periodische interferenz angeht:
es gibt eben aliasing, ja. aber hat kla~ak das gemeint? MIR war das aus dem, was er geschrieben hat, nicht so klar. und was sollte das über eine DAW aussagen? produzieren die anderes aliasing? (tun sie zwar unter umständen, aber ist das hier gemeint? geht es wirklich darum?) ich bezweifele die relevanz dahinter. das ist doch audioesoterik.
wellen, die andere wellen beeinflussen.
fakt ist doch: nimmst du ordentlich auf, hast du kein problem mit aliasing. ich mein, die wandler heutzutage sind WIRKLICH GUT. die resampling algorithmen sind WIRKLICH GUT. dieses problem ist für die meisten doch nur ein vorgeschobener grund um esoterische diskussionen zu führen.

das letzte mal, dass ich ein problem mit aliasing hatte, war als ich ein BBD delay gemodded hatte. DA gab es dann aliasing, und nicht zu knapp.
 
haesslich schrieb:
aber hat kla~ak das gemeint?
Das nahm ich an.
haesslich schrieb:
die signale ändern sich also nicht und beeinflussen sich nicht gegenseitig.
(Gleichgerichtete) Schwingungen gleicher Frequenz interferieren immer, ändern aber ihre Frequenz gegenseitig nicht. Aliasing kann dazu führen, das Basisbandkomponenten mit Seitenbandkomponenten interferieren.
haesslich schrieb:
nur ist es so, dass welle a + welle b insgesamt = 0 ist.
Das stimmt für zwei um 180° phasengedrehte Schwingungen.
haesslich schrieb:
weder ändert welle a die amplitude oder frequenz von welle b, noch umgekehrt.
Das trifft also nur bedingt zu.

Und ja klar, ist Aliasing und Wandlerrauschen ein längst gut gelöstes Problem. Und die Algorithmen sind wirklich gut. Das Problem ist aber, die Technik ist nur "Wirklich gut". Und das es so eine Technik gibt, die "Wirklich gut" ist, heißt nicht, dass sie eingesetzt wird. Zu Gunsten des hard- bzw. softwaretechnischen also preislichen Aufwands...
Man kann immer forschen und besser werden. Luft nach oben ist doch immer. Das ist keine Esoterik.

Im nicht hörbaren Bereich ist es die Psychoakustik. Durch die Bandbegrenzung geht dem analogen Signal Energie verloren, sofern es breitbandig war. Und das Problem ist, die Signale, die aus unseren Schaltkreisen kommen, sind zum Großteil sehr breitbandig.

Bsp:
Ein analoges Sägezahnsignal mit 11kHz ist nach einem typischen 44.1 kHz PAM-Kanal (AD-Wandlung->DA-Wanldung) plötzlich nur noch ein Sinus mit 11kHz. Das ist keine Esoterik. Das ist Fakt. Ich bin kein Spezialist für Psychoakustik, aber ich denke schon, dass der Mensch diesen Unterschied wahrnimmt. Wie auch immer...


Und dass das Problem des Aliasings eigentlich noch ein recht akutes ist, zeigt vllt folgende Überlegung:
Mal am Beispiel eines Antialiasing-Filters so ins Blaue gedacht...
Die Qualität der Abtastung hängt bedingt mit der Qualität des vorgeschalteten Antialiasing-Filters zusammen. Ein ideales AA-Filter besitzt im Durchlassbereich die Verstärkung von 1, im Sperrbereich eine Verstärkung von 0. Der Durchlassbereich geht von 0 Hz bis zur halben Abtastfrequenz. Der Amplitudengang besitzt also eine unendliche Flankensteilheit bei der Grenzfrequenz, also auch eine Nullstelle bei der Grenzfrequenz. Der Phasengang ist linear.

Ein Brickwall-Filter mit ca. 80dB/Oct verursacht üble Phasenschweinereien bei hohen Frequenzen. Ein RC-Glied mit 12dB/Oct dagegen hat bei hohen Frequenzen "nur" eine Phasenverzerrung von 90°. Bereits hier muss man Kompromisse eingehen. Wähle ich das RC-Glied als AA-Filter, so habe ich im Sperrbereich eine geringere Dämpfung als mit dem Brickwall, jedoch muss ich den Phasengang nicht mehr mittels digitaler Allpässe korrigieren.

Wenn ich aber das RC-Glied mit einer k-fach höheren Abtastfrequenz überabtaste, entfernen sich die Seitenbänder voneinander und überschneiden sich demnach weniger. Das Aliasing wird deutlich leiser. Ich muss jetzt nur noch ein digitales AA-Filter implementieren, welches im Sperrbereich genügend dämpft, sodass ich wieder k-fach unterabtasten (indem ich einfach jedes k-te Sample nehme) kann und so das gewünschte bandbegrenzte Signal erhalte. (Was seinerzeit bahnbrechend für die Entwicklung billiger Wandler für tragbare CD-Player gewesen ist)

Bereits an einer so trivialen Angelegenheit wie dem AA-Filter kann man sich schon den Kopf zerbrechen und muss bei der einen oder anderen Sache Kompromisse eingehen, die deutlich Preis, Klang und Verfügbarkeit beeinflussen. Amplitudenquantisierung ist nach der zeitlichen Abtastung der nächste Schritt... :kaffee:
 
nordcore schrieb:
digital Audio hat keine Stufen
häh?! Ein digitales Signal ist eine Folge von quantisierten Zahlen, also stufig.

nordcore schrieb:
Es werden die Höhen oberhalb des Hörbereichs abgeschnitten und ein Rauschen hinzugefügt
Was heißt das denn jetzt? Ist das nur unglücklich formuliert? Das eine hat mit dem anderen nämlich nichts zu tun.
Das hinzugefügte Rauschen dient einerseits als Antinoise, um Quantisierungsrauschen durch Interferenz auszulöschen und andererseits, um einen statistischen "Fehlerteppich" zu schaffen, der Quantisierungsfehler bei sehr geringen Pegeln "ausgleicht".

Das der nicht hörbare Bereich einfach abgeschnitten wird, ist auch ziemliche Bilderbuchvorstellung. Er wird höchstens mit einer endlichen Verstärkung < 1 gedämpft. Aber nicht abgeschnitten. Das würde ein ideales Filter voraussetzen, welches nicht mehr kausal ist.

nordcore schrieb:
Damit geht aus technischer Sicht nichts verloren
Aus technischer Sicht eben schon. Aus der Sicht des Hörers weniger. Aus psycoakustischer Sicht auf jeden Fall.

nordcore schrieb:
was sie im Prinzip nicht von Analogtechnik unterscheidet, die Grenzen gibt es dort prinzipiell genau so. Analog ist in keiner weise "unendlich", die Information ist *immer* begrenzt, unendliche Informationsmenge braucht unendliche Energie zur Übertragung!
Im Vergleich zu den Bandbreiten DA-gewandelter Signale, kann man analoge Signale mit einer sehr ausgedehnten Bandbreite schon als annähernd unbegrenzt betrachten. So werden sie in der Tat auch modelliert.

Bsp: Diracimpuls:
Das nicht wirklich ein unendlich-schmaler und unendlichen-hoher Nadel-Impuls im Zeitbereich existiert, also demnach auch kein Spektrum, dass sich unendlich ausdehnt, ist nur natürlich. Doch das ideale Modell gibt Aufschluss darüber, wie wir reale Signale anfassen und betrachten können.
 
hab jetzt nicht alles gelesen ... jungejunge , aber :

mach mal die "warper" in ableton aus , dann klingts auch gleich viel schöner
 
Rampensau schrieb:
Ein analoges Sägezahnsignal mit 11kHz ist nach einem typischen 44.1 kHz PAM-Kanal (AD-Wandlung->DA-Wanldung) plötzlich nur noch ein Sinus mit 11kHz. Das ist keine Esoterik. Das ist Fakt. Ich bin kein Spezialist für Psychoakustik, aber ich denke schon, dass der Mensch diesen Unterschied wahrnimmt. Wie auch immer...
bei 11kHz wäre aber die erste harmonische schon 22kHz, und die liegt schon über dem hörbaren. den unterschied nimmt man also nicht wahr - und da sich ja wellen ungestört überlagern, gibt's auch keinen einfluss auf andere, hörbare frequenzen. und in der realität haben wir dann auch noch effekte wie maskierung...


Ein Brickwall-Filter mit ca. 80dB/Oct verursacht üble Phasenschweinereien bei hohen Frequenzen. Ein RC-Glied mit 12dB/Oct dagegen hat bei hohen Frequenzen "nur" eine Phasenverzerrung von 90°. Bereits hier muss man Kompromisse eingehen. Wähle ich das RC-Glied als AA-Filter, so habe ich im Sperrbereich eine geringere Dämpfung als mit dem Brickwall, jedoch muss ich den Phasengang nicht mehr mittels digitaler Allpässe korrigieren.

schon, aber wie groß IST das problem tatsächlich? in hohen frequenzen ist das ohr weniger präzise, sowohl was lautstärkeunterschiede als auch was frequenzunterschiede angeht. wenn du jetzt dort oben paar phasenprobleme einhandelst, und sich dadurch (durch die von dir gut beschriebenen interferenzen durch überlagerung) das spektrum etwas ändert, hört man vielleicht noch einen unterschied, aber ein DEUTLICHER qualitätsunterschied? wenn du, meinetwegen, aliasingkomponenten von meinetwegen -80dB hast (und ich rede jetzt hier von consumergeräten, fernsehern oder handys zum beispiel)... das mag dort ein hörbares, aber doch akzeptierbares problem sein. gehst du in den studio bereich, relativiert sich das doch schon - das siehst du nur noch im spektrogramm, hört man aber nicht.


Wenn ich aber das RC-Glied mit einer k-fach höheren Abtastfrequenz überabtaste, entfernen sich die Seitenbänder voneinander und überschneiden sich demnach weniger. Das Aliasing wird deutlich leiser. Ich muss jetzt nur noch ein digitales AA-Filter implementieren, welches im Sperrbereich genügend dämpft, sodass ich wieder k-fach unterabtasten (indem ich einfach jedes k-te Sample nehme) kann und so das gewünschte bandbegrenzte Signal erhalte. (Was seinerzeit bahnbrechend für die Entwicklung billiger Wandler für tragbare CD-Player gewesen ist)
was mich daran stört ist, dass du eben wieder unterabtasten musst. dann hängt die qualität eben an der qualität deines digitalen AA filters. die günstiger zu erreichen ist, aber, wie du weiter schreibst, eben auch nicht trivial ist.

wir hatten vor einiger zeit schon mal eine hitzige diskussion über resampling (und somit auch über aliasing), stimmt's? letztes jahr?
 
haesslich schrieb:
bei 11kHz wäre aber die erste harmonische schon 22kHz, und die liegt schon über dem hörbaren. den unterschied nimmt man also nicht wahr
Die Grenze des Hörbaren ist bestimmt nicht die Grenze des Wahrnehmbaren. Die psychoakustischen Effekte des nicht-Hörbaren sollte man dabei mal genauer betrachten. Ich denke schon, dass der Mensch sensibel genug ist, solche Unterschiede wahrzunehmen. Auf welche Art auch immer.


haesslich schrieb:
schon, aber wie groß IST das problem tatsächlich? in hohen frequenzen ist das ohr weniger präzise, sowohl was lautstärkeunterschiede als auch was frequenzunterschiede angeht. wenn du jetzt dort oben paar phasenprobleme einhandelst, und sich dadurch (durch die von dir gut beschriebenen interferenzen durch überlagerung) das spektrum etwas ändert, hört man vielleicht noch einen unterschied, aber ein DEUTLICHER qualitätsunterschied? wenn du, meinetwegen, aliasingkomponenten von meinetwegen -80dB hast (und ich rede jetzt hier von consumergeräten, fernsehern oder handys zum beispiel)... das mag dort ein hörbares, aber doch akzeptierbares problem sein. gehst du in den studio bereich, relativiert sich das doch schon - das siehst du nur noch im spektrogramm, hört man aber nicht.

Man darf das nicht so durcheinanderschmeißen. Phasenprobleme wirken sich erst einmal nicht auf das Amplitudenspektrum aus. Solche Phasenverzerrungen bedingen zeitliche Verzögerungen und stehen im Zusammenhang mit der Stabilität eines Systems. Dort gibt es dann ganz andere Effekte, wie auch Auslöschungen, Aliasing bis hin zum Ausbruch des Systems (Resonanz im eigentlichen Sinne, was in der Systemtheorie etwas sehr schlechtes ist. Unsere selbstresonierenden Filter sind Grenzstabil). Also Achtung, wenns um die Phase geht. Es macht nämlich schon einen krassen Unterschíed, ob sich da oben zwei Schwingungen auslöschen oder maximal verstärken.

Im Studio wird man diese Probleme kaum zu Gesicht bekommen, weil irgend jemand sich einmal genau um diese Probleme Gedanken gemacht hat. Der Eine weniger gut, der Andere etwas besser. Die Wahl hat man ja als Käufer: Lieber Mackie oder RME oder doch lieber "beliebiges Audiointerface"? Man kann nun den Zahlen des Herstellers vertrauen, selber Messungen durchführen oder einfach seinem Gehör vertrauen.
Jedoch muss man dann auch mit den Effekten leben, die die Implementierung der Digitalisierung und Rückwandlung mit sich bringen.
Ich wollte nur mal vorzeichnen, mit welchen Problemen man dabei rechnen muss und welche Effekte durch schlechte Abtastung einhergehen können.



haesslich schrieb:
was mich daran stört ist, dass du eben wieder unterabtasten musst. dann hängt die qualität eben an der qualität deines digitalen AA filters. die günstiger zu erreichen ist, aber, wie du weiter schreibst, eben auch nicht trivial ist.

Ein digitales Filter mit solchen Eigenschaften ist weit weniger teuer, als ein analoges Brickwall und besitzt sogar einen linearen Phasengang. Und ist wirklich nicht hochkompliziert zu designen. Da verursacht die Unterabtastung keinen Mehraufwand. Nur die Überabtastung des Analogsignals benötigt eine höhere Taktung der AD-Wandler. Das kann man aber in Kauf nehmen.
Viel praktischer ist aber, und um den Bogen zur Resampling-Diskussion perfekt zu machen, die Überabtastung durch Interpolation zu erreichen:
Abtasten mit der einfachen Abtastfrequenz, und zwischen jeden Abtastwert k-1 Abtastwerte durch lineare Interpolation zu finden. Voila ein k-fach überabgetastetes geringfügig verzerrtes Signal, dessen Seitenbänder sich an der selben Lage befinden, wie die Seitenbänder eines Signals mit k-facher Abtafrequenz abgetastet. Und da die Verzerrung durch lineare Interpolation bekannt ist und gegeben ist, müsste das Signal sich einfach wieder entzerren lassen.

haesslich schrieb:
wir hatten vor einiger zeit schon mal eine hitzige diskussion über resampling (und somit auch über aliasing), stimmt's? letztes jahr?
Digitale Klangsynthese

Es geht ja immer nur ums Eine. Ja hast Recht. Hier tasten wir im Gegensatz analoge Signale ab. Was viel interessanter ist...
 
wie schon angedeutet und erwähnt wurde muss man einfach nur drauf achten das im interface recording/inputweg auch wirklich die dBU/dBV angaben eingestellt sind, die das letzte medium vor dem interface z.B. ein studiomischer ausgibt.
 
s-tek schrieb:
wie schon angedeutet und erwähnt wurde muss man einfach nur drauf achten das im interface recording/inputweg auch wirklich die dBU/dBV angaben eingestellt sind, die das letzte medium vor dem interface z.B. ein studiomischer ausgibt.

Oder mn kauft sich einfach ein Interface mit der tatsächlich benötigten Anzahl von Kanälen den Features die man wirklich benötigt und sein gesetzes Budget passt aber nicht gerade den billigsten Schrott, also kein 2x2 Interface für 30 €.
 
Rampensau schrieb:
Die Grenze des Hörbaren ist bestimmt nicht die Grenze des Wahrnehmbaren. Die psychoakustischen Effekte des nicht-Hörbaren sollte man dabei mal genauer betrachten. Ich denke schon, dass der Mensch sensibel genug ist, solche Unterschiede wahrzunehmen.

ich kenne mich mit psychoakustik durchaus aus. allerdings kann ich nicht ändern, was du denkst. :nihao:
insofern eine müßige diskussion.

Rampensau schrieb:
Solche Phasenverzerrungen bedingen zeitliche Verzögerungen und stehen im Zusammenhang mit der Stabilität eines Systems. Dort gibt es dann ganz andere Effekte, wie auch Auslöschungen, Aliasing bis hin zum Ausbruch des Systems.

zu erstens: auslöschungen. ja die habe ich genannt.
zu zweitens: aliasing. mir ist nicht ganz klar, wie DAS durch eine änderung der phase entstehen sollte.
zu drittens: ich bitte dich! bleiben wir doch obda bei stabilen systemen.
zu viertens: clipping. siehe mein einwand zu auslöschungen: bei real-world signalen sind in so hohen frequenzen die pegel so gering, dass das praktisch selten auftreten wird. ich würde das erst mal vernachlässigen - der einfachheit dieser diskussion halber.

Rampensau schrieb:
Ich wollte nur mal vorzeichnen, mit welchen Problemen man dabei rechnen muss und welche Effekte durch schlechte Abtastung einhergehen können.

ja - das weiß ich zu schätzen. auch wenn du mir nichts neues erzählst; jedoch meine ausführungen vielleicht bisweilen _etwas_ ;-) zu einfach gehalten sind (und damit vielleicht nicht mehr so ganz obda gelten ;-) ).
ich finde nur, 90% der leser in diesem thread interessieren die genauen ausführungen nicht - die wollen nur die bestätigung, das es audioesoterik ist, wenn man flöhe husten hört. reale probleme imo sind eher, wieso man keine onboard soundkarte benutzen sollte.

Rampensau schrieb:
Viel praktischer ist aber, und um den Bogen zur Resampling-Diskussion perfekt zu machen, die Überabtastung durch Interpolation zu erreichen:
Abtasten mit der einfachen Abtastfrequenz, und zwischen jeden Abtastwert k-1 Abtastwerte durch lineare Interpolation zu finden. Voila ein k-fach überabgetastetes geringfügig verzerrtes Signal, dessen Seitenbänder sich an der selben Lage befinden, wie die Seitenbänder eines Signals mit k-facher Abtafrequenz abgetastet. Und da die Verzerrung durch lineare Interpolation bekannt ist und gegeben ist, müsste das Signal sich einfach wieder entzerren lassen.


ja, ich gebe zu, dass ich mich mit dem design digitaler filter in der praxis nur rudimentär auskenne. aber da ich ja in dem anderen thread die darstellung als lineare interpolation aufgebracht habe, habe ich mir auch mal die mühe gemacht, ein paar interpolationsalgorithmen zu vergleichen, und neben der filterfunktion im frequenzbereich auch mal soundbeispiele erarbeitet (und einen doppelblindtest durchgeführt, allerdings nur mit sehr wenigen hörern). die soundbeispiele kann ich gerne mal zur verfügung stellen.

jedenfalls, langer rede kurzer sinn: lineare interpolation ist wirklich wirklich hörbar schlecht. da bekommst du _viel_ aliasing. interessant aber: ab kubischer interpolation geht es.
wohlgemerkt: das waren beispiele im bereich von up/downsampling von 0.5 - 2.0.
 
haesslich schrieb:
ich kenne mich mit psychoakustik durchaus aus. allerdings kann ich nicht ändern, was du denkst. :nihao:
insofern eine müßige diskussion.
Naja, Argumente in der Richtung, kamen bisher nicht von dir. Ich sehe da noch keine Diskussion. Ich behaupte mal, das Frequenzen überhalb von Nyquist durchaus wahrnehmbar sind. Nur nicht mit dem Gehör. Subbässe will man ja auch nicht missen. Ist ein anderes Extrem. Aber eben auch inaudibler Schall.

haesslich schrieb:
zu erstens: auslöschungen. ja die habe ich genannt.
zu zweitens: aliasing. mir ist nicht ganz klar, wie DAS durch eine änderung der phase entstehen sollte.
zu drittens: ich bitte dich! bleiben wir doch obda bei stabilen systemen.
zu viertens: clipping. siehe mein einwand zu auslöschungen: bei real-world signalen sind in so hohen frequenzen die pegel so gering, dass das praktisch selten auftreten wird. ich würde das erst mal vernachlässigen - der einfachheit dieser diskussion halber.

1. Nein, diese Auslöschung durch Phasenverzerrung meintest du nicht. Denn mit denen will hier bestimmt keiner leben. Ein Rechteck sieht nach einem Brickwall nicht mehr schön aus und MUSS phasenkorrigiert werden.
2. ich meine allgemein die Spektren digitaler Systeme können sich genau so überlappen, wie bei Signalen, nicht unbedignt im Zusammenhang mit der Phasenverzerrung. Ist wohl in den falschen Kontext gerutscht.
3. Naja, um ein stabiles System vorausszusetzen muss eines vorhanden sein. Ein Filter mit einer Phasenverzerrung von über 180° an der Durchtrittskreisfrequenz ist instabil. Das muss man wissen, bevor man einen Brickwall einsetzt. ;-)
4. Ich weiß ja nicht, was für dich Real-World Signale sind. Ich rede so von Rechteck- und Sägezahnsignalen. Nicht unbedingt mit 11kHz als Grundwelle. Eben sehr sehr sehr breitbandige Wellenformen. Die viel viel viel Aliasing verursachen, wenn sie schlecht abgetastet werden.

haesslich schrieb:
jedenfalls, langer rede kurzer sinn: lineare interpolation ist wirklich wirklich hörbar schlecht. da bekommst du _viel_ aliasing. interessant aber: ab kubischer interpolation geht es.
Dir scheint im Übrigen nicht klar zu sein, was Aliasing ist bzw. wie er entsteht, daher ist dies eine ebenso müßige Diskussion. Das, was durch lin. Interpolation entsteht, ist nicht Aliasung, sondern Verzerrung. Wie starkt sie ausgeprägt hängt von Randbedingungen ab, die den einen Algorithmus schlecht und den anderen gut aussehen lassen können. Außerdem lassen sich solche Verzerrungen meißt wieder entzerren, wenn sie bekannt sind. Welche bei bandbegrenzten Signalen eher undramatisch sind.
 
Bin am Handy danger Kurzfassung:
Die Verzerrung durch lineare interpolation haben Signalanteile über der nyquist Frequenz. -> aliasing.
Siehe unsere frühere Diskussion: ein linearer interpolator ist eben kein perfektes Filter resampling Filter. Und was passiert bei schlechtem resampling? Aliasing.

Mein Wort zum Sonntag. Ich bin mal raus, führt zu weit. Ich schick dir nachher mal ne pn. :)
 
Der bilinearen z-Transformation liegt eine linear interpolierte Integration zu Grunde.
Dank der linearen Interpolation erhält der Integrator eine Nullstelle bei Nyquistfrequenz. Diese Nullstelle beseitigt Aliasing!
Es ist also eine Frage, wie die Interpolation eingesetzt wird.

Bin auch gerade am Handy. :)
 
die frage ist dann aber auch mit welchem wandler man es am interface zu tun hat. macht doch keine wissenschaft draus, das hilft doch niemandem weiter. im normalfall bei gut ausgepegeltem signal und gut eingestellter technik passt alles und man hört kaum nen unterschied.
das einzige was ich persönlich nach dem digitalisieren immer höre, ist der unterschied im bassbereich, der sich wohl aber nicht vermeiden lässt durch die highpassfilter die vor und hinter der der wandlung sitzen (hier sind wa auch wieder beim aliasing). direkt im pult klingts einfach druckvoller, obwohl auch da sicherlich highpassfilter sitzen die die subsonische frequenzen vermeiden sollen.
 


Neueste Beiträge

News

Zurück
Oben