44,1 kHz / 48 kHz / 96 kHz – aus heutiger Sicht...

Michael Burman

⌘⌘⌘⌘⌘
Wenn du meinst.
Das ist zwar Signalverarbeitung 1. Semester, aber ok.
Im 1. Semester lernt man, wie man am AKAI-Sampler rund laufende Loops macht, indem die Loop mit Nachkomma-Stellen verschoben wird? Dabei bleibt der Amplitudenwert bestehen.
Wenn man resampelt, dann ändern sich natürlich die Werte.
Die Speicherung von Samples sind natürlich punktuelle Werte.
 

haesslich

*****
Im 1. Semester lernt man, wie man am AKAI-Sampler rund laufende Loops macht, indem die Loop mit Nachkomma-Stellen verschoben wird? Dabei bleibt der Amplitudenwert bestehen.
Wenn man resampelt, dann ändern sich natürlich die Werte.
Kein Plan, was das soll, diese Akai-Anekdote habe ich nicht zitiert. Also habe ich mich darauf auch nicht bezogen.
Der Vollständigkeit halber:
Nein, im 1. Semester lernt man, dass das Quatsch ist, was du da schreibst.
Oppenheim Schafer, Zeitdiskrete Signalverarbeitung, Kapitel 2.1, "Zeitdiskrete Signale als Folgen"

I can explain it to you, I cannot understand it for you.
 
Zuletzt bearbeitet:

Michael Burman

⌘⌘⌘⌘⌘
Soweit ich gelesen habe werden bei Akai (beispielsweise S3000) die Looppunkte in Millisekunden angegeben. Was Nachkommastellen bei der Eingabe zwingend nötig macht, wenn man samplegenau Loopen möchte...
Die Sampler habe ich nicht mehr, ich habe jetzt in die Handbücher reingeschaut. Das sieht für mich so aus:

Loop Time ist ein anderer Parameter (in ms). Damit kann man festlegen, wie lange der Loop erklingen soll.

"Im Normalfall soll die Loop so lange ausgehalten werden, wie die Taste gedrückt bleibt. Es ist jedoch auch möglich, eine bestimmte zeitliche Dauer für eine Loop festzulegen"

Die Loop-Punkte bleiben Sample-Punkte. Mit Nachkommastellen.
 

Michael Burman

⌘⌘⌘⌘⌘
Aber so oder so. Diese Art Anwendung kann man als Sonderfall sehen.
Bei der Diskretisierung an Hand der verwendeten Sample-Rate sind es natürlich Punkte, wo nicht gesagt ist, wie sie zu verbinden sind.
Daher will ich @haesslich gar nicht widersprechen. Mir ist halt dieser Fall der Anwendung eingefallen, wo die Punkte quasi verlängert werden, so dass es sich tatsächlich Stufen ergeben. Aber eben abstrakt (auf der digitalen abstrakten Ebene, ohne sich auf die Speicherzellen zu beziehen), weil sobald man sich auf einen verschobenen Punkt festgelegt hat, wird die Loop entsprechend wiedergegeben.
 
Zuletzt bearbeitet:

Cyclotron

|||||||||||
Was ich mir durchaus vorstellen kann ist, dass die Nachkommastelle für den fraktionalen Teil der Interpolation genutzt wird. Wenn er beispielsweise genau den Looppunkt bei 1000 erreicht und man eine Length von 800.20 angegeben hat, springt er bei Erreichen des Looppunktes zurück auf Sample 199 und benutzt die Nachkomastelle einfach als Ratio für die Interpolation mit Sample 200. Bei linearer Interpolation ware das dann beispielsweise:

Signal = Sample_199 * 0.2 + Sample_200 * 0.8

Bei Interpolationen höheren Grades ist das dann analog mit entsprechender Formel.
 
R

Rsdr

Guest
Ich bin sowie der Meinung: Alles was man nicht eindeutig hört kann man vernachlässigen. Wenn ich lese wie viel in die kleinsten Nuancen investiert wird, anstelle mal einfach schöne Musik zu machen, der die Nuancen völlig egal ist.
 

einseinsnull

[nur noch PN]
Die Sampler habe ich nicht mehr, ich habe jetzt in die Handbücher reingeschaut. Das sieht für mich so aus:

Loop Time ist ein anderer Parameter (in ms). Damit kann man festlegen, wie lange der Loop erklingen soll.

Die Loop-Punkte bleiben Sample-Punkte. Mit Nachkommastellen.
dir kann man einen kuchen hinstellen und du behauptest immer noch es sei ein brokkoli.
 

Michael Burman

⌘⌘⌘⌘⌘
Was ich mir durchaus vorstellen kann ist, dass die Nachkommastelle für den fraktionalen Teil der Interpolation genutzt wird. Wenn er beispielsweise genau den Looppunkt bei 1000 erreicht und man eine Length von 800.20 angegeben hat, springt er bei Erreichen des Looppunktes zurück auf Sample 199 und benutzt die Nachkomastelle einfach als Ratio für die Interpolation mit Sample 200. Bei linearer Interpolation ware das dann beispielsweise:

Signal = Sample_199 * 0.2 + Sample_200 * 0.8

Bei Interpolationen höheren Grades ist das dann analog mit entsprechender Formel.
Jo, irgendwie müsste der Sampler den Wert dann neu berechnen, weil er ja mit fester Sampling-Frequenz arbeitet.
Außerdem arbeitet der Sampler intern mit höherer Bittiefe als gesampelt, also sind auch diese Werte schon mal umgerechnet.
Des Weiteren muss beim Pitching in Echtzeit alles intern resampelt werden, weil der Sampler mit fester Sampling-Frequenz arbeitet.
Nun ja, die "Theorie" mit Stufigkeit können wir wohl ablegen. Sowohl die Amplituden-Achse als auch die Zeit-Achse sind diskretisiert. Die Stufigkeit hätte man, wenn man auf der Zeit-Achse den Amplituden-Wert mehrmals nacheinander wiederholt. Man hat z.B. Stufigkeit bei MIDI-CC-Werten, aber da ist die Zeit-Achse eben feiner aufgelöst als die CC-Werte.
 
Zuletzt bearbeitet:

Michael Burman

⌘⌘⌘⌘⌘
Wenn ich lese wie viel in die kleinsten Nuancen investiert wird, anstelle mal einfach schöne Musik zu machen, der die Nuancen völlig egal ist.
Tja, Musik und Technik. Das ist die Frage, wie weit bzw. tief man ins Technische geht, bzw. wann man vielleicht lieber aufhören sollte, wenn man eigentlich "nur" Musik machen möchte. Das beginnt für viele Musik-Schaffende schon mit der Frage, ob bzw. wie detailliert man zu wissen braucht, wie man Sounds einstellt, oder könnte man nicht vielleicht einfach Presets benutzen. Oder z.B., was sollte man über Sampling wissen, wenn man mit Samples arbeitet.

Nicht hörbare Nuancen sind vielleicht nicht relevant. Sie könnten aber z.B. relevant werden, wenn man z.B. nicht auf Mono-Kompatibilität geachtet hat, oder wenn man selber – aus welchen Gründen auch immer – doch irgendwie nicht genau zugehört hat. Mastering-Ingenieure setzen ja z.B. optische Tools dafür ein. Oft wollen wir aber wohl tatsächlich in zu viele technische Hintergründe eindringen, die eher für Entwickler der Studiotechnik bzw. Software-Programmierer relevant sind.
 
R

Rsdr

Guest
Ja, es gibt ja auch genug Leute die eigentlich fast nur an diesen technischen Nuancen interessiert sind und ihr Leben damit verbringen irgendwas noch optimieren zu wollen oder auf der Suche nach "dem" Klang sind. Nicht um wirklich dann bessere Musik zu machen, sondern um des Prozesses wegens.

Ich wette es gibt genug Leute, die sich alles mögliche kaufen, kurz mal nen Monat mit rumspielen und das Teil dann wieder verkaufen oder verstauben lassen. Aber so ist das nun einmal in einer Konsumgesellschaft...kaufen kaufen kaufen...egal ob man es wirklich braucht oder nicht.
 
Ja, es gibt ja auch genug Leute die eigentlich fast nur an diesen technischen Nuancen interessiert sind und ihr Leben damit verbringen irgendwas noch optimieren zu wollen oder auf der Suche nach "dem" Klang sind. Nicht um wirklich dann bessere Musik zu machen, sondern um des Prozesses wegens.
Der eine macht Farben, der andere Leinwände, wieder ein anderer Pinsel, und noch ein anderer malt Bilder.

Grüße
Omega Minus
 

rauschwerk

pure energy noise
32bit float ist meines Wissens nach im Prinzip genauso fein wie 24 Bit und macht absolut Sinn , wenn der Wandler mit 24 Bit aufnimmt.
die zusätzlichen 8 Bit werden einfach drangehängt und als Headroom genutzt, also der Headroom wird extrem erweitert.
So gibt es kein digitales Clipping, auch wenn der Pegel zwischendurch mal deutlich höher wird. Hauptsache am Schluss wird es wieder unter 0 geregelt.
(Haupt-)Vorteil von 32bit Floatpoint ist, dass du digital über 0db gehen kannst (im Workflow). Später kannst du sauber auf 0db (bzw. -0.05db = Headroom ... oder ggf. auch weniger/mehr) verdichten.
24bit und weniger kann nicht über 0db (digital) hinaus. Das ist der Hauptvorteil. Die meisten DAWs und Audioeditoren arbeiten intern mit 32bit Floatpoint.
 

2bit

|||||||||
Bei der Diskretisierung an Hand der verwendeten Sample-Rate sind es natürlich Punkte, wo nicht gesagt ist, wie sie zu verbinden sind.
Daher will ich @haesslich gar nicht widersprechen. Mir ist halt dieser Fall der Anwendung eingefallen, wo die Punkte quasi verlängert werden, so dass es sich tatsächlich Stufen ergeben. Aber eben abstrakt (auf der digitalen abstrakten Ebene, ohne sich auf die Speicherzellen zu beziehen), weil sobald man sich auf einen verschobenen Punkt festgelegt hat, wird die Loop entsprechend wiedergegeben.
Wer oder was "verbindet" hier denn Punkte?

Diese Aufarbeitung ist so was von verkopft, dass ich da echt nicht mehr mitkomme. Zur Erinnerung: Ne Sammlung diskreter Samples lässt sich über einen popeligen Lautsprecher wiedergeben. Die "Interpolation" ist nix anderes als die Bewegung der Lautsprechermembran zwischen zwei Samples. Dieser Bewegung stehen Luftdruck und Massenträgheit entgegen. Wenn man nur das Nyquist-Shannon-Abtasttheorem berücksichtigt, dann ist diese Rekonstruktion exakt.

Fertig.
 

Michael Burman

⌘⌘⌘⌘⌘
Nach D/A-Wandlung sind es keine diskreten Werte mehr, sondern kontinuierlicher Stromfluss.
Ergo: Diskrete Werte werden zum kontinuierlichen Stromfluss verbunden.
 

2bit

|||||||||
Nach D/A-Wandlung sind es keine diskreten Werte mehr, sondern kontinuierlicher Stromfluss.
Die Spannung, die an einem Lautsprecher anliegt, ist sicher alles mögliche, aber bestimmt nicht kontinuierlich. Bei ner Sinusschwingung hast du sogar einen waschechten Wechselstrom. Der Strom fließt vor und zurück und vor und zurück....
 

Max

||||||||||
ein D/A Wandler macht aus Bits eine diskrete (= sprunghaft wechselnde) Spannung, ein Rekonstruktionsfilter macht diese Spannung dann kontinuierlich

und auch ein Sinus ist kontinuierlich
 

Max

||||||||||
der Kollege Burman meinte hier mit Sicherheit "kontinuierlich" im Kontext von Funktionen...

kontinuierlich (im deutschen sagt man oft auch "stetig") ist eine Funktion genau dann wenn sie "keine abrupten Sprünge macht" - und der Sinus gehört da natürlich dazu. Ein Rechteck wäre z.B. nicht stetig.
 

2bit

|||||||||
der Kollege Burman meinte hier mit Sicherheit "kontinuierlich" im Kontext von Funktionen...
Tja, und ich rede von Elektrizität und davon, was am Ende für den Zuhörer raus kommt. Das Beispiel oben mit dem Lautsprecher und Nyquist-Shannon war ja eben nicht beliebig gewählt. Es ist nun mal ziemlich problemfrei möglich, digitale Werte zu nehmen und daraus ein fehlerfreies Audiosignal zu reproduzieren, ohne dass man algorithmisch herumpfuschen und irgendwelche Werte, die es im Ursprungssignal überhaupt gar nicht gab, dazuerfinden muss.
 


Neueste Beiträge

News

Oben