Brainstorm Was kommt nach Ultra HD Audio??

E

eeeeeeeeeeeeeeee

Guest
8K wird’s ja offensichtlich nicht sein 🤣

Jemand ne Idee??
 
Das Problem ist offensichtlich, Leute die das noch hören, haben meist nicht die Ausgabe Geräte und hören nicht die Musik für die man das braucht ;-)
 
klanglich animierte gärten und räume die reaktiv sind, also abgeschlossene situationen und offene.
und die jeweilige separation bzw. integration vom/zum nächsten bild.die grenzbereiche sollten schönes bergen...

idee
 
Zuletzt bearbeitet:
44kHz, 96kHz, 16Bit, 24Bit, Wav, MP3 320, so wirklich relevante Unterschiede höre ich da leider nicht. Da einzige was für mich Sinn macht sind die 24-32Bit beim Arbeiten in der DAW, da schwerer zu übersteuern. Aber ob ich das nun als 16Bit oder 24Bit rausrendere, ich höre da keinen Unterschied. Mag auch daran liegen, dass ich eh nicht besonders gut hören kann. Bei mir ist zudem bei 11-12kHz Schluss, also machen Abtastfrequenzen über 24 kHz keinerlei Unterschied. Daher ist schon 44kHz absolut übertrieben für meine Ohren.

Beim TV ist es ähnlich alles über FullHD macht bei Filmen keinen Sinn für mich, auf dem Desktop schon, da Schriften etc. schärfer wirken. Aber mehr wie 4k bei einem sehr großen Bildschirm muss es auch nicht sein.

Also meine Obergrenzen des Sinnvollen sind daher:
  • FullHD bei Filmen
  • 4K bei groĂźen Computerbildschirmen z.B. 27 Zoll , ansonsten reicht mir hier auch FullHD
  • 16Bit 44kHz bei Audio
 
Also der Unterschied zwischen 16 und 24 Bit ist plakativ gesehen erst mal nicht da. Wenn man aber das richtige Material hört, macht es durchaus etwas aus und ist wahrnehmbar. Für den Consumer aber absolut kein Thema.
 
Auch eine hohe Auflösung, kann scheiße klingen.

FĂĽr die Wiedergabe ist das im Grunde egal, da reicht auch 44,1 und 16 bit,
fĂĽr die Produktion hingegen, nur wegen des Aliasings, gibt es doch Oversampling
oder bereits entsprechende Möglichkeiten. Brauch man mehr?

Mal die letzten 20 Jahre reflektieren. Hat sich Klang verbessert oder nur verändert?

Kurz ĂĽberlegt. Also verbessert bis 2005 definitiv, aber danach? hmm, nee, nicht so,
es wurde nur lauter.
 
Gerade bei unkomprimierter Musik ( Leveling ect ) spielt die Dynamik des Systems eine Rolle. Daher ist es eine Frage , von welchem Material man spricht.

Außerdem ist dann die Anzahl der Musiker und die Aufnahme mit entscheidend , ob eine höhere Auflösung gerechtfertigt ist..

Und dann darf vom Mikrofon bis hin zur Widergabe nichts im Signalweg sein, dass die Auflösung begrenzt, sonst kann man es auch vergessen..
 
Zuletzt bearbeitet:
Ganz interessant, dass der technische Fortschritt die Fähigkeiten des menschlichen Gehörs bereits seit vielen Jahren überschritten hat:

Im Endprodukt Frequenzen oberhalb von 20kHz zu übertragen, ist sinnfrei, da der typische Hörer bereits zwischen 16 und 18 kHz scheitert (will sagen: kein Mensch ist in der Lage, eine 96kHz-Datei oder 384kHz-Datei von seiner bei 20kHz tiefpassgefilterten Version rein auditiv zu unterscheiden).

Und was die Dynamik angeht, kann man in 16 Bit mit gutem Noise-Shaping 105dBA kodieren. Wenn man also seine Anlage so laut dreht, dass das Grundrauschen einer solchen Datei das Hintergrundrauschen eines sehr leisen Raums überschreitet (~15dB SPL), dann erreicht man in der Spitze 120dB, was einem die Ohren wegbläst (wenn man das zu oft macht, braucht man dann bald nur noch 12Bit/20kHz).

So reicht also 16Bit/44.1kHz fĂĽrs Endprodukt voll und ganz aus.

Was allerdings nicht reicht, ist das, was Amazon Prime oder YouTube im Stream abliefert. Die Kompressionsartefakte kann jeder hören, der weiß, worauf er achten muss.

Jedes Format, das über 16Bit/44.1kHz hinaus geht, speichert Informationen, die erst durch Nachbearbeitung hörbar werden könnten. Ob man nun 24Bit/96kHz oder 32Bit/384kHz nimmt sei jedem frei gestellt. Es gibt diese Formate alle, aber für den Consumer sind sie objektiv betrachtet irrelevant.

Mehr als 32Bit Floating Point in einer Datei sind auch reiner Unsinn, da sie bereits die 24 Bit Fixed Point enthalten (die 144dB Dynamik kodieren) und zusätzlich einen Exponenten, der eine fast beliebige Verschiebung dieser 144dB in einem >1500dB-Bereich erlaubt.

Bei der Audio-Verarbeitung kann es aber mit "nur" 32Bit Floating Point je nach Rechenverfahren zu gravierenden Rundungsfehlern kommen, weswegen die meisten DAW intern mit 64 Bit Floating Point rechnen.

Fazit: Jedes Consumer-Format, das ĂĽber 16Bit/44.1kHz hinausgeht, ist Marketing. Aber beim Zwischenspeichern von Audiodateien in der DAW kann 24-32Bit und 96-384kHz machmal sinnvoll sein.

Mehrkanalton könnte folgen. Höhere Auflösungen werden kaum sinnvoll sein. 8k ist Video - andere Baustelle.
Sehe ich auch so.
 
Ich war aufnahmetechnisch eine Zeitlang mit 96kHz zugange - muss aber gestehen, dass ich nun wieder bei 48kHz/32bit angekommen bin. Ich persönlich kann keinen Unterschied hören, mag aber an meinen abgerockten Ohren liegen. Zudem muss mein Audiorechner (aus 2018 von da-x.de in Berlin) bei 48kHz weniger "malochen"... Ableton läuft dann ebenfalls smoother.

That's it!
 
Ganz interessant, dass der technische Fortschritt die Fähigkeiten des menschlichen Gehörs bereits seit vielen Jahren überschritten hat:

Im Endprodukt Frequenzen oberhalb von 20kHz zu übertragen, ist sinnfrei, da der typische Hörer bereits zwischen 16 und 18 kHz scheitert (will sagen: kein Mensch ist in der Lage, eine 96kHz-Datei oder 384kHz-Datei von seiner bei 20kHz tiefpassgefilterten Version rein auditiv zu unterscheiden).

Und was die Dynamik angeht, kann man in 16 Bit mit gutem Noise-Shaping 105dBA kodieren. Wenn man also seine Anlage so laut dreht, dass das Grundrauschen einer solchen Datei das Hintergrundrauschen eines sehr leisen Raums überschreitet (~15dB SPL), dann erreicht man in der Spitze 120dB, was einem die Ohren wegbläst (wenn man das zu oft macht, braucht man dann bald nur noch 12Bit/20kHz).

So reicht also 16Bit/44.1kHz fĂĽrs Endprodukt voll und ganz aus.

Was allerdings nicht reicht, ist das, was Amazon Prime oder YouTube im Stream abliefert. Die Kompressionsartefakte kann jeder hören, der weiß, worauf er achten muss.

Jedes Format, das über 16Bit/44.1kHz hinaus geht, speichert Informationen, die erst durch Nachbearbeitung hörbar werden könnten. Ob man nun 24Bit/96kHz oder 32Bit/384kHz nimmt sei jedem frei gestellt. Es gibt diese Formate alle, aber für den Consumer sind sie objektiv betrachtet irrelevant.

Mehr als 32Bit Floating Point in einer Datei sind auch reiner Unsinn, da sie bereits die 24 Bit Fixed Point enthalten (die 144dB Dynamik kodieren) und zusätzlich einen Exponenten, der eine fast beliebige Verschiebung dieser 144dB in einem >1500dB-Bereich erlaubt.

Bei der Audio-Verarbeitung kann es aber mit "nur" 32Bit Floating Point je nach Rechenverfahren zu gravierenden Rundungsfehlern kommen, weswegen die meisten DAW intern mit 64 Bit Floating Point rechnen.

Fazit: Jedes Consumer-Format, das ĂĽber 16Bit/44.1kHz hinausgeht, ist Marketing. Aber beim Zwischenspeichern von Audiodateien in der DAW kann 24-32Bit und 96-384kHz machmal sinnvoll sein.


Sehe ich auch so.

Ich meine mit Dynamik nicht die Endlautstärke, sondern ob der Rekonstruktion 65000 oder 16 Millionen Abstufungen zur Verfügung stehen. So gesehen kann man 12 Bit Rechnerisch natürlich anführen, aber es geht ja um das , was dazwischen passiert..

Ich kann eine Widergabe mit 16 Bit 44,1 und 24 Bit 44,1 sehr wohl unterscheiden, wenn auch auf einem Zugegebenermaßen eher subtilen Niveau. Und man muss schon etwas hören, was zb verschieden Entfernungen im Raum auf allen Achsen besitzt und eventuell sind es auch gleich noch mehrere Instrumente, sagen wir ein Orchester.

Gegenbeweis ist, das Orchester mal mit 12 Bit abzuspielen - viel SpaĂź bei dem Phasen Wirrwarr! Ganz tolles Erlebnis..


Für mich ist dein Posting eher so zu deuten, dass Du es eben nicht wahrnehmen kannst und dann mathematisch eindimensional erklärst.

Und wie gesagt, es gibt zig Situationen, in denen es wirklich kaum bis garnicht wahrzunehmen ist, weil die Informationen die Ăśbertragen werden sollen, durch den Schall , schon in sich gesehen einfach sind !
 
Zuletzt bearbeitet:
Ich meine mit Dynamik nicht die Endlautstärke
Hoffentlich niemand. Dynamik ist nämlich das Verhältnis zwischen kleinster und größter Lautstärke, also z.B. vom Signal, das gerade eben aus dem Grundrauschen sticht, bis zum FS, gerade eben nicht geclippt, Signal. Da dieses Verhältnis z.B. 1:1000000 mit ganz vielen Nullen unpraktisch anzugeben ist, gibt man es in dB an.

Was Du meinst, ist die Amplitudenauflösung. Und wie die Systemtheorie nun mal unbestechlich vorrechnen kann, kann bei jeder beliebigen Amplitudenauflösung immer exakt das Originalsignal plus ein konstanter Pegel Grundrauschen rekonstruiert werden. Bei 12 Bit kommt genau das gleiche Signal heraus wie bei 24 Bit, nur dass das hinzugemischte Grundrauschen 72dB lauter ist.

Ich kann eine Widergabe mit 16 Bit 44,1 und 24 Bit 44,1 sehr wohl unterscheiden
Ich auch und jeder andere auch, am Grundrauschen.
 
Mal ein anderes Konstrukt, um das zu verdeutlichen was andere (vielleicht ) hören und warum es wichtig ist das hier die Rekonstruktion so wichtig und kompliziert ist.

Antworten von echten Räumen auf Aufnahmen!

Hier handelt es sich um feinste Informationen , sagen wir vereinfacht Rauschen. Aber dieses Rauschen ist nicht Chaotisch, so wie wir es aus der Synthese kennen. Nein, dieses Rauschen ist absolut an den Erzeuger und die Umgebung gebunden. Und hier ist es eben extrem wichtig, je nach dem wie gut unsere gesamte Wahrnehmung funktioniert, wie diese Entstehenden Informationen rekonstruiert werden. Dazu reicht einfach 16 Bit nicht mehr aus.
 
Hoffentlich niemand. Dynamik ist nämlich das Verhältnis zwischen kleinster und größter Lautstärke, also z.B. vom Signal, das gerade eben aus dem Grundrauschen sticht, bis zum FS, gerade eben nicht geclippt, Signal. Da dieses Verhältnis z.B. 1:1000000 mit ganz vielen Nullen unpraktisch anzugeben ist, gibt man es in dB an.

Was Du meinst, ist die Amplitudenauflösung. Und wie die Systemtheorie nun mal unbestechlich vorrechnen kann, kann bei jeder beliebigen Amplitudenauflösung immer exakt das Originalsignal plus ein konstanter Pegel Grundrauschen rekonstruiert werden. Bei 12 Bit kommt genau das gleiche Signal heraus wie bei 24 Bit, nur dass das hinzugemischte Grundrauschen 72dB lauter ist.


Ich auch und jeder andere auch, am Grundrauschen.

Ja und fĂĽr einen Sinus reichen 4 Bit, schon klar, es geht also garnicht mehr um Musik sondern einen Wettbewerb der Musiktheorie..
 
Bei 12 Bit kommt genau das gleiche Signal heraus wie bei 24 Bit, nur dass das hinzugemischte Grundrauschen 72dB lauter ist.

das rauschen... ist um so höher, je mehr bits du hast - aber hören tut das rauschen selbst kein mensch, denn es ist abhängig davon wie der wandler arbeitet, nicht ob er 16, 18 oder 24 bits "benutzt". im endeffekt zählt nur der SNR.

wie du mithilfe von "systemtheorie" vorrechnen willst, das bei 12 bit immer das "gleiche rauskommt" wie bei 24 bit, würde ich ja gerne mal live sehen, aber ich bin so selten auf jahrmärkten. ;-)
 
Vielleicht sollten wir dem Threadstarter noch die Antwort entlocken, ob 8k Video und Auflösungen anders gemeint sind?
Bei Video und Augenauflösung sehe ich noch Bedarf - bei Audioformaten gibt es Spezialgebiete - wie etwa wenn der Headroom viel kleiner ist und man mit viel Dynamik arbeitet und dann Nachbearbeitet ist - dann kann das sinnvoll sein mehr aufzulösen.

Bei Video entspräche dies einer Kamera, die mehr Farben und Auflösungen liefert als das menschliche Auge, etwa für eine Betrachtung eines Gebiets von dem man nur einen Ausschnitt benötigt - Sowas ist in einem Marsrover total sinnvoll oder Naturbetrachtung durch Kameras.
Ansonsten gibt es Situationen, wo Ausschnitte interessant sind und diese sollten dann natürlich die Auflösung haben wie wir maximal erkennen können.

Wenn man das auf Audio überträgt, gibt es einige Anwendungsbeispiele, die aber nicht überall greifen - zB nicht wenn man einfach Musik aus einem Laden lädt und die hat die oben genannte Auflösung - Da wäre ich schon erstaunt, wenn jemand das heraushören kann. Als Elektroniker hat man aber auch Berechnungen, die zB komplexe FM Sounds nur auf 16 Bit berechnet oder sowas - da bin ich sicher - das gibt Artefakte die man auch hören kann - Deshalb sind sehr elektronische Sounds hier und da schon ein Grund das Ergebnis in guter Auflösung bereit gestellt zu kriegen - wer mit Reaktor oder sowas die interne Rechentiefe hochdreht bemerkt auch wie hart sich intermodulationen da schon sehr anders verhalten können. Ebenso Sättigungs-Algorithmen oder andere aufwendige Sachen.

Die würde ich intern höher berechnen und dann so ausgeben, dass dieser Nachteil nicht mehr besteht. Nichts nach "VA" klingt oder Artefakte erhält. Das kann schnell in 32 Bit gehen, besonders bei mehreren unterschiedlichen MPE Stimmen.

Es kommt also drauf an, was man macht und welche Funktion das hat.
Ansonsten ist ein Hinweis interessant, was wirklich hier gefragt wurde, da Video Auflösungen und Audio andere Folgen haben.
 
Ja und fĂĽr einen Sinus reichen 4 Bit, schon klar, es geht also garnicht mehr um Musik sondern einen Wettbewerb der Musiktheorie..
Kein Wettbewerb, wirklich nicht. Ist auch nicht "Musiktheorie", geht ja um beliebige Signale, auch Sprache oder Tiergeräusche oder eben Raumimpulsantworten.

Für einen Sinus, der sehr laut rauschen soll, reichen 4 Bit. Aber wenn er unhörbar leise rauschen soll, dann bringen 24 Bit gegenüber 16 Bit keinen hörbaren Vorteil mehr.
 
zB nicht wenn man einfach Musik aus einem Laden lädt und die hat die oben genannte Auflösung - Da wäre ich schon erstaunt, wenn jemand das heraushören kann.

der witz ist je eher der, dass es gar keinen sinn macht das abhören von musik mit einem 16 bit wandler und das abhören von musik mit einem 24 bit wandler miteinander vergleichen zu wollen, da schon die quelldaten nicht identisch sind (z.b. weil CD master geditherte 16 bit versionen einer 24 bit originaldatei sein können - oder 24 bit medien ursprünglich mal von einem 16 bit original erstellt wurden) - und auch weil die entsprechenden wandler schlichtweg anders arbeiten.

im hinblick auf den endverbraucher gehöre ich aber auch zu denen, die 24 bit, die meisten surround formate und 8k video nicht mehr verstehen. ich habe schon vor 30 jahren nicht verstanden warum sich leute lautsprecher für 20,000 DM holen um damit dann filme mit bestechendem DTS audio zu gucken.

während unsereiner natürlich auch verschiedene geschmäcker, erfahrungen und bedürfnisse hat, ist die frage der bittiefe und der samplingfrequenz für den durchschnittlichen hifi kunden doch rein religiös.
 
wie du mithilfe von "systemtheorie" vorrechnen willst, das bei 12 bit immer das "gleiche rauskommt" wie bei 24 bit, würde ich ja gerne mal live sehen, aber ich bin so selten auf jahrmärkten. ;-)
Du möchtest gerne Jahrmarkt? Gut: Ich könnte Dir zwei Signale herstellen, beide haben ein Grundrauschen bei -55dB (also ca. Schallplatte) und sind in einer 16 Bit/44.1kHz-Datei. Das eine Signal wurde allerdings zuvor auf 8 Bit reduziert. Niemand wird einen Unterschied hören können, egal mit welchen Speakern oder Kopfhörern.

Aber etwas systemtheoretischer vielleicht hier:
 
Vielleicht sollten wir dem Threadstarter noch die Antwort entlocken, ob 8k Video und Auflösungen anders gemeint sind?
Der Threadtitel ist eigentlich eindeutig "Was kommt nach Ultra HD Audio?". Das mit den 8k war sicherlich nur ein Gag... diese Interpretation stĂĽtzt auch das Smiley dahinter.

Vielleicht mag @devilfish das ja auflösen...?
 
der witz ist je eher der, dass es gar keinen sinn macht das abhören von musik mit einem 16 bit wandler und das abhören von musik mit einem 24 bit wandler miteinander vergleichen zu wollen, da schon die quelldaten nicht identisch sind (z.b. weil CD master geditherte 16 bit versionen einer 24 bit originaldatei sein können - oder 24 bit medien ursprünglich mal von einem 16 bit original erstellt wurden) - und auch weil die entsprechenden wandler schlichtweg anders arbeiten.

im hinblick auf den endverbraucher gehöre ich aber auch zu denen, die 24 bit, die meisten surround formate und 8k video nicht mehr verstehen. ich habe schon vor 30 jahren nicht verstanden warum sich leute lautsprecher für 20,000 DM holen um damit dann filme mit bestechendem DTS audio zu gucken.

während unsereiner natürlich auch verschiedene geschmäcker, erfahrungen und bedürfnisse hat, ist die frage der bittiefe und der samplingfrequenz für den durchschnittlichen hifi kunden doch rein religiös.
Haha, wenn wir mit solchen dingen ernstlich beginnen, wird es ohnehin heftig.
Aber auch mit wie jemand hört und womit und wo und mit welcher Aufmerksamkeit etc.

Würde aber sagen, dass es dennoch Grenzen gibt, ab der man mit hochwertigem Abhörblock nicht mehr Unterschiede herauskitzeln kann.
Aber ich würde auch sagen, dass es bei elektronischen Sachen mit viel Dynamik eine größere Herausforderung ist als zB hochkomprimierter Dance-Musik. (Das gehört also auch noch zu dem Drumdrum Faktor) - Ob das Geschmack ist oder nicht, ist erstmal egal.

Sagen wir mal - Dinge die man wahrnehmen kann und messen könnte. Echte Unterschiede.
Und auch unser Ohr hat Grenzen. Deshalb gibts trotzdem 192kHz Samplerate. Man kann darüber nachdenken, was auf Bearbeiterseite alles sein kann um das zu benötigen. Aber nach einem finalen ewig glücklich machenden Audioformat zu suchen - da wird man wohl mit den 24Bit 96kHz nicht schlecht liegen - das ist verdammt gut. eher hört man das nicht mit diesen Apple Röhrchen (hab selbst welche). Deine Boxen spielen also auch mit. Deine Abhörmaschine. Dein Amp etc.
Dann noch Raum, Position und so weiter. Und ja - die Vergleiche mit Wandlern und so - könnte man alles machen - aber machten wir das alles aus dem bestmöglichen ohne Fehler - was wäre dann die beste Option für den normalen Hörer als Endformat?
Das ist wohl hier die Frage.

Ich lass mal alles raus von Doppelblindtest, Fehler bei der Umsetzung und so - sonst wird's wirklich sehr komplex.
 
Gegenbeweis ist, das Orchester mal mit 12 Bit abzuspielen - viel SpaĂź bei dem Phasen Wirrwarr! Ganz tolles Erlebnis..
Aber genau das machen doch alle, die klassische Schallplatten anhören (oder sind es dort doch nur 10-11 Bit?).

Für mich ist dein Posting eher so zu deuten, dass Du es eben nicht wahrnehmen kannst und dann mathematisch eindimensional erklärst.
Hmm, versuche nicht zu deuten, sondern sage mir, wo ich mich unklar ausgedrĂĽckt habe. Ich selber benutze hier fĂĽr diverse Klangexperimente gerne auch echte 24 Bit, sogar mit Dithering, wenn es mir um einen ganz bestimmten Apekt (z.B. das Grundrauschen, Aliasing-Artefakte, Intermodulation, ...) geht. Dann bedauere ich immer sehr, dass es kaum einen Wandler gibt, der ĂĽberhaupt 120dB Dynamik zustande bringt.
 
Du möchtest gerne Jahrmarkt? Gut: Ich könnte Dir zwei Signale herstellen, beide haben ein Grundrauschen bei -55dB (also ca. Schallplatte)

ein digitales signal hat überhaupt kein rauschen außer du packst absichtlich welches rein. das rauschen entsteht nur bei der wandlung, und wie es aussieht hängt maßgeblich vom wandler ab.

und sind in einer 16 Bit/44.1kHz-Datei. Das eine Signal wurde allerdings zuvor auf 8 Bit reduziert. Niemand wird einen Unterschied hören können, egal mit welchen Speakern oder Kopfhörern.

leider besteht musik nicht nur aus sinustönen im stimmbereich.

übrigens wenn deine theorie richtig wäre, dann hätte sich die 2-bit CD durchgesetzt. :)

tatsächlich aber brauht man für die wandlung von 16 bit to analog schon mehr als 16 bits.

Aber etwas systemtheoretischer

die beiträge von plasmatron und dir lesen sich immer als ob da nur krampfhaft irgendwelche fremdworte aneinandergereiht werden um dem ganzen irgendwie eine poetische note zu verleihen.

der eine wandelt gekaufte musik unbekannten herstellungsprozesses mit "systemtheorie" und der andere mit "musiktheorie".

Haha, wenn wir mit solchen dingen ernstlich beginnen, wird es ohnehin heftig.

naja es ist halt eine frage der perspektive.

wir, die wir audio erstellen, neigen ja durchaus auch dazu, scheinoptimierungen druchzufĂĽhren, und wenn es darum geht industriestandards in frage zu stellen bin ich selbst ja immer vorne mit dabei.

mir leuchtet es z.b. auch nicht ein, warum nicht im jahr 2000 tronträger einfach auf 32 bit float umgestellt wurden. dadurch würde sie lediglich doppelt groß und der verbraucher muss sich neue abspielgeräte kaufen. nein, stattdessen werden medien heute mit hochkomplexen algorithmen komprimiert, und dann von millionen von kunden beim anhören unter irrsinnig viel stromverbauch wieder encodiert. neue abspielgeräte braucht man dazu auch.

aus meiner eingeschränkten perspektive ergibt das alles überhaupt keinen sinn, zumal float ja nun wirklich seit 15 jahren von jedem iphone oder android gerät abgespielt werden kann.

eher hört man das nicht mit diesen Apple Röhrchen (hab selbst welche). Deine Boxen spielen also auch mit. Deine Abhörmaschine. Dein Amp etc.
Dann noch Raum, Position und so weiter. Und ja - die Vergleiche mit Wandlern und so - könnte man alles machen - aber machten wir das alles aus dem bestmöglichen ohne Fehler - was wäre dann die beste Option für den normalen Hörer als Endformat?
Das ist wohl hier die Frage.

siehst du, aber genau deswegen gibt es ja keine sinnvolle antwort auf die frage "welcher technischer wert ist der beste".

wenn es um die qualität geht, ist es nie sinnvoll einen in float rein digital produzierten inhalt auf einen kleineren wertebereich herunter zu quetschen, genau wie es auch selten sinnvoll ist, vinylschallplatten zu digitalisieren.

dass man es aus anderen gründen als der verbesserung oder erhaltung von qualität trotzdem dauernd macht, ist dann eine andere geschichte.
 
Zuletzt bearbeitet:
das umgebungsrauschen zur musik formen... hier n bissl bratsche, da n happen drum und fertig ist was neues... ich glaub dann macht laufen spass
 
Zuletzt bearbeitet:


News

ZurĂĽck
Oben