Normalisieren von Spuren

B

Bytes808

......
Hallo zusammen,
hätte folgendes Anliegen:

Ich exportiere eine Drumspur von einem Sampler in meine daw, oder nehme eine Drumspur aus einer Drummaschine in meine daw auf..
Die dabei entstandene Spur in meiner daw ist ja nun abhängig vom eingestellten Pegel entsprechend laut bzw. leise. Nun stellt sich die Frage ob es ratsam ist diese Spur zu „normalisieren“, sollte man dies tun? Ist dies ratsam oder hat es Nachteile ? Habe oft gelesen dies nicht zu tun, aber die Begründung hat sich mir dabei leider nicht erschlossen.
Danke !

Gruss

Rob
 
Wie ich es verstanden habe, bewirkt das Normalisieren dass der gesamte Dynamikbereich für eine Aufnahme besser genutzt wird.
 
Normalisieren ist der Vorgang bei dem der Pegel eine Signales relativ zu seine Pegelspitze angehoben wird bis jene Pegelspitze bei Null - also Vollaussteuerung liegt.

Es wird also ermittelt wie laut die lauteste Stelle ist - sagen wir mal ein Peak von -7,6 - und Alles wird so angehoben dass diese Wert dann 0 darstellt.

Nichts anders als ein offset, wenn man will.

Normalisieren hat den Sinn dass man den Maximalen Pegel ohne Risiko der Übersteuerung erreichen kann - denn wer hat schon Lust einen Peakanalyzer in Echzeit laufen zu lassen nur um festzustellen, dass das Signal bei Minute 2:32 sein Maximum von -7,6 hat und dann einen Fader genau auf +7,6 zu stellen.

Kann man natürlich auch machen, aber genau das will man ja ersetzten.


Ansonsten ist es wie immer bei Gainstaging vorgängen auch eine Frage was man mit dem Signal noch machen will. Es soll ja später zu keinen Verzerrungen - also Pegel in digital über 0 - kommen.

Moderne Mixengines und PlugIns haben viel Headroom - aber dennoch sind auch diverse PlugIns eher auf Arbeitspegel von eher -18 bis -12 ausgelegt - das muss man nachlesen.

Bei einer 64 Bit Mixengine kann man viele Spuren die bei 0 peaken mischen ohne dass das verzerrt - muss dann aber natürlich den Mainmix wieder runterregeln und man operiert halt dann knapp an Übersteuerungsszenarien wenn man bei den einzelnen Spuren doch noch was ändern will.

In der Digitalwelt ist das aber heute alles kein Problem - es soll nur NIRGENDES in der Kette über 0 gehem - denn der Fehler im Signal ist dann destruktiv drinnen.


Einen Kompressor mit eine voll ausgesteuretn Signal anzufahren ist eher keine gute Idee - aber auch das hängt vom Signal ab:

Es kann ja ein gesamt sehr leises Signal eine sehr laute Spitze haben - dann ist es wieder weniger problematisch - aber bei Signalen die per se schon sehr laut und dicht sind ist das dann eher subotopmal.


Bei Kompressoren wo man den Threshhold regeln kann ist das dann aber wieder ein deutlich geringers Problem als bei jenen die einen fixen Threshold haben wie jene mit 1176er oder LA2A Topologie.


Um es kurz zu machen :) -> am besten fährst Du wenn Du pro Signal immer eine paar Db unter Vollausteuerung bleibst - 12 ist da absolut in Ordnung.

Wichtig ist dass das aufgenommene Signal selber bei der Aufnahme gut eingepegelt ist damit Du den Rauschanteil so gering wie möglich halten kannst.


EDIT: natürlich kann man Signale auf beliebige Zielwerte normalisieren - es resultiert im gleichen Prinzip, dass dann der Maximalpegel in dem Signal den eingegeben Wert annimmt und der rest dazu in Relation mitverschoben wird.
 
Zuletzt bearbeitet:
Normalisiern ist der Vorgang bei dem der Pegel eine Signales relativ zu seine Pegelspitze angehoben wird bis jene Pegelspitze bei Null - also Vollaussteuerunbg liegt.

Es wird also ermittelt wie laut die lauteste Stelle ist - sagen wir mal ein Peak von -7,6 - und Alles wird so angehoben dass diese Wert dann 0 darstellt.

Nichts anders als ein offset, wenn man will.

Normalisieren hat den Sinn dass man den Maximalen Pegel ohne Risiko der Übersteuerung erreichen kann - denn wer hat schon Lust einen Peakanalyzer in Echzeit laufen zu lassen nur um festzustellen, dass das Signal bei Minute 2:32 sein Maximum von -7,6 hat und dann einen Fader genau auf +7,6 zu stellen.

Kann man natürlich auch machen, aber genau das will man ja ersetzten.


Ansonsten ist es wie immer bei Gainstaging vorgängen auch eine Frage was man mit dem Signal noch machen will. Es soll ja später zu keinen Verzerrungen - also Pegel in digital über 0 - kommen.

Moderne Mixengines und PlugIns haben viel Headroom - aber dennoch sond auch diverse PlugIns eher auf Arbeitspegel von eher -18 bis -12 ausgelegt - das muss man nachlesen.

Bei einer 64 Bit Mixengone kann man viele Spuren die bei 0 peaken mischen ohne dass das verzerrt - muss dann aber natürlich den Mainmix wieder runterregeln.

In der Digitalwelt ist das aber heute alles kein Problem.
Danke für diese Ausführliche Erklärung! Ist es also das gleiche ob ich die Spur normalisiere und dann wieder am Regler herunterfahre oder ob ich sie einfach etwas lauter direkt exportiere ?
 
Normalisiern ist der Vorgang bei dem der Pegel eine Signales relativ zu seine Pegelspitze angehoben wird bis jene Pegelspitze bei Null - also Vollaussteuerunbg liegt.

Es wird also ermittelt wie laut die lauteste Stelle ist - sagen wir mal ein Peak von -7,6 - und Alles wird so angehoben dass diese Wert dann 0 darstellt.

Zumindest sollte es im Idealfall so sein. Es kann aber vorkommen, dass beim Normalisieren nicht die lauteste Stelle gefunden wird sondern die zweitlauteste. Wenn dann der Pegel angehoben wird, ist die wirklich lauteste Stelle eventuell übersteuert.

Jedenfalls ist das der Nachteil, der passieren könnte, ob das aber wirklich so vorkommt oder wie oft weiß ich nicht.
 
Also wäre es nicht ratsam ein sehr leises Signal zu normalisieren da der Rauschanteil auch normalisiert wird was sich negativ auf die weiteren mixing Prozesse auswirken kann ?
Daher lieber direkt etwas lauter aufnehmen..
 
Hallo zusammen,
hätte folgendes Anliegen:

Ich exportiere eine Drumspur von einem Sampler in meine daw, oder nehme eine Drumspur aus einer Drummaschine in meine daw auf..
Die dabei entstandene Spur in meiner daw ist ja nun abhängig vom eingestellten Pegel entsprechend laut bzw. leise. Nun stellt sich die Frage ob es ratsam ist diese Spur zu „normalisieren“, sollte man dies tun? Ist dies ratsam oder hat es Nachteile ? Habe oft gelesen dies nicht zu tun, aber die Begründung hat sich mir dabei leider nicht erschlossen.
Danke !

Gruss

Rob

Im spezisichen Szenario muss Du es Dir so vorstellen:

1. Die Drummachine wird so ausgelegt sein um - hoffentlich - bei voller Laustärke am Gerät die bestmöglichen Rauschabstand / Sound zu erzeugen.
2. Jedes verstärkende Element in der Analogwelt hat etwas Eigenrauschen
3. Wenn man nun die Drummachine sehr niedrig pegelt und den Line in sehr laut aufdreht, dann addiert sich das Rauschen der zusätzlichen Verstärkung und wenn das in einer analogen Kette mehrfach passiert so ist das rasch hörbar.

In Deinem Fall hast du ja nur 2 Verstärkungen - die in der Drummachine und die bei der Konversion von Analog auf Digital.

ALLES was dann in der Digitalwelt passiert ändert - bei eine guten Aufnmahmen mit Fokus auf Pegel - dank heutiger hoher Auflösung, eigentlich nichts mehr an der güte des Klanges.

Wenn allerdings das Signal so leise erscheint dass Du es normalisiern willst dann ist es eventuell zu leise aufgenommen :)

Danke für diese Ausführliche Erklärung! Ist es also das gleiche ob ich die Spur normalisiere und dann wieder am Regler herunterfahre oder ob ich sie einfach etwas lauter direkt exportiere ?

Digital ja.
 
Zuletzt bearbeitet:
normalisieren braucht kein mensch, das war schon immer eine miskonzeption. du regelst das später eh wieder mit einem fader runter.

es wäre zwar kein weltuntergang die lautstärke 3 mal statt 4 mal zu ändern, aber es ist überflüssig, man braucht es für nichts. :)
 
Also wer es nicht ratsam ein sehr leises Signal zu normalisieren da der Rauschanteil auch normalisiert wird was sich negativ auf die weiteren mixing Prozesse auswirken kann ?

Am Verhältnis ändert das nichts aber bei schlechter ursrünglicher Pegelung der Aufnahme rücken dann halt die Nebeneffekt durch die Lautheitsteigerung eventuell in den akustischen Fokus.
 
normalisieren braucht kein mensch, das war schon immer eine miskonzeption. du regelst das später eh wieder mit einem fader runter.

es wäre zwar kein weltuntergang die lautstärke 3 mal statt 4 mal zu ändern, aber es ist überflüssig, man braucht es für nichts. :)

Das ist als Aussage zu absolut.

Gerne mann kann man mit Sicheheitsabstand zu 0 Db mastern und dann das Audiofile die paar Db wieder gegen Null schieben.

Oder man hat keinen Bock alles mit Fadern zu machen - besonders da man ja nicht auf 0 Db fahren muss.

Wenn man nun mal eine Aufnahmen hat die leise ist und die man nicht mehr neu machen kann dann normalisiere ich die halt auf -8 weil ich ja eventuell bei einem Kanalzug in der DAW nur +6 am Fader habe und je nach DAW in den Kanalzügen gar kein zusätzlicher Inputoffset vorhanden ist.

Es macht ja dann das Mischen keinen Spass wenn ich alles Fader in der DAW schon auf Drölfnvierzig habe :mrgreen:
 
Zuletzt bearbeitet:
Wenn allerdings das Signal so leise erscheint dass Du es normalisiern willst dann ist es eventuell zu leise aufgenommen :)


Dazu muss man aber wirklich hervorheben dass auch moderne Wandler daraus ausgelegt sind dass man die nicht ständig bis an 0 anfährt.

Das war mal früher so als die noch 12 oder 16 Bit hatten um die geringere Signal to Noise Ratio optimal zu nutzen - aber bei 24 Bit emfehlen die meisten Hersteller die Peaks des Signals bei eben Pi mal Daumen -16 Db zu haben - natürlich auch abhängig von der Gesamtdynamik des Signals. Übrigens nicht wegen der Mixen gines sondern weil die schon damit rechnen dass die User dann pro Kanal noch zig Instanzen an PlugIns drinnen haben und die Leute ja dazu neigen lauter als besser zu empfinden ::)

Wobei auch mir die -16 Db - wegen der alten Zeiten - immer noch etwas suspekt vorkommen :)
 
Zuletzt bearbeitet:
normalisieren braucht kein mensch, das war schon immer eine miskonzeption. du regelst das später eh wieder mit einem fader runter.

es wäre zwar kein weltuntergang die lautstärke 3 mal statt 4 mal zu ändern, aber es ist überflüssig, man braucht es für nichts. :)
Das ist leider Unsinn. Jegliche Dynamikregelung (=Kompression) kann nur maximal in der Pegelauflösung arbeiten, die das Lautheitsmaximumerfordert. Wenn das lauteste Signal zB nur 6Bit hat (ok, extremes Beispiel), dann arbeitest Du quasi mit einem 6Bit-Kompressor.
Wenn Du dagegen auf 24 Bit interpolierst, dann ist das Signal selbst zwar immer noch sehr grob gerastert (mal von Interpolationen abgesehen, die gute Normalisierungs-Algorithmen mitbringen können), aber die Kompression kann jetzt mit voller 24Bit-Auflösung arbeiten.



Und sobald Du das Audio schneiden willst, bist Du in der Darstellungs-Detaillierung um voll ausgesteuerte Signale froh.
 
Das ist als Aussage zu absolut.

Gerne mann kann man mit Sicheheitsabstand zu 0 Db mastern und dann das Audiofile die paar Db wieder gegen Null schieben.

Oder man hat keinen Bock alles mit Fadern zu machen - besonders da man ja nicht auf 0 Db fahren muss.

Wenn man nun mal eine Aufnahmen hat die leise ist und die man nicht mehr neu machen kann dann normalisiere ich die halt auf -8 weil ich ja eventuell bei einem Kanalzug in der DAW nur +6 am Fader habe und je nach DAW in den Kanalzügen gar kein zusätzlicher Inputoffset vorhanden ist.

Es macht ja dann das Mischen keinen Spass wenn ich alles Fader in der DAW schon auf Drölfnvierzig habe :mrgreen:
Wie kann ich denn nur auf -8 normalisieren ? So eine „Auswahl“ habe ich in Logic bisher nicht gefunden. Es wird lediglich komplett normalisiert.
 
Warum sollte das passieren?
Ich kann mir schon vorstellen, dass manche Algorithmen bei langen Files erstmal nur jedes x-te Sample checken, ob der Abschnitt gefährdet ist, und erst wenn ja, dann wird der Bereich im Detail Sample für Sample angesehen. Bei sowas könnte ein einzelner Single-Byte Ausrutscher schon übersehen werden.
 
Ja klar, wenn man schlecht programmiert, kann das passieren.

Aber wenn jemand schlecht programmieren kann alles mögliche passieren. Das ist vielleicht nicht der Maßstab, an Hand dessen man seine Arbeitsweisen definiert. ;-)
 
Und da du nicht weißt, wie das Programm die Datei analysiert und dann normalisiert, kann es eben sein, dass es hin und wieder schiefgeht. Daher sollte man es zumindest immer nochmal danach gegenhören.
 
Ich nutze normalisieren gerne bei Bounce in Place. Einfach weil ich da auf den ersten Blick , also in der Wellenform Übersicht, sehe ob da nicht irgendwelche ungewollten Pegelspitzen im Signal sind - denn wenn trotz normalisieren meine Wellenform leise erscheint hat ein kleiner Peak/Spike ( oder mehrere ) verhindert einen Maximalpegel zu erreichen.. Wenn dem so so ist, schauen warum und den Spratzler raus editieren.
Sonst hat es für mich auch keine Relevanz...
 
Ich las immer mal wieder, dass man für die Kovertierung in MP3 keine Files mit Maxima bei 0 nehmen soll da wohl der Codec damit Probleme haben kann.

Wenn ich was auf MP3 konvertiere normalsiere ich das vorher auf -1dB

Vielleicht ist das aber Stuss oder bei neueren Codecs nicht mehr relevant.
 
Zuletzt bearbeitet:
Also in der DAW normalisiere ich normalerweise nicht, wenn ich Spuren aufnehme. Ich achte aber darauf, dass die Aufnahmen gut ausgepegelt sind, aber nicht clippen.
Nachteil ist dadurch (ohne Normalisieren), dass ich im Mixer am Fader nicht sehe, wie laut die jeweilige Spur im Detail und im Vergleich ist. Aber selbst wenn ich normalisieren würde wären die Faderstellungen nur ein Indiz, da die Lautheit ja nicht direkt durch die Aussteuerung abgebildet wird.
 
Und da du nicht weißt, wie das Programm die Datei analysiert und dann normalisiert

Doch weiß ich: es werden x samples eines Files gelesen, von jedem Sample wird der Absolutbetrag genommen und der größte Absolutbetrag in einer Variablen gespeichert. Dann werden die nächsten x Samples gelesen und ebenso verfahren. Ist der größte Absolutbetrag größer als der aus der vorigen Iteration wird die Variable mit dem neuen Maximum überschrieben. Dann wird mit den nächsten x Samples fortgefahren.

Sobald du das Maximum weißt, kannst du (in floating point Arithmetik) den Faktor berechnen mit dem du jedes Sample multiplizieren musst.

Keine Rocket Science, und ziemlich simple, ohne aufwändige Speicheroperationen, ohne offensichtliche Gefahr, den falschen Wert zu übernehmen.

Fehler beim Gain Staging sind viel wahrscheinlicher als beim Normalisieren.
 
Zuletzt bearbeitet:
Das ist leider Unsinn. Jegliche Dynamikregelung (=Kompression) kann nur maximal in der Pegelauflösung arbeiten, die das Lautheitsmaximumerfordert. Wenn das lauteste Signal zB nur 6Bit hat (ok, extremes Beispiel), dann arbeitest Du quasi mit einem 6Bit-Kompressor.


du bist dir offernbar über die grundlegende funktionweise von digitaler audiobearbeitung nicht bewusst.

weder haben leise signale weniger "bits", noch würde die auflösung oder die qualität steigen, wenn man ein leises signal lauter macht. auch hat die frage nichts mit "kompressoren" zu tun.


wenn du in einer DAW ein leises signal normalisierst, dann geschieht das, indem das signal in gleitkommaauflösung mit einem festen wert multipliziert wird.

mit einem lautstärkeregler am mixer der DAW passiert exakt das gleiche.


ergo ist es vollkommen egal wie man das macht. offline ist es nur umständlicher.


wer mit dem fader seiner DAW, d.h. mit dessen +6, +8 oder +12 db nicht hinkommt um zu mischen, dem ist wohl zu raten die aufnahme noch mal zu wiederholen. :)
 
Doch weiß ich: es werden x samples eines Files gelesen, von jedem Sample wird der Absolutbetrag genommen und der größte Absolutbetrag in einer Variablen gespeichert. Dann werden die nächsten x Samples gelesen und ebenso verfahren. Ist der größte Absolutbetrag größer als der aus der vorigen Iteration wird die Variable mit dem neuen Maximum überschrieben. Dann wird mit den nächsten x Samples fortgefahren.

Sobald du das Maximum weißt, kannst du (in floating point Arithmetik) den Faktor berechnen mit dem du jedes Sample multiplizieren musst.

Keine Rocket Science, und ziemlich simple, ohne aufwändige Speicheroperationen, ohne offensichtliche Gefahr, den falschen Wert zu übernehmen.

Fehler beim Gain Staging sind viel wahrscheinlicher als beim Normalisieren.

Das mag ja im Idealfall so sein, trotzdem weißt du nicht, wie die Software XYZ mit deinem Sample genau umgeht, daher würde ich danach immer gegenhören.
 
Ich würde von einem Normalisieren abraten, weil niemand so hohe Pegel in der DAW benötigt und dieser im Mixingprozess mehr Probleme bereitet als Vorteile bringt.
 


News

Zurück
Oben