Audiofrequenzen 0-? Herz

Rolo

Rolo

*****
Hallo ihr da!

mich interessiert wie ihr eure Audiospuren eines Songs Frequenztechnisch mit EQ bearbeitet, so daß sich gewisse Sounds nicht ins Gehege kommen ,und im Mix jeder Sound
gut zur Geltung kommt.
 
Alles was klingelt/klirrt wird abgesenkt. Rest ergibt sich von selbst.

Edit: Absenken wird eh immer unterschätzt. Anheben ist oft die falsche Wahl. Auch wenn es vermeintlich im ersten Moment „lauter“ und damit angeblich besser tönt. Dem ist aber nicht so.
 
Edit: Absenken wird eh immer unterschätzt.
Ne ist klar, das muß ich auch dann und wann machen bei zu Bassigen Sounds.

Ich hab mal irgendwo gelesen daß man selbst bei einer HiHat tiefe Frequenzen rausnehmen soll wegen den Sounds die wirklich auf die tiefen Frequenzen angewiesen sind.
Was ist da dran? Lohnt sich das wirklich? Geht dann im Mix vieleicht nicht etwas anderes verloren? Wird es dadurch am Ende vieleicht zwar aufgeräumter aber steriler?
 
Zuletzt bearbeitet:
...
da fragt man sich, wofür eqs überhaupt nen plus-Bereich haben. mich wundert echt, was da im Musikbereich öffentlich an desinformation betrieben wird, damit die eigenen mixe unerreicht bleiben. und die Herde blökt es nach.
Für Sounds wo es nötig ist. Der Minusbereich hat natürlich seinen Sinn, also mal locker bleiben und bitte nicht gleich so negativ :cool: Wir sind hier keine Herde sondern Individualisten, die meißten jedenfalls.
 
Ich habe das früher wo ich noch Tracks mit allem drum und drann gemacht habe, immer so gemacht das ich beim Basteln an der Musik immer alles mit HP-Filtern erst mal untenrum abgesenkt habe, also in der DAW und mit den Mitteln die mir zu Verfügung standen und damit erstmal untenrum Platz ist. Das hat ganz gut geklappt und ging auch recht schnell so. Später dann beim Mix habe ich die meisten HP-Filter dann gegen 4-Band-EQs ausgetauscht und mich so weiter vorgetastet - ging eigentlich ganz gut so.
 
Ich hab mal irgendwo gelesen daß man selbst bei einer HiHat tiefe Frequenzen rausnehmen soll wegen den Sounds die wirklich auf die tiefen Frequenzen angewiesen sind.
Was ist da dran? Lohnt sich das wirklich? Geht dann im Mix vieleicht nicht etwas anderes verloren? Wird es dadurch am Ende vieleicht zwar aufgeräumter aber steriler?

Hier nochmal meine Hauptfrage.
 
Hallo ihr da!

mich interessiert wie ihr eure Audiospuren eines Songs Frequenztechnisch mit EQ bearbeitet, so daß sich gewisse Sounds nicht ins Gehege kommen ,und im Mix jeder Sound
gut zur Geltung kommt.

Also allgemeiner hätte man ja wohl nicht fragen können.

Passende Antwort: so viel wie nötig, so wenig wie möglich.

Zum Mixing allgemein:

"Kush Afterhous"
https://www.youtube.com/c/TheHouseofKushTV

"Dan Worral"
https://www.youtube.com/c/DanWorrall

Die beiden haben, soweit ich Amateur das beurteilen kann, wirklich Ahnung und räumen mit ner Menge quatsch zum Thema Mixing auf.

Viele andere YT Kanäle, von irgendwelchen Music Schools, Academies, etc etc etc verbreiten dann doch oft eher Mist oder veröffentlichen ihre "Tutorials" unter irreführenden Namen "Do this to..." etc etc etc. Als Anfänger fände ich das Ganze dann eher verwirrend und überfordernd.

Zu deiner Frage aus meiner Sichtweise:
Lerne deine Abhörsituation kennen und trainiere dein Gehör um Probleme zu erkennen. Mit der Zeit lernst du dem zu vertrauen und kannst die Probleme gezielt angehen. Also üben, üben, üben und deine Musik Referenz hören wo du kannst, im Studio, mit Kopfhörern, im Auto, auf AirPods, auf dem Laptop, bei der Freundin im Wohnzimmer, bei nem Kumpel im Studio, im Club etc etc etc.
 
da fragt man sich, wofür eqs überhaupt nen plus-Bereich haben. mich wundert echt, was da im Musikbereich öffentlich an desinformation betrieben wird, damit die eigenen mixe unerreicht bleiben. und die Herde blökt es nach.

Chill ma.

Es ist nach einer Bearbeitung gefragt, damit sich Sounds nicht ins Gehege kommen.

Nicht nach dem ölig dickbandigen SättigunsEQ der dir alles zusammen klebt, usw.
 
erstaunlicherweise benutze ich verhältnismäßig wenig EQing, und oft auch eher unter anderen gesichtspunkten als unter dem, verschiedene stimmen voneinander zu "trennen".

dabei bin ich mir aber stets darüber bewusst, welches material in welchem bereich liegt (das höre ich schlichtweg) und auch wie die ggf verwendeten EQs gerade eingestellt sind.

wir haben hier immer zwei größen, die gegeneinander arbeiten: zum einen ist die betonung/absenkung bestimmter frequenzbereiche gut dazu geeignet, dass das material der verschiednen spuren nachher gut zusammenpassen.

zum anderen kann eine übermäßige benutzung von filtern aber auch zu matsch führen und bei extremeeren einstellungen den ursprölichen sound kaputtmachen.

(beispiel: du nimmst violine, cello, und querflöte auf. wenn du da jetzt starke formanten drauf kloppst, klingt das zeug nicht mehr so wie es soll. du würdest eher gar keine filter benutzen, frequenzstaffelung von o-ton und naturgeräuschen ist meist sinnlos.)
(gegenbeispiel: da läuft irgendein sägezahnbass oder eine verzerrte gitarre, also etwas, was durch ganze spektrum geht. EQing hilft hier jetzt ganz hervorragend zwei solcher tracks überhaupt noch als verschiedene stimmen wahrzunehmen. ohne frequenzstaffelung kein mix diese materials.)


p.s.:
oder beispiel 3 wenn du so willst... die oben angesprochen hihat. das ist dann fallkonstellation 3. hier ist es ganz einfach so, dass weg kann, was man eh nicht hört. man könnte sich sogar überlegen, an den stellen, wo die hihat alleine spielt, deren bass wieder ein zu nehmen. an den anderen stellen würde man ihn nicht wahrnehmen, also weg damit.
 
Zuletzt bearbeitet:
ich fand die frage relativ klar gestellt und muss dbra recht geben.

dass als antwort wieder die üblichen youtube tutorials kommen, obwohl nach der persönlichen erfahrung und praxis gefragt war, ist zweifelsfrei nicht die schuld des TE.

den kategorischen klingelunterdrückungsbefehl von devilfish kommentiere ich erst gar nicht. :)
 
Zuletzt bearbeitet:
P.S.: Praktischer Tipp zum selbst ausprobieren:

1. Lade dir ein paar Referenztracks, welche Dir gefallen, und deren Mix du gut findest in die DAW deiner Wahl.
2. Versuche alle ungefähr gleich laut zu pegeln. VU/RMS Meter hilft hier.
3. Nutze einen Bandpass oder EQ um einzelne Frequenzbereiche isoliert zu hören.
4. Vergleiche:
Was passiert im Sub Bereich (<60Hz)
Was passiert im Bass (60-150Hz)
250-300Hz
300-1000Hz
etc.
 
so daß sich gewisse Sounds nicht ins Gehege kommen

Ich achte schon beim Komponieren darauf, dass sich bspw. Noten zweier Bässe nicht oder kaum überlappen.

Wenn das nicht möglich ist, oder gerade gewollt ist, benutze ich gern einen Sidechain im EQ.

Ich habe häufig zwei Bässe im Dialog. Dann macht es Sinn, die unteren Frequenzen gegenseitig wegzu-"ducken".
 
Hallo ihr da!

mich interessiert wie ihr eure Audiospuren eines Songs Frequenztechnisch mit EQ bearbeitet, so daß sich gewisse Sounds nicht ins Gehege kommen ,und im Mix jeder Sound
gut zur Geltung kommt.
ich achte da schon bei der Soundauswahl VOR der Aufnahme drauf, das sich da nichts gegenseitig überlagert und jeder Bereich seinen Freiraum bekommt. Das ist doch viel einfacher, als später an dem fertigen Track mit dem EQ herumzubasteln.
 
ich achte da schon bei der Soundauswahl VOR der Aufnahme drauf, das sich da nichts gegenseitig überlagert und jeder Bereich seinen Freiraum bekommt.
Das ist klar. :supi:Ich versuche natürlich auch schon im Vorfeld bzw. während des Arrangements nur Sounds zu nutzen die sich nicht beißen sondern gut miteinander klarkommen. Dafür braucht man nur gute Ohren und guten Geschmack.
 
Naja, man kann sich in der Klangauswahl ja immer noch entscheiden und solange das zusammenpasst, ist es dann ja nicht mehr so schwer mit dem Mix nachträglich. Wenn was dann immer noch nicht reinpassen mag, dann muss man es halt hinbiegen - geht dann halt nicht anders, aber so schlimm fand ich das nie - das geht schon.
 
klingt interessant. Wie genau kann man das verstehen? Ist das ein panning innerhalb des EQ?
Einen Sidechain-Compressor kennst Du, ja?
Er "hört" z.B. auf die Kick und senkt – wenn die Kick kommt – sein eigens Signal herab. Kennt man als "Pumpen".

In Bitwig kann man dieses Sidechaining für alles benutzen.
Grob gesagt:
Bass A "hört" auf Bass B. Und wenn Bass B erklingt, senkt Bass A nur genau die Frequenz ab, welche Bass B erzeugt.
... und umgekehrt – wenn man will.

Man räumt die Frequenzen quasi zeitlich auf anstatt jedem Sound sein eigenes Spektrum zuzuweisen.

Ein anständige EQing wir mir dieser Methode natürlich nicht obsolet.
Sie hilft aber sehr bei Sounds im gleichen Frequenzbereich.
 
Wenn das nicht zusammen passt, dann sind es eben die falschen Sounds.


genauso könntest du argumentieren, dass es egal ist ob sie zusammenpassen, weil es ja prima tools zum maskieren, demaskieren und entzerren gibt, wobei letzteres aus gutem grund grundfunktion eines jeden mischpults ist. :)

ich verstehe natürlich, was du meinst. aber ich denke du übersiehst, dass nicht jeder dazu in der lage ist sich sounds im zusammenspiel vorzustellen, und dass auch nicht jeder einen imaginären spectrographen vor augen hat, wenn er sich durch sounds blättert.

ich kann das grundsätzlich auch, aber erstes liegt man manchmal trotzdem daneben, und außerdem soll es ja durchaus vorkommen, dass man später die vorhandenen sounds doch anders stimmen will oder sich der spektrale gehalt durch bewusste verwendung irgendwelcher effekte noch mal drastisch ändert.

da stellt sich dann jedem die frage, ob und wie er jetzt bei der mischung eine frequenzsstaffelung vornimmt, und ob nur nach gehör und nur bei bedarf - oder nach irgendwelchen angeblich existierenden regeln.

was machst du denn, wenn du die violine und das cello schon aufgenommen hast, und die formanten durch die raummoden passen irgendwie nicht zusammen: du nimmst einen EQ und versuchst es damit zu verschlimmbessern. dafür sind die dinger doch da.
 
Persönlich räume ich "untenrum" erstmal auf und senke da alles ab, was da nichts zu suchen hat und schaffe Platz für Basedrum und Bass. Jetzt noch die Basedrum passend stimmen und du hast den halben Mix im Kasten. Der Rest ist deutlich komplizierter..... aber generell lieber 5 mal absenken als einmal anheben. Was wunderbar funktioniert ist ein guter alter Exciter auf die Stimme, denn der erzeugt die Obertöne abhängig vom Signal und damit viel zielgerichteter als ein EQ.
 
dass nicht jeder dazu in der lage ist sich sounds im zusammenspiel vorzustellen, und dass auch nicht jeder einen imaginären spectrographen vor augen hat, wenn er sich durch sounds blättert.
Hören.
was machst du denn, wenn du die violine und das cello schon aufgenommen hast, und die formanten durch die raummoden passen irgendwie nicht zusammen: du nimmst einen EQ und versuchst es damit zu verschlimmbessern. dafür sind die dinger doch da.
Wenn das Kind im Brunnen liegt...
 
genauso könntest du argumentieren, dass es egal ist ob sie zusammenpassen, weil es ja prima tools zum maskieren, demaskieren und entzerren gibt, wobei letzteres aus gutem grund grundfunktion eines jeden mischpults ist. :)
Eine Frequenzbearbeitung, bzw. Selektion, die man schon vor der Aufnahme direkt an der Quelle vornimmt, ist doch immer präziser, als später im fertigen Track einzelne Bereiche zu verändern.

ich verstehe natürlich, was du meinst. aber ich denke du übersiehst, dass nicht jeder dazu in der lage ist sich sounds im zusammenspiel vorzustellen, und dass auch nicht jeder einen imaginären spectrographen vor augen hat, wenn er sich durch sounds blättert.

Aber du hörst doch, was du da tust und kannst sofort eingreifen.
Wenn sich beispielsweise dein Bass mit der Bassdrum um den gleichen Frequenzbereich prügelt uns es alles matschig klingt, dann kann man doch am Mixer wunderbar die EQs nutzen und jedem Sound seine Luft lassen. Das klingt doch viel besser.
Nachträglich kannst du nur insgesamt mehr oder weniger Bass regulieren, aber nicht mehr separat, weil alles ein Schlunz ist.

ich kann das grundsätzlich auch, aber erstes liegt man manchmal trotzdem daneben, und außerdem soll es ja durchaus vorkommen, dass man später die vorhandenen sounds doch anders stimmen will oder sich der spektrale gehalt durch bewusste verwendung irgendwelcher effekte noch mal drastisch ändert.
Es zählt immer das Gesamtbild.
Klar, man justiert beim Mastern noch hier und da ein wenig nach, aber das ist nur noch die Feinarbeit.
Der Mix muss bereits stimmen und wenn du im Nachhinein merkst, das du irgendwelche massiven Veränderungen haben möchtest, dann mache das nochmal neu beim Mix und nicht später an dem fertigen Track.
Ich beginne damit immer erst dann, wenn der Track eigentlich vom Mix her absolut perfekt ist.
Das danach zaubert nur noch das goldene Krönchen auf das Stück mehr nicht.

da stellt sich dann jedem die frage, ob und wie er jetzt bei der mischung eine frequenzsstaffelung vornimmt, und ob nur nach gehör und nur bei bedarf - oder nach irgendwelchen angeblich existierenden regeln.

Es ist egal, denn das Wichtigste sind immer deine Ohren.
Klingt saugeil -dann schau ob technisch alles passt (Korrelation ...) und gut isses.

was machst du denn, wenn du die violine und das cello schon aufgenommen hast, und die formanten durch die raummoden passen irgendwie nicht zusammen: du nimmst einen EQ und versuchst es damit zu verschlimmbessern. dafür sind die dinger doch da.
Dann nehme ich meine Rohdateien und mische das alles nochmal neu ab.
Meine EQs setze ich ja in den einzelnen Spuren vor der Aufnahme ein, sofern es überhaupt erforderlich ist.
Wir haben doch heute den vollen Recall, also ist das ja kein großes Ding.
Grobe Eingriffe in einern fertigen mies klingenden Mix, machen ihn meist nur schlechter.
 
Kann Bernie da nur voll zustimmen. Der Mix geht schon mit der Soundauswahl und Komposition los. Wenn das stimmt, dann mixt sich der Rest fast von alleine. Aber das ist absolute Übungssache.
Und für die Fälle wo es schwierig wird, da gibts dann Sidechain, dynamischen Eq etc... Je weniger man davon braucht desto besser.
Ich empfehle die oben vorgeschlagene Analyse von Referenztracks. Das öffnet einem die Augen bzw. Ohren. Kann man schön mal aufn Sonntag, mit Kopfhörern mitm Laptop aufm Sofa machen ;-)
 
Eine Frequenzbearbeitung, bzw. Selektion, die man schon vor der Aufnahme direkt an der Quelle vornimmt, ist doch immer präziser, als später im fertigen Track einzelne Bereiche zu verändern.


und wie nimmst du einen sprecher ohne bass auf, ohne einen hochpassfilter einzusetzen? jürgen prochnow nach hause schicken und jimmy summerville einladen? :)

oder eine 909 hihat ohne bass. die gibt es doch gar nicht.

klar, du hast vom grundsatz her natürlich recht und das ist erst mal ein guter ratschlag: man sollte immer alles so früh wie möglich in ordnung bringen. falsche noten kann man nicht irgendwann später wegmastern, die muss man schon korrekt einspielen.

leider beantwortet das allerdings auch nicht die frage, wie man denn dann zu solchem material kommt, was keine entzerrung mehr benötigt.


Aber du hörst doch, was du da tust und kannst sofort eingreifen.

du willst ja nicht eingreifen.

aber mal ein krasses gegenbeispiel. jemand hat sich bereits in den kopf gesetzt 2 presets seines romplers zu benutzen. später merkt er, dass die geschichte irgendwie matschig wird, wenn die zusammen erklingen.

hier ist es doch jetzt nicht das alleinige mittel einfach einen der sounds gegen einen anderen auszutauschen. er will ja, dass es mit den beiden funktioniert.


Ich beginne damit immer erst dann, wenn der Track eigentlich vom Mix her absolut perfekt ist.


also ich bleibe dabei: ohne EQ kannst du weder gesang noch autoverkehr so aufnehmen, dass die aufnahme nachher perfekt zu jedem anderen beliebigen material passt.

und ehrlich gesagt geht das nicht mal bei synthies, oder? :) deswegen haben viele ja auch direkt EQs mit an bord.


Es ist egal, denn das Wichtigste sind immer deine Ohren.
Klingt saugeil -dann schau ob technisch alles passt (Korrelation ...) und gut isses.


der worst case wäre dann, dass jemand so etwas nicht hört, sich dann aber trotzdem fragt, wie man™ das machen muss™.
 
Zuletzt bearbeitet:
Eigentlich ist das doch eine künstlerische Lebensaufgabe. Die Balance aus Sounds die ineinander verschwimmen und andererseits klar definierten Sounds. Als Regel kann man wohl nur sagen, es ist gut wenn die Sounds an sich schon da spielen, wo man sie haben will, weil es der direkte, schnellere Weg ist. ... Aber oft fehlt die genaue Vision und man dreht und mischt es sich halt so zurecht. Funktioniert auch, aber macht die schlechtere Musik.

Eigentlich sollte jede Note und Sound einer Idee und Vorstellung entspringen. Oder besser noch, Gefühl maybe. Dadurch reduziert sich dann automatisch auch die Anzahl von gleichzeitig spielenden Spuren und somit wird Mixen zum Kinderspiel.

... So ist mein Plan, halte mich aber bisher selbst nicht daran. Geht sicher auch nicht mit allen Musik- und Geschmacksrichtungen.
 
Einen Sidechain-Compressor kennst Du, ja?
Hab ich bisher nie benutzt ehrlich gesagt und mich auch bisher nie richtig damit beschäftigt.
In Bitwig kann man dieses Sidechaining für alles benutzen.
Ich benutzt Cubase 6, hatte ich vergessen zu erwähnen.
Grob gesagt:
Bass A "hört" auf Bass B. Und wenn Bass B erklingt, senkt Bass A nur genau die Frequenz ab, welche Bass B erzeugt.
... und umgekehrt – wenn man will.
Das ist natürlich sehr nützlich wenn sich zwei Bässe Frequenztechnisch ins Gehege kommen. Ich lasse ja auch gerne mal zwei Synthbässe zusammen Dialog führen ,
aber habe bisher immer nur durch Steropanning Luft für beide geschafft. Natürlich nutze ich behutsam auch einen EQ zur Klangverbesserung bzw. wenn was nicht passt während des Arrangements.
Halt nur nach Gehör, was ja auch Zielführend ist, Ich muß aber dazu sagen daß ich niemanden erklären kann was ich da tu. Die Eingriffe erfolgen bei mir am EQ
nur nach meinem "Erfahrungsinstinkt" mit immer dem gleichen EQ.
Würde mich schon interessieren wieviel man rausholen kann mit einem "Sidechain EQ" den man quasi auf die Sounds hetzen kann.
Was ich mich gerade frage: entsteht dabei nicht sogar eine gewisse Dynamik im positiven Sinne wenn die Frequenzen von zwei Synthbässen in den Spuren fortlaufend an -und abgehoben werden?
 
Wenn ich so an einem Track bastel dann läuft diese Trennung (oder auch Überlagerung) der Frequenzen ja immer (bei mir eher unbewusst) mit. Ich probiere dann verschiedene Sounds und denke selten (nie) daran die “später“ noch zu eq´en. Was ich allerdings habe und auch viel einsetze ist ein eq auf der Summe (hardware eq). Damit kann ich sehr effektiv das klangbild insgesamt anpassen (Bass rein, Mitten raus..je nachdem, ich probiere da viele Kombinationen, ist manchmal mehr als nur Feinarbeit die hier noch geleistet wird).

Was ich auch oft mache ist die einzelnen Spuren im Mixer ganz runter zu drehen und sie dann nach und nach langsam einfaden…einfach um die Lautstärkeverhältnisse aufzuräumen …das ist die einfachste aber auch effektivste eq´ing Technik meiner Meinung nach.
 


Neueste Beiträge

News

Zurück
Oben