Reverb tuning, wie geht das?

LowFreq

....
Hallo Leute

Eben hatte ich Mail Kontakt mit Cesar Sogbe, er mischt hauptsächlich für Major Labels

Der Grund für den Kontakt war dieser Song:

https://www.youtube.com/watch?v=paCoXyutn9k


Darin ist mir der wunderschöne Reverb auf den Lead Vocals aufgefallen.
Ich habe ihn gefragt: What's that for a fucking nice reverb on the lead vocal in the mix?
Sein Antwort: Quantec yardstick. I do remember that the reverb was calculated to the key of the song.

Ich fragte ihn: What do you mean by tuning on song key?
Do you mean the timing?
Er dann: Not just the timing which has nothing to do with tempo, I mean crossover frequencies, cut off frequencies, frequency multipliers and damping. Music notes are frequencies so it can all be calculated to the key of the song.

Jetzt die Frage an Euch:
Was meint er genau damit und wie setzt man dies in der Praxis um?
Wie macht man das Tuning eines Reverbs mit dem Key des Songs?

Ich hoffe es kann mir jemand helfen.

Share_Image.jpg
 
Sehr schöner Song, gefällt mir sehr gut und mit Sachen wie diesen, Henri Salvador, Madeleine Peyroux usw. finde ich mich sehr Zuhause.

Es gibt einige Reverbs die sich verspielt modulierend (ver)stimmen lassen, um experimentelle Vocal und Soundeffekte zu basteln.
Ich denke aber was Sogbe meinte, ist die typische ABstimmung von Hallfahnen durch Eingriff in die Frequenzen z.B. durch Dämpfung der Helligkeit in der Ausklingzeit (mal klingt der Reverb wahrnehmbar weiter und dann wiederum ziemlich kurz oder fast gar nicht vorhanden), Absenkung von Cutoff-Werten, um die Präsenz und Ambiente des Halls noch zu erhalten aber kritische Zisch&Explosivlaute wie z.B. u.a. "S","K","F","P","T" etc. nicht zu Überbetonungen kommen zu lassen.
Das Instrumental erzeugt Frequenzen, der Gesang (Hall) erzeugt Frequenzen, die sich zusammen überkreuzen und es zu unschönen Ergebnissen kommen kann, diese man durch solche Eingriffe vermeiden und in den Griff bekommen möchte.

Das ist nur die technische Spielerei dahinter, denn es gibt einen für den Song aber viel wichtigeren Aspekt:
Einerseits schafft dies einen ziemlich organischen Hallsound und andererseits bleibt die Intimität der Stimme erhalten- typisch für chansoniere Bossa Nova artiges wie hier, indem man einen Hall nicht einfach über den Dingen unbehandelt offen stehen lässt und somit eher Distanz als Nähe und Berührungspunkte zum Zuhörer schafft.

Gemacht wird das einfach durch Automation, da sich alle Parameter eines Reverbs kontrollieren und aufzeichnen lassen.
 
Die Quantec-Sachen sind aber auch besonders.

.
 
Hallo Leute

Eben hatte ich Mail Kontakt mit Cesar Sogbe, er mischt hauptsächlich für Major Labels

Der Grund für den Kontakt war dieser Song:

https://www.youtube.com/watch?v=paCoXyutn9k


Darin ist mir der wunderschöne Reverb auf den Lead Vocals aufgefallen.
Ich habe ihn gefragt: What's that for a fucking nice reverb on the lead vocal in the mix?
Sein Antwort: Quantec yardstick. I do remember that the reverb was calculated to the key of the song.

Ich fragte ihn: What do you mean by tuning on song key? Do you mean the timing?
Er dann: Not just the timing which has nothing to do with tempo, I mean crossover frequencies, cut off frequencies, frequency multipliers and damping. Music notes are frequencies so it can all be calculated to the key of the song.

Jetzt die Frage an Euch:
Was meint er genau damit und wie setzt man dies in der Praxis um?
Wie macht man das Tuning eines Reverbs mit dem Key des Songs?

Ich hoffe es kann mir jemand helfen.

Anhang anzeigen 82799

Der gute Mann hat Dir ja eigentlich alle relevanten Informationen gegeben: Berücksichtigung von Cutoff & Crossover Frequenzen, Multiplikation sowie Dämpfung von bestimmten Frequenzen... das alles in Bezug auf die vorherrschende Tonart (also auch etwaige Modulationen beachten). Die Stimme wird reverbseitig also im Zusammenspiel mit den anderen Instrumenten sehr granual bearbeitet. So etwas ist schon absolute Oberliga... bekäme ich nicht hin :sad:

Hier noch ein interessanter Artikel zum Quantec Yardstick: https://www.amazona.de/test-quantec-yardstick-2496-2492/

Und ja... da ist evtl. auch eine Menge Automation im Spiel, wie es @Cosso bereits anspricht.

"Not just the timing which has nothing to do with tempo..."

Beste Aussage ever!
 
Organisch ... warum klingt das organisch? Das ziehe ich nicht in Zweifel, das klingt wirklich gut, aber wie erkläre ich mir das organisch-physisch? Wird hier ein Raum simuliert, dessen strukturierteste Reflektionsmaterialien Eigenfrequenzen aufweisen, die mit den Obertönen der Stimme zusammenfallen? Das scheint nicht so einfach zu sein, hieße es doch, dass der Hall so nur bei bestimmten Tönen auftreten könnte.

Handelt es sich also um einen übernatürlichen Effekt? Übernatürlich wäre etwa auch, wenn jedes Instrument einen eigenen Hall haben, wobei diese Halle nicht aus der gleichen Rauminformation abgeleitet wurden. Kann man machen, hier würde ich aber bezweifeln, dass es sich so organisch anhören würde, wie in diesem Beispiel.
 
Unter "organisch" mag jeder sicherlich etwas anderes verstehen, für mich steht "organisch" für Lebendigkeit entgegen einer sterilen Statik.
Die Vocals hier im Stück verbinden sich wunderbar mit dem instrumentalen und den unterschiedlichen Reverbs, die dort auf den jeweiligen Instrumenten liegen.
Es wird eine Brücke geschlagen in der sich alles untereinander in der Kompaktheit vereint und trotzdem separiert untereinander wahrgenommen für sich klingt.
Diesen Umstand bezeichne zumindest ich gerne als "organisch" und dies absolut nichts mit physikalischen, mathematischen, parametrischen Bschaffenheiten zu tun haben müsse.

Wenn ich für (virtuelles) Orchester abmische, dann bekommt jedes Instrument tatsächlich sein eigenes Reverb und Delay und Panorama-Imaging.
Ganz einfach aus dem Grund, weil sich die Instrumente (z.B. Blechbläser und Streicher) in der Realität auch völlig unterschiedlich in ein und demselben Raum verhalten, was sich natürlich nicht mit einem einzigen Hall erreichen lässt, auch nicht mit Convolution Reverb.
Hier würde ich allerdings auch nicht von einem "organischen" Gebilde sprechen wollen, sondern einfach nur von einem authentischeren Ergebnis.
Anders sähe es wiederum aus, wenn es ein kleines Chamber Ensemble wäre, das für sich genommen schon "organisch" klingt, aber genau hier kann man durch das Anreichern von Effekten genau diese "Lebendigkeit" wiederum völlig killen und man genau diese Balance finden muss, um die Lebendigkeit durch "bereichernden" Effekteinsatz zu erhalten.
 
auch nicht mit Convolution Reverb
Ja, das ist klar. Interessant wird es, wenn die Convolution reverbs, d.h. die Parameter, aus derselben Rauminformation generiert werden, wobei diese Generation die spezifische Position des Instruments in diesem Raum einbezieht, das ist ja der Sinn. "Convolution reverb" ist es ja immer noch(?), nur mit jeweils anderen Parametern wie Abstand und Level des ersten, zweiten, dritten Echos usw., Dichte der Hallfahne und -dies wohl nicht so ausschlaggebend abhängig von der Position- Nachklingzeit.

Das mit der Abstimmung der Hallfahne verstehe so (richtig?), dass die Rauschanteile um die Obertonfrequenzen herum gegenüber anderen Rauschanteilen leicht verstärkt wurden. So dass der Nachhall, nach meinem frischen Semi-Verständnis aus jüngsten Studien, etwas weniger Rauschen ist als etwas mehr Klang.

Wenn die einzelnen Echomarker der Raumimpulsantwort nichts anderes sind als Spektren von der Seite betrachtet, sieht man das natürlich nicht aus der Raumimpulsantwort.
 
Das mit der Abstimmung der Hallfahne verstehe so (richtig?), dass die Rauschanteile um die Obertonfrequenzen herum gegenüber anderen Rauschanteilen leicht verstärkt wurden. So dass der Nachhall, nach meinem frischen Semi-Verständnis aus jüngsten Studien, etwas weniger Rauschen ist als etwas mehr Klang.
Wenn die einzelnen Echomarker der Raumimpulsantwort nichts anderes sind als Spektren von der Seite betrachtet, sieht man das natürlich nicht aus der Raumimpulsantwort.
Ja, das würde ich als vortrefflich formuliert bezeichnen.
Im Ergebnis: Rausch&Sound->oder umgekehrt, doch letztlich ein Frage nach gewollten Höreindruck Crisp<->Diffus.

Ich selbst bin allerdings kein Freund von Impuls antwortenden Convolutions weil sie für mich eben nicht partiell klingen (und meist ziemlich matschig), wie ich das in Natura bei einem z.B. echten Orchester im Raum gewohnt bin.
Da habe ich andere für mich besser klingende, bzw. "funktionierendere" Möglichkeiten gefunden, um einen "Raum" in wortwörtlichen Parzellen aufzuteilen, mit jeweils eigener Dynamik und Klangcharakter.

Für Soloinstrumente klingt CR schon ziemlich beeindruckend, aber wenn ganze Sektionen durchgeschleift werden, finde ich das Endergebnis leider furchtbar.
 
Der Quantec-Algorithmus arbeitet eher mit Frequenzen und Resonanzen als mit dem Verfolgen einzelner Verzögerungen (Echos). Zumindest will es so das Marketing von Quantec. Näheres kann man der FAQ bei Quantec entnehmen, ein guter Start ist FAQ 059:

Die Eigenresonanzdichte des Yardsticks ist aber sehr hoch (siehe FAQ 069):

Einen Hinweis auf eine spezielle Tonart, in der der Algorithmus gerechnet wäre, habe ich bisher noch nie gelesen oder gehört.
 
Das Reverb für die Stimme der Sängerin klingt stark gefiltert, vielleicht ist einfach nur die entsprechende EQ Einstellung damit gemeint.
 
Oder man nimmt einfach Adaptiverb, da kann man das direkt einstellen oder sogar hin und her schalten (aber leider nicht per Midi spielen, das wäre natürlich das Optimum)
 
Das Reverb für die Stimme der Sängerin klingt stark gefiltert, vielleicht ist einfach nur die entsprechende EQ Einstellung damit gemeint.

Das denke ich auch.

Viele Leute bedenken gar nicht was man schon alles VOR das Reverb hängen kann im Insert des Auxweges - in dem fall könnte ein dynamischer EQ der die Frequenzen der Stimme trackt - in welchem Setting auch immer - nützlich sein. Surfer EQ oder Melda MAutoDynamicEQ.
Zumindest mit letztem kann man ja auch das Low- und Highcut Band über den Pitchfollower automatisieren und auch eventuell nur ein paar Okteven über dem Grundton für den Hall zugänglich machen.

Nur so als Idee - machen kann man wirklich VIEL :)

EDIT: ja es ist voll "Kluggeschissen" aber warum um Himmelswillen fragt man wen den man per E-Mail kennt gleich was mit "fucking" ??? Bitte mit CD (der Seife) Zähneputzen !!! :harhar:
 
Alles sehr interessante Antworten. Dass Thema mit EQ cuts und so ist mit klar, und dass dieser vor den Reverb platziert wird auch. Und auch was der Sidechain betrifft, kenne ich mich aus. Es verwirrt mich aber, dass er sagt, der Hall wurde auf die Tonart des Songs angepasst. Ich verstehe nicht was er damit meint. Könnte es was mit dem EQ zu tun haben, also z.B. die Frequenzen der Scale verstärken oder liege ich da total falsch? Meint er vielleicht das mit frequency multipliers...? Kennt jemand hierzu ein Praxisbeispiel anhand eines Videos oder Beschrieb? Wäre sehr hilfreich.
 
Er schreibt, er erinnere sich, dass der Hall für die Tonart des Songs berechnet wurde. Das geschah dann natürlich lange vor Erscheinen des Songs. Ist ja fest im Gerät. Aber es ist recht offensichtlicher Blödsinn. Der Hall vom QRS hat keine Tonart.
 
Könnte es was mit dem EQ zu tun haben, also z.B. die Frequenzen der Scale verstärken oder liege ich da total falsch?

Sowas meinte ich mit meinem Besipiel - ob man das durch Anbsenken oder anheben macht ist ja - je nach Headroom - egal.

Darum sind ja solche dynamischen Eqs die (auch) mittels pitchtracking arbeiten und das Hauptband (oder eben nur Obertonbänder) hervorheben sehr nützlich.
 
Er schreibt, er erinnere sich, dass der Hall für die Tonart des Songs berechnet wurde. Das geschah dann natürlich lange vor Erscheinen des Songs. Ist ja fest im Gerät. Aber es ist recht offensichtlicher Blödsinn. Der Hall vom QRS hat keine Tonart.

Vielleicht (?) ist es auch nur der Versuch was "Schlaues" zu sagen - ist ja nicht so, dass es im Studioallteg keine "Räuberpistolen" gäbe.

Ich kenne den Herren nicht und mein das auch gar nicht böse.
 
Zuletzt bearbeitet:
Alles sehr interessante Antworten. Dass Thema mit EQ cuts und so ist mit klar, und dass dieser vor den Reverb platziert wird auch. Und auch was der Sidechain betrifft, kenne ich mich aus. Es verwirrt mich aber, dass er sagt, der Hall wurde auf die Tonart des Songs angepasst.

Vor den Hall ein EQ der nur die Frequenzen betont die zb ein C sind oder mit einem Filter eben nur die eine Frequenz durchlassen und dann den Hall drauf. Dann muss der Hall ja zwangsläufig zu der Tonart passen.
Oder eben gleich wie gesagt den Harmonic Filter in Adaptiverb nehmen und dem Tool sagen, welche Tonart der Hall haben soll.
 
Herzlichen Dank für die guten Antworten.
Ich habs getestet und bin zu einem super Ergebnis gekommen. Dieses Hall Tuning Prinzip bringt meine Tracks auf ein neues Level, keine Frage.
 


Neueste Beiträge

News

Zurück
Oben