Daher: zurück zur Theoriekritik, die ich jetzt doch einfach ungefragt noch liefere, bevor dann mein Zeichenlimit für heute aufgebraucht ist.
Also, wo liegen die Chancen bzw. Probleme mit diesem Ansatz, wie er in dem Artikel und dem Video (das ja von sich sagt, darauf zu basieren) beschrieben ist?
Die Zielsetzung ist, dass jeder Part die gleiche wahrgenommene Lautstärke haben soll. Rosa Rauschen zeichnet sich dadurch aus, dass es die nicht-Linearität des menschlichen Hörens in Rechnung stellt. In weißem Rauschen sind alle Frequenzen mit der gleichen Leistung vertreten. Für unser Gehör ist es aber so, dass höhere Frequenzen mit viel weniger Leistung auskommen, um als gleich laut wahrgenommen zu werden wie niedrigere Frequenzen. Umgekehrt: Ein tiefer Ton wird als viel leiser empfunden als ein hoher Ton bei identischer Leistung. (Wir sparen uns an dieser Stelle Exkurse zum Thema "linear vs. logarithmisch".)
Wenn ich jetzt also möchte, dass eine Kick-Drum und eine Hi-Hat mit derselben wahrgenommenen (!) Lautstärke im Mix erscheinen, dann kann ich das per Gehör machen. Die Kick aufdrehen, und dann die Hi-Hat soweit hochziehen, bis ich meine, dass die gewünschte Lautheit erreicht ist. Fertig.
Wenn ich aber die Zeit nicht habe (der Artikel legt nahe, dass 160 Spuren heutzutage nicht unüblich sind), oder Minderwertigkeitsgefühle bzgl. meines Gehörs, dann kann ich das Rosa Rauschen als Messlatte nehmen. Zuerst die Kick soweit hochziehen, dass sie gerade über dem Rauschen liegt, und dann dasselbe mit der Hi-Hat machen. Aus den oben beschriebenen Eigenschaften des Rosa Rauschens ergibt sich, dass dann bei beiden dieselbe Lautheit vorliegt.
Ich ersetze also den synchronen Abgleich zweier Größen untereinander (Kick und Hi-Hat) durch den sukzessiven Abgleich jeder einzelnen Größe mit einer dritten.
Das ist im Prinzip die Idee dahinter. Kann man machen.
Zu deiner Frage ("vor oder nach dem Bearbeiten"?) -- dieses Prinzip macht erst dann Sinn, wenn ansonsten alles "steht". Denn, und hier beginnen die Probleme, es geht ja ausschließlich um eine Angleichung der Lautheit der einzelnen Parts. Deren jeweilige Lautheit hängt aber ganz massiv davon ab, was wir in Sachen EQing, Kompression usw. mit ihnen machen. Diese Schritte müssen also *davor* liegen. Dann nach der "reinen Lehre" (als die ich jetzt mal den obigen SOS-Artikel setze) ist unser Werkzeug jetzt nur noch der Fader des jeweiligen Tracks.
Daher, Problem 1:
Die Methode ist hoffnungslos unterkomplex. Sie tut so, als wäre die Klanggestaltung vor allem eine Frage des richtigen Lautheitsabgleichs. Sie hilft niemandem mit dem (viel virulenteren) Problem, dass ein Mix z.B. "matschig" klingt, weil sich die Frequenzbänder verschiedener Parts in die Quere kommen, oder dass man zu viel oder zu wenig Dynamik drin hat, oder dass Räumlichkeit fehlt, oder oder oder...
Problem 2:
Die Annahme, dass die vielen Parts alle die gleiche Lautheit haben sollten, ist in dieser Pauschalität komplett irrig. Wer sagt das und mit welchen Argumenten? Ein dynamisches Klangbild zeichnet sich u.a. auch dadurch aus, dass es mit den Lautstärkeverhältnissen über die Zeit hinweg "spielt", oder zumindest dass jeder Part seine Lautheit nach eigenem Recht und nicht nach einem objektivierten, und man wird sagen dürfen: völlig unmusikalischen, Maßstab erhält. Was ist denn, wenn ich z.B. wollte, dass im Hintergrund ein Flächensound ganz leise mitflirrt? Gerade so über der Hörschwelle? Genau das Problem beschreibst du ja auch selber: solche Sounds muss ich u.U. soweit hochziehen, dass die Dinge, von denen ich finde, das sie im Fokus stehen sollten, dann viel zu leise wirken. Und das ist dann auch der Punkt, wo man sagen muss: wenn man ungefähr weiß, wie's klingen soll, dann wird man mit dieser Methode höchstwahrscheinlich *nicht* dort landen.
Problem 3:
Die Methode geht von einer Herangehensweise ans Mischen aus, die (ausgerechnet) gerade in der elektronischen Musik, wie wir sie meistens machen, kaum praktiziert wird. Die Annahme ist: wir haben "fertige", unverrückbare Tracks. Das ist unser Ausgangsmaterial, das wir so weiterverarbeiten müssen, wie es ist, aber das wir "in sich" nicht mehr ändern können. Wir haben jetzt nur noch die Möglichkeit, diese Tracks jeweils lauter oder leiser zu stellen. So arbeitet doch aber kaum ein Mensch. Von mir z.B. würde ich sagen: diesen Schritt des "Mischens", als zeitlich nach vorne und hinten begrenzte Periode im Produktionsprozess, den gibt es überhaupt nicht. Wenn ich z.B. mit einem Basslauf beginne, dann schraube ich am Synth, am Pult und an Effekten solange, bis er mir vom Klangbild her gefällt. Wenn ich jetzt aber einen zweiten Part mit einem anderen Instrument darüber lege, dann kannste die Uhr nach stellen, dass ich auf jeden Fall bald wieder zum Bass zurückgehe und den so anpasse, dass er sich nicht mit dem zweiten Part in die Quere kommt. Und so geht das hin und her mit jeder weiteren Schicht, die drüber kommt. Jedes neue Element kann einfordern, dass ich andere Elemente wieder anpasse, damit das Gesamtbild stimmt. Das ist das komplette Gegenteil eines linearen Prozesses. Das ist nicht mal zirkulär, sondern vernetzt wie Kraut und Rüben.
All das wird in diesem Ansatz aber komplett ausgeblendet. Wahrscheinlich liegt darin aber auch seine Anziehungskraft. Obwohl, 32.000 Youtube-Klicks für ein Video eines kommerziellen Channels in einem "angesagten" Genre, das Fußballstadien füllt, ist vielleicht doch gar nicht so viel.