Buchstabenlaute separat effektieren

3

3456ztre567uzt

Guest
Ist es möglich, einzelne Buchstaben oder Laute von anderen innerhalb von Wörtern oder Sätzen zu trennen und zu effektieren? Beispiel: S-Zischlaute mit Hall und Echo ausstatten. Oder z.B. das H auszufiltern oder herauszutrennen/ zu verstärken und zu effektieren?
Wenn ja, welche Geräte fallen Euch dazu ein, mit denen es möglich sein könnte?
 
Zuletzt bearbeitet von einem Moderator:
ein mehrkanalsystem wo du zeugs frei patchen kannst wäre schon von vorteil.

vom grundsatz her gibt es 3 ansatzpunkte wie man verschiedene laute voneinander trennen und auf verschiedene ausgangskanäle kann: daten über dynamik (vor allem dichte, aber auch das ganz normale gate/noisegate), daten im zusammenhang mit frequenz (grundton erkennen, median errechnen, schauen, wie schnell sich diese daten ändern), und für die klassische "zischlaute vs vokale" anwendung gibt es auch spezielle algorithmen, die anhand von transienten erkennen, ob etwas eher tonal oder eher chaotisch ist. (ist z.b. inzwischen in eventide fission drin, gibt es aber auch billiger.)

eine fix und fertige software, die dir zielsicher verschiedene konsonanten voneinander trennt und auf 15 ausgänge legt gibt es nicht wirklich, jedenfalls nicht als plug-in.

eine simple anwendung kennst du allerdgins, nämlich den klassischen desser. den kannst du so nutzen, wie man ihn halt nutzt, und dann das zischen erhalten, indem du das differenz signal erzeugst.
 
Ich hätte zuerst mit recycle den Sprach Loop "gestückelt", und dann den Loop im Reason Rack 26 mal in jeweils einen Dr. Rex oder NNtx (bin mir nicht mehr sicher welcher) Sampler geladen und jedem einen eigenen Effekt zugewiesen, und dann die überflüssigen Buchstaben in jeweils einem Sampler gelöscht...
(Jeder Sampler Spielt nur einen Buchstaben und falls das Wort nur 12 verschiedene Buchstaben hat brauchst du nur 12 Sampler)
Vermutlich ginge es aber auch einfacher...
 
Zuletzt bearbeitet:
In Cubase z.Bs. die gewünschten Teile schneiden, Position beibehalten auf neue Spur und als Einzelevent mit Effekten rendern und zusammen abspielen.

Edit: was die neuen Modulationseffekte in Cubase 12 könnten in diesem Fall weiß ich leider noch nicht
 
In Cubase z.Bs. die gewünschten Teile schneiden, Position beibehalten auf neue Spur und als Einzelevent mit Effekten rendern und zusammen abspielen.

Edit: was die neuen Modulationseffekte in Cubase 12 könnten in diesem Fall weiß ich leider noch nicht
Ja, vermutlich ist "ReCycle" recht überholt...habe gerade gesehen das es neue Betriebssysteme gar nicht mehr unterstützt werden...aber früher war es das "Schweizer Taschenmesser" um Loops zu zerhacken und neu zu arrangieren...der Vorteil war oder ist das die einzelnen Clips des Loops in der Rex-Datei als ganzes exportiert werden konnten, um sie dann Extern in der DAW weiter zu verarbeiten...
 
Zuletzt bearbeitet:
Ich wuerde spontan eine Kopie der Gesangsspur machen, davon alles markieren was NICHT auf den Effekt soll und das "silencen", uebrig bleibt ja dann eine Spur nur mit den gewuenschten Lauten, darauf dann ein Reverb oder was auch immer, und dieses aber nur 100% Wet / 0% Dry verwenden und zur originalen Gesangsspur hinzugeben.
 
In Cubase z.Bs. die gewünschten Teile schneiden, Position beibehalten auf neue Spur und als Einzelevent mit Effekten rendern und zusammen abspielen.

Edit: was die neuen Modulationseffekte in Cubase 12 könnten in diesem Fall weiß ich leider noch nicht
Man könnte in Cubase auch das "direct offline processing verwenden", damit kann man in der gleichen Spur bleiben und jedes Event einzeln mit unterschiedlichen Effekten versehen. Ist aber imho nicht so schnell wie mit einer separaten Spur zu arbeiten.
Auch wenn man das "Sampleschneiden" evtl automatisieren kann, wird man da um manuelles Editieren kaum herumkommen.
 
Es gibt ja sog. De-Esser, die die Zischlaute abschwaechen. Gibt es auch das Gegenteil, einen "Esser", mit dem man die gezielt als Nutzsignal isolieren kann?
 
Ev. wenn du die "zwei Texte" mit umgekehrten Amplituden Ausschlag übereinander legst...einmal De-Essert und einmal Orginal sollten zu Schluss diese Zischlaute übrig bleiben, die du dann wiederum verstärken kannst und was auch immer damit machen...
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: ZH
Software versuche ich eigentlich - wenn möglich - immer zu vermeiden, weshalb ich auch zunächst an Hardware dachte. Etwa an einen EQ zur Anhebung oder Absenkung bestimmter Frequenzen, die dann aber noch - gesondert und abgegrenzt von den übrigen Frequenzhöhen - effektiert werden müssen, in Verbindung mit einem Effekt- und Signalprozessor. Vielleicht auch mit Sidechain?

Da ich ohnehin noch einen Micro-Preamp für die Verstärkung der Stimme, die an Effektgeräten hängen soll, benötige, erwog ich z.B. einen dbx 286s. Der hat auch einen De-Esser (für andere Ziele). Hier wurde er schon erwähnt: der "Esser". Den hätte ich mir immer in einem Gerät gewünscht, damit er das Gegenteil dessen erzeugen kann, das die meisten zum Ziel haben.

Meine DAW ist Ableton, habe dazu auch den Push 2. Damit lässt sich ja schön schneiden. Ursprünglich wollte ich für verfremdete Stimmen ja auch einen Mixer und EQ einsetzen. Da Behringer aber die beiden Controller BCR32 und BCF32 neu herausbringen will, würde ich die demnächst gerne für Effektkanäle verwenden. Dann macht es auch nichts, wenn ich auf Effekte aus DAW oder Software zurückgreife.
Es gibt auch andere Effekte, wie Scatter, Slicer, Radio, Megaphone usw. in unterschiedlicher Qualität. Aber so Geräte, wie das VT-3 oder VT-4 von Roland, oder Zoom V3, bieten mir zu wenig Kreationsmöglichkeiten - zumindest von den (meist schlechten) Videovorführungen. Da hätte ich lieber so eine Auswahl diverser Geräte, die mir im Zusammenspiel mehr bringen.

"Zwei Texte mit umgekehrten Amplituden übereinanderlegen..." klingt theoretisch sinnvoll, aber wie legt man Amplituden übereinander? Jetzt rächt sich wohl, dass ich mich mit der DAW noch kaum auskenne, was? Wie gesagt, stehe ich mehr auf Hardware.

Ich wuerde spontan eine Kopie der Gesangsspur machen, davon alles markieren was NICHT auf den Effekt soll und das "silencen", uebrig bleibt ja dann eine Spur nur mit den gewuenschten Lauten, darauf dann ein Reverb oder was auch immer, und dieses aber nur 100% Wet / 0% Dry verwenden und zur originalen Gesangsspur hinzugeben.

Mal eine Laienfrage: wie setzt man die getrennten Spuren wieder zu einer zusammen? Das ist doch dann im Grunde Layern, oder?
 
Zuletzt bearbeitet von einem Moderator:
Also um die Amplitude umkehren muesste es auch Hardware-Loesungen geben... im Prinzip wird da ja nur die Welle invertiert. Wenn man die dann mit einem aehnlichen, aber nicht identischen Signal zusammenlegt, dann bekommt man quasi nur noch den Unterschied. Bei zwei identischen Wellen (wovon man die eine invertiert) bekommt man vollkommene Stille.

Die Spuren zusammenlegen waere das gleiche wie Layern, ja. Also im Prinzip einfach beides im Mischpult wieder zusammenmischen.

Im Prinzip kannst Du ja mal versuchen, die Vocal-Spur auf zwei Mischpult-Kanaele zu legen, bei der einen aber Baesse und Mitten rausdrehen, sodass Du nur noch die Hoehen hast, und darauf ein Reverb legen. Das waere mal ein sehr simpler Versuch mit vorhandenen Mitteln. Aber ich denke um ueberhaupt mal zu probieren, ob sowas ueberhaupt gut klingen kann, wuerde ich das doch mal mit einer ganz gewoehnlichen Audio-Software testen, das kann was simples wie Audacity sein.
 
analog hast du beim esser-selber-patchen das problem, dass du die latenzzeiten des dynamikeffektes nicht kennst, und so schlecht die differenz bekommst.

es kann aber auch gut sein, dass es ein fertiges digitales transient/stable eurorack modul gibt.

es ist nur leider mithilfe einer google suche nach "stable" & "transient" nicht auffindbar weil diese worte noch 300 andere bedeutungen im kontext haben. :)


die urversion ist FFT-basiert und misst die geschwindigkeit der veränderung der phase, um anhand dessen danach die spektralenergie (die amplitude) auf die zwei ausgänge zu verteilen. so findet es sich unter anderem in kyma und soundhack.

moderne, bessere varianten davon sind in guten vocodern zu finden.
 
Ich hab jetzt nicht alles gelesen, aber ich würde das so angehen :
Vokale und Plosivlaute kann man individuell mit einem Matching-EQ absichern, also deren Frequenzen der Formanten usw als EQ Kurve darstellen. Diese EQs dann in einer modularen Ebene wie plogue bidule oder Reaktor, PD, Max anordnen und mit einem Vergleicher (Pegel Komparator) auswerten, der diese dann dem jeweiligen FX zur Summe zuweist. Also wenn der Vokale A den Lautesten Pegel hat wird die entsprechende Effektkette für diesen Moment aktiviert....
 
Ist es möglich, einzelne Buchstaben oder Laute von anderen innerhalb von Wörtern oder Sätzen zu trennen und zu effektieren? Beispiel: S-Zischlaute mit Hall und Echo ausstatten. Oder z.B. das H auszufiltern oder herauszutrennen/ zu verstärken und zu effektieren?
Wenn ja, welche Geräte fallen Euch dazu ein, mit denen es möglich sein könnte?
ich würde das mit einem Granular-Synth probieren...
 
Ja, vermutlich ist "ReCycle" recht überholt...habe gerade gesehen das es neue Betriebssysteme gar nicht mehr unterstützt werden...aber früher war es das "Schweizer Taschenmesser" um Loops zu zerhacken und neu zu arrangieren...der Vorteil war oder ist das die einzelnen Clips des Loops in der Rex-Datei als ganzes exportiert werden konnten, um sie dann Extern in der DAW weiter zu verarbeiten...

Image Line Slicex macht das auch ganz gut.
Bigfishaudio Momentum in der Theorie auch, in der Praxis frisst das Plugin aber leider nur Dateien, die ein Tempo vorgegeben haben. Also einfach irgendwie Sprache reinladen oder irgendwo drauf rumtrommeln und dann reinladen und es wird automatisch gesliced geht leider nicht, weil ohne Tempo gibts nur eine Fehlermeldung. Total unsinnig.
 
Ich mache solche Handarbeiten in der DAW direkt in der Timeline. Also ich Fade per Automation den gewollten Effekt, was auch immer, ein und aus. Schneiden und Schnipseln ist zu unkontrolliert, man kann halt nicht kontrolliert blenden, ich will auch mal eine Weiche Blende je nach Situation haben und ich kann die Zeitlichen Start und Endpunkte einfach hören, Monitoren, anpassen , Grafisch toll. Super Sache das
 
Ich habe viel mit Reason gemacht...daher vielleicht auch die etwas komplizierte herangehensweise meinerseits...früher konntest du mit Reason keine Audiospuren anlegen...lief alles nur über midi mit den onboard Instrumenten...Sampler, Synths, Redrum, Effekte ect...
Zwischenzeitlich nutze ich auch wieder Cubase, dass ich von früher her schon kannte, um meine Hardware zu Sequenzieren und aufzunehmen...
Was Reasen aber mittlerweile auch alles könnte...
 
Zuletzt bearbeitet:
kann mich noch an die 1.0 erinnern. könnte gut sein, dass es da sogar bereits die möglichkeit gab, audio auf verschiedene kanäle zu verteilen.
 
Man konnte mehrere Spuren über verschiedene Kanäle via Audiointerface ausgeben...aber intern war alles nur midi. Einzig in Samplern und Drummaschienen konnte man Sounds laden aber eine Audiospur gab es nicht...nur Midispuren zur automation der onboard Instrumente etc...Reasen konnte midi damals auch nicht nach drausen führen um externe Geräte anzufeuern, (usb) midi empfangen aber schon...geht heute aber alles...Abet erst ab reason 5 oder 6....
Im prinzip wurde der Sound jedesmal wieder neu "Live" eingespielt wenn du Play gedrückt hast...
 
Zuletzt bearbeitet:


News

Zurück
Oben