2 und mehr Klänge "verschmelzen" lassen, wie?

Dieses Thema im Forum "Softsynth" wurde erstellt von rumbero, 17. Mai 2012.

  1. Hallo, ich wüßte gern, wie ich 2 oder mehr Audiofiles miteinander "verschmelzen" kann zu einem neuen Sound, der nach beiden Ursprungsklängen klingt, da er aus Anteilen jener Ursprungsklänge besteht. Habe Cubase 5.1, WaveLab 6 und diverse VST-Plugins. Wie und womit geht das? MfG rumbero
     
  2. Moogulator

    Moogulator Admin

    Morph von Prosoniq macht das in Echtzeit.
    Der Neuron auch, die Software konnte das natürlich auch. Ist aber nicht mehr aktuell.

    Und es gibt den CONVOLVE Effekt, der das offline macht zB in Metasynth und ein paar anderen und den Emu-Samplern.
    Metasynth ist kein Plugin sondern ein "Host" eigentlich nicht mal das.
     
  3. Booty

    Booty -

    Man könnte natürlich auch beide Klänge miteinander in compressoren, eq´s und/oder Sättigungs-plug ins schicken und sie so miteinander verschmelzen und mehr nach "einem" Sound klingen lassen..

    funktioniert ganz gut!
     
  4. Cyborg

    Cyborg aktiviert

    Hallo
    auch Ringmodulatoren und Vocoder würden so etwas machen können
     
  5. Moogulator

    Moogulator Admin

    Das wäre schon verschmelzen, aber nicht morphen. Denn es soll ja nicht überblenden oder einfach nur "irgendwie" verschwunkelt werden oder doch?
     
  6. powmax

    powmax aktiviert

    EMAX I SE kann so wat... :)
     
  7. AW: 2 und mehr Klänge "verschmelzen" lassen, wie?

    Experimenteller Ansatz für Softwareentwickler:
    Bit für Bit beider Audiofiles xor'en - oder ein bitweises and ausführen - oder oder ... ;-)

    Evtl. beide Files dabei so behandeln, als hätten sie dieselbe Länge bzw. Dynamik.

    20 Zeilen Java sollten genügen.

    :mrgreen:
     
  8. Moogulator

    Moogulator Admin

    Alle EMus ab dem Emax können das, also alles mit EOS auch, aber offline. Man braucht aber obertonreiche Samples, sonst macht es nur "mumpf", viel davon auf meinem Album "real or not" bzw Gedankenrauschen zu hören.
     
  9. Audio - Term kann das prinzipiell, allerdings nur offline mit der Funktion XMRPH<>. Es arbeitet mit Resynthese, d.h. es ermittelt die Spektralverläufe der Samples und führt eine komplexe Multiplikation durch, für die man dann auch noch eine Verlaufshüllkurve definieren kann. Funktioniert für bis zu 1 Minute Audiomaterial, mono wie auch stereo.

    Siehe auch hier: viewtopic.php?f=44&t=62188#p696361

    Leider hatte ich noch keine Zeit, das Manual zu schreiben, könnte da aber notfalls hier "anleiten".
     
  10. Moogulator

    Moogulator Admin

    Visyn Cube! Verspectralisiert auch alles, also everything who like it Resynthesizer-Style. Yeah.
     
  11. Ermac

    Ermac -

    Wirsing!
     
  12. Moogulator

    Moogulator Admin

    Wirr!! Sing was!

    Also verquicken kann man 2 Signale noch auf verschiedene Weise, ist das auch gefragt? FM,AM,Sync, verknüpfen, verrechnen, verkasematuckeln, verperlen?
     
  13. Cyborg

    Cyborg aktiviert

    an wen war diese Nachfrage gerichtet?
     
  14. Cyborg

    Cyborg aktiviert

    auch auf die eher physische Weise: Mit den Füßen in einer Schüssel mit Eiswürfeln stehen und dazu den Evergreen anstimmen:

    Heißer Sand
    und ein verlooohrendes Land
    und ein Leeehben in Gefaaahr

    Heißer Sand
    und die Erinnrung daran
    das es einmal schöööhner waaahr

    ;-)
     
  15. Moogulator

    Moogulator Admin

    An alle bzw. den Threadstarter in Hoffnung zu helfen. Verknüpfen kann man vielfältig, aber vermutlich soll es irgendwie weich ineinandergleiten und der meister dieser Fähigkeiten ist das Morphing. Eben kein Überblenden oder ringmodulieren oder sowas.
     
  16. Jens Groh

    Jens Groh aktiviert

    Kinners, so wird das nichts. Anstatt zu stammeln "es soll nicht bloß irgendwie, sondern es soll irgendwie" oder mit hübschen Metaphern ohne jeglichen Bezug zu Akustik oder Signaltheorie oder Gehörwahrnehmung rumzuwerfen, lasst uns doch mal was Konstruktives machen. (Könnte ja sein, dass hier mal ein Entwickler mitliest. ;-) ) Also:
    Kann hier irgendwer Audiobeispiele liefern für gelungene "Verschmelzungen"? Kann ruhig ein Fake sein, also "ich stelle mir vor, dass aus diesen [1] und [2] so was wie dieses [3] entstehen müsste".
    Kann irgendwer auch Gegenbeispiele liefern, also für "Unverschmelzbares"?
     
  17. Jens Groh

    Jens Groh aktiviert

    Ich habe das Video angehört. Gibt es auch Beispiele, wo man hört, dass das auch was anderes kann als ein Envelope-Follower? (Würde mich auch für andere "Resynthese"-Programme interessieren.)
     

  18. Das ist aber kein Envelopefollower - es klingt nur so, weil ein flächiger Klang mit einem rhythmischen multipliziert wird, und zwar Band für Band im Spektrum. Dadurch verstärken sich spektrale Gemeinsamkeiten, während sich Unterschiede abschwächen. Also eher schon so etwas wie ein Vocoder von den Ergebnissen her. Echtes Morphing muss deutlich mehr können als simple Faltung bzw. Cross Synthese. Und auch Prosoniq Morph betreibt in der Hinsicht kein vollständiges Morphing - zwei Drumloops mit unterschiedlichen Tempi müssten damit nämlich zu einer neuen mit einem anteilig "gemittelten" Tempo verschmelzen, wenn man es ganz genau nimmt.

    Hab keine leider Zeit für Videos - zumal das noch nicht da ist, wo ich es von den Möglichkeiten gerne hätte. Nur das in dem Thread gepostete Beispiel mit dem Einfrieren und der anschließenden spektralen Multiplikation mit dem nächtsen Trackintro:
    play: http://www.fileden.com/files/2007/11/26/1607754/auditerm_test.mp3 Oder die alte Demo, noch von der MSDOS Version - die Loop am Anfang ist z.Bsp. eine Drumloop mit einer gehaltenen Bassnote multipliziert:
    play: http://www.fileden.com/files/2007/11/26/1607754/Transwaveterm%20_Track2.MP3
     
  19. Moogulator

    Moogulator Admin

    ALLLES kann man verschmelzen bei Morphing, dazu reichen die Demos zB bei Kyma eigentlich schon aus. Es gibt keine Möglichkeit, diese Zwischenzustände NICHT zu errechnen, wenn es sich um Morphing handelt. Oder wüsstest du welche? Das ist ein klar definitierter Vorgang. Bei den ANDEREN Verbindungen wäre so eine Audioschlacht aber sicher interessant, inkl Convolving, denn da wird es wie schon gesagt dumpf, wenn EINES der Basissamples durch die Bank dumpf ist (Bassdrums und Bassdrums ergeben nicht sooo viel Gewinnbringendes, aber Strings und Autoreifenquietschen geben tolle Ergebnisse, habe solche irgendwann mal gemacht, muss ich raussuchen, wenns interessiert. in EIV Zeiten.
     
  20. a.xul

    a.xul -

    koennen die e-mu esi geraete nicht so etwas? transform multiply heisst das bei den dingern... muss man nur sehr viel zeit mitbringen :sad:
     
  21. Bernie

    Bernie Anfänger

    Der Neuron kann das auch, sogar recht gut und in Echtzeit.
     
  22. Exakt, Moogulator, das hatte ich versäumt, zu erwähnen. Gemorpht soll es sein, nicht gefadet oder "gleichzeitig gespielt". Danke für die klärende Nachfrage. Ebenfalls erwähnen sollte ich noch explizit, daß es um eigene Soundfiles (wav) geht, die gemorpht werden sollen, daß das Tool diese also laden können sollte - und daß die Frage Applikationen unter Windows betrifft, nicht solche unter MacOS.

    Schon mal vielen Dank an dieser Stelle für Euere zahlreichen Antworten. Sorry, daß meine Frage bislang so unpräzise gestellt war.
     
  23. Jens Groh

    Jens Groh aktiviert

    Ein Vocoder ist nichts weiter als ein Multiband-Envelope-Follower.

    Eben -- da wollte ich hin mit der Frage, was geht NICHT mit bekannten Techniken (egal, was sie suggerieren wollen, und mit welchem Namen).
    Ja, das mit dem gemittelten Tempo könnte man so als Ziel definieren. Ähnliches für den Grundton.
    Aber bei einigen Dingen kann ich mir gar nicht eine "korrekte" Verschmelzung vorstellen, z. B. "3/4-Takt" mit "4/4-Takt", oder "a-moll" mit "A-Dur", oder "ohne Wiederholung" mit "mit Wiederholung". Da ist nämlich die Ganzzahligkeit das Wesentliche. Es sind Qualitäten, nicht Quantitäten, und es muss genauso Murks herauskommen wie mit dem Bild-Morph-Tool bei einem Baum und einem Gesicht. Aber wie soll ein Programm merken, welche Merkmale im Klang quantitativ und welche qualitativ gemeint sind?

    Ja, so was meinte ich, danke.
    Hört sich für mich aber ungefähr wie Überblenden an. Was ist anders? Ich meine nicht anders hergestellt, sondern klanglich anders? Ich will nicht verlangen, dass du dir jetzt die Mühe einer Vergleichsdemo machst, es reicht wenn du es erzählst.

    Hm. Ich höre: rhythmisierter Basston plus unscharf verbröselter Drumloop. Klingt nicht schlecht, obwohl ich das jetzt vielleicht nicht Verschmelzung nennen würde.
    Soll aber nichts gegen deine coole Software sein.

    @Moogulator: Natürlich erfolgt in einem gegebenen Produkt ein klar definierter Vorgang. Irgendein Algorithmus. Und dass dann IMMER ein Ergebnis rauskommt, ist auch klar. Irgendeines halt. Ich habe nur Zweifel, dass es irgendwo eine wirkliche Definition von Morphing (oder sonstigem Klangverschmelzen) gibt. Es gibt Absichten ("so wie bei diesem Photobearbeitungseffekt"). Es gibt Produkte, mit Namen, Marketing und Pressegeplapper. Aber was da eigentlich mit dem Klang passieren sollte, und was dann tatsächlich passiert, darüber habe ich noch nirgendwo Erkenntnisse gelesen. Was technisch passiert und wie man es programmiert, ist mir vertraut, in vielen Varianten, das hilft hier aber nicht weiter. Welcher Variante welche Bezeichnung gegeben wurde, ist auch nicht wichtig. Was mich interessiert, ist: In welchen Fällen überzeugen Produkte, die so was versprechen, mit wahrgenommener Verschmelzung, nicht nur mit "klingt irgendwie interessant".

    Meine Erfahrungen sind bisher:
    - Die plakativen Beispiele klingen nicht wesentlich anders als ein Envelope-Follower, bestenfalls Vocoder.
    - Die subtilen Beispiele klingen nicht wesentlich anders als ein Mixer.

    Würde mich freuen, wenn eure Erfahrungen "verschmolzener" sind.
    Mehr Beispiele?
     
  24. Cyborg

    Cyborg aktiviert

    [quote="rumbero"
    Schon mal vielen Dank an dieser Stelle für Euere zahlreichen Antworten. Sorry, daß meine Frage bislang so unpräzise gestellt war.[/quote]

    Tja, so wars ein langer Thread in dem eigentlich alle im Nebel stocherten. Gräm Dich aber nicht, selbst Moogie (TM) formuliert mitunter Sätze die keiner verstehen kann und manchmal hat man einfach nicht genug Wissen zu ein Thema um eine zielgerichtete Frage stellen zu können.
     
  25. Ja, aber ein Multiband - Envelopefollower ist eben kein Single - Band - Envelopefollower, wie er mit dem Begriff im allgemeinen assoziiert wird. Sowas hat z.Bsp. die Typhoonsoftware für den TX16W, womit man dann das Filter steuern kann. Klingt aber ganz anders.

    Zu den Demos: Ich bin derzeit nicht zu Hause bis zur nächsten Woche, deshalb kann ich keine Beispiele posten. Aber ich frage mich ja wirklich, was die Menschen von simpler Spektralmultiplikationen für "ungehörte" Dinge erwarten? Das extremste wäre das Tauschen von Phasen und Magnituden zwischen den Sounds, genau das macht mein Programm. Man könnte da jetzt noch manuell Bänder tauschen oder ausblenden wie in einem FFT Filter, aber das hat ja dann nichts mehr mit "ein Klang prägt dem anderen sein Spektrum auf" zu tun.

    Wenn man Band für Band im Spektrum multipliziert, fallen erst mal schon alle Bänder raus, die nur in einem der beiden Sounds Energie enthalten (weil x * 0 = 0). Bänder mit gleich viel Energie quadrieren sich ( x * x = x^2) und alles dazwischen verstärkt sich entsprtechend (x * y = xy). Das bedeutet auch, dass hierbei ein 80Hz Sinus nicht mit einem 880Hz Sinus "morphbar" wäre, da die beiden Sounds in völlig unterschiedlichen Bändern Energie enthalten. Deshalb ist es kein vollständiges Morphing, sondern nur eine spektrale Verschmelzung. Das Ergebnis ist ja ein Klang, der die spektralen Gemeinsamkeiten enthält und wenn es im Spektrum keine Gemeinsamkeiten gibt, ist das Ergebnis eben Stille. Umgekehrt: ein und derselbe Sound mit sich selbst verrechnet ergibt das Original (die Verzerrung durch die Quadratur kann wieder rausgerechnet werden mit der Kontrasteinstellung).

    Das führt dazu, dass es eben nicht wie eine Überblendung klingt. Ganz simples Beispiel: Nimm mal einen Sound A mit einem Spektrum von 50 - 2000Hz an und einen Sound B mit einem Spektrum von 800-11000Hz. Bei einer Überblendung hörst du in den Zwischenstufen eine Mischung, die 50 - 11000Hz abdeckt. Bei meiner Software hörst Du in der Mitte nur die 800 - 2000Hz. Und dieser Bereich ist es, in dem sich nun die verbleibenden spektralen Gemeinsamkeiten verstärken oder anheben. Das aber eben nicht statisch sondern abhängig von der FFT Länge. Und im Gegensatz zum Vocoder wird hier A * B und B * A ausgegeben, was klanglich völlig unterschiedlich ist (Träger und Modulator vertauscht) und eben diese Verläufe von A nach B ermöglicht, die man mit einem Vocoder nur umständlich hinbekommt.

    Da im Startbeitrag nicht von "Morphing" a la "Baby2Katze" sondern von einer Verschmelzung gesprochen wurde, habe ich mein Programm hier auch genannt. Prosoniq Morph und die Emusampler dürfen hier ja auch rein, obwohl sie das nicht können. Die klanglichen Ergebnisse dieser Produkte haben seinerzeit auch für etwas Unmut in der Usergemeinde gesorgt, da man sich sonstwas für ungehörte Klangwelten versprach. Das ist aber eher ernüchternd, da man zwei Sounds auf den kleinsten gemeinsamen Nenner reduziert. Sind sich die Sounds zu ähnlich, klingt es nach Überblendung, sind sie zu verschieden, macht es vielleicht ab und zu mal "piep" oder "blubb" oder "mumpff".
     
  26. Bedeutet dies, daß eine solche Software, die das kann (metaphorisch ein "Morphing von Baby nach Katze", allerdings natürlich im Bereich Audio), noch nicht geschrieben wurde?
     
  27. @Cyclotron
    Deine Vorgehensweise hört sich sehr vielversprechend an :cool:
    Da ich davon ausgehen, daß Deine Software leider nicht unter GPL steht:
    Hast Du Links, welche Dir bei Deinem Ansatz weitergeholfen haben? (falls OT per PN)
     
  28. Doch, gibt es. Kyma kann das, allerdings brauchst Du da entsprechend die Hardware. Die Loris - Bibliothek kann das wohl auch, die haben ja auch dieses Baby2Katze. Hatte mal überlegt, damit was zu Programmieren, aber das ist dann ja wieder ein Lizenzproblem - zumindest kenn ich mich rechtlich nicht aus. Zudem wollte ich ja was machen, was ich mir selbst überlegt hab und nicht nur ne GUI für anderer Leute Arbeitsleistung, die ich dann selber nicht mal verstehe.

    http://www.cerlsoundgroup.org/Loris/Lor ... ngInC.html

    Hier gibt es noch Soundbeispiele von Loris, u.a. die berüchtigte Katze:

    http://www.cerlsoundgroup.org/Kelly/soundmorphing.html

    @audiotrainer: Was ist GPL? Irgendeine Lizenzierung, aber zu welchen Konditionen? Ich versteh davon nix. Hilfreich waren vor allem die FFT Tutorials von Herrn Bernsee aka Neuronaut bei dspdimension.com sowie mein Physikstudium + die Elektro- und die Informatikassi - Ausbildung. :D Also ein wenig C und etwas logisches Denken und etwas Mathematik (Multiplikation einer komplexen Zahl, Fouriertransformation) - und ganz viel ausprobieren. Schwieriger wird es schon, wenn man über die naive FFT/Multiplikation/IFFT Geschichte hinaus will, also Spectral Reassignment und solche (wichtigen) Erweiterungen... oder gar einen anderen Ansatz wählt wie in Morph/Neuron mit neuronalen Netzen. Demgegenüber ist mein Ansatz eine Sackgasse, allein schon wegen der Nachteile von FFT.
     
  29. @Cyclotron:
    GPL: GNU General Public License
    Danke für den Link zum Tutorial - werde es durcharbeiten, da ich FFT für meine Auto-Slicer Software benötige - die kann nämlich bereits automatisch einzelne Musikstücke anhand der Pausen extrahieren, aber mit FFT könnte diese sogar Loops ausspucken (theoretisch zumindest) - um die nicht immer händisch schneiden zu müssen :P
     
  30. Vielen Dank für die Antwort. Die Hörbeispiele klingen sehr interessant. So in etwa hatte ich mir das vorgestellt, wobei wichtig wäre, daß man als Anwender für jedes Dateienpaar die Morph-Dauer individuell einstellen kann. Loris ist aber, wenn ich recht verstehe, ein Programm, welches unter OS Windows gar nicht läuft. Gibt es das nicht auch für Windows?
     

Diese Seite empfehlen