Midi-Modulationen im hörbaren bereich..?

Dieses Thema im Forum "DAW / Komposition" wurde erstellt von Sepp Ultura, 3. Februar 2010.

  1. Hallo Leute!

    Hab da mal ne dumme Frage. Ich schicke Midi durch Reaktor an Ableton Live. Und da mach ich auch schon mal ne Modulation durch Oscillatoren (0-127, Frequenz fast im hörbaren bereich). Da stürzt Live immer ab.

    Kann es sein, dass Midi nicht dafür gemacht ist? Es passiert auch bei langsameren Modulationen. Oder liegts an Live.

    Ich kenn micht halt mit Midi noch nicht soo gut aus. Ist halt ne serielle schnittstelle, könnte daran liegen. Was meint ihr?

    Gruss
    Matthias
     
  2. MIDI überträgt keine Modulationen, sondern nur Controller und Sync/Timing-Daten. Was machst Du denn genau?
     
  3. stuartm

    stuartm musicus otiosus

    Ich tippe mal darauf das du in Reaktor MIDI CCs steuern lässt, und das mit hoher Geschwindigkeit (=Modulation).
    MIDI hat zwar eine spezifizierte Rate von knapp unter 32kBaud, aber wenn du das ganze intern in Live machst,
    also z.B. von einer MIDI-Spur mit Reaktor an eine andere MIDI-Spur mit nem Softsynth schickst, würd ich eher drauf tippen das der angesteuerte Softsynth nen Schluckauf bekommt.

    Oder benutzt du Reaktor anders?
    Was meisnt du mit "schicke Midi durch Reaktor an Ableton Live" ?
    Nutzt du es nur rechner- / Live-intern oder steuerst du nen externen Synth an ?

    Wenn möglich, poste doch bitte das Ensemble-File, dann kann man's mal selbst probieren.
     
  4. Also, hier mein Setup:

    Reaktor empfängt von meinem M-Audio Oxygen 8 v2 die Midi Daten, schleust sie alle durch (Pitch, Gate, Modwheel, Pitchbend, Aftertouch und CC Nr. von 102-109, sind die CC Nr., die das Oxygen sendet) und lässt sie durch den Focusrite Midi Port wieder raus. Das Midi Kabel steckt im Focurite Midi-Out und geht wieder durch den Focusrite Midi-In rein.

    Oxygen ---> Reaktor ---> Focusrite Midi Out ---> Focusrite Midi In ---> Ableton Live

    In Ableton Live habe ich den Midi Input des Oxygen 8 v2 deaktiviert. Live empfängt nur die Midi Daten, die durch das Focusrite reinkommen.

    Ich kann ja jetzt Reaktor-intern den Midi Output für, z.B., CC102 durch einen Sinus Oscillator modulieren lassen. D.h. Midi-Output werte werden zwischen 0 und 127 mit der Frequenz des Oscillators moduliert (aus irgendeinem Grund muss ich dazu den physischen CC auf dem Oxygen in Mittelstellung bringen, ansonsten verschiebt sich die Modulation nach oben, resp. nach unten).

    Ich hab das Ensemble angehängt. Ein Sinus-Oscillator schickt seine Werte in den Midi Processor und moduliert CC102. Die modulation kann man auf dem Panel pro CC Nr. ein und ausschalten.

    http://dl.dropbox.com/u/110461/MIDI Processor_01.ens

    Mal sehen was ihr dazu sagt. Bin gespannt.
     
  5. Verstehe diesen Aufbau nicht: warum gehst Du von Reaktor übers Interface raus, um danach per Interface gleich
    in Ableton reinzugehen? Kannst Du nicht per Reaktor einen virtuellen MIDI-Datenstrom erzeugen um so direkt
    Live anzusteuern? Also ohne das Interface dazwischen? Das sollte doch gehen.
     
  6. Weil ich noch nicht rausgefunden habe, wie ich das mache. :lol: Könnte jedoch sein, dass das besser funktioniert.
     
  7. fab

    fab -

    du kannst virtuelle midi ports verwenden (midi yoke und midi ox oder mapletools).

    midi ist aber nicht geeignet, einen synth mit modulationen im audio bereich zu beschießen. midi lfo geht natürlich, aber halt nicht mit einer frequenz von 1 khz. das solltest du innerhalb von reaktor machen oder einen dafür ausgelegten synth verwenden.

    - midi ist zu langsam
    - selbst wenn es ginge: modulation in audioraten vom entwickler des synth nicht geplant war, gibts höchstwahrscheinlich furchtbar aliasing
    - wenn der synth parameter smoothing hat, dann hörst du bei schneller modulation davon gar nichts mehr

    wenn das mit midi ginge, dann könnte man die modularfritzen fragen, warum sie eigentlich noch mit CV rummachen...das hat einen grund. ;-)
     
  8. Hi Sepp Ultura LOL,
    Welche Live Version benützt du. Habe selber Live 8.1.1. und NI Reaktor, könnte also schauen, ob dein Problem auch bei mir auftritt (wegen der Abstürze bei Controller-Beschuss).

    Hörbar wird das ganze nur falls die Controller Dropouts (z.B. Firewirebusüberlastung) verursachen, was aber eher kaum bis gar nicht vorkommen sollte (aber theoretisch im worst case passieren kann).

    lG,
    Neurosis Fan Phil
     
  9. Hallo frixion!
    Hab alle Software auf dem aktuellen stand (Live 8.1.1 und Reaktor 5.1.5.002). Ich denke einfach, dass Midi nicht dafür gedacht ist, im Audiobereich zu modulieren, so wie fab gesagt hat.

    Die ursprüngliche Idee des ganzen war, jegliche Parameter von Live durch beliebige Modulatoren modulieren lassen zu können um nicht nur auf die Automation angewiesen zu sein. Tja, jeht wohl nich.

    Ich versuchs mal mit Live API/Max 4 Live. :lol:
     
  10. stuartm

    stuartm musicus otiosus

    Hab dein Ensemble eben mal getestet, siehe Bild anbei

    Ich hab
    - Spur "Reaktor" mit Reaktor und dem MIDIProcessor, Clip triggert ein paar Noten, Note On wird in Reaktor erkannt, CC102 moduliert (volle Kanne)
    - Spur "Instrument" mit Synth1, "MIDI From" auf Spur 1, wichtig ist dann "PostFX" bzw. "Reaktor"
    - wichtig: Live leitet die CC Werte nur direkt an den Synth, deshalb musste ich Synth1 so einstellen, dass z.B. Cutoff von CC102 moduliert wird, wenn du das per "externer" Zuweisung machst, funktionierts nicht, leider eine der dummen Knackpunkte an MIDI in Live

    jedenfalls dass ganze laufen lassen, und keine Probleme gehabt. Modulation am Anschlag, der kleine Cutoff-Regler wusste garnicht wo er hinspringen sollte, Audio auch ohne Probleme.
     

    Anhänge:

  11. Mit Setup wie Du es hier beschrieben hast hatte ich auch keine Probleme. Habs auch jeweils geschafft, wenn Reaktor auf ner Midi Spur läuft und an andere Spuren sendet, Parameter zu modulieren.

    Nur bin ich eben so auf diese Parameter reduziert, die der Synth (oder welches Plugin auch immer) auf der entsprechenden Spur empfangen kann. Und das ist ja das Problem, das Du angesprochen hast.

    Deshalb habe ich ja die Option des externen Routings vorgezogen; somit hätte ich Zugriff auf sämtliche in Live (durch Midi) steuerbaren Parameter. Nur bringt das Live relativ schnell zum Absturz. Frag mich einfach, ob es daran liegt, dass Midi nicht für so schnelle Modulationen gedacht ist, oder ob es an Live liegt.
     
  12. stuartm

    stuartm musicus otiosus

    Ich würde zunächst testen ob es am physischen Routing über das Interface liegt.
    Weiter oben wurde schonmal MidiYoke angesprochen (siehe http://www.midiox.com/myoke.htm)

    Damit kannst du virtuelle MIDI Ports anteuern und aufeinander routen.
    Du hättest dann den gleichen Weg um Live's Parameter direkt anzusteuern, aber musst nicht über ein physisches (Focusrite), sondern ein rechner-internes (MIDIYoke).

    Zugegeben, mit Max4Live kommst du da vllt. eher zum Ziel, aber da hab ich mich noch nicht wirklich mit beschäftigt.
     
  13. Also, ich hab jetzt mal ein internes Routing getestet. Ich hab einen Mac, also ist Midi Yoke keine Option für mich. Ein paar Google clicks später und ich weiss bereits, dass ich bloss den IAC Driver im Audio/Midi Setup aktivieren muss; und schon hab ich das Setup, das intercorni vorgeschlagen hat. :roll: Bravo an mich!

    Resultat: Es funktioniert. Reaktor steuert in Live alle Wunschparameter und Live stürzt nicht ab. Es lag definitiv am Focusrite.

    Danke Leute! Problem gelöst!

    Matthias
     
  14. Anonymous

    Anonymous Guest

    Eine offene Frage wäre aber meiner Meinung nach: Müssen diese Spannungssignale immer extern erzeugt werden? Eine für mich denkbare Alternative wäre auch:

    Midi in (extern) --> Modell im Synth, was die externen Midi events als Parameter benutzt und intern entsprechende CV/Spannungssignale erzeugt. Man könnte auch mehrere interne Modelle haben und auch zwischen diesen Modellen z.B. per Midi umschalten.

    KURZ: Midi events nicht direkt als Signale verwenden, sondern indirekt als Parametersets für analoge Modelle in Synthesizern, die dann entsprechende Regelverhalten zeigen.

    Ein einfaches Beispiel: CC-Wert = 3, könnte z.B. in einem Modell bedeuten, dass ein CV Signal mit 3 * 100 Hz erzeugt werden soll.
     
  15. fab

    fab -

    das freut mich - aber doch wohl keine modulation im hörbaren bereich, oder? wie schnell schwingt denn dein midi lfo bei "127" ?
    übrigens hat reaper parameter modulation direkt eingebaut.

    @tonE: na klar geht das, jeder modulationsoszillator, dessen frequenz per midi steuerbar ist, macht doch genau das - oder habe ich da was missverstanden?
     
  16. Anonymous

    Anonymous Guest

    Kann gut sein, die ganze Modularwelt kenne ich überhaupt nicht. Aber soweit ich es verstehe sind Modularsynthesizer im Prinzip wie elektrische Schaltungen aufgebaut, man kann die "Schaltungsknoten" miteinander verknüpfen/verbinden und somit neue Schaltungen generieren und manche Knoten auch hörbar machen. Es gibt also unendlich hoch unendlich viele Möglichkeiten und ich vermute da wird einfach nur herumgespielt, denn technisch da durchblicken kann man da bestimmt nicht.

    Mir ist auch aufgefallen was ich da oben als "Modell" beschrieben habe, ist eigentlich ein Synthesizer, d.h. man kann beliebige Synthesizerausgangssignale auch als CV-input hernehmen, da braucht man dann immer Mono glaube ich.

    Kurz: Beliebige DA-Wandler mit genügend vielen Monoausgängen wären dann wohl die besten CV-Quellen. Wieviele CV-Quellen braucht man denn üblicherweise? 10? 20? 30? Oder noch mehr?
     
  17. fab

    fab -

    also ich meinte einen lfo (der aber oft ja auch schnell schwingen kann, im hörbaren bereich, darum "modulationsoszillater") in einem beliebigen midi-gesteuerten synthesizer. dem sagst du per midi CC "schick jetzt doch mal bitte 120 hz" - also genauso, wie du dir das vorgestellt hast.

    das besondere am modularen synth ist 1. der audio weg ist frei wählbar 2. steuerspannungen können audiosignale sein, es gibt -anders als bei MIDI - keinen unterschied zwischen audiosignalen und steuersignalen. wie das funktioniert und ob da jemand noch durchblick ist wahrscheinlich eine eigene frage für das modular-forum. :)

    @ Sepp BTW, habe mal eben nachgeschaut, der LFO in der reaper parameter modulation geht bis 8 hz. also nicht hörbarer bereich.
     
  18. Was ich mit meinem Setup bewerkstelligen wollte, ist nicht, Modulationsoszillatoren in irgenwelchen Synths mit Midi zu kontrolliern, sondern dass Midi selbst diese Funktion übernimmt.

    D.h. wenn ich einen Sinus zum Midi Ausgang in Reaktor rausschicke, bewegen sich die CC werte von 0-127, und zwar mit der Geschwindigkeit der Frequenz des Sinus-Oszillators. Und dabei kann ich den Sinus-Oszillator sehr wohl in den Audiobereich schrauben. Das heisst dann, dass sich die CC Werte von 0-127 in der Geschwindigkeit des Hörbaren bewegen. Bei einer Sinus-Oszillator Frequenz von 440 Hz wäre das also, als ob ich meinen Controller 440 mal pro Sekunde auf und wieder zuschraube.

    Mit dem externen Routing, das ich zu Beginn hatte, hat das eben zum Absturz geführt, wohl gegeben durchs Interface (Focusrite). intercorni hat mich ja dann darauf hingewiesen, es mit einem virtuellen Midi Port zu versuchen, benutze jetzt also den Mac IAC Driver, und siehe da: kein Absturz. Ich kann jetzt also in Live jeden Parameter fernsteuern wie in einem Modularsystem.

    Kann jedoch sein, dass wenn ich zu viele Parameter so mappe, Live extremen Schluckauf kriegt und wieder abstürzt. Ich muss noch ein bisschen rumspielen.

    Aber danke für Eure Anregungen!

    Matthias
     
  19. stuartm

    stuartm musicus otiosus

    Schön, dass wir dir helfen konnten.
    Wäre nett, wenn du bei Gelegenheit auch ein paar Hörbeispiele posten könntest, was du damit nun anstellen kannst.

    Vielleicht gibt's da ja den ein oder anderen AHA!-Effekt.
     
  20. Jetzt hab ich begriffen, was Du damit meinst! :lol: [​IMG]

    Ich hab den "lfo" einfach mal an einen Audioausgang gehängt und zugehört. LOL. Schwingt fast schon im Ultraschall bereich.. Im ernst, in Hz kann ichs im Moment nicht angeben, aber der Ton ist extrem hoch. Nicht ausprobieren, oder Volumen zurückdrehen.

    Geht also schon sehr gut, diese Modulation per Midi zu verschicken, aber eben in meinem Falle nur durch den IAC Driver.
     
  21. fab

    fab -

    ja schon - aber wie schnell ist denn dein realer midi LFO nun? und was moduliert der? und wie hört sich das an? das würd mich jetzt auch sehr interessieren!
     
  22. Werd ich tun, sobald ich mal was mit Hilfe dieses Setups produziert habe. Eigentlich steckte nur die Idee dahinter, eben durch Reaktor auf sämtliche Parameter in Live zugreifen zu können, da ich eben das modulare Prinzip sehr schätze. Und da ich (wie hier festgestellt wurde) sehr limitiert bin, wenn ich Reaktor als VST auf ener Spur sitzen habe, hab ich halt mal probiert, Reaktor dazwischen zu schalten.

    Werde mal was posten, wenn ich konkret was so gemacht habe. Benutze jedoch die Fusion Reaktor und Live sehr oft, mittlerweile jedoch auch fast immer im Verbund mit meinem Modularsystem.

    Reaktor/Live Fusionen von mir könnt ihr euch sonst mal auf http://katergon.bandcamp.com/ anhören. Aber achtung: Katzendarm Musik! :lol:

    Gruss
    Matthias
     
  23. Also, ich hab jetzt einen konkreten Test gemacht und muss fest stellen, dass man die Modulation nur bis an die untere Grenze des hörbaren bereichs treiben kann. Weiter oben fängt es dann an zu flattern, kommt nicht mehr nach. Ich schreibe das der seriellen Natur von Midi zu. Schade eigentlich. :sad:

    Habe ein Audio Beispiel hochgeladen. Sound im Simpler und dann den Filter (Resonanz ein bisschen hochgeschraubt) mit Reaktor über CC102 moduliert. Und da hört man auch, dass es zu flattern beginnt, je höher ich die Frequenz des Modulationsoszillators in Reaktor schraube.

    http://dl.dropbox.com/u/110461/Midi Test.mp3
     
  24. fab

    fab -

    ja, bleibt beim langsamen LFO - wäre auch zu schön gewesen, wenn du jetzt FM über midi erfunden hättest ;-)

    interessante musik auf deiner page :supi: - der reaktor hat da allerdings gegen die ganzen katzendärme nicht soo viel chance?
     
  25. Ja, wäre wohl zu schön gewesen. :lol:

    Danke danke! :oops: Synths sind bewusst subtil gehalten. Ich mag halt den Effekt, dass man zwar weiss, es ist was da, aber man kann nicht mit dem Finger drauf zeigen. So wie der Bass: man hört ihn erst wenn man ihn nicht mehr hört. LOL
     
  26. Anonymous

    Anonymous Guest

    Die Musik ist der Hammer! Ist das Deine Stimme, auch super!!! Respects! Perfekte Musik, danke dafür! Ich höre gerade "An Old Man's Reflection 11:54". Wo kann man mehr von Dir hören?

    Du kennst bestimmt auch "Kingston Wall"?
     
  27. :oops: Danke fürs Kompliment! Nein, ist nicht meine Stimme; das will niemand hören! :lol:

    Im moment ist das alles was wir haben. Es folgt aber noch eine EP, aber bei uns dauert alles seine Zeit..

    'Kinston Wall' sagt mir jetzt nichts, ist das was, was sich lohnen würde mal reinzuhören?
     
  28. Ich bins noch mal.

    Ich hab es nun geschafft, ein Max 4 Live Plugin zu basteln; für die die's interessiert. Ich habe das Plugin hochgeladen, falls sich jemand ein Bild machen will:

    Mit 'Initialize' holt man sich die im Live-Set verfügbare Liste an Audio Tracks. Dann wählt man das gewünschte Live-Device aus. Anschliessend den gewünschten Parameter und bestätigt mit 'Confirm'.

    Auf der rechten Seite kann man sich mit 'Trim' nun den gesuchten Werte-Bereich suchen, in dem sich der Ausgewählte Parameter befindet (manche bewegen sich zwischen 1-100, manche zwischen 0-1, usw).

    Mit 'Min' und 'Max' kann man nun den Modulationsbereich festlegen, in dem sich die Modulation bewegen soll.

    Das M4L-Plugin ist hier:
    http://dl.dropbox.com/u/110461/Live Plugin Remote.amxd

    Ich hab noch ein Audio-Beispiel hoch geladen; Filtermodulation mit Live's 'Auto Filter':
    http://dl.dropbox.com/u/110461/M4L Remote Test.mp3

    Der Sinus-Oszillator aus Reaktor geht als Audio ins M4L Plugin rein und steuert den ausgewählten Live-Device Parameter. Das schöne daran ist, dass ich irgendeine Audioquelle als Modulationsquelle wählen kann.

    Das einzige, was mir nun etwas sorgen bereitet ist die Abtastrate der Audio-Modulationsquelle im M4L-Device. Ich benutze dafür das Snapshot Object, das mit einer Rate von 44100 Hz abtastet; und dennoch hab ich das Gefühl, dass je höher die Frequenz der Modulationsquelle ist, man immer mehr Aliasing kriegt. Gibt es etwas besseres, um Audio abzutasten als Snapshot? Ich kenne mich mit Max noch nicht so gut aus, dies sind nur meine Anfänge.

    Um ein paar Ratschläge wäre ich sehr dankbar.

    Gruss
    Matthias
     
  29. fab

    fab -

    habe leider weder max noch live und keine ahnung, wie man die samplerate höchsetzen könnte aber - evtl. könntest du einen lp-filter dazwischenhängen, um die obertöne des modulators zu begrenzen?
     
  30. Ich denke, das würde schon Sinn machen, wenn ich einen Envelope Follower machen wollte. Wenn ich aber eben FM machen will, wie viel sinn macht es denn, die Obertöne rauszufiltern?
     

Diese Seite empfehlen