Ich werde meinen Virus nie verkaufen

für so manche sounds ist es einfach keine gute idee, den gleichen midi port zu benutzen.
um 16 sounds mit einem harten attack zu layern ist MIDI einfach nicht geeignet.
 
Also die meisten Rompler haben 16 Part, hab' gerade nicht den Überblick wie sich die Teile alle nennen - mir reicht da mein "alter" Fantom XR (wegen Ringmod/Boost etc.), Essence FM ist mit 16 Parts angekündigt und Digiton hat afaik 8 Parts - bei Bedarf spielt jede Stimme 'nen anderen Sound.
 
für so manche sounds ist es einfach keine gute idee, den gleichen midi port zu benutzen.
um 16 sounds mit einem harten attack zu layern ist MIDI einfach nicht geeignet.
Ich glaub das hängt auch ein wenig davon was man sonst noch so macht, also rein Note On/Off dürfte nicht so dramatisch sein, sobald man massig Controller sendet könnte es eng werden. Ansonsten dürften die 31Kbit/s eigentlich ausreichend sein, mehr als 2x10Bit mit div. Steuersignalen dürfte MIDI doch nicht pro Note (on/off) brauchen?
 
Der Titel "Ich werde meinen Virus nie verkaufen" hört sich auch ein bisschen an, als würde man über die Marktsättigung jammern.. Verdammt, ich werd's einfach nicht los! :D
 
16 mal 3 stimmiger Akkord, macht 3ms pro Kanal, macht 48ms zwischen erster und letzter Note. Das IST dramatisch.
Ich kann mich jetzt an keinen Track erinnern in dem ich so 'ne extreme Konstellation hatte und schon gar nicht perkussiv. Aber ich nehme eh jeden Sound getrennt auf, auch wenn das vielleicht was mühsam ist, um solche Probleme bei CC Beschuss zu vermeiden.
 
Ich glaub das hängt auch ein wenig davon was man sonst noch so macht, also rein Note On/Off dürfte nicht so dramatisch sein, sobald man massig Controller sendet könnte es eng werden. Ansonsten dürften die 31Kbit/s eigentlich ausreichend sein, mehr als 2x10Bit mit div. Steuersignalen dürfte MIDI doch nicht pro Note (on/off) brauchen?

seriell ist seriell und schließt "gleichzeitig" aus.

mir ist kein gerät bekannt, was verschiebungsfrei 2 mal das gleiche soundpatch abspielen könnte, egal ob auf dem selben oder 2 verschiedenen kanälen.
am schlimmsten ist es bei sampling. da hab ich das früher als spezialeffekt benutzt. :) später habe ich das für die DAW als effekt nachgebaut. ^^

Ich kann mich jetzt an keinen Track erinnern in dem ich so 'ne extreme Konstellation hatte und schon gar nicht perkussiv. Aber ich nehme eh jeden Sound getrennt auf, auch wenn das vielleicht was mühsam ist, um solche Probleme bei CC Beschuss zu vermeiden.

das problem fängt schon mit 2 note on events an. du musst mal so denken: 1 millisekunde sind 1000 Hz.
 
Zuletzt bearbeitet:
Die technischen Grundlagen (seriell vs. parallel etc.) kannst du dir eigentlich bei mir sparen, ich hatte mein Informatik Studium fast beendet, als ich aus gesundheitlichen Gründen nicht mehr weiter studieren konnte. Von daher sind mir die Zusammenhänge bekannt. Ist natürlich schon 'ne Weile her, aber die Grundlagen dürften hängen geblieben sein.

mir ist kein gerät bekannt, was verschiebungsfrei 2 mal das gleiche soundpatch abspielen könnte, egal ob auf dem selben oder 2 verschiedenen kanälen.
am schlimmsten ist es bei sampling. da hab ich das früher als spezialeffekt benutzt. :) später habe ich das für die DAW als effekt nachgebaut. ^^
Ja, hab' ich früher auch gemacht, damit der Sound was fetter klingt ;-) Aber bewusst provoziert, wirklich ein Problem war das nie.

das problem fängt schon mit 2 note on events an. du musst mal so denken: 1 millisekunde sind 1000 Hz.
Das mit den 10er Potenzen bekomme ich in den meisten Fällen auch noch hin, war auf 'ner berufsbildenden Schule, da haben wir ständig damit gerechnet ;-)
1Khz liegt weit im hörbaren Audio Bereich, außer in (meist provozierten) Spezialfällen wie der von dir genannte, kann ich da kein Problem erkennen.

Edit: Man sollte die Möglichkeiten unseres Dual Core Hirns nicht überschätzen, unsere Wahrnehmung ist mehr als beschränkt.
 
Zuletzt bearbeitet:
Gibt schon noch so ein paar...
Genau, desweg schrieb ich ja:
... warum es fast keinen Hersteller mehr gibt...
;-)
... zumal es in den 90ern fast schon normal war multitimbral zu bauen. Da sollte es doch gerade heute (bei extrem höheren CPU Möglichkeiten) erst recht Standard sein. Aber klar, Gewinnmaximierung (= Rückschritt) halt. Die wenigsten würden mehr als 3 Synths kaufen wollen wenn jeder jeweils 16 Kanäle gleichzeitig hätte (aka 48 Instrumente!).
 
Zuletzt bearbeitet:
Ich glaub' eher dass die Hersteller von 'ner anderen Zielgruppe ausgehen, die das Teil Live nutzen und für Sounds die sie on-the-fly tweaken.
 
Also ich finde einen Virus für Live besser als theoretisch 16 Viren mitzuschleppen. ;-)
So viel Arbeit ist es ja nicht die Kanäle umzuschalten.
 
Warum sollte man 16 Viren einsetzen wollen, gut - die Frage kommt von einem der keine Live Musik macht und nicht mal einen einsetzen würde, außer vielleicht div. spezielle TI-Sounds, aber die nehmen den kompletten Ti1 in Beschlag.
 
Das mit den 10er Potenzen bekomme ich in den meisten Fällen auch noch hin

das ist gut dass du potenzieren kannst, allerdings handelt es ich dabei um es sich um eine division.

1Khz liegt weit im hörbaren Audio Bereich, außer in (meist provozierten) Spezialfällen wie der von dir genannte, kann ich da kein Problem erkennen.

das problem ist genua das, dass es im hörbaren bereich liegt.

wenn du zwei sägenzahnsynth samples mit 1000 Hz grundfrequenz mit 1 ms differenz abspielst, löschen sie sich komplett aus. nur mal so als radikales beispiel. :)

bei jedwedem anderen material klingt es dann wie wie ein flanger effekt mit 100%.

das problem tritt also eigentlich immer dann auf, wenn du versuchst 2 sounds in einem "multi" via midi zu layern - außer natürlioch es sind freischwingende/zufällig startende oscis, dann ist es relativ egal.

oder wie schon gesagt, man mag den effekt sogar und rechnet ihn eiskalt mit ein. :)

das beste ist ja vor allem, dass die latenz nicht mal immer gleich ist sondern ein bischen schwankt.

ich fand übrigens damals zu midi zeiten (nicht deswegen, aber irgendwie gehörts zum thema) schon immer merkwürdig, dass man die meisten synths nicht dazu bringen kann, 2 gleiche noten gleichzeitig zu spielen.
das wirkte auf mich immer so bischen wie ein künstliches limit, was auf der idee basierte "mit einem klavier geht das ja auch nicht, also braucht das keiner".
 
Warum sollte man 16 Viren einsetzen wollen...

Na ja, das war ja nun auch alles theoretisch gesprochen, da du meintest dass heute nicht mehr multitimbral gebaut wird weil sich die Zielgruppe geändert hat (was ich übrigens bezweifle, da es heute viel mehr „Hobbymusiker“ gibt als damals) und ein Synth mit 16 Kanälen live nichtso gut bedienbar wäre...

Ist aber auch egal, hab halt einen anderen Blickwinkel. Im übrigen würde ich auch keine 16 Sounds vom Virus in einem Song unterbringen wollen! ;-)

Aber im Allgemeinen wäre es schon wünschenswert gewesen, wenn sich der Markt so entwickelt hätte, dass mind 4-facher Multimode der Standard ist.
 
Die wenigsten würden mehr als 3 Synths kaufen wollen wenn jeder jeweils 16 Kanäle gleichzeitig hätte (aka 48 Instrumente!).

das ist wohl einfach nur eine art kompromiss.

wenn ein synth z.b. 32 stimmen bietet, dann ist das realistisch betrachtet für ein "klavier" oder "glöckchen" type of sound schon fast zu wenig. warum dann also 16 multis zur verfügung stellen, nur weil es 16 midi kanäle gibt?

16 kanäle bräuchte man da fast nur, wenn 15 davon "monosynths" sind. bei einem virus hat man dann aber nur 4 audio ausgänge und nur einmal knöppe für diese 15 monosynths ...

mein Emulator IV hat 32 midi channels. für 64 oder 128 stimmen. hab ich dort noch nie gebraucht. hat ja nur 8 ausgänge ...
 
wenn ein synth z.b. 32 stimmen bietet, dann ist das realistisch betrachtet für ein "klavier" oder "glöckchen" type of sound schon fast zu wenig. warum dann also 16 multis zur verfügung stellen, nur weil es 16 midi kanäle gibt?
Wer sagt denn, dass ein digitaler Synth nur 32 Stimmen haben muss/kann?

Zudem sagte ich ja, dass wenn sich ein 4-facher Multimode als Standard etabliert hätte, ich bereits zufrieden sei. 16 mal den selben Synth möchte ich auch nicht in einem Song hören.

Aber ist doch egal, wenn du/ihr lieber monotimbrale Synths kaufen wollt - ist doch Ok. Ich sehe das halt anders (für mich).
 
Wer sagt denn, dass ein digitaler Synth nur 32 Stimmen haben muss/kann?

das dürfte ungefähr der schnitt sein. viele haben noch weniger.

hat wohl etwas damit zu tun, dass mehr rechenleistung auch mehr geld kostet.

was die multis angeht. mir erschiene es logischer immer überall 16 zu haben. nicht weil man es dauernd braucht, sondern weil es nicht mehr kostet, das zur verfügung zustellen, falls man es mal braucht.
 
Ein Spaziergang in der Hitze macht richtig müde und deine Postings sind immer so anstrengend theoretischer Natur.

das ist gut dass du potenzieren kannst, allerdings handelt es ich dabei um es sich um eine division.
Das ist bei 10er Potenzen egal, dafür gibts negative Exponenten. Der Elektrotechnik-Unterricht war voll von den Dingern, man hat uns damals damit gequält... :sm:

das problem ist genua das, dass es im hörbaren bereich liegt.

wenn du zwei sägenzahnsynth samples mit 1000 Hz grundfrequenz mit 1 ms differenz abspielst, löschen sie sich komplett aus. nur mal so als radikales beispiel. :)
Sowas machen doch nur totale Anfänger? Das sind doch Sachen die man eh vermeidet und selbst bei freilaufenden Oszillatoren hat man (selbst ohne zeitlichen Versatz) in so einem Fall Probleme mit Auslöschungen, das sich jede Note etwas anders anhört. Dazu kommt noch dass man in bei 'nem kompletten Arrangement gar keinen konstanten Versatz hinbekommen wird, sich der immer ein wenig verschieben wird. Also für mein Gefühl doch schon ein wenig an der Realität vorbei.

das problem tritt also eigentlich immer dann auf, wenn du versuchst 2 sounds in einem "multi" via midi zu layern - außer natürlioch es sind freischwingende/zufällig startende oscis, dann ist es relativ egal.
Wir sind immer noch bei gleicher Tonhöhe und möglichst obertonreiche (nicht im Sinne von höhenreich) Wellenformen, ansonsten relativiert sich das Problem. Im Extremfall - wenn ich zwei Spektren habe, bei denen sich die Harmonischen nicht überlagern, gibts sogar keine Auslöschung, jetzt ganz unabhängig vom Versatz.

oder wie schon gesagt, man mag den effekt sogar und rechnet ihn eiskalt mit ein. :)
Der CZ-1 war so nett dass er den Sound bei gleicher Note nicht jedesmal neu gestartet hat, sondern ein weiteres mal gespielt hat, das hab' ich auch nur bei einem Voice Sound genutzt in einem Track genutzt. Wirklich Probleme vom Timing hat damals nicht das MIDI gemacht, sondern eher der MT32 - der bei Last (hörbar, fühlbar - aber ohne den Track zu zerstören) in die Knie gegangen ist, lag wohl auch an der dynamischen Stimmenzuordnung.

ich fand übrigens damals zu midi zeiten (nicht deswegen, aber irgendwie gehörts zum thema) schon immer merkwürdig, dass man die meisten synths nicht dazu bringen kann, 2 gleiche noten gleichzeitig zu spielen.
das wirkte auf mich immer so bischen wie ein künstliches limit, was auf der idee basierte "mit einem klavier geht das ja auch nicht, also braucht das keiner".
Wann braucht man sowas in der Praxis, was man es nicht irgendwie anders erzeugen könnte und es furchtbar störend für unser (meist eher) serielles Hirn ist?
 
Zuletzt bearbeitet:
und deine Postings sind immer so anstrengend theoretischer Natur.

tschuldigung :D

Das ist bei 10er Potenzen egal, dafür gibts negative Exponenten.

was für 10er potenzen denn? millisekunden rechnet man mithilfe von dreisatz in hertz um.

Sowas machen doch nur totale Anfänger?

das macht jeder, der das braucht. es gibt gab musikstile wie drum&bass, bei denen nichts anderes als sampler zum einsatz gekommen sind.

Das sind doch Sachen die man eh vermeidet

bei einem sampler kannst du das nicht vermeiden. bei den meisten romplern auch nicht.

Der CZ-1 war so nett dass er den Sound bei gleicher Note nicht jedesmal neu gestartet hat, sondern ein weiteres mal gespielt hat

logisch. wenn eine welle eh frei schwingt oder an einer zufälligen phase startet, ist eine zusätzliche erneute verschiebung der phase vollkommen egal.

aber probier das mal mit einem drumloop sample, dann wirst du sehen hören, wo das problem liegt.

Wann braucht man sowas in der Praxis, was man es nicht irgendwie anders erzeugen könnte und es furchtbar störend für unser (meist eher) serielles Hirn ist?

man braucht es eigentlich immer dann, wenn man aus irgendeinem grund 2 sounds aus einer maschine holen will, die exakt synchron zueinander sein sollen. das fängt schon beim layern, also beim summieren, an.

wenn du gleichzeitig brauchst aber gleichzeitig geht nicht, dann ist doof.
 
Zuletzt bearbeitet:
Das ist jetzt aber jetzt sehr schwer zu lesen, wenn man die einzelnen Quotes nicht mehr zum Original zurückverfolgen kann, das ist doch das schöne am neuen Forum. So bist du gerade dabei die Diskussion komplett aus dem Zusammenhang zu reißen.

was für 10er potenzen denn? millisekunden rechnet man mithilfe von dreisatz in hertz um.
Ich glaub wir reden aneinander dabei ;-) Ich meine 10 hoch -3 für milli - mit 10 Potenzen kann man sich einfach nur die 0er vor und hinter dem Komma sparen, dann rechnet sich das einfacher bzw. bleibt übersichtlich.

bei einem sampler kannst du das nicht vermeiden. bei den meisten romplern auch nicht.
Das Problem sind die selben Frequenzen und das gleiche oder zumindest ein ähnliches Spektrum, das sind Sachen die man beim Layern vermeidet, egal ob in Phase oder freilaufend oder als Sample, das erzeugt fast immer unerwünschte Effekte. Außer man setzt das - wie von dir schon erwähnt - gezielt zum Sounddesign ein.
Geht es um ähnlich Sounds, zum Beispiel ein fettes Flächen Layer, wird man die Sounds ein klein wenig verstimmen und das Problem ist gelöst.

logisch. wenn eine welle eh frei schwingt oder an einer zufälligen phase startet, ist eine zusätzliche erneute verschiebung der phase vollkommen egal.
Beim CZ laufen die Oszillatoren nicht frei, aber es war 'ne Pitch Envelope auf dem Sound, der Versatz wirkt sich in so einem Fall extrem positiv auf den Klang aus. Damals hab' ich das einfach gemacht, ohne zu wissen warum es funktioniert ;-)

aber probier das mal mit einem drumloop sample, dann wirst du sehen hören, wo das problem liegt.
Was genau meinst du? Zwei identische Drumloops gleichzeitig laufen lassen? Warum sollte jemand das wollen, außer als Effekt? Ich schätze solche Probleme hat man sogar mit zwei unterschiedlichen Geräten, die unterschiedlich schnell bzw. mit Latenz auf MIDI Kommandos reagieren. Praktisch alles an HW das digital ist hat 'ne mehr oder weniger große Latenz.

man braucht es eigentlich immer dann, wenn man aus irgendeinem grund 2 sounds aus einer maschine holen will, die exakt synchron zueinander sein sollen. das fängt schon beim layern, also beim summieren, an.
Das Gehirn wird den leicht Versatz nicht wahrnehmen, außer man layert praktisch identische Sachen und es kommt zu klanglichen Veränderungen. Ich kann mich aber beim Akai S1000 (hab' Ende der 80er einen Leihweise bekommen, um ihn später im Studio programmieren zu können) an eine Parameter erinnern - den man setzen musste, damit er Stereosamples gleichzeitig abgespielt hat, ansonsten hatte man ein Problem mit der Monokompatibilität.
 
Geht es um ähnlich Sounds, zum Beispiel ein fettes Flächen Layer, wird man die Sounds ein klein wenig verstimmen und das Problem ist gelöst.

man muss also verstimmen, auch wenn man das gar nicht will. das löst doch nicht das ursprüngliche problem, das ist schönsaufen. :)

außerdem gibts nicht nur flächen, es gibt auch piano samples oder bassdrums.

Was genau meinst du? Zwei identische Drumloops gleichzeitig laufen lassen? Warum sollte jemand das wollen, außer als Effekt?

oder zwei verschiedene.

und warum sollte man es nicht wollen?

man will es zum beispiel wenn der sampler mono ist und man ein stereo drumloop abspielen will.

oder stell dir mal ein klassisches orchester vor. das hat 4 violinen und die spielen manchmal verscheiedene töne und manchmnal nicht. und stell dir vor es ist 1989 und du hast ein budget von 3000 mark.

Das Gehirn wird den leicht Versatz nicht wahrnehmen,

nicht spekulieren, probiers doch einfach mal aus.

die existentz von workarounds löst nicht das grundsätzliche problem.

das problem wurde später in den DAWs gelöst, wo es sich fast automatisch löst, weil audio dort nur in vektoren berechnet wird.

dafür hat man dann da neue probleme bekommen. :)
 
Ich bitte dich was das Quoteing betrifft mir ein wenig entgegen zu kommen gebeten, das spart 'ne Menge Zeit.

man muss also verstimmen, auch wenn man das gar nicht will. das löst doch nicht das ursprüngliche problem, das ist schönsaufen. :)
Müssen nicht - hab ich auch an keiner Stelle so verlangt - vielleicht will man ja das es genau so klingt ;-) Wird man aber auch bei freilaufenden Oszillatoren machen wollen, um div. Effekten aus dem Weg zu gehen, von daher ist das meiner Erfahrung nach die in so einem Fall typische Vorgehensweise.

oder zwei verschiedene.
Bei wirklich verschiedenen hast du das Problem nicht mehr.

man will es zum beispiel wenn der sampler mono ist und man ein stereo drumloop abspielen will.
Das ist eher ein Equipment Problem ;-) Keine DAW (oder was ähnl. als Stereo Looper HW) und kein Stereo Sampler, da muss man halt was improvisieren ;-)

die existentz von workarounds löst nicht das grundsätzliche problem.

Brain2Music Interface gibts noch nicht, um Ideen umzusetzen wird man immer irgendwo Wege zum Ziel finden müssen. Das Problem ist aus meiner Sicht nicht im MIDI Interface zu suchen.

Wenn man wenig und nur Low Budget Equipment hat muss man IMMER improvisieren damit es gut klingt. In den 80ern hatte keines meiner Geräte hatte freilaufende Oszillatoren und ich bin mit MIDI Thru durch die Geräte durch. Aktuell, mit meinem Hang den Sound per CCs zu manipulieren wahrscheinlich undenkbar, aber hat damals gut funktioniert.

oder stell dir mal ein klassisches orchester vor. das hat 4 violinen und die spielen manchmal verscheiedene töne und manchmnal nicht. und stell dir vor es ist 1989 und du hast ein budget von 3000 mark.

Eigentlich spielen sie immer verschiedene Töne, gerade bei Steichern und auch bei Bläsern lässt sich das nicht vermeiden.
 
sampler sind immer stimmstabil da schwebt garnix.
Dann ist es gut dass du nicht den Sampler aufnehmen willst ;-) - sondern nach eigenen Angaben ein klassisches Orchester. Wobei ich die Preise für Mikrofone etc. von 1989 nicht im Kopf hab.
 
Zuletzt bearbeitet:
ein klassisches orchester wird nicht mit midi getriggert. aber sampler werden dazu benutzt, klassische orchester zu simulieren.

wenn du dir ernsthaft keine komposition vorstellen kannst, wo 2 stimmen zum gleichen zeitpunkt den gleichen ton spielen sollen, dann ist das eben so. nur darfst du da nicht von dir ausgehen. für diejenigen, die das wollen, bleibt es trotzdem ein problem, dass das mit midi schwer zu realisieren ist.
 
ein klassisches orchester wird nicht mit midi getriggert. aber sampler werden dazu benutzt, klassische orchester zu simulieren.
Ich dachte es ging um Aufnahmen, vielleicht mit 'nem Sampler - wegen Stereo etc. eigentlich Irrsinn zu der Zeit und dem Budget, aber deine Postings zu dem Thema klingen aus meiner Sicht alle sehr konstruiert.

wenn du dir ernsthaft keine komposition vorstellen kannst, wo 2 stimmen zum gleichen zeitpunkt den gleichen ton spielen sollen, dann ist das eben so. nur darfst du da nicht von dir ausgehen. für diejenigen, die das wollen, bleibt es trotzdem ein problem, dass das mit midi schwer zu realisieren ist.
Identische Sounds bei identischer Tonhöhe gleichzeitig, das wird doch einfach nur lauter. Sobald du halbwegs unterschiedliche Sounds nimmst, hast man die von dir beschriebenen Probleme doch nicht mehr. Bei den von dir vorgegebenen Solo Orchester Instrumenten, lohnt es sich verschiedene Versionen des Instruments zu überlagern, nicht nur um möglicherweise auftretende Probleme zu vermeiden, sondern auch weil das Ganze dann deutlich lebendiger klingen wird. Zudem spielen auch die Musiker im Orchester nicht wirklich 100%ig gleichzeitig.
 


News

Zurück
Oben