Fakten Beste Timestretch Algorithmen und alternative Systeme auf Samplebasis | Hardware

Summa
Summa
hate is always foolish…and love, is always wise...
Ok, doch nen gutes Stück später als gedacht.. anderseits deckt sich das auch etwas mit der Musik zu der Zeit, Anfang / Mitte 90er hat man noch recht häufig Schlümpfe gehört.
Afaik wurde das ganz normal analog erzeugt, mit langsamer (Oktave oder zwei schätze ich mal ) abgespielter Musik, gesang aufgenommen dann wieder in Normalgeschwindigkeit die Musik und den Gesang entsprechend passend (wegen Oktave etc.) schneller abgespielt.
 
outgo
outgo
|
der erste dürfte der S-700 gewesen sein. bis zum 950iger gab es dann schon 2 oder 3 verschiedene algos, die im endeffekt aber alle nur simpel und linear waren. ich selbst habe ich sie eher dazu benutzt fantasie-spektren mithilfe der artefakte zu erzeugen als wirklich die länge oder tonhöhe zu verändern.

welches der erste war, der für das lineare stretching oversampling benutzt hat müsste ich raten. S-2000 oder so?

der erste mit formantkorrektur war dann der yamaha A-3000.

bei EMU kann ich mich gar nicht erinnern, obwohl ich da auch mehrere davon hatte.

weiß jemand, welches der erste hardware sampler war, der das auch in echtzeit konnte?


mit timefactory und kyma war es dann um die jahrtausendwende herum für mich vorbei mit dem gerödel. ;-)
Ich habe zwar "nur" den Yamaha A5000, aber Formantkorrektur kann der nicht. Daher bin ich mir ziemlich sicher, das der A3000 das auch nicht kann. Das Offline-Timestretching ist aber nicht schlecht und es gibt sogar so etwas wie ein Realtime-Timestretching bei den Effekten (Beat Change).
 
Audiohead
Audiohead
||||||||||||
Ich habe zwar "nur" den Yamaha A5000, aber Formantkorrektur kann der nicht. Daher bin ich mir ziemlich sicher, das der A3000 das auch nicht kann. Das Offline-Timestretching ist aber nicht schlecht und es gibt sogar so etwas wie ein Realtime-Timestretching bei den Effekten (Beat Change).
sehr gut das der A5000 hier erwähnt wird.. man kann doch die FX als eigenen ext. Prozl. nutzen..?!

hast du Lust evtl. mal ein kleines Demo zu machen mit den eher interessanteren FXes wie dem von dir benannten Beatchange z.B.?
 
O
otto auch
|
Danke :nihao:

Und sorry habe mich da wohl unklar ausgedrückt, ich meine wie ging dann die transponierung von statten bei pre realtime timestretching Samplern!?
Noch als Ergänzung zu dem Beitrag von @Michael Burman :

Sofern Multisamples möglich waren, gab es mehrere Möglichkeiten für deren Erstellung: Entweder man sampelte die Quelle in verschiedenen Lagen ab oder man musste sich ein paar Kopien des Samples erstellen und die offline mittels Timestretching / Pitchshifting anpassen. Dazu brauchte man bei vielen Samplern einen Taschenrechner und / oder Papier und vor allem Zeit.

Ob und wie weit das nötig war, kam auf die Zielstellung an: Eine ausklingende Pianonote oder geloopte Streicher oder Ähnliches konnte man über weite Bereiche nutzen, ohne das Timing anzupassen. Wollte man aber beispielsweise eine Gesangslinie "akkordisieren", ging es nicht ohne exakt getimte Multisamples ... weil sonst Babel... . ;-) Bei begrenztem Speicher und begrenzter Lebenszeit hat man dann nur die Multisamples erstellt, die man zwingend brauchte.

Wie darf man sich das vorstellen, dass das Transponieren abhängig vom Ausgangsmaterial ist? Und wenn ja, wie das?

Das mit Resample kam mir auch in den Sinn. Und danke auch für den Einblick. War dann wohl eine teils schon recht technische und, klar, zeitintensive Arbeit.
 
O
otto auch
|
Afaik wurde das ganz normal analog erzeugt, mit langsamer (Oktave oder zwei schätze ich mal ) abgespielter Musik, gesang aufgenommen dann wieder in Normalgeschwindigkeit die Musik und den Gesang entsprechend passend (wegen Oktave etc.) schneller abgespielt.
Dachte mehr an diverse "Dance-"Tracks bei den allemöglichen Pop-Nummern geremixed wurden und bei denen dann z.B. aus 100 bpm - 140 bpm und mehr wurden.
 
Cyclotron
Cyclotron
|||||||||||
Wie darf man sich das vorstellen, dass das Transponieren abhängig vom Ausgangsmaterial ist? Und wenn ja, wie das?


Um höhere Noten als die gesampelte Tonhöhe zu bekommen, wird das Sample generell schneller abgespielt. Für Noten unterhalb wird es langsamer abgespielt. Mit jeder Oktave verdoppelte bzw. halbierte sich somit die Geschwindigkeit.

Bei einem recht statischen Sound wie den o.g. geloopten Streichern ist das zumeist nicht zu merken. Ebenso beim Piano - wenn der Sound drei Halbtöne höher etwas schneller zuende ist, geht nicht unbedingt die Welt unter. Notfalls musste man seine Spielweise etwas an den Sound anpassen. Hier mal am Beispiel der Shakuhachi, die je nach Tonhöhe mal schneller und mal langsamer keucht (ab 2:58):



Dazu sei gesagt, dass der benutzte DSS1 gar kein Timestretching konnte (auch nicht offline), somit musste ich eben die Noten an die verfügbare Technik anpassen. Für die Schnulze hat's gereicht. ;-) Es gibt aber auch zeitkritisches Material wie Gesang, Drumlloops usw., wo kleinste Abweichungen im Tempo alles ruinieren. Da kam man ohne Timestretching gar nicht weiter.

Sachen wie o.g. Formantkorrektur sind dann nochmal eine weitere Dimension des Realismus, den man vor allem für Samples von Natursounds oder Stimmen braucht. Hatten aber nicht viele Sampler.
 
Zuletzt bearbeitet:
einseinsnull
einseinsnull
[nur noch musik]
Danke :nihao:

Und sorry habe mich da wohl unklar ausgedrückt, ich meine wie ging dann die transponierung von statten bei pre realtime timestretching Samplern!?

zunächst mal musst du dir vorstellen, dass offline editing in 1990 samplern quasi der normalfall war, und sich die modulation über MIDI CCs auf den FIlter und den VCA (und somit auf das panorama) sowie auf start- und endpunkt bechränkte.

die offline editing funktionen waren dann solche dinge wie cut copy paste, evtl auch das ineinanderkopieren von 2 samples in 1 neues, dann natürlich reverse, fade in, fade out, und eben stretch/pitch.

bei den allerersten war das resampling dann halt komplett linear...

Wie darf man sich das vorstellen, dass das Transponieren abhängig vom Ausgangsmaterial ist? Und wenn ja, wie das?

...dann kam irgendwann interpolation, dann bikubische interpolation, dann mit upsampling, dann kam das, was wir heute retrospektiv "granular pitch shift" nennen würden, also wo das material "mehrstimmig" in so genannten "windows" ineinanderkopiert wird.

wie cyclotron oben zurecht daraufhinweist, ist bei einem statischen flächensound ein timestretching dieser art eigentlich gar nicht notwendig bzw. wäre quasi identisch mit der verlinkung von note und loop länge.


der yamaha A-3000 hatte dann schon 4 oder 6 verschiedene modi, aus denen der user selbst auswählen konnte, die irgendwas von "percussiv" bis ""tonal" hießen. dort wurde dann z.b. die window size anhand der transienten dynamisch verändert, so wie es dann später von jupiter systems und in programmen wie recycle, time factory usw. auch gemacht wurde.


und dann kamen melodyne und tau editor und die anderen konnten einpacken. :)
 
Zuletzt bearbeitet:
O
otto auch
|
Danke :nihao:

Dachte es gab vielleicht noch ne Art Zwischenlösung, nebst Looping. Aber soweit, danke eurer Hilfe, alle* Fragen beantwortet.

* War dann mit der VP Serie dann tatsächlich schon Schluß und es ging direkt mit granular weiter?

Hehe schon beantwortet..
 
einseinsnull
einseinsnull
[nur noch musik]
also ich wäre der letzte, der angst davor hat, dass bald wieder was neues kommt. :)

aber zwischen dem S-950 gequietsche und dem LPC zum anfassen aus stuttgart liegen schon welten, und man kann sich noch laaaange damit beschäftigen.

damals, als es nix anderes gab, habe ich diese house tracks mit house stacks mit mickey mouse effekt geliiiiebt - es war einfach geil zu hören, dass es mit einem sampler gemacht war. heute bekomme ich das kotzen bei dem zeug.
 
einseinsnull
einseinsnull
[nur noch musik]
VP hatte ich jetzt unterschlagen.

VP, phase vocoder, spectral transformation ist wieder eine andere baustelle. außer bei echtzeit-stretching, da ist die technik egal.
 
Summa
Summa
hate is always foolish…and love, is always wise...
Dachte mehr an diverse "Dance-"Tracks bei den allemöglichen Pop-Nummern geremixed wurden und bei denen dann z.B. aus 100 bpm - 140 bpm und mehr wurden.
Das Beispiel das ich meine stammt aus den 80ern, afaik wurde das bei "Jam on It" so gemacht.

Edit: Quelle: https://www.songfacts.com/facts/newcleus/jam-on-it
Some of the vocals, including the "wikki-wikki" refrain, are in a high-pitched voice similar to The Chipmunks. They were done lo-tech by recording the voices at slow speeds so when they played back they'd be pitched up.

Die BPM sind letztendlich egal, wenn ich die Tracks z.B. (in den 90ern dann wahrscheinlich schon) per MIDI langsamer nur halb so schnell abspiele und die Sachen in der Geschwindigkeit einsinge, dann die Geschwindigkeit (auf die Zielgeschwindigkeit) verdoppele und die Gesangsaufname eine Oktave höher - also dann letztendlich auch mit doppelter Geschwindigkeit - abspiele.
 
Zuletzt bearbeitet:
O
otto auch
|
Danke :nihao:

Also finde die gepitchten Samples der Shakuhachi jetzt nicht wild - gechillte 80s Score vibe..

Also bei mir ist es nicht wegen Zeitgeist o.ä. sondern wenn halt tatsächlich einfach nur ein Sample vorhanden ist oder man nicht viel mehr erzeugen möchte.

Und ja Melodyne als (Hardware-)Sampler wäre natürlich top. :D

Es gibt da auch noch ne aufgebohrte Version von nem anderen Hersteller,.. keine Ahnung vielleicht hat Melodyne da auch schon nachgezogen.


Aber als Hardware?
 
einseinsnull
einseinsnull
[nur noch musik]
programmatischen zugriff auf parameter wünsche ich mir bei melodyne auch. (z.b. ein maxmsp external.) dann könnte man sich schnippel auf einer spur in gruppen zusammengruppieren und die gruppen mit hardware knöpfchen modulieren u.ä.

das wort "sampler" wäre dafür allerdings gelogen.
 
Cyclotron
Cyclotron
|||||||||||
Also finde die gepitchten Samples der Shakuhachi jetzt nicht wild - gechillte 80s Score vibe..

Das ist eben ein Sound, bei dem das noch recht gut ohne Timestretching klingt. Auch deshalb, weil es ja einzelne Noten und keine Akkorde sind. In letztrem Fall würde einem schon auffallen, dass die Noten ein Wettrennen veranstalten und die höchste Note nur halb so lang ist wie die tiefste. Wäre das keine Flöte, sondern eine Gesangslinie, gäbe es einen Chaotenchor ("Herr Dirigent, ich bin schon fertig...").
 
outgo
outgo
|
sehr gut das der A5000 hier erwähnt wird.. man kann doch die FX als eigenen ext. Prozl. nutzen..?!

hast du Lust evtl. mal ein kleines Demo zu machen mit den eher interessanteren FXes wie dem von dir benannten Beatchange z.B.?
Puh, leider fehlt mir dazu grade die Zeit. Es gibt aber auf YouTube ein paar Videos zu den Effekten der Yamaha-Sampler. Und ja, man kann die als reines Effektgerät benutzen. Richtig spannend dabei ist, dass man auch die Sample-Rate bis auf 5 kHz inkl "LoFi-Mode" runtersetzen kann, was einfach so viel "besser" klingt als alle LoFi-effekte, die es so gibt. Auch dazu gibt es meine ich Videos, die das zeigen.
 
fanwander
fanwander
*****
für die historie werf ich noch den electrix repeater in den ring. m. e. bis ca 2010 das beste was man fürs stretching transienten-reicher ausgangsklänge kriegen konnte.
 
O
otto auch
|
Also das mit Pitchshift war / ist mir schon klar. Allerdings habe ich bisher eher selten multis gebastelt. Aber das sollte hier ja auch garnicht das Thema sein.

Wegen Melodyne: dürfte gern mehr Richtung Sampler / Synth gehen - wäre schon fein. Und klar, ist etwas anderes. Aber 1-2 Stufen darunter...

Von mir aus darf es jetzt auch gern mit alternativen Hardware-Systemen weiter gehen.

Wobei wir ja erst beim Anfang und über dem Ende gelandet sind, aber noch nicht soviel dazwischen. Kleinster Nenner dabei halt weiterhin ein Sample, sonst keine Be-/Einschränkung für das Ausgangsmaterial... ausser halt, dass das Material halt weiterhin über einen weiten Bereich spielbar bleibt (keine Schlümpfe..).
 
Speak Frank
Speak Frank
||||
Ich habe zwar "nur" den Yamaha A5000, aber Formantkorrektur kann der nicht. Daher bin ich mir ziemlich sicher, das der A3000 das auch nicht kann. Das Offline-Timestretching ist aber nicht schlecht und es gibt sogar so etwas wie ein Realtime-Timestretching bei den Effekten (Beat Change).
Ich hab den Yamaha A 3k V2: dessen offline timestretching hat für mich eine so eigene qualität (wer möchte sagt magisch) des klangs, dass es mMn schon fast "unheimlich" ist. Wie immer schwer in Worte zu fassen. Aber ich hatte tatsächlich dieses Erlebnis: stopfte einen 2 takt loop 120 bpm
(so ne kleine session einfach 2 takte als summe im yamaha aufgenommen) rein und dann so auf ca 60 bpm mit dem offlinetimestretch.
Vor allem ist das dann ALLES vielmehr aus einem GUSS gewesen. Texturen die ich so vorher bei meiner "Musik" nie gehört hatte. Wie wenn das
von einem ANDEREN als mir gewesen wäre. Und dann hat es mir auch noch RICHTIG gefallen. Abgefahren. Zusammengefasst: Ich halte den
offline timestrech algo des yamaha für eine echte geheimwaffe. besonders da wo es um ein §bisschen" abseitigen ambient geht.
(die sache mit den encodern ist dann nochmal ein totaler bummer - deshalb liebe ich nun den octatrack - aber mal einen loop so offlime timestrech bearbeiten und dann aus dem yamaha ausspielen geht schon - früher hab ich hat damit halt richtig alle 16 midikanäle genutzt
, das geht so natürlich nicht mehr - die yamahas bekommst du nachgeworfen - ob sich das lohnt nur deswegen? ja, ja , ja für den hw sampler freund auf jeden fall)
 
Cyclotron
Cyclotron
|||||||||||
Wobei wir ja erst beim Anfang und über dem Ende gelandet sind, aber noch nicht soviel dazwischen. Kleinster Nenner dabei halt weiterhin ein Sample, sonst keine Be-/Einschränkung für das Ausgangsmaterial... ausser halt, dass das Material halt weiterhin über einen weiten Bereich spielbar bleibt (keine Schlümpfe..)

Um Schlümpfe zu vermeiden, brauchst Du einen Algorithmus mit Formantkorrektur. Reines Timestretching / Pitchshifting ändert ja nur die Länge bzw. die Transposition. Wenn die Klangquelle aus Schwinger und Resonator besteht, wird der Resonator ohne Formantkorrektur stumpf mittransponiert.

Im Falle einer Gitarrre wäre das so, als ob der Korpus umso kleiner würde, je höher die Note spielt. Erfahrungsgemäß ist das in natura nicht der Fall. Analog gilt das für Stimmensamples, wo sich zwar die Frequenz der Stimmbänder ändert, aber nicht die Abmaßung des Kehlkopfes und der Nebenhöhlen. Ohne Formantkorrektur gibt das im Sampler den typischen Schlumpfgesang.

Auch hier war der VP9000 meines Wissens das erste Instrument, dass eine Formantkorrektur in Echtzeit erlaubte und auch wirklich verfügbar war. Vorher gab es das allenfalls offline oder als Effektgerät (z.Bsp. Boss VT1):


https://www.youtube.com/watch?v=ynkrr0C-kcQ


Ob Technos Acxel eine Formantkorrektur konnte, weiß ich grad nicht - aber so wirklich verfügbar war der ja auch nie bzw. nicht lange.
 
Zuletzt bearbeitet:
Michael Burman
Michael Burman
⌘⌘⌘⌘⌘
Und ja Melodyne als (Hardware-)Sampler wäre natürlich top. :D

Es gibt da auch noch ne aufgebohrte Version von nem anderen Hersteller,.. keine Ahnung vielleicht hat Melodyne da auch schon nachgezogen.


Aber als Hardware?
Vielleicht hat Roland ja deswegen die VariPhrase-Technologie nicht weiter verfolgt, weil Melodyne & Co sie qualitativ stark übertrumpft haben? :P Selber habe ich die Technologien klanglich nicht verglichen. Habe vor mehreren Jahren mal gelesen, dass Steinberg so etwas ähnliches wie Melodyne in Cubase eingebaut hat. Also als Software gibt es da bestimmt mehrere Sachen, die das können. Als Hardware ... Was ist mit NI Maschine+? NI Kontakt konnte schon früh Echtzeit-Timestretching, soweit ich mich erinnere. Was ist mit Electron-Sachen wie Octatrack? Der Vollständigkeit halber sei der STS 5000 von Creamware erwähnt. :lol: Ok, Bedienung per Software. Dass Hardware-DSP's die Samples rechnen, zählt ja nicht als Hardware, wenn es auf Hardware-Bedienung ankommt. ;-)
 
O
otto auch
|
Danke :nihao:

@Cyclotron: Ok, danke für die Korrektur / Vervollständigung. Also habe mir nochmal nen Video von dem Technos Acxel angeschaut, für Resynthese und die Zeit schon (sehr) gut, aber würde ich dann eher Kategorie 2 zuordnen..

@Michael Burman: Gute Fragen, rein zeitlich könnte das gut passen. War es aber nicht auch so, dass ab 2000 auch Multisamplekits gab, bei der für jede Note ein Sample vorlag!? Speicher war vielleicht noch teuer aber mittlerweile hatten auch HDs Einzug in Sampler gefunden!?

Naja Melodyne und Co. sind halt schon ne andere Nummer, und ja Cubase, Logic und so haben wohl vergleichbares. Und (meist mehrere) timestretch Algorithmen sind in den meisten DAW ja auch vorhanden. Aber es ist halt keine Hardware und auch nicht in Echtzeit und halt andere herangehensweise - in Software gibt es wohl von Tracktion Novum, was so ne Art Hybrid ist.. Ist mir aber die einzige bekannte Software, die auch noch recht neu ist und von daher hatte ich mit sowas in Hardware garnicht erst gerechnet.


Wegen Roland VP

VP-9000 Vari Phrase Prozessor, Sampler-Modul 2000 - 2002
V-Synth VariPhrase COSM Synthesizer, 61 Tasten 2003 - 2007
V-Synth XT VariPhrase/COSM-Synthesizer-Modul 2005 - 2009
V-Synth GT Elastic Audio Synthesizer 2007 - ?
 
Zuletzt bearbeitet:
C0r€
C0r€
|||||
Früher hat man drumloops auch in einzelne Schläge gechoppt (entweder per Hand oder recycle) und dann konnte man auch im Speed und Pitch unabhängig voneinander hoch und runter (MIDI Noten schneller/langsamer abspielen), envelope shaping, Filter usw betreiben, neu zusammensetzen. Das mach ich heute noch, obwohl timestretch einfach in der DAW geht.
 
Michael Burman
Michael Burman
⌘⌘⌘⌘⌘
War es aber nicht auch so, dass ab 2000 auch Multisamplekits gab, bei der für jede Note ein Sample vorlag!?
Das gab es auch früher schon. Ich weiß jetzt nicht, wie viel RAM z.B. bei Synclavier möglich war, aber bei bezahlbaren Samplern in den 90er – da gingen in AKAI z.B. 32 MB RAM rein, in die teureren E-Mu's ging mehr rein. Und es gab auch damals schon entsprechend Sample-CD-ROM's, wo jede Note gesampelt war, allerdings konnte man in 32 MB dann nicht viele Instrumente laden. Ein Klavier, wo zwar jede Note gesamplet war, aber dann auch geloopt war, hat schnell die 32 MB RAM voll belegt. Außerdem wurden tiefe Töne z.B. mit 22 kHz statt mit 44 kHz gespeichert. Man hat halt "getrickst", wie man es damals für sinnvoll hielt.
Große Studios haben mehrere Sampler verwendet. 10x AKAI = 320 MB RAM usw. ;-)
 
einseinsnull
einseinsnull
[nur noch musik]
Naja Melodyne und Co. sind halt schon ne andere Nummer

aus anwendersicht ist der große unterschied zunächst einmal, dass es nicht in echtzeit funktioniert.

wobei sich das ja heute wirklich einfach durch abnorme buffergrößen oder durch eine versteckte, "vorsorgliche" analyse lösen lässt.
 
einseinsnull
einseinsnull
[nur noch musik]
Früher hat man drumloops auch in einzelne Schläge gechoppt (entweder per Hand oder recycle) und dann konnte man auch im Speed und Pitch unabhängig voneinander hoch und runter (MIDI Noten schneller/langsamer abspielen), envelope shaping, Filter usw betreiben, neu zusammensetzen. Das mach ich heute noch, obwohl timestretch einfach in der DAW geht.

genau, vielleicht nicht mit 88 tasten, aber kleinere sets gehen ganz prima so. 7 weiße tasten * 16 velcocity zonen * 16 midi channels == 1792 versionen des gleichen samples.
 
O
otto auch
|
Danke :nihao:

@C0r€: Vermutlich sind Drums und deren pitchshifting T timestretching nochmal eigenes Thema!?

@Michael Burman: Ok, dann ist ja schön das Roland und andere das trotzdem weiterentwickelt haben.

@einseinsnull: Ja das is klar, wobei gäbe ja mehrere Möglichkeiten..


@all: Habe mal im ersten Beiträg die Antworten gelistet. Aber kann den tatsächlich jeder Granular Sampler auch granular timestretch/pitchshift?


Ich kenne Granularsampler, die es z.B. für Reaktor (4) gibt, dann halt Alchemy und soweit ich das noch in Erinnerung habe, besteht dort die möglich via Granular zu resynthetsieren /spielen!?
Letzteres hat dann nur ein "Abspielkopf" und nicht mehrere wie erstere. Schau ich mir aber Videos an, sehe/höre ich nur Methode 1.
 
Michael Burman
Michael Burman
⌘⌘⌘⌘⌘
@Michael Burman: Ok, dann ist ja schön das Roland und andere das trotzdem weiterentwickelt haben.
Roland hat ja sogar das V-Piano entwickelt, das meines Wissens nach gänzlich ohne Samples auskommt. ;-)
Solche Tendenzen gibt es ja auch, reale Instrumente nicht als Samples aufzunehmen, sondern Rechen-Modelle zur Erzeugung solcher Klänge zu programmieren. Auch eine Art Synthese, allerdings noch mehr auf Realismus ausgelegt als bei herkömmlichen Synthesizern, wo es nur zum Teil gelang, z.B. war es schon mit analoger Synthese möglich, Bläser ziemlich authentisch hinzukriegen, oder z.B. Glöckchen. ;-)
 
einseinsnull
einseinsnull
[nur noch musik]
@all: Habe mal im ersten Beiträg die Antworten gelistet. Aber kann den tatsächlich jeder Granular Sampler auch granular timestretch/pitchshift?

nicht alles was granular ist kann auch "simple linear" oder "optimiert für timestretching".

vor allem bleibt natürlich das typische problem, dass man in echtzeit nicht oder nur ganz ganz kurz in die zukundt schauen kann um die loop größe (ich nenne es mal loop) ans material anzupassen.

ein simpler granular timestretch oder pitch shift processor ist im prinzip identisch mit dem sog. "variable delay" verfahren. etwa 1980 bis 2005.

Letzteres hat dann nur ein "Abspielkopf" und nicht mehrere wie erstere.

ganz genau, wenn man das ganze spiel mehrstimming macht, dann wird es schnell zu einem spielbaren instrument, sowohl beim sampler als auch beim delay (delay effekt == stream sampler)

"simpel" klingt natürlich für so manches material total furchtbar. https://vstwarehouse.com/time-stretcher/
 
Zuletzt bearbeitet:
 


Neueste Beiträge

News

Oben