neue synthesearten ... das neue ding ...

paco

...
... mal eine rein theoretische frage:

gibt es außer den bekannten synthesearten [additive/subtraktive synthese + fm + am + granularsynthese und und und alle weiteren bekannten synthesearten] theoretisch noch eine neue/andere syntheseart, die bislang in soft/hardwaresynthesizern noch nicht umgesetzt wurde oder umgesetzt werden konnte?

der hintergrund meiner frage: ich beschäftige mich seit jahren mit klangsynthese und letztens meinte jemand in seinem blog, er würde auf etwas neues warten ... allerdings kann ich mir auch theoretisch keine neue syntheseart vorstellen, noch nicht mal eine neue modulationsart oder eine art neuen syntheseeffekt?

ich denke, das nächste große ding - soweit man von groß sprechen kann - wäre vielleicht ein perfektes physical modelling, über das man analoge instrumente optimal zum emulieren versucht?

oder - was allerdings auch nicht wirklich etwas neues wäre - eine optimale integration der softwaresynthesizer in einen universalen controller/controllerfotmat ...

... ansonsten fällt mir dazu nichts ein, aber vielleicht euch ja: was wäre im synthesizerbereich wirklich NEU und revolutionär?
 

Summa

hate is always foolish…and love, is always wise...
gibt es außer den bekannten synthesearten [additive/subtraktive synthese + fm + am + granularsynthese und und und alle weiteren bekannten synthesearten] theoretisch noch eine neue/andere syntheseart, die bislang in soft/hardwaresynthesizern noch nicht umgesetzt wurde oder umgesetzt werden konnte?
Idealerweise kombiniert man div. Syntheseformen, verschleiert die Parameter ein wenig und gibt der Sache einen schmissigen neuen Namen :wegrenn:
Edit: Ich warte ja immer noch auf meine FM/additive Synthese Kombination, so 'ne Art Fusion aus FS1R und K5000 :fresse:

eine optimale integration der softwaresynthesizer in einen universalen controller/controllerfotmat ...
Ohne es probiert zu haben, ich kenne es nur aus Videos von N.I. und Arturia: Der Native Kontroll Stantard scheint ganz gut zu sein.
 

virtualant

eigener Benutzertitel
was sind analoge Instrumente? analoge Synths oder im klassischen Sinne Gitarre, Bass, Piano, Saxophon, Flöte und Streicher?
Physical Modelling war ja eher dafür gedacht zweiteres zu emulieren, für erstes reicht die subtraktive Synthese völlig aus, egal ob digitale Synths in Hardware oder digitale VSTs im Rechner. btw. wenn Du analoge Synths meinst so halte ich diese für etwas überbewertet, es ist ja immer wieder von Leuten zu lesen dass analoge Synths immer besser sind und besser klingen als digitale Synths. Ich halte das IMMER für fraglich, bestimmte Sachen gehen mit analogen Synths besser (dann hängt es aber wiederum vom jeweilgen Synth ab was der genau kann und was nicht), andere Sachen gehen mit digitalen Synths besser oder zumindest genauso gut.

Zurück zum Thema, ich denke spontan dass im Bereich Samples noch viel Potential steckt. So manches NI Reaktor Modul (Ensemble), auch aus der Userlibrary, kann Sachen machen, da kenn ich nichts Vergleichbares, erst recht nicht als Hardware. Muss gestehen dass ich erst mal suchen müsste um einige Namen zu nennen. Man zieht oder lädt verschiedene Samples rein, unter Umständen gibt es sogar mehrere Klanggeneratoren in dem Modul/Ensemble, und dann entstehen völlig neue Klänge. Vieles mag davon auf Granularsynthese basieren, dazu kann ich nichts Näheres sagen.

Also wirklich innovative Konzepte und Klanggeneratoren, vielleicht sogar spielbar auf den Synthesizertasten, findet man vor allem bei NI Reaktor.
 

fanwander

*****
Ich vermute, dass nicht Synthese das neue Ding sein wird, sondern, dass es in Richtung KI gehen wird, wo die Gesamtheit aus Komposition und Sound gerechnet wird. Da wird die Bedienoberfläche dann aus zwei Dropin-Feldern bestehen, das eine für die Komposistion, das andere für den Sound, und dann kann man durch Reinziehen von zwei MP3-Files, sich einen Arvo Päärt Track mit Helen-Fischer-Sound errechnen lassen.
Insofern hat @virtualant schon recht, dass man mit Samples was machen wird. Letztlich ist das dann nicht "neu", denn die Techniken sind mit Melodyne und Co. längst schon etabliert.
 
Es ist wohl in Zukunft nicht nur die Herkunft des Klanges, was im Vordergrund steht. Ich denke auch, dass es neue Ansätze gibt, Klänge zu bearbeiten, steuern, ergreifbar zu machen.

So wie Leafcutter John mit seinem lichtsensitiven Interface:
View: https://www.youtube.com/watch?v=X1cmWFP3f8o


Und wer weiß, vielleicht ergibt sich aus den neuen Klangbearbeitungsmöglichkeiten auch eine neuartige Klangerzeugung/Synthese.
 
KI wird eine neue Beschreibung eines Klanges ermöglichen, einschließlich der Manipulations- und Formungsmöglichkeiten. Das wird richtig abgefahren werden.
 

ollo

||||||||||
Na, der Nektar Bolt Harmonics Synthesizer ist zB was neues, auch wenn es vom Klang her nichts komplett anderes ist oder total neu klingt.

Ansonsten denke ich auch, wird KI viel machen.

 

Klaus P Rausch

playlist
Die Vergangenheit zeigt, wie neue Synthesemodelle entstehen. Das ist mal der evolutionäre Weg, wo bestehende Methoden Schritt für Schritt, oder auch mal zwischendurch ein großer, weiterentwickelt werden. Das Waverazor Oszillatorenmodell etwa ist so eine Sache. Da kassiert man keinen Ruhm, das wird als normal aufgefasst. Ein anderer ist die absichtliche Suche mittels anderweitig bereits bekannter Methode und Physical Model ist sicherlich derzeit gründlich in der Mangel, sich im gesamten Instrumentenspektrum breit zu machen. Know How in Teilbereichen ist bereits ordentlich fortgeschritten, doch auch da ist noch Feinarbeit angesagt. Auch gibt es den klassischen Zufall, wo es jemand auf was ganz anderes abgesehen hat und eine neue Synthese eine Nebenwirkung ist, die dann zur Hauptsache erklärt wird. Yamahas FM ist so ein Fall.

Da die Elemente, die einen Klang ausmachen, abstrahiert werden können und die Erkenntnisse aus der Akustik teils schon hunderte Jahre bekannt, weiterverarbeitet, im Detail verbessert usw. werden, sind diese genannten drei Methoden da, um der Sache auf die Sprünge zu helfen.

Viel wichtiger ist aber das Instrumentendesign, bereits die vorhandenen Synthesen sind derart umfangreich parametrisiert und mit Controllersystemen kontrollierbar, dass sich nicht gerade wenige Musiker der erforderlichen Lernkurve nicht gewachsen fühlen und nicht selten überfordert sind. Leute wie ich, die als Personal Coach angeheuert werden und für Hersteller Content entwickeln, winken eigentlich ab, wenn es um "neu" geht, denn das alte ist noch arg unterbelichtet. Featuremonster, selbst in Händen erfahrener Leute, halten Soundoptionen vor, die gerade mal ansatzweise erkundet und in spielbare Sounds gegossen sind.

Ich bin der letzte, der neuartige Synthesen nicht begrüßen würde. Und dazu: Klar, macht mal, ich schau mir das dann an :) Aber vorher ist noch viel Luft bei den vorhandenen immer noch nicht ausgereizten Methoden. Dass es nebenbei auch immer wieder zu automatisierten Musiken kommt, ist eigentlich eine andere Baustelle und hat mit Instrumentenbau selber nicht besonders viel zu tun.
 

Summa

hate is always foolish…and love, is always wise...
Vielleicht das wofür mir noch die passenden Synths fehlen, wobei mir manchmal beim basteln die besten Ideen kommen, aber die kann man ja dann mit so 'nem Interface umsetzen, falls die Ausstattung des Synths für die Umsetzung unzureichend ist.
 

paco

...
@ alle: das mit der ki ist ein interessanter aspekt, hatte ich so noch nicht durchdacht: danke!
 
Zuletzt bearbeitet:

paco

...
Es ist wohl in Zukunft nicht nur die Herkunft des Klanges, was im Vordergrund steht. Ich denke auch, dass es neue Ansätze gibt, Klänge zu bearbeiten, steuern, ergreifbar zu machen.

So wie Leafcutter John mit seinem lichtsensitiven Interface:
View: https://www.youtube.com/watch?v=X1cmWFP3f8o


Und wer weiß, vielleicht ergibt sich aus den neuen Klangbearbeitungsmöglichkeiten auch eine neuartige Klangerzeugung/Synthese.
... lieben dank für den link!
 
Es ist wohl in Zukunft nicht nur die Herkunft des Klanges, was im Vordergrund steht. Ich denke auch, dass es neue Ansätze gibt, Klänge zu bearbeiten, steuern, ergreifbar zu machen.

So wie Leafcutter John mit seinem lichtsensitiven Interface:
View: https://www.youtube.com/watch?v=X1cmWFP3f8o


Und wer weiß, vielleicht ergibt sich aus den neuen Klangbearbeitungsmöglichkeiten auch eine neuartige Klangerzeugung/Synthese.
Ich denke auch, dass sich die vielversprechendsten Ansätze aus der Frage ergeben, wie genau Klänge durch den Musiker gesteuert werden. Für mich dreht sich momentan da immer noch zu viel um die gute alte Klaviatur nebst Wheels / Reglern und Fadern.

Da war man Ende der Achtziger mit den Windcontrollern schon mal weiter, die Seaboards und Konsorten (MPE) sind da ein guter Ansatz ebenso wie die Hoffnung auf MIDI 2.0 für schnellere und saubere Midi CC Steuerungen.

M.E. ist es wirklich die Spielbarkeit von Synthesizern - im Sinne eines „neu“ zu erlernenden Instruments - die noch enormes Entwicklungspotential für neue Klangerfahrungen birgt.
 

Klaus P Rausch

playlist
Ich denke auch, dass sich die vielversprechendsten Ansätze aus der Frage ergeben, wie genau Klänge durch den Musiker gesteuert werden. Für mich dreht sich momentan da immer noch zu viel um die gute alte Klaviatur nebst Wheels / Reglern und Fadern.

Da war man Ende der Achtziger mit den Windcontrollern schon mal weiter, die Seaboards und Konsorten (MPE) sind da ein guter Ansatz ebenso wie die Hoffnung auf MIDI 2.0 für schnellere und saubere Midi CC Steuerungen.

M.E. ist es wirklich die Spielbarkeit von Synthesizern - im Sinne eines „neu“ zu erlernenden Instruments - die noch enormes Entwicklungspotential für neue Klangerfahrungen birgt.
Es hat sich halt rausgestellt, dass Tastatur als Mittel zum Zweck in einigen Fällen überfordert oder sogar ungeeignet ist. Die Alternativen werden ja schon lange entwickelt, aber irgendwie hakt es. War WX7 gespielt von Typen wie Sal Gallina die pure Offenbarung, ist es zumindest hierzulande nicht gerade auf helle Resonanz gestoßen. Das ist bei nahezu allen Konzepten der Fall, es dümpelt in der Nische vor sich hin, auch wenn die Dinger teils richtig cool sind (Fingerboard, Seaboard, MPiano, usw.).

Gitarristen an synthetische Tonerzeuger zu führen, ist auch so eine halbgare Angelegenheit. Gibts zwar schon für wenig Geld EHX als Einstieg, aber so richtig in Fahrt kommts auch da nicht.

Noch also ist es am Keyboarder, daran zu rütteln. Aber halt, dieser Typus Musiker ist seit den 80ern nicht mehr nur Pianist und Organist in Personalunion, nein, alle möglichen Klangfarben von Imitationen bis Unerhörtes muss er nicht nur 1A spielen können, sondern auch noch mittels DAW zur Symphonie werden lassen - aber ja nicht eine, die es schon gibt. Nein, unter Jahrhundertereignis rührt sich da beim kritischen Betrachter nichts.

Daher wird lieber die Autobahnabfahrt Düsseldorf-Süd genommen, und als Stimulator für den etwas in die Knie gegangenen Eigenantrieb "ne neue Synthese" an den Horizont gemalt, so als Heilsbringer für offenbar schon langweilig gewordenes 8-Operatoren-FM :)
 

Ich@Work

||||||||||
Ich denke auch, dass die nächsten grossen Schritte keine neue Syntheseform hervorbringen wird, vielleich erst einiges später.
Viel mehr wird es langsam eher interessanter und möglich die bestehenden Syntheseformen "händisch" zu machen.

Bezüglich Sounddesign könnte VR einen markantne Schub bringen, weil man da in drei Dimensionen modulieren kann. Bei sowas wie dem Nave könnte man dann die Wave "anfassen" und von Hand modelieren ohne den Fremdkörper Computer-Mouse.
Bei subtraktiver Synthese könnte man mit der einen Hand bzw. Finger den Parameter selektieren und über Gesten der anderen Hand die Werte ändern. Die Hüllkurven von Hand "zeichnen" oder sie mit Gesten stauchen bzw. auseinanderziehen usw.

Allerdings verstärkt sowas die bereits schon bestehende Problematik der Perfomance noch mehr, weil das Publikum noch weniger verstehen wird, was der denn da auf der Bühne genau macht. Ist jetzt schon schwierig bei Synthesizern oder es entsteht ein neue Aufgabenteilung zwischen dem Sounddesigner und dem Melodienspieler.

Nur eine Performance mit Gesten sieht schon komisch aus und muss man wie verdeutlicht dem Publikum erst mal erklären.


Aber beim reinen Sounddesign dürfte mit VR wirklich was machbar sein. Denn das ist/war letztlich die grossen Problematiken der neuen Syntheseformen. Durch Software hat sich das verbessert/geändert. Nur noch der "direktere" Zugang ist ausbaubar.
 

Ich@Work

||||||||||
Na, der Nektar Bolt Harmonics Synthesizer ist zB was neues, auch wenn es vom Klang her nichts komplett anderes ist oder total neu klingt.

Ansonsten denke ich auch, wird KI viel machen.
Eine neue Syntheseform ? Bist Du sicher ?

Ist doch nichts anderes als durch Makro-Regler zugängliche additive Synthese. Was aber ja nichts schlechtes sein muss, ist schon ein feines Teil.
 

paco

...
Eine neue Syntheseform ? Bist Du sicher ?

Ist doch nichts anderes als durch Makro-Regler zugängliche additive Synthese. Was aber ja nichts schlechtes sein muss, ist schon ein feines Teil.
und @ollo

aus bonedo:

„... denn Bolt generiert seine Oberton-Struktur direkt im Oszillator. Das nennt sich Harmonics-Synthesis und lässt sich mit der subtraktiven Synthese nicht vergleichen. Es ist es also ein Art additiver Ansatz, aber keine FM-Synthese mit der klassischen Bank von vielen Oszillatoren. Vereinfacht gesagt generiert der Oszillator eine äußerst schnelle Impulsfolge, dessen Sequenzstruktur den entsprechenden Obertoncharakter bestimmt.“

+

„Die „neue“ Harmonics Synthesis ist eine Variante der Bandlimited Impulse Train Synthesis (BLIT), bei der eine Impulsfolge mittels Hammerich Pulse erzeugt wird und durch dessen zwei Parameter – Anzahl der Harmonischen und Roll-Off – definiert wird. Und das wiederum macht klassische Filterschaltungen überflüssig und erzeugt eine Vielzahl sehr organisch klingender Wellenformen direkt im Oszillator.“

... irgendwie eine neue syntheseart, jedoch irgendwie auch nicht wirklich :) in meiner pippi-langstrumpf-welt eher eine art neue additive synthesemodulation.
 
Zuletzt bearbeitet:
... allerdings kann ich mir auch theoretisch keine neue syntheseart vorstellen, noch nicht mal eine neue modulationsart oder eine art neuen syntheseeffekt?
Kommt immer drauf an, was man unter "neue Syntheseart" versteht. Wenn man die Synthese eher grobschlächtig einteilt in Spektrummanipulation (additiv/subtraktiv), schnelle Modulation (FM, RM...), und "Verzerrung" (Waveshaper/-folder, nichtlineares Mischen...) ist man wahrscheinlich seit Anfang letztes Jahrhundert mit allen Synthesearten fertig. Die Betrachtung finde ich aber nicht so zielführend, weil ein Minimoog mit Filter-FM sich schon anders anfühlt als ein DX7...

Ich würde die Syntheseart nochmal aufdröseln in Algorithmus, Interface und Philosophie (oder so ähnlich).

In den Algorithmus würde ich Dinge rein stecken, die dem Endbenutzer erst mal egal sind (meistens), die aber potentiell den Klang bzw. die verfügbaren Eingriffsmöglichkeiten beeinflussen. Für VA-Oszillatoren z.B. "naive" Wellenform vs. BLIT vs. BLEP; für Analoge Oszillatoren z.B. triangle vs. saw core, DCO vs. VCO etc.; für FM z.B. DC-linear vs. AC-linear vs. Phasenmodulation; für VA-Filter z.B. Delay-basiert vs. Zero-Delay vs. IIR usw. .......

Unter Interface würde ich sammeln, wie man auf die Parameter zugreift, also z.B. ob man die Amplituden bei der additiven Synthese mit separaten Hüllkurven oder über eine Art Wavetable vorgibt, wie Modulationen bzw. Audiosignale verteilbar sind, Welche eher obskuren Parameter durch den Nutzer veränderbar sind etc.

Die Philosophie ist eher was, was sich mit der Zeit entwickelt (oder durch einen sehr dominanten Synth), also ein Syntheseansatz, der sich einmal erlernt auf andere Synthis übertragen lässt. Da fallen z.B. die Zusammenfassung von Oszillator, Hüllkurve und Keyscaling zu einem FM-Operator, die verschiedenen Modulationskonzepte (Modulationsmatrix/ Modulationsslots an Quelle/Ziel/feste Routings), das Wavetable-Konzept (das Mittlerweile auch für Frame-basierte Modulationskonzepte genutzt wird), usw. drunter.

Übergänge sind natürlich fließend...

Wenn man aus der Vergangenheit auf die Zukunft schließen kann (immer gefährlich) sollte in allen drei Bereichen noch Veränderung möglich sein.

Bei den Algorithmen war das letzte große Ding Vermutlich die Verbreitung von Zero-Delay-Filtern. Auch beim Physical Modling ist viel passiert, siehe z.B. Pianoteq.

Am Interface ist recht viel passiert. Ins Auge springe da geschickte Meta-Parameter (exteremfall ist die Einkleidung von Additiven Synths mit einem pseudo-subtraktiven Interface), Semi-Modulare Ansätze, bei denen der Nutzer kaum mehr mitbekommt, dass er Module austauscht (Oszillatoreffekte in Zebra, Braids-Oszillator,...), grafikorientierte Bedienungen (jetzt auch in Hardware it Touchscreen), die insb. komplexe Modulationen, Spektralverläufe etc. deutlich handhabbarer machen, die verschiedenen Modulationssequenzer Konzepte, ...

Philosophie ist (naturgemäß) der Bereich, wo sich Dinge am langsamsten bewegen und den man vermutlich intuitiv am ehesten als "Syntheseart" betrachtet. Ich würde allerdings z.B. die Kombination von Wavetable und Phasedistortion mittlerweile als eigene Philosophie betrachten (z.B. Massive Bend+/-) weil es mittlerweile sehr viele Synths gibt, die das tun und weil es doch recht unterschiedliche Resultate erzeugt als klassische Casio-PD bzw. klassische Wavetables. Ist m.E. ein ähnlicher Schritt (evtl ein kürzerer, aber ähnlich gearteter Schritt) wie der Schritt von linearer FM in analogen zu DX-7 FM. Ähnliches gilt z.B. für Frame-based Animation (Parameterlocks, Pseudo-Wavetables wie in Zebra...), freies Audio-Routing in polyphonen Instrumenten etc.

Es passiert m.E. insgesamt sehr viel im Synthese-Land. Das nächste große Ding ist aber eher nicht zu erwarten, weil der Markt einfach mittlerweile zu groß und zu divers ist. Es wird vermutlich eher auf eine Diffusion von vielen kleinen Änderungen aus diversen Nischen in den Mainstream hinauslaufen.

Ich vermute es wird sich mehr zur Live-Spielbarkeit entwickeln, also MPE, die Rückkehr des Ribbons, etc. Insofern wird es zunehmend relevant sein, "spielbare" Parameter zu haben, d.h. vermutlich typischerweise geschickt gewählte Makros.

Hmmm...langer Text, nicht sicher über den Erkenntnisgewinn...
TLDR: Ich glaube es bleibt spannend, aber "Sensationen" bleiben selten...
 
Zuletzt bearbeitet:
Ich warte ja immer noch auf meine FM/additive Synthese Kombination, so 'ne Art Fusion aus FS1R und K5000 :fresse:
Grundlegend gab's das schon beim Synclavier. 2OP-FM (also wirklich FM, nicht VPM wie bei Yamaha ab DX7), wo der Carrier eine Digitalwelle spielt, die aus 24 Partials errechnet worden ist.

8OP-FM/VPM, wo jeder Operator seinerseits mindestens 16 Partials hat, wär natürlich heftig. Ich stell mir das gerade mit 64 Partials pro Operator und jeweils einer Multistage-Frequenz- und -Amplitudenhüllkurve pro Partial vor. Das dann noch in OKOF...
 

Summa

hate is always foolish…and love, is always wise...
Grundlegend gab's das schon beim Synclavier. 2OP-FM (also wirklich FM, nicht VPM wie bei Yamaha ab DX7), wo der Carrier eine Digitalwelle spielt, die aus 24 Partials errechnet worden ist.
Synclavier wäre der Ur-Großvater von dem was ich suche.

8OP-FM/VPM, wo jeder Operator seinerseits mindestens 16 Partials hat, wär natürlich heftig. Ich stell mir das gerade mit 64 Partials pro Operator und jeweils einer Multistage-Frequenz- und -Amplitudenhüllkurve pro Partial vor. Das dann noch in OKOF...
Gibts schon nennt sich Octopus ;-)
Aber ss sind nicht nur die additiven Operatoren sondern auch die dazugehörigen K5000 Formant Filter (oder besser noch Morping Filter des Cube) pro Operator, das alles natürlich per loopbare Multisegment Hüllkurven und Controller steuerbar. Du siehst, ich verlange nicht mal dass man die Harmonischen einzeln per Hüllkurven steuern kann ;-)

Edit: Kurze Erklärung zum K5000 Fomant Filter: Er erlaubt es bis zu 64 Harmonische in einem bestimmten Frequenzbereich anzuheben bzw. abzusenken um damit Spitzen im Spektrum aka Resonanzen/Formante zu erzeugen, der Frequenzbereich lässt sich per Loopbaren Hüllkurve und Controller steuern und es gibt jeweils einen Formant Filter pro additiver Source bzw. Oszillator. Ist praktisch so 'ne Art verschiebbares frequenzabhängiges Raster das man über die Harmonischen legt.
 
Zuletzt bearbeitet:

Thereminchen

Eichhörnchenzüchter
Die Darstellung fraktaler Mathematik ist bekannt, Juliamenge, Apfelmännchen usw.
Aber wie hört sie sich an?
Wenn ich einen Synthesizer bauen könnte würde ich auf dieser Grundlage ein mit Gestensteuerung ähnlich dem Theremin spielbares Instrument kreieren.
Die Klänge werden quasi getanzt.
 
Ich denke das Klänge immer noch zu umständlich gemorpht werden, es gibt schon VST´s die das können, aber in einem Synth habe ich das selten gesehen, das man von Patch 1 auf Patch 2 Interpoliert. Es gibt auch noch keine wirklich guten Sprachsynthesizer. Ja es gibt ansätze - aber das man virtuelle Sänger /Chöre hat, ist noch nicht der Fall. Meiner Meinung nach müsste in diese Richtung noch viel passieren. Idealerweise auch morphen zwischen Gesang und Instrumenten.

Bezüglich UI , wäre natürlich die Frage wie der User seine Musik überhaupt ausdrücken kann, Abstrakte Musik erfordert auch Abstrakte Eingabe Formen imho. Ohne den Sequencer wäre einiges an Techno nicht Techno.
 

Summa

hate is always foolish…and love, is always wise...
Ich denke das Klänge immer noch zu umständlich gemorpht werden, es gibt schon VST´s die das können, aber in einem Synth habe ich das selten gesehen, das man von Patch 1 auf Patch 2 Interpoliert.
Afair machen das die Clavia Nord Lead Teile, hab' selbst nur den Modular G2. Aber mit Morphing ist ja nicht getan, wichtiger ist es meiner Erfahrung nach dass während von einem zum anderen Sound gewechselt wird klanglich interessantes passiert und das mach ich im Moment doch noch lieber gezielt per Hand.
 
Du siehst, ich verlange nicht mal dass man die Harmonischen einzeln per Hüllkurven steuern kann ;-)
Wobei das, Aufwand hin oder her, auch seinen Charme hätte. Einmal würde das die Resynthese vereinfachen, die ja letztlich eh der einfachste Weg ist, um sowas zu bändigen.

Außerdem könnte man sowas mit Vektorsynthese kombinieren, also Frequenz, Amplitude und Modulationsintensitäten der Hüllkurven und LFOs über einen zweidimensionalen Joystick steuern oder meinetwegen ein Touchpad, wo man ja noch Druck als zweieinhalbte Dimension hätte. Wem das nicht reicht – Pedale à la C15 dazu.

Okay, das zu programmieren (8OP à 64 Harmonische = 1024 Multistage-Hüllkurven), wird ein Alptraum.
 

Bruce

|||||
Mir fällt da gerade Quantenmechanik ein - da ich selbst die bisher nicht wirklich verstehe, kann ich mir auch keine daraus abgeleitete Syntheseform vorstellen. Da ich aber denke, dass der Quantenhype (erster kommerzieller Quantencomputer gerade released etc.) langsam Fahrt aufnimmt, glaube ich auch, dass irgendwer - mindestens als Marketingsprech - verschiedenes anderes daraus ableiten kann... also vielleicht auch eine Syntheseform. Oder mindestens nen superpotenten Synth mit Quantenprozessor und KI...
 


News

Oben