Was ist mutig und ein Instrument für die Zukunft? (Digitale Synths)

Dieser Thread ist ein bisschen nerdig. Ich verlang jetzt ne Menge von deinem "indirekten Denken - das hier ist nichts für Leute die keine Zeit haben!

Was muss eigentlich in der Zukunft mit Digital-Synths passieren, damit wir auch Zukunftsmusik machen?
Oder bist du gerade mit Gegenwart oder der früheren Zukunft beschäftigt?
Worauf wartest du und was muss sein. Ist das was wir haben eigentlich mehr oder weniger, was nach Z1 und Co kommen musste oder hinken wir mit VAs der besseren Klasse einfach nur hinterher oder ist Analog-Hybrid das Richtige oder..

Hintergrund:

ggf. muss man hier sehr zwischen den Zeilen lesen, ggf. klappt der Thread nicht.. aber..

Naja, die Rolands haben jetzt mit der Serie faktisch die Fantom/Rompler endlich wieder mit gutem Sound - Jupiter X/Xm zB - also Röchelkram und Brotbutter mit Xmod und Ringmod und so und dieser Engine, wenn auch abgespeckt - das ist besser, mit dem Fantom G konnte ich wegen VA-Sound irgendwie nicht mehr so richtig. ha, ja hatte dein Micron-Post gesehen https://www.sequencer.de/synthesize...en-eigenen-thread-rechtfertigen.152948/latest , dieses Ding ist ja so dermaßen 90er VA Sound . besonders dankbar bin ich für sch. VA Sound ;-) Thihi..

Ja, nach sich selbst klingt es immer, das ist sogar bei mir so - selbst mit sonem Ding wie dem Xm. Fantom hatte ich keins, nur das aktuelle würde ich gut finden. Aber wir schweifen total ab. Na, vielleicht mag's ja wer lesen.

Oh, ja - ich sag nur Raspi-Wavestate und so, allerdings ist das eigentlich eine Nerdmatrix.Nur, dass der Nerd von heute keine Samples einladen will. Der macht was mit Wavetables, aber editiert sie nicht mehr. Ja, Gear ist vorallem wieder Real-Digital und vielleicht kann man auch einen Sprung finden in die richtige Richtung. Analog hat seine Zeit und jetzt. Dieser Thread handelt von komplett Digitalen, aber eigentlich nicht real-digitalen Synths. https://www.sequencer.de/synthesizer/threads/real-digitale-synthesizer.116180/
Wo geht es hin und was wird für Jörg rausspringen? Also - vielleicht landen wir alle beim SY99. Da ist bei mir nur die Monstertastatur, der Platz dazwischen und dennoch hat die Zukunft jetzt nicht stattgefunden, es wird konserviert und die Synth-Industrie kenwoodisiert sich.
_TShirts und so.. Alles halt auch nur Elektrogeräte.

So, nach diesem Ausfluch™ -
was kommt nach System 8 und NL A1? Das will ich schon wissen. Multisynthese und so - wo ist eigentlich diese Phuture, die Roland früher ja immer designed hat. Eigentlich (so sehr ich das S8 mag) so ist das was da drin ist ja nicht "mutig" nur gut im Sound. Mutig ist.. joar,..
Was ist mutig und ein Instrument für die Zukunft?

Dem ging dies voraus

Klingt immer nach mir, wenn ich mit den Teilen fertig bin ;-) Bei Rinmod und Boost, unterscheidet sich das klanglich nicht so viel von dem was der K5000 bei ähnlicher Kombination mit PCMs erzeugt, ist beim Roland Rompler nicht so flexibel, aber beim Fantom XR sogar noch was sauberer.


Ich denke man kann sich Zeit lassen, CPUs/DSPs werden leistungsfähiger, Gear ist austauschbar, nichts ist für die Ewigkeit - gut wenn man alles hat was man braucht ;-)



Den Verdacht hab' ich auch, aktuell gibts ja auch schon 'nen kleinen Trend zum 90er schw. VA Sound ;-)

aus diesem Thread hier: https://www.sequencer.de/synthesizer/posts/2003433/
 
Zuletzt bearbeitet:
Das Ganze lässt sich so formatiert und abgekürzt nur schwer beantworten, ist jetzt was mühsam ;-)

Naja, die Rolands haben jetzt mit der Serie faktisch die Fantom/Rompler endlich wieder mit gutem Sound - Jupiter X/Xm zB - also Röchelkram und Brotbutter mit Xmod und Ringmod und so und dieser Engine, wenn auch abgespeckt - das ist besser, mit dem Fantom G konnte ich wegen VA-Sound irgendwie nicht mehr so richtig. ha, ja hatte dein Micron-Post gesehen, dieses Ding ist ja so dermaßen 90er VA Sound . besonders dankbar bin ich für sch. VA Sound ;-) Thihi..

Mit dem micron müsste ich mich mal näher beschäftigen, vielleicht mal knapp €40 für 'nen Editor ausgeben. Der klingt eigentlich ziemlich digital, also schon was anders als die End90er Teile, keine Virus Pads oder so - egal wie sie es nennen - analog ist was anderes. War damals ein Schnäpchen, multitimbral und von der Architektur her erstaunlich mächtig, verschiedene FM Verschaltungen, Soft und Hardsync etc., also schon irgendwo spannend für mich ;-)
Der Fantom XR ist bei mir Brot und Butter Synth Sound Ersatz, multitimbral, viiiieeeele multisegment Hüllkurven, postfilterRingmod und Waveshaping. Der Editor könnte besser sein, läuft aber noch unter Windows 10.
Die ganzen Emulationen des Jupiters X/Xm (bin mir jetzt nicht sicher ob der Fantom 2019 die auch kann) machen mich nicht an ;-) Wäre sicher spannend sich die Orginale mal intensiver anzuschauen (nach dem Motto - ah so klingen die also), aber auf Dauer wären selbst die nicht so meins.

Wo geht es hin und was wird für Jörg rausspringen? Also - vielleicht landen wir alle beim SY99. Da ist bei mir nur die Monstertastatur, der Platz dazwischen und dennoch hat die Zukunft jetzt nicht stattgefunden, es wird konserviert und die Synth-Industrie kenwoodisiert sich.

Naja, zum Musik machen und Soundbastelspass reicht die Synth HW die ich hier stehen hab', für viele viele Jahre (bis zum Rest meines Lebens mag ich im Moment nicht so gerne schreiben ;-))
Zukunft findet im Kopf statt, das Ding von Kurzweil scheint spannend zu sein, letztes Jahr kam er zu spät - hatte das Budget schon ausgegeben, vielleicht nächstes Jahr, auch aktuell brauchte ist das Geld um Ersatz für meine alte DAW zu schaffen und eigentlich ist der PC4 zu groß - so viel zur "Monstertastatur" ;-)

So, nach diesem Ausfluch™ -
was kommt nach System 8 und NL A1? Das will ich schon wissen. Multisynthese und so - wo ist eigentlich diese Phuture, die Roland früher ja immer designed hat. Eigentlich (so sehr ich das S8 mag) so ist das was da drin ist ja nicht "mutig" nur gut im Sound. Mutig ist.. joar,..
Was ist mutig und ein Instrument für die Zukunft?
Multisynthese hab' ich schon hier, mit G2 und Ikaron 2 ;-)
 
Abkürzen muss man nicht, deshalb hab ich ja den neuen Thread, ..
den Micron hatte ich mal zum Test, war ambivalent, ich fand einiges gut aber die Engine hat nunmal diesen SchwurbulatorSound. Der konnte schon was, aber heute ging das einfach nicht mehr so richtig. Die Bedienung ging eigentlich. Kleine Vince-Maschine. Sowas.

Für den Jupiter Xm gibt es noch keinen richtigen Editor- also für die XV Engine, das ist die wo man es wirklich brauchen könnte.
Roland hat da ja eigentlich mehr eine Art JD800 geschaffen, man kann ihn auch ganz gut voreinstellen aber man muss für Details und Settings hier und da schon noch sehr viel navigieren, aber da kommt dann auch was raus, was gut klingt und das mit Röchelmaterial. Die Analog-Modelle sind auch da, aber sowas hab ich ja schon.

Roland sieht wohl darin einen Fortschritt, ich finde klanglich ist es das auch.
Aber es ist eigentlich dasselbe wie 1988, oder wann kam der JD800 nochmal? D50 ist eigentlich auch schon so. Bisschen reduzierter.

Das neue Fantom kann XV, aber den Rest nicht, die Engine klingt aber einfach besser, inkl Filter und Basissound, deshalb kann man die XV Engine nicht ganz gleichsetzen mit den alten Sachen. Naja, eigentlich ist gegen Samples nichts zu sagen, man kann jetzt Soundpacks reinladen, also Samples, wo jetzt echt nicht mehr viel fehlt, eigene Samples ..
Das klingt voll nach 80er, ist es auch irgendwie.

Roland ist Evolution auf ganz kleinen Schritten heute. Aber man kann sagen es ist absolut nicht mutig, Pflege ist ja so halbgut.
Aber - es klingt, da kannst du einstellen was du willst, auf nem Fantom G oder sowas klang das alles nach Britzelkram, irgendwie immer VA.. Jetzt nicht mehr so in dem Maße. Der 90er Schlamm ist raus. Filterschlamm ist böse.

Rest des Lebens - na, sicher nicht, aber vielleicht gibt es halt mehr und besser. Ich kaufe oft erst, wenn das was da kommt nicht nur besser ist und kleiner und so, es wäre gut, wenn es dem was hinzufügt. Das meiste gab es ja vor 20 Jahren auch schon, aber - es ist halt irgendwie ein bisschen was andere auch haben.


Die meisten machen damit auch Musik von gestern oder vorgestern. Das ist natürlich auch ein Grund.
Synthesizer scheinen anderes Image zu haben.
Die Visionäre - gibts die noch?

PC4 - das ist ja sehr klassisch, Brot und Butter. Naja, er kann mehr, weiss ich natürlich.
Kurzweil ist ja eigentlich der Name des Transhumanismus, Zukunft schlechthin. Daher - wo bleiben die Leute die wissen wollen was und wo Schrödingers Katze ist, und hoffen, dass sie lebt.

Multisynthese ist auch gestern - was könnte eigentlich morgen sein? DAsselbe aufm Raspi? Aber was ich gut finde - die Dinger sind trotz billiger HW nicht mehr so sparfuchsig, aber - stell dir vor das alles läuft mit sehr hoher Samplerate/Auflösung, man kriegt da schon viel mehr mit, wenn man im iPad oder auf dem Rechner mal zum Spaß auf 96kHz und 24Bit arbeitet, also als Engine-Output.

Ich glaube, dass die letzten Jahre seit Z1 und so vorallem in Nichtlineares, Analog und Sättigung gesteckt wurde, der Sound wurde ja wirklich besser, aber anders oder so nicht so sehr.
 
ich fand einiges gut aber die Engine hat nunmal diesen SchwurbulatorSound.
Die Wellenformen klingen ein wenig nach FM oder Waveshaping, Micron ist gut für Bässe und Percussive/Synth-Drum Sounds, also doch was anderes als bei den alten Virus Modellen. Als er verramscht wurde lag' er afair im Preissegment noch unter dem mKorg.

Die Bedienung ging eigentlich.
Ich habs versucht, aber Parameter mit erst mit den Tasten der Keyboards auswählen, fand ich sehr unübersichtlich, speziell bei 'ner entsprechend mächtigen Engine. Ist aber auch schon wieder 'ne Weile her. Mit Editor wirds besser ;-)

Roland sieht wohl darin einen Fortschritt, ich finde klanglich ist es das auch.
Der lange Weile Faktor ist bei mir groß, wenn die Engine zu einfach gestrickt ist und für die Hand voll analoge Sounds die ich gelegentlich brauche, reicht vorhandenes vollkommen aus. Klangveränderung ist für das was ich machen will meist wichtiger als die letzten Prozent authentische Emulation.

PC4 - das ist ja sehr klassisch, Brot und Butter.
Eher wegen der VAST/aktuell mit FM Kombination - das fehlt mir noch, Rompler mit der Option-Samples zu laden hab' ich mittlerweile mehr als ich brauche. Mal sehen wie der Editor ist, scheint direkt am Gerät sonst eher mühsam zu sein, bin faul geworden ;-)

aber - stell dir vor das alles läuft mit sehr hoher Samplerate/Auflösung man kriegt da schon viel mehr mit, wenn man im iPad oder auf dem Rechner mal zum Spaß auf 96kHz und 24Bit arbeitet, also als Engine-Output.

Machen viele Softies intern doch eh schon, alles andere hört man in unserem Alter eher nicht mehr ;-)

Ich glaube, dass die letzten Jahre seit Z1 und so vorallem in Nichtlineares, Analog und Sättigung gesteckt wurde, der Sound wurde ja wirklich besser, aber anders oder so nicht so sehr.
Kommt auf den Preis bzw. CPU oder DSP Leistung der HW an, die Filtersättigung der Ultranova lässt sich recht schnell in's Aliasing treiben, zumindest wenn ich sie als Waveshaper für nach FM klingende Sounds missbrauchen will.
 
Ich finde ja immer noch, dass es bei neuen Synth-Konzepten zu einem wichtigen Teil um die Frage geht, wie genau ein Klang gesteuert wird. Mit guten Steuerungsmöglichkeiten kan. auch aus einer einfachen Sinuswelle etwas sehr musikalisches und berührendes entstehen. Da ist mit MPE schon vom Ansatz her einiges auf einem guten Weg. (Ich als Bläser würde mir da allerdings auch wieder mal ein ernst zunehmendes neues Blascontroller-Dings wünschen...)

Auf der Klangerzeugungs-Seite meine ich, dass kaum eine bahnbrechende “neue” Syntheseform denkbar ist, die wirklich neue Klänge ermöglichen wird.

Auch da geht es mE eher darum, wie genau man als Musiker in die Klänge “greifen” und sie beim Spielen steuern kann. Da ist bei Physical Modeling noch nicht das letzte Wort gesprochen. Der VP1 hatte da einen guten Ansatz, klang aber aufgrund der begrenzten Rechenleistung am Ende mir nicht flexibel genug.

Rechenleistung stünde jetzt bezahlbar zur Verfügung, um eine Vielzahl auch abgedrehter Resonanzkörper und Treiber / Exiter zu programmieren, die dann mit einem eingebauten MPE Controller im Echtzeitzugriff gespielt werden können.

Es geht mir dabei nicht um real existierende Instrumente, sondern um einen Klangbaukasten für Neues.

Ein wenig wie der (allerdings nur Sampling-) Ansatz in Omnisphere, wo reale Instrumente umgebaut oder auf unübliche Weise “traktiert” wurden. Nur eben “andersrum”, dass heißt,Modell-Klangbaukasten zum Bau derartiger abgedrehter Instrumente, die es in der Realität nicht geben (kann).

Ein solcher physical-modeling -Ansatz hat halt immer den Vorteil, dass die Instrumente beim Spiel physikalischen Gesetzmäßigkeiten folgen.
 
Sprach- und Gestensteuerung, ein bisschen Reaktor und eine Riesendatenbank an Sounds.

Die Ansätze von V-Synth, Solaris, Quantum etc.
Alles dagewesene und Neues und alles kreuz und quer kombinier und modulierbar.

Iphone like:
„Hey Synthi, Morphe mir einen Sound aus Liquid Stack, Bells und Athmosphere“
 
Zuletzt bearbeitet:
@micromoog, in der Richtung habe ich auch schon geträumt. Die eierlegende Wollmilchsau mit SamplingPhasedisortionAdditivModellingSubtraktionsWaveshaping. Also alles in einem.
Was aber würde solch ein Monster bringen? Im Softwarebereich gibt es ja schon solche Ansätze, aber ich verliere in 8 hoch n Potis einfach die Orientierung.

Ich habe das Gefühl, dass wir bisher wesentlich über die Synthese sprechen, aber da bleiben wir immer im selben Bereich. Mich würde interessieren, ob es Ansätze über den Standardsignalweg Tonerzeugung - Filter - Modulation hinaus gibt. Es ist schwer zu denken, weil ja immer der Ton die Basis ist, und der wird danach irgendwie durchgemangelt. Vielleicht ist das auch logisch zwingend so: wo nichts ist, kann auch nichts moduliert/gefiltert werden. Wenn dem so ist, können wir tatsächlich nur über die Syntheseformen sprechen.
 
Ich möchte mit beiden Händen durch einen Wavetablesatz fahren können
bzw. den Klang damit formen (backe backe Kuchen).
 
@micromoog, in der Richtung habe ich auch schon geträumt. Die eierlegende Wollmilchsau mit SamplingPhasedisortionAdditivModellingSubtraktionsWaveshaping. Also alles in einem.
Was aber würde solch ein Monster bringen? Im Softwarebereich gibt es ja schon solche Ansätze, aber ich verliere in 8 hoch n Potis einfach die Orientierung.

Ich habe das Gefühl, dass wir bisher wesentlich über die Synthese sprechen, aber da bleiben wir immer im selben Bereich. Mich würde interessieren, ob es Ansätze über den Standardsignalweg Tonerzeugung - Filter - Modulation hinaus gibt. Es ist schwer zu denken, weil ja immer der Ton die Basis ist, und der wird danach irgendwie durchgemangelt. Vielleicht ist das auch logisch zwingend so: wo nichts ist, kann auch nichts moduliert/gefiltert werden. Wenn dem so ist, können wir tatsächlich nur über die Syntheseformen sprechen.

Das wäre in der Realität sehr bzw. zu komplex und am Ende der Schlange steht dann ein entnervter User der nur durch 10000 Presets steppt oder diese maximal gerade noch neu kombiniert.

Man sieht ja am Erfolg einfachst gestrickter Synths, dass das Komplexe gar nicht so gewünscht ist.
 
ist wohl die Frage aller Fragen: ein einfacher Synth (intuitiv bedienbar und mit hohem Sound-Wiedererkennungswert), oder eine Megamaschine mit vielen vielen Potis?
Komplex und intuitiv bedienbar? Schön wärs :).
Ich träume ja auch gern - habe aber immer auch im Hinterkopf, das Leute wie Ray Charles oder Jerry Lee Lewis nur EIN Instrument brauchten, um den Saal durch die Dachlatten zu treiben.

Aber mal ganz offen: wenn ich mir wirklich coole und flexible Softsynths ansehe, erschlagen mich die Möglichkeiten manchmal. Bei soften HW-Emulatoren frage ich mich manchmal, wer wirklich durch die Algorithmen eines DX, die Verkabelung eines System 55, die Timbres eines Synclaviers oder eines Fairlight durchsteigt.
 
...Komplex und intuitiv bedienbar? Schön wärs :).
Mit Makros arbeiten. Also z. B. "Handmodulation auf Filter"-Modell*. Ich spreize die Finger ab und habe
einen Kammfiltereffekt, bewege die Finger dabei (dreidimensional!) und Morphe sozusagen durch die (vorher durch
Algorithmus/Morph festgelegten) Modelle. Finger nahe beieinander: "normaler" Filtereffekt usw.

Haken bei der Sache: vor lauter Handgefuchtel wird nicht mehr tonal gespielt, falls erwünscht.
Mangels frei zur Verfügung stehender Hände.
Also wieder ein Thema für klangfarbenbezogene Musik.
Aber...hm, warum nicht?


* oder auch "Handmodulation auf Obertonspektrum"; dürfte sehr organisch klingen - oder auch nicht.
 
Zuletzt bearbeitet:
Wenn es Hardware wäre, müsste die irgendwas können, was die Softwareversion nicht auch oder sowieso besser kann.
Praktisch kein aktueller Synth hat total Recall, wenn man einen Patch läd stimmen die ganzen Fader und Potis nicht, also sind die raus.
Dann sollte das ganze per VSTi direkt in die DAW eingebunden sein, damit dann alles im Projekt direkt mit abgespeichert wird.
Ja, und dann kann ich eigentlich auch wieder gleich einen Softsynth nehmen, irgendwie gibt es da für mich einfach keinen Grund für, wieso ich ein Gerät rumstehen haben soll wenn die Software das genauso oder besser kann.

Im Endeffekt wird ganz viel geiles KI Zeug kommen was Sounds resynthetisiert, verbiegt, die Bedienung vereinfacht usw, KI wird die Zukunft sein. Klar, analoge Geräte wird es erstmal weiterhin geben aber die sind ja meistens eher rückwärtsgewand.
 
Mich hat dieses Video im Logic Thread sehr fasziniert, in dem der gute Mensch die Möglichkeiten des neuen Samplers zeigt, indem er "Synth-Sounds" mit seinem Mund einspielt. Für mich zeigt das wider einmal: die Werkzeuge sind schon wichtig, aber entscheidender ist einfach die eigene Musikalität und das musikalische Handwerkszeug, das man selbst als Musiker mitbringt. Die Musik von morgen wird nicht entscheidend davon abhängen, welche neuen Synthesizer es gibt, sondern welche neuen Ideen wir haben.
 
The unknown future rolls toward us.
(Sarah Conner, Terminator 2)
 
Ich finde auch dass man für moderne DigiSynths mal weg von den alten Analogsynth Arbeitsweisen kommen sollte.

Wavetables sind schon eine gute Richtung, aber das Bearbeiten oder Verformen könnte noch besser oder nutzerfreundlicher in Hardware Synths integriert sein.

Außerdem stören mich seit dem Arbeiten mit dem Marienberg ADSR die Hüllkurven anderer Synths enorm. Die sind sooo langweilig und oftmals auch noch schlecht auf VCAs und Filter abgestimmt.

Ich finde hier bräuchte man auch einen Hüllkurven Wavetable Ansatz. Oder man trennt sich von Attack, Decay, Release & Co. und überlegt sich andere Parameter zum Formen von Hüllkurven.

Ich fände auch spannend einen komplett „zeichenbaren“ Synth zu haben. D.h. großer Touchscreen und dann malt man Oszillatorwellenformen oder Spektralformen für VCO Wavetables. Danach malt man die Filtercharakteristik(en) und dann die Hüllkurve(n). Dasselbe mit LFOs. Es gibt dann Hilfsmittel zum Malen wie zB bei WaveEdit und Presetformen zum Weiterverarbeiten. Ist man fertig weist man Modulationspunkte (Cutoff, Wavetable Morphing, etc) bestimmten Potis zu und kann dann einfach performen, ohne den Touchscreen berühren zu müssen.
 
Anderes Thema:
Digitalsynths würden sich auch prima eignen um Naturklänge zu erzeugen, bzw sich davon inspirieren zu lassen, anstelle von akkustischen Instrumenten (Bass Synth, E-Piano, String Machine).

Wie wäre es mal einen Tierlaut Synth zu bauen? Wir wissen alle wie vielfältig Tierlaute sein können. Wale, Delfine, Vögel, Insekten ... man könnte dann im Synth einen Wal Osszillator mit der Hüllkurve eines Amselrufs kombinieren und den Lautstärkeverlauf einer muhenden Kuh als LFO nehmen.

Ich meins ernst! Das wäre ein ganz neues Klangspektrum und mit Sicherheit auch musikalisch sehr gut nutzbar. Die Natur klingt ja oft eh am schönsten.
 
Wenn, dann schon den Menstruationszyklus der Kuh als LFO :cheer:
 
Da hier ja scheinbar auch ein paar Fahrradnerds sind, wie wäre es mit einem bike-drone-synth? aus dem höhenprofil werden pitchdaten generiert, die geschwindigkeit ist der frei zuweisbare lfo, neigung links/rechts verteilt die drone im stereofeld usw. das ließe sich auch als app realisieren. so macht fahrradfahren doch doppelt spaß!
 
Das mit der KI wird sicher kommen. Da kann man dann per Regler einstellen wie sehr deine MIDI Sequenz nach dem Audiofile klingen soll, welches du gerade eingeladen hast usw. Komplexe Harmonien werden zum Kinderspiel, wo man nur noch aussucht in welche Richtung es gehen soll und wie lange der Track gehen soll. Zusätzlich stellt man ein, wie abwechslungsreich oder eben monoton die Kadenzen und Melodien sein sollen.

Vielleicht sorgt auch die KI für bessere Emulationen. Wir füttern die KI mit Moog Sound, je lebendiger desto besser und die KI entwirft ein Model welches dann genau so klingen kann.

Ich denke, die KI wird so einiges auf den Kopf stellen und 99% der Musiker ziemlich blass aussehen lassen. Nur die wirklichen Top Leute werden es schaffen sich von der KI-Musik/Sound wirklich abzuheben. Wer nur relativ einfache Musik macht, in der jetzt keine musikalischen Wunder passieren, dem wird die KI sicher locker den Rang ablaufen.

Wenn man der KI nicht mehr das Wasser reichen kann, bleibt uns aber der Spaß am Musik machen selbst auch wenn das Ergebnis dann nicht mehr mithalten kann.

Bei Sounddesign wird man eine KI-Synthese haben. Was bedeutet, dass man gar nicht mehr sagen kann welche Syntheseform hier überhaupt verwendet wird, die kann sich von Parametersprung zu Parametersprung ändern.
 
Zuletzt bearbeitet von einem Moderator:
Wie immer in Threads dieser Art wird Synthese als Konzept, Synthesizer als Gerät/Instrument und das Musikmachen insgesamt durcheinandergeworfen.

Wenn eine interessante Synthese kommt, dann wird die sicher was im Bereich Modelladaption sein. Beispiel: "nimm den Basissound eines angeschlagenen Stahlrohres, aber mit dem Lautstärke und Obertonverlauf einer soft angeblasenen Trompete". Man hat mehrere Vorbilder, nimmt Teilaspekte der Vorbilder und setzt diese Teilaspekte zu einem neuen ganz zusammen.
Die Technologien dafür gibts seit Melodyne und Spektralediting schon. Was es noch braucht, ist die Benutzeroberfläche. Wie die Aussehen kann? Keine Ahnung!
 
Wie immer in Threads dieser Art wird Synthese als Konzept, Synthesizer als Gerät/Instrument und das Musikmachen insgesamt durcheinandergeworfen.

Es ist erstaunlich, aber unter den Synth-Spielern gibt es tatsächlich welche, die das Ding zum Musikmachen nutzen wollen. passiert immer wieder. Und die haben dann auch die entsprechende Brille aus. :)

OK, der Tanzmucker (früher; heute "Toppfohti") hat da andere Bedürfnisse als Stockhausen. Für mich (ultimativ persönlich) gehört auch das interaktive Musikmachen dazu. Mit die Fingers. Sonst wäre ich mit SuperCollider flexibler, das ist am anderen Ende.

Hm, mir ist damals die Kinnlade heruntergefallen, als ich von den ersten Physical Modeling Synths in der Keyboards gelesen habe. Und dachte mir: Das ist die Zukunft! Und was ist davon geblieben? Ein paar Dinge schon, aber "aufregend neu" eher nicht.

Was wünsche ich mir?
Eine "normale" gut funktionierende gut klingende Syntehese, mit nicht zu vielen Parametern, alle im Sofortzugriff.
Ein gut spielbare Tastatur.
Dazu ein paar simple Regler für:
Wärme
Britzel
Punch
Potentiellergeschlechtsverkehrspartnerbeeindruckungsfaktor
Inspirationsinduktion
Breite
Mojo
Schimmer
...
Kann doch nicht so schwer sein!?
:)

Grüße
Omega Minus
 
Was muss eigentlich in der Zukunft mit Digital-Synths passieren, damit wir auch Zukunftsmusik machen?

Ordentliche Synthesizer brauchen zeitgemäße Interfaces. Die Klaviatur an sich als das grundlegendste Mensch-Geräte-Interface ist ja geschenkt. Hier hat Roli mittlerweile bedeutende Impulse geliefert. Jetzt muss das nur noch bezahlbar werden und so zu weiter Akzeptanz finden. Dann ändert sich vielleicht auch die Art und Weise, wie man Musik macht.

Midi und CV als Geräteinterfaces sind auch sehr altbacken. Interessant wird es da, wenn die Hersteller sich halt einfach mal am Stand der Technik orientieren würden. Bluetooth ist Standard. Warum sollte man nicht mehrere Synthesizer per direkter Funkverbindung kurzschließen? Das Potential dürfte enorm sein, quasi Modularsysteme ganz ohne Kabel. Stattdessen schlägt man sich immer noch mit Tablet-/Handy-Apps herum, denen das vernünftige Mensch-Geräte-Interface fehlt. So ein Touchpad is ja toll, aber mehr, als ein x/y-Kaos-Pad ist da meist auch nicht wirklich drin. Und haptisch ist das mehr als 5 Minuten am Stück auch nicht so der Bringer. Man klopfe halt mal ein Konzert lang mit allen zehn Fingern auf ne Glasscheibe. Nicht cool.

Da ginge heute sicher schon vieles, wenn man einfach vorhandene Technologien ein wenig clever miteinander kombiniert.
 


Zurück
Oben