Was ist mutig und ein Instrument für die Zukunft? (Digitale Synths)

Naja, überzeugen dich denn die Ergebnisse anderer auch nicht? Aber das ist eine Frage von Geduld und nur ein bisschen Wissen, denn vieles kann man intuitiv auch rausfinden.
Das alles ist ja weit weg von "Programmieren", weshalb ich den Begriff auch strikt ablehne - Programmieren ist das definitiv nicht wenn man irgendwo ein paar Zahlen einstellt.
Aber zu 90% scheiße ist dann ok - vielleicht gefällt dir aber auch nur der alte 12Bit-DX7 nicht, der hatte nämlich auch echt Nachteile - die späteren könnten da schon mehr überzeugen.

Es wird keiner dazu gezwungen und der Thread möchte ja auch nicht solche Sachen beleuchten sondern eher prüfen, was denn so alles noch da ist und wo ihr die Zukunft seht, so das denn möglich ist. Das wäre wichtiger - weil irgendwas nicht so gut finden gibt es sicher für alle irgendwo.
 
Lassen wir das mal lieber, ist zu persönlich auf meiner Seite. Sagte ja schon, dass es auch Ausnahmen gibt, in denen ich FM-Sounds dann doch mochte. Hilft nichts für die weitere Folge des Threads.
 
Ich hab auch überhaupt keine Lust sowas wie dir ein schlechtes Gewissen mit sowas zu machen, das ist einfach nicht das Ziel.
Also - gern uuuuuund weiter..
 
Wavesequenzen an sich finde ich gut, aber nicht in Form von einer kompletter Begleitband a la „Entertainer auf Kirmes Techno“ mit einem Tastendruck.
 
Zuletzt bearbeitet:
Wer würde sowas denn benutzen? Wie musikalisch ist Hundegebell?
Oder noch schlimmer: Tauben, Fliegen. Ich bin skeptisch.
Nein, es geht ja weiterhin um Synthese und nicht um Abspielen von Tier Samples. Ich will keinen Zoo in meiner DAW. Wenn du dir, ähnlich wie bei Granularsynthese, einen Teil des Wal Sounds als Oszillatorwellenform loopst, dann z.B. eine Hüllkurve eines Amsel Gesangs nimmst (nicht deren Sound, sondern deren Lautstärkeverlauf), dann bist du ggf. ganz weit weg von nem ollen VA Synth Sägezahn durch nen langweiligen ADSR. Darum ging es mir. Die Natur als Inspiration für Elektrosounds und nicht akustische Instrumente. Eine 303 sollte ja zB ein Bass Synth sein, klingt aber nicht so - aber auch cool! „Mein“ Synth inspiriert sich bei Tierlauten, klingt aber nicht so - aber auch cool ?
 
  • Daumen hoch
M.i.a.u.: CBS
Anderes Thema:
Digitalsynths würden sich auch prima eignen um Naturklänge zu erzeugen, bzw sich davon inspirieren zu lassen, anstelle von akkustischen Instrumenten (Bass Synth, E-Piano, String Machine).

Wie wäre es mal einen Tierlaut Synth zu bauen? Wir wissen alle wie vielfältig Tierlaute sein können. Wale, Delfine, Vögel, Insekten ... man könnte dann im Synth einen Wal Osszillator mit der Hüllkurve eines Amselrufs kombinieren und den Lautstärkeverlauf einer muhenden Kuh als LFO nehmen.

Ich meins ernst! Das wäre ein ganz neues Klangspektrum und mit Sicherheit auch musikalisch sehr gut nutzbar. Die Natur klingt ja oft eh am schönsten.

Musikalisch nutzbar? In welchem Kontext?
 
Für mich wäre der nächste grosse Schritt eine neue Benutzerschnittstelle - es gab schon sehr viele Ansätze, Theremin, Laser Harp, Seaboard, und und und, aber nichts hat uns wirklich eine neue "Freiheit" gebracht, eher Einschränkungen. Reduziert gesagt, haben wir heute Tasten für Tonhöhen und Knöpfe und Slider für Klangcharakter. Ich stelle mir vor, diese Grenzen durch eine neue Interaktionsmöglichkeit aufzulösen, die mir ermöglicht, die musikalische Vorstellung in meinem Kopf direkter auszudrücken. Und sagt mir jetzt bitte nicht, gibt's schon -> free jazz ;-)
 
Zukunftsmusik stelle ich mir so vor, dass ich ins Mikrofon summe oder Beatboxe und das Gerät es in Einzelteile zersetzt, es in Audio und MIDI 5.0 umwandelt und ich alles nach bleiben bearbeiten kann. Aus dem Summen wird ein Pad oder die Melodie, aus dem Beatbox (egal wie schlecht) die Drumspur, alles Quantisiert und in der Tonart die man möchte/ansagt.
Dann wäre ich auch ein Musiker.
 
Ich galub auch sound Synthese ist ausgelutscht es gibt von der Physik gesehen nur so und so viel möglichkeiten Sound zu erzeugen, da wird es nicht wirklich was neues geben.
Das meiste Potential steckt im Interface das ist komplett noch nicht erforscht würde ich sagen.
Klar Gittare, klaviertastatur wird es immer geben.... es gibt auf dem ipad apps die schon mal zeigen was möglich ist wenn man das mit AR kombiniert

Ausserdem wäre cool wenn das Thema optomale mixing Umgebung über kopfhörer so ist, dass sich das jeder leisten kann und standard wird


https://youtu.be/DuO31Ro2ypg?t=27
 
Für mich wäre der nächste grosse Schritt eine neue Benutzerschnittstelle - es gab schon sehr viele Ansätze, Theremin, Laser Harp, Seaboard, und und und, aber nichts hat uns wirklich eine neue "Freiheit" gebracht, eher Einschränkungen. Reduziert gesagt, haben wir heute Tasten für Tonhöhen und Knöpfe und Slider für Klangcharakter. Ich stelle mir vor, diese Grenzen durch eine neue Interaktionsmöglichkeit aufzulösen, die mir ermöglicht, die musikalische Vorstellung in meinem Kopf direkter auszudrücken. Und sagt mir jetzt bitte nicht, gibt's schon -> free jazz ;-)

Mit Velocity und Aftertouch sind schon seit den ersten Midi Kindertagen klangbeeinflussende Möglichkeiten vorhanden (via Keyboard Tastaturen). ME haben die Hersteller in 35 Jahren das nur selten gewinnbringend in ihren Presets verewigt.

Zugegeben, in Summe der Anzahl nicht gerade üppig.
 
Meistens klingt das ganze FM-Zeug nur steril und unbeweglich und zu reich an fiesen, nicht harmonischen Obertönen.
Man hat (meist) den Sinus als Ausgangspunkt, wie viele und ob man nicht-harmonischen Obertöne man dem Sinus zufügt bestimmt man selbst. Ich würde dir was mathematisch halbwegs perfektes als FM-Synth empfehlen, die erzeugen den cleanen Sound den du (erfahrungsgemäß) bevorzugst, sind aber nicht ganz so gut für vintage DX, perkussives und typische FM Bässe zu gebrauchen.
Bewegung erreicht man z.B. durch verstimmen von Modulatoren gegen Träger, geloopte Envelopes, LFOs und fixed Frequency Träger bei niedriger Frequenz.
 
Das frag ich mich auch - als Konzeptalbum-Quelle find ich das witzig.
SPK hat das mal mit Grillen gemacht.
Zukunftsmusik stelle ich mir so vor, dass ich ins Mikrofon summe oder Beatboxe und das Gerät es in Einzelteile zersetzt, es in Audio und MIDI 5.0 umwandelt und ich alles nach bleiben bearbeiten kann. Aus dem Summen wird ein Pad oder die Melodie, aus dem Beatbox (egal wie schlecht) die Drumspur, alles Quantisiert und in der Tonart die man möchte/ansagt.
Dann wäre ich auch ein Musiker.
So wie Beardyman?


https://www.youtube.com/watch?v=lZBCBU6X-jQ


Der hatte früher KPs und Loopstation, jetzt macht der das mit FX und iPads, aber am Ende Mundsound und ein bisschen Synth dazu.

https://www.youtube.com/watch?v=qciVXUHTN10


Ausserdem wäre cool wenn das Thema optomale mixing Umgebung über kopfhörer so ist, dass sich das jeder leisten kann und standard wird
Das ist ja eigentlich "nur" eine andere Umgebung, in der Musik wäre das doch eigentlich nur dann sinnvoll, wenn man sich in dieser Welt etwas bauen könnte, was es so nicht gibt, also baut sich seine Geipete mit digitalem Audiodingens und Sauce und scharf und kann das dann spielen, hoffentlich aber nicht durch's Glas - weil das Editorprojekt von Behringer zum DeepMind wirkte nicht so als ob das die bessere Eingabe ist, sonder .. umständlich, was übrigens nichts mit Behringer zu tun hat, sie haben es nur eben schon gemacht.

Zum Testen sicher gut, zum entwickeln oder so auch - Skulpturen. Bühnenaufbau basteln. Aber - wie könnte man das gut und sinnvoll für das aktive Musik-machen nutzen? Und wie ginge das ohne Synthese in dem Sinne, denn das muss ja jemand coden? Ich frage, weil das natürlich auch konkret genug sein muss, was und wie da der Zugang ist.
 
Zuletzt bearbeitet:
Man hat (meist) den Sinus als Ausgangspunkt, wie viele und ob man nicht-harmonischen Obertöne man dem Sinus zufügt bestimmt man selbst. Ich würde dir was mathematisch halbwegs perfektes als FM-Synth empfehlen, die erzeugen den cleanen Sound den du (erfahrungsgemäß) bevorzugst, sind aber nicht ganz so gut für vintage DX, perkussives und typische FM Bässe zu gebrauchen.
Bewegung erreicht man z.B. durch verstimmen von Modulatoren gegen Träger, geloopte Envelopes, LFOs und fixed Frequency Träger bei niedriger Frequenz.
Ich werde da bei Gelegenheit darauf zurückkommen. Im Moment bin ich hier voll ausgelastet mit meinen vorhandenen Synthesizern. Vor allem am Microwave 2, den wahrscheinlich alle anderen hier seit mehr als 20 Jahren in- und auswendig kennen, gibt es für mich noch sehr viel zu entdecken. Das Ding klingt aber so was von klasse für meine Ohren, dass ich mich wirklich frage, warum zum Teufel ich mir jetzt erst einen gekauft habe und nicht schon vor 20 Jahren. Ich wüsste auch keinen aktuellen Synth, der so klingen kann, dem Blofeld und selbst dem Quantum fehlen dafür einige Features, die der MW 2 hat.
 
Das Ding klingt aber so was von klasse für meine Ohren, dass ich mich wirklich frage, warum zum Teufel ich mir jetzt erst einen gekauft habe und nicht schon vor 20 Jahren.

Bei mir hat er Ende der 90er auch erst mal gegen FS1R und K5000 verloren ;-) Ist afair erst 2001 in Form des MWPCs bei mir gelandet, später als gebrauchter MW2.
 
Zuletzt bearbeitet:
Das ist ja eigentlich "nur" eine andere Umgebung, in der Musik wäre das doch eigentlich nur dann sinnvoll, wenn man sich in dieser Welt etwas bauen könnte, was es so nicht gibt, also baut sich seine Geipete mit digitalem Audiodingens und Sauce und scharf und kann das dann spielen, hoffentlich aber nicht durch's Glas - weil das Editorprojekt von Behringer zum DeepMind wirkte nicht so als ob das die bessere Eingabe ist, sonder .. umständlich, was übrigens nichts mit Behringer zu tun hat, sie haben es nur eben schon gemacht.

Zum Testen sicher gut, zum entwickeln oder so auch - Skulpturen. Bühnenaufbau basteln. Aber - wie könnte man das gut und sinnvoll für das aktive Musik-machen nutzen? Und wie ginge das ohne Synthese in dem Sinne, denn das muss ja jemand coden? Ich frage, weil das natürlich auch konkret genug sein muss, was und wie da der Zugang ist.


und sinnvoll für das aktive Musik-machen nutzen?

direkt vlt nicht aber Indirekt, weil du dann weisst dass deine Ideen auch genau so bei den Clubbesuchern ankommen.
Stell dir vor du lädst die die Akustik vom Club runter und kannst zu Hause in Ruhe deinen Mix genau auf den Club abstimmen.
Du wirst automatisch kreativer und experimentierfreudiger weil du ziemlich gut die Grenzen der ganzen Akustik abschätzen kannst.
Und live kannste dich voll auf die performance konzentrieren weil 95% vom Sound passt .

ps: real-time / low latency audio kommt bald im browser. mal sehen ob das klappt ohne drops....

Marketing....
Now developers can leverage AudioWorklet to write arbitrary audio processing code, enabling the creation of web apps that weren’t possible before. This exciting new functionality raises the bar for emerging web experiences like 3D games, VR, and music production.

 
Seit ein par Jahren kann man doch wirklich viel, oder (nahezu) alles, was man sich vorstellt in Software klanglich umsetzen. Aktuell wird versucht der Software wieder eine Verpackung in Hardware zu geben (Quantum...)
Eigentlich ist das Schade. Die Software wollte ich aufgeben um mich wieder mehr auf das Arrangement zu konzentrieren. Musik machen anstatt in Bibliotheken Suchorgien zu veranstalten und Plugins zu sammeln.
Jetzt habe ich bei der MPC auf einmal wieder Plugins - Wieder das Warten auf die Features des nächsten Updates. Beim Forte ist jetzt auf einmal FM da.
Klasse!
Aber das wollte ich doch gar nicht. Ich wollte weg vom Warten auf das nächste große Ding.
Nein , ich vermisse den Reaktor nicht. Ich will ihn auch nicht wieder haben. Aber vielleicht einen Nord Modular? (Beim Durchsuchen der Kleinanzeigen fällt mir auf, wie shizophren das ist.)
Den Nave habe ich mir im Shutdown besorgt. Toll! Aber letztlich ein für mich unnötiges Spielzeug :)
Für die Zukunft? Ich wünsche mir weniger Feature- und mehr Performance Updates. Weniger "wie klingt Synthxy" und mehr "wie reize ich Synthxy voll aus" Videos.
Die Klangpalette und das Mastering ist schon vollständig. Jetzt geht es darum etwas mehr wegzulassen. Eine "Siri morphe mal die Klänge..." Anwendung würde ich auf keinen Fall als Zukunftsvision sehen.

Auch wenn es nicht ganz meine gewohnte Musikumgebung ist. Eine der wichtigsten CDs ist Dummy / Portishead für mich.
 
So wie Beardyman?
Beardyman kenne ich.. Das ist im Grunde Beatbox + Looper/Sampler und EFX. Sehr cool, aber nicht das was ich meinte.

Ich meinte eher an etwas wie Melodyne oder VariAudio von Cubase, was die Noten erkennt und in MIDI umwandelt.. Diese könnte man dann mit versch. Sounds belegen, sei es durch live recording, Library, interne Synthese oder VSTs. Am besten alles und noch mehr.
Der MIDI/Audio-Recorder sollte z.B. beim Beatboxing die Kick und Snare automatisch als versch. Klänge erkennen und in Einzelspuren packen. Möglichst realtime. Man könnte ja in Prozent einstellen, wie sehr die Klänge sich ähneln sollen um sie gruppieren bzw. in die selbe Spur zu packen.

Wenn ich mal so überlege, ist das eigentlich auch mit der heutigen Technik machbar, nur dass sich niemand dafür interessiert oder noch nicht auf die Idee kam.. Oder es ist zu teuer, aber das ist relativ. Vielleicht wird es mit dem Kaoss Padilator möglich.. ?‍♂️
 
Zuletzt bearbeitet:
Achso, richtig processing, harmonizing und das was man eher Stimmen-modelling-processing nennen müsste, weil gibts ja noch nicht.
So etwa?

Ja, es gibt solche Ansätze. meist aber nur auf einen Aspekt hin optimiert, zB als MIDI-Erzeuger/Pitchtracker und dann mal als Stimmenharmonizer oder sowas.. Aber es gibt Tools, die das Audio nehmen und da was draufbasteln, zB Logic hat sowas und es gibt auch externe Tools. Ist aber nicht ganz das was du willst in Echtzeit. Daher durchaus gut, was aber geht ist dem Gesang folgen und nachspielen. Ist aber wirklich nur MIDI.
 
Ich glaub er meint eher Stimme statt Keyboard zum einsingen statt einspielen der Noten.
 
Meine Vorstellung eines Synth in der Zukunft:
Latenzfrei, kabellose Datenübertragung und Stromversorgung, multikompatibel und mit mit einheitlicher Schnittstelle herstellerunabhängig erweiterbar.

-Ich packe meinen neuen Yamaha Super Future aus und schalte ihn ein. Sekunden später meldet sich eine Stimme aus dem Off: "Yamaha Super Future wurde dem Studio hinzugefügt und ist auf Kanal X erreichbar."-

Der Synth selbst sollte im weitesten Sinne schon ein Instrument bleiben das ich "spiele".
 
Die Zukunft wird die Menschmaschine sein.

Also ein Hirn-Maschinen Interface.

Quasi so ein Stephen Hawking Ding nur ausgefuchster.

Die ersten Zwischenschritte werden hier gemacht. https://www.sequencer.de/synthesize...-muskel-und-ins-eurorack.152103/#post-2008402

Wenn man das weiter spinnt, dann wird man sich matrixmäßig irgendwann die Klinke in den Kopf rammen und irgendwann gehts auch kabellos.

Je früher wir den Kids ein Implantant einsetzen, umso besser wird die Bedienung.

Erst werden die Geräte durch Gedanken gesteuert werden, später werden Gedanken gleich die richtigen Schallwellen produzieren können.

Am Ende wird die Frage sein, ab wann die Maschine zum Organ wird, oder geworden ist!
 
Zuletzt bearbeitet:
Meinst du weil es direkter ist? Ray Kurzweil-Style oder doch anders?
Die Transhumanismus-Sache?
Irgendwie sind wir da aber noch nicht so richtig und nicht jeder möchte das.

Borg Kinder die die besseren Virtuosen werden?
 
Seit wann geht es darum, dass wir es wollen. Viele möchten auch keine Gentechnik im natürlichen Kreislauf, Experimente mit gefährlichen Viren, Atomreaktoren am Nordpol, Glyphosat im Essen, Abgeholzte Wälder für Braunkohl und und und...

Der Mensch macht was möglich ist, das Militär geht voran, die Medizin folgt, irgendwann wird es mainstream. Es ist nur ein Frage der Zeit bis das, was heute utopisch anmutet (es ist schon längst Realität, nur noch nicht breit verbreitet und im Gegensatz was geht, noch in den Kinderschuhen) normal wird.
Der Mainstream wird früher oder später die Technik überall implementieren, ich weiß nur nicht wer den Markt als erstes erschließt, das Mobiltelefon in der Cochlea, der Fernseher auf der Netzhaut (oder besser gleich im Temporal- und Okzipitalkortex) oder die DAW im Frontalhirn, ich bin gespannt.

Alles übrigens schon möglich!

Und so wie es Eltern gibt die ihre Kinder früh auf Model, Schauspieler oder zum Mandarin prügeln, wird es auch die "fortschrittlichen" Eltern geben, die den Wettbewerbsvorteil für das musikalische Talent sichern wollen. Ich muss nicht vom Fach sein um sagen zu können, es gibt früher oder später immer den Ersten, der sich für nix zu schade ist.

Ich von meiner Wate aus sehe Gefahren und Perspektiven. Was könnten die großen Meister komponieren oder komponiert haben mit quasi unbegrenzten Möglichkeiten. Wohin führt der "bessere" Mensch die Gesellschaft, Kultur, Politik? Aber das wird jetzt zu philosophisch.

Die Essenz ist, Sci-Fi is near!
 
Zuletzt bearbeitet:
Dann möchte ich auch mal meinen Senf dazu geben.

-mehr Modulationsmöglichkeiten des OSC (viel mehr)

-mehr Oszillatoren sowieso

-Morphen!! moduliertes morphen zwischen kompletten Presets und oder Effekten

-definitiv ALLES muss als Modulationsquelle hergenommen werden können und auch dazu dienen.

-Modulationsmatrixen die zweiQuellen mischen, subtrahieren, multiplizieren, oder teilen können. Und dieser MixRegler, Intensität, muss dann noch von einer weiteren Quelle moduliert werden können.

-Modularität im Audio Pfad. Quelle zu Ziel. Alles muss überall hin können, an jedem Punkt splitbar und oder mischbar sein.

-Bedienkomfort !!!!!!
Endlosregler mit OLED Ring drum (zeigt die Stellung und die Modulation farblich an.
Darunter kommt ein Display, was die Funktion des oberen Reglers anzeigt.
Jetzt kommt nochmal ein Endlosregler ohne schnick schnack unter das Display. Mit diesem wählt man die Funktion für den Regler über dem Display aus.

das ganze dann in 2 Zeilen übereinander und auf ca. 6-800mm in jeder Zeile 10 Stück davon. Also jeweils 10 Regler/Display/Regler Paare nebeneinander. Macht 20 Stück. Oder mehr

farblich abgesetzte Sektionen für OSC/Mix/VCA/VCF/EFX/USW

den Krempel kann man dann so einstellen, wie man es braucht um seine wichtigsten Regler für seine Session oder Jam zu kommen. Und zum sounddesign sind dann trotzdem alle Parameter ratz die fatz eingestellt bzw. gefunden.

-die Effektsektionen müssen unbedingt viele viele Parameter bekommen. Deepmind und paar andere zeigen wie es geht..

-mindestens 60 stimmen auf 8 Parts (Virus Style)

-sample Import mit pitchshift, timestrech etc. pp. Granular usw..

-2x 11“ Touch Display mit Modulatiossequencer links und notenseqeuencer rechts. Leicht angewinkelt (wie die neuen Elektrons) oben drüber, über die 20 knöppe. Weiter noch könnte man sich hier extrem viel bei der iPad App für Ableton klauen (touchAble!!). Da geht so einiges, was dem Bedienkomfort erheblich entgegen kommt..

Mehr fällt mir gerade nicht ein.. aber es muss ab den Oszillatioren definitiv alles schon in Stereo ablaufen. Von denen sollte es auch locker 6 Stück geben. Und mindestens 3 Filter ..

Edit: so hab weiter nachgedacht. Also diese farblich unterteilten Sektionen sollten auf jeden Fall alle ihre eigenen presets haben, damit man jede Sektion getrennt speichern kann. Dazu noch eine Funktion welche die Sektion Einfriert, damit die beim preset zappen, so wie sie ist, erhalten bleibt! Spannend für Sequencer und Effekte und die Einstellungen von Modulationen und vor allem den Oszillatoren.

es wäre auch ganz gut, wenn jeder Ausgang einer baugruppe (OSC/VCF/VCA/FX/USW) eine Funktion hätte um das routing, den Ausgang wohin das Signal soll, hat. Vielleicht will man ja 3 OSC erst in einen Effekt jagen, bevor der Filter kommt. Oder den VCA mal vor dem Filter haben. Oder oder..

Ach ja und es sollte wirklich mal das Rad neu erfunden werden. Was es hiermit natürlich nicht ist. Was wäre mit Neuronal oder Bionic ? Oder vielleicht eine Engine die auf einer KI aufbaut? Künstliche Synapsen vielleicht ? Gibt’s schon einen Matrix Oszillator ? Kann man vielleicht etwas mit einem Licht machen? Spectrum ? Bei Compressoren geht’s doch schon lange.. oder einen Laser basierenden OSC? Oder was Hologramm mäßiges?

vielleicht könnte man einen Diamanten mit rundem magnetkern zum schweben bringen, diesen über alle Achsen steuern (drehen lassen) und dann mit ein paar farbwechselnden Lasern befeuern und dieses modulierte Licht über einen wandler in Ton umsetzen ? Gut, kostet 50.000€ oder mehr.. aber hey, ist neu ;-)

subtraktiv könnte man auch mal einen Vakuumfilter bauen, oder ? Wo keine Luft, da kein Ton.. evtl. geht in die Richtung was.. man sollte evtl mal weg von Metall, hin zu abgefahrenen (evtl neuen) Materialien. Carbon? Kristall? Wasser? Mit nem Tropfen Wasser in einem Chip kann man bestimmt auch irgendwas anstellen.. oder was ist mit Gasen? Helium Oszillator ? (Nein! Ich hab keine Drogen genommen!!)
Ich mein, wenn man verrückt und digital mischt, digital kann ja im Prinzip jedes erzeugte etwas in Schwingung umsetzen. Auflösung 192khz oder mehr und ab geht’s..
so ein Mini-Neutronen-Beschleuniger mit 40cm Länge kann bestimmt auch als OSC dienen. Bestimmt super um den urknall mal zu hören. ..
am Ende landet man eh wieder bei einer Schwingung und nem Filter.. ist wie beim Rad, ist rund, rollt.. egal ob aus Holz, Stein, Metall oder Gummi..
 
Zuletzt bearbeitet von einem Moderator:
Naja, die Frage ist ja nach einem Instrument der Zukunft und wo der Ansatz sein kann - diese Brain-Interface-Sache ist ja bereits gestartet, das meiste davon läuft im Bereich Protesten/laufen/sprechen/sehen, also ersetzen was kaputt ist. Dazu gab es viele Ansätze bis hin zu geöffneten Schädeln mit Anzapfung der Nervenzellen. Das ist etwas, was man quasi tut um maximal kaputte Glieder und Sinne wieder herzustellen. Es ist denkbar, dass man damit ein "Instrument" spielbar/er macht - aaaber ob man es wirklich ansetzt wenn man "gesund" ist?

Das Problem ist - dass du das alles erstmal umsetzen musst und lernen muss man auch - das ist sozusagen weit vor dem Controller und natürlich auch ein Ansatz.
Ich hatte zwar an Synthese und Eingabe gedacht, aber bin auch nicht dagegen radikal zu denken. Die genetically Enhanced Gesellschaft wie Dr. Bashir in DS9 könnten da natürlich interessant sein, aber die müssen quasi damit geboren und generiert werden. Ich habe nichts gegen Erweiterungen. Leider funktioniert das aber dann wirklich nur bei neuen_Menschen™.

Das Instrument müsste aber schon für alle funktionieren. Das wären meine Gedanken - nicht mal bedenken, nur erstmal so für's erste.
Philosophie ist hier immer willkommen und dies ist natürlich was für Visionen im Bereich dessen was der Synthesizer, die Elektronik, Max/MSP oder das WDR Studio und die Anwendungen dort oder Sampler für die Vergangenheit bedeuteten - wir haben aber 2020 und da ist das alles Vintage - ist es Synthese? Ist es die Eingabe oder bleibt es eigentlich so und es muss neues gefunden wird - ich suche nach Lösungen für ab 2020, es darf auch 2050 sein, für 2302 fühle ich mich noch überfordert.

Das so zwischendurch - der Thread ist eine Dauerfrage - die geht auch in 2021ff noch…

Aber bei dem nächsten von devilfish - das ist ja konkret - da sehe ich bei OSCs jetzt den Wunsch nach dem was Prophey, Z1, Microfreak, Mutable Module etc. so haben - also was, was anders ist als FM, AM, Sync etc. aber viele Spektren überspringt. Sei es Wavetables, Samples, Granular - hauptsache verschieden und drastisch. Deshalb ist PM im Microfreak ja so interessant oder Braids oder sowas. - so richtig verstanden?

Morphing ist auf digitaler Ebene eigentlich "trivial" und machbar - in einigen Synths sogar Standard (Clavia und Co).

Anzeigen und so - das klingt mehr nach einem Controller - weil so ein Synth wandelt sich nicht in allem - aber für die OSC Sektion vermutlich - damit da das passende Wort steht - zB Exposure, Gravity, Sibillance oder Fluppticity
Modmatrix - klingt nach dem was im MW XT war - das kommt dem sehr nahe.

Audiopfad Mod - da sind ebenfalls schon einige Synths, die sowas haben -
Interessant ist und wäre immer der Abgleich mit dem jetzt machbaren und wo der Unterschied eigentlich liegt.
Ist es mehr sowas wie mehr LFOs oder etwas, was wirklich anders und ausdrucksstärker ist? Kann man damit jammen?

Digital ist besser.
 


Zurück
Oben