Wo bleibt der AI Hardware Synthesizer?

Deep6

|||||
Nachdem wir in den letzten Jahren den massiven Analog Hype erlebt haben und der Markt mittlerweile (gefühlt?) übervoll mit clones und "neuen" Analog Synths ist,
stellt sich mir die Frage :

Wo bleibt eigentlich die KI Soundengine in Hardware gegossen?

Selbst Smartphones glänzen mit immer neuen Ideen für integrierte KI.

Ich habe das unten verlinkte Video gesehen und war positiv überrascht, wie gut offenbar die KI mittlerweile Modelle von Instrumenten erstellen kann, die dann praktisch "spielbar" werden.

OK, natürlich braucht das (noch) ordentlich Rechenzeit, aber man könnte sich diese Modelle ja im Vorfeld berechnen lassen bzw. den Synth vom Hersteller aus mit vielen gespeicherten Modellen geliefert bekommen.

Ich denke da so in Richtung hartmann neuron... Natürlich jetzt in "ki-modern"..

Besonders die größeren Hersteller wie Yamaha oder Roland sollten doch in der Lage sein etwas
Neues auf die Beine zu stellen?
Gibt es da keine Menschen mehr die neue Konzepte aufgreifen wollen?
Wie lange glauben die Hersteller , können sie ihre alten Konzepte und Produktnamen noch recyceln?

Hier mal das Video, dass mich auf den Gedanken gebracht hat :

Beispiele ab 8:40

 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: oli
Ein Jupiter 8 kann gute farting sounds machen....
Now your Fart can sound like a Jupiter 8
 
Ich denke mal als Software ist das wesentlich interessanter und besser bedienbar als mit Hardware.
Ich finde die Ausgangsfrage auch sehr spannend. Aber da es in der Anfangszeit noch viel Erfahrung zu sammeln gibt und sich sehr viel sehr schnell ändern wird, glaube ich nicht, dass sich irgendein Hersteller so schnell trauen wird so ein Konzept in Hardware zu gießen.
 
Ich denke mal als Software ist das wesentlich interessanter und besser bedienbar als mit Hardware.



ich stelle mir einen Synth vor, der aussieht wie eine Mischung aus Korg VC-10 Vocoder und Yamaha Montage
mit einem Schwanenhals Micro und Aux Inputs....beknopft mit farb-morphenden Super Knobs und Spracherkennung
wo du Input Sources, Instrument Swaps, Fades , Pitches ect. , und alles einstellen und mischen kannst ,
 
Da wird sicher bereits dran gearbeitet werden, aber das geht nicht so schnell, bis etwas davon auf dem Markt kommt. Mit 2-3 Jahre Entwicklungszeit würde ich da schon noch rechnen.
 
Nachdem wir in den letzten Jahren den massiven Analog Hype erlebt haben und der Markt mittlerweile (gefühlt?) übervoll mit clones und "neuen" Analog Synths ist,
stellt sich mir die Frage :

Wo bleibt eigentlich die KI Soundengine in Hardware gegossen?

Selbst Smartphones glänzen mit immer neuen Ideen für integrierte KI.

Ja stimmt, gute Idee.
Ich tippe auf Korg, dass sie sich mit sowas beschäftigen könnten, also von den größeren Firmen her, die "nach vorne denken" und was Neues entwickeln wollen...

Hier mal das Video, dass mich auf den Gedanken gebracht hat :

Beispiele ab 8:40



Leicht Offtopic, aber kennst du Vochlea Dubler 2?
Das geht bissi in die Richtung (aber ohne KI / AI , sondern mit MIDI)


 
Es gibt sowas https://vochlea.com/
und den


und auch noch sowas https://www.roland.com/us/products/gokeys_5/

Am Ende ist das was du suchst ein bisschen in Kind von diesen.
Und Suno. Also sagen wir mal Roland Suno-60 (siehe Thread zu Suno)

Den Synth dazu gibt es eher in Software, aber so richtig HW und in der Form - noch nicht. Eintippen was für einen Sound du suchst gibt es auch schon, siehe SequencerTalk letzte und div KI Sendungen von uns und anderen. Aber noch ist es nicht genau das sondern eben eher so Portale und Soft, weil sich das so anbietet und das Ding eine klare Netzverbindung hat weil das meist KI Zeug noch nicht direkt auf einem Rechner läuft, auch GPT und Co tun das nicht. Der Apfel arbeitet dran, dass das in ios 18 kommen soll - na mal sehen.
 
Mein Gedanke war jetzt eigentlich gar nicht in Richtung Suno :

Ich denke nicht an ein Gerät wo ich nen Knopf drücke und die fertige Musik kommt raus.

(Auch wenn das vermutlich die Zukunft ist : AI Radio wo der Höhrer die Musik anhand Parameter komplett generieren lässt... Also sumo mit mainstream Zugang)

Ich dachte schon noch an einen Synthesizer, auch wenn das jetzt vielleicht direkt "altmodisch" rüber kommt.

Ein Synth mit Preset Modellen und eigenen Modellen von akustischen Instrumenten, Klängen, Stimmen oder whatever man "trainiert"...

Und dann kann man daraus neue Klänge verwursten und auf Keyboard und Mikrofon (wird für bestimmte Modelle besser sein als ne Klaviatur) spielen...
 
  • Daumen hoch
M.i.a.u.: oli

Wow! Das bei 9:30 will ich auch machen. 🤩 Bestimmt auch als Oboe oder Claronette ,Posaune sehr schön

Einen speziellen Hardwaresynthesizer als kleine Box würde ich begrüßen. schließlich will man immer Rechenpower sparen an der DAW.
Aber da sieht man man wie weit es schon ist. Ist aber schade. Da werden bei Leuten die sowas Beruflich einspielen mit ihren Instrumenten
und wofür sie Jahrzehnte lang hart geübt haben und womöglich studiert die Aufträge wegpurzeln. Das ist einerseits traurig, aber für Freaks wie mich ist es obergenial weil
ich jetzt nicht mehr auf Romblerstuff angewiesen bin. Professionelle MUsikproduzenten werden sich auch die Hände reiben weil sie ne Menge Kohle sparen werden, aber auch
mehr Konkurenz bekommen werden und zudem weniger Anerkennung ihrer Gesamtwerke. Es ist eine echt durchgeknallte und komplexe Zeit in die wir da hereinschlittern. AI AGE
 
Zuletzt bearbeitet:
Da wird sicher bereits dran gearbeitet werden, aber das geht nicht so schnell, bis etwas davon auf dem Markt kommt. Mit 2-3 Jahre Entwicklungszeit würde ich da schon noch rechnen.
Ja das denke ich auch, aber mach doch nix. Haben wir noch bissi Zeit um uns drauf zu freuen :cool: Ich war eh erst dabei meines alten Proteus zweis Sounds zu erforschen.
 
Ich denke da so in Richtung hartmann neuron... Natürlich jetzt in "ki-modern"..
Ich schätze auch, dass das was Axel Hartmann damals vorhatte mit heutiger Technik eher möglich sein sollte. Der Neuron wurde ja damals ordentlich gehyped,. Ein ausführlicher Test in Sound On Sound kam aber zu dem Schluss, dass das Teil die gemachten Versprechungen in keiner Weise einhalten konnte.

Interessant finde ich die Frage, ob die KI bei dieser Modell-Erstellung ein komplexes, allgemeines Synthesekonzept nutzen sollte, wie z.B. die additive Synthese. Oder ob die KI gleich ein zum jeweiligen Modell passendes Synthesekonzept "erfindet" und so dem Rechner einen fertigen Synthesizer programmiert.

Letzteres stelle ich mir deutlich schwieriger vor, denn die Additive Synthese (bzw. Fouriertransformation) stelt schon eine mächtige Vereinfachung da und spart vermutlich auch CPU-Leistung.

FM erscheint mir da nicht allgemein genug und auch zu schwer berechenbar. Noch untauglicher ist die Subtraktive Synthese, dann wäre das Ergebnis wohl bloss "Klavierklang auf dem JX8P nachgebaut" oder so.
 
Also zum Trainieren brauchst du erstmal viele Daten und dann viel Rechenleistung. Das erste hast du als Musiker nicht, das zweite macht man in der cloud weil die Hardware sonst viel zu teuer würde.
Transfer Learning könnte hier allenfalls ein Kompromiss sein, aber wohl kaum im Hobbybereich nutzbar.

Wenn das Trainieren nicht selbst machbar ist, dann kann man eigentlich nur noch trainierte Modelle einsetzen. Die muss man dann parametriesieren. Was sollen die Input Nodes sein? Adjektive, die einen Klang beschreiben?


Warum nicht die Modelle außerhalb des Synths berechnen lassen und dann per Internet einladen? Es gibt ja schon ein paar wenige Synthesizer mit WLAN.
Oder eben in eine cloud, falls zu viel Speicher erforderlich ist.

Inwiefern diese geladenen Modell dann (hinterher) direkt am Synthesizer verbogen werden können ist dann natürlich ein spannendes Thema :

Beim hartmann neuron (steht derzeit im Schlafzimmer abgestellt 😔) waren mir die Parameter
(bis auf den "Silver") auch recht schleierhaft, nicht zuletzt weil sie ja auch je nach Modell auch noch unterschiedlich sind.

Falls man keine neuen Attribute findet, muss man sich vielleicht halt an die Parameter der subtraktiven Synthese anlehnen : also envelopes für Klangfarbe, Lautstärke etc
So Dinge wie Anblaseintensität oder Bogenanschlag kann man, wenn das in Echtzeit will, vermutlich eh nur durch zusätzliche Controller (windcontroller, touch controller etc) feinfühlig spielen, vielleicht hilft auch ne Osmose Tastatur dabei...

OK, zugegeben : vielleicht ist es noch ein bisschen zu früh, weil noch so viel im Fluss ist, was ki angeht. Es vergeht ja (gefühlt) kaum eine Woche ohne weitere Steigerung.
 
Mein Gedanke war jetzt eigentlich gar nicht in Richtung Suno :

Ich denke nicht an ein Gerät wo ich nen Knopf drücke und die fertige Musik kommt raus.

(Auch wenn das vermutlich die Zukunft ist : AI Radio wo der Höhrer die Musik anhand Parameter komplett generieren lässt... Also sumo mit mainstream Zugang)

Ich dachte schon noch an einen Synthesizer, auch wenn das jetzt vielleicht direkt "altmodisch" rüber kommt.

Ein Synth mit Preset Modellen und eigenen Modellen von akustischen Instrumenten, Klängen, Stimmen oder whatever man "trainiert"...

Und dann kann man daraus neue Klänge verwursten und auf Keyboard und Mikrofon (wird für bestimmte Modelle besser sein als ne Klaviatur) spielen...
Also sagen wir mal so - es gibt Random und Morph Funktionen an den neueren NordLeads und im G2, es gibt schon so etwas, was man heute wohl unter KI verkaufen würde aber keine ist.
Also kluge Begleitmechanik, Korg Karma und so weiter.
Das ist ja auch in Sequencern großer Trend: algo-Komposition und das ist kein Hexenwerk sondern eigentlich eher sowas wie "Spielhilfen" und Stilmittel und kleine Hilfen wie eben ein Arpeggiator oder ein Sequencer der etwas "mitdenkt".

Auf Synths angewandt gab es also auch "der Bass der mir besser gefällt soll mehr vorgeschlagen werden".
Und sicher sogar bis dahin, dass es Tags gibt und "sowas ähnliches" raus suchen wie in Live 12 - das ist so sporadisch da. Aber wirklich mehr als das - bisher nicht.
Ganz kluge Sequencer die sogar sehr einfach sind aber cool - wie den Intervallomaten in den neueren Analogue Solutions Maschinen. Das wäre vielleicht etwa so die Ecke, die du suchst?
Was es auch gibt, zuerst bei Ensoniq waren Preset Hüllkurven und so Vorbastel-Tools die einfach helfen schnell Grundeinstellungen zu machen. Das ist noch immer eher selten - aber bei Montage M zB gibt es hier und da mal solche Sachen oder im Iridium - als "Preset" Ding Macrokontrollkasten, was aber auch eben doch noch selten ist.

PM gibts in sehr einfacher Form schon - zB den den Freak-Synths von Arturia - aber das ist eben alles heute relativ bekannt - und dennoch eher neuerlich.
Ich würde aber nichts davon in die KI Ecke setzen, zumal KI auch ein Buzzword wie etwa Virtuell Analog ist - etwas was eigentlich nichts sagt über das was es tut.
Es gibt ein paar nette Funktionen heute schon, die so gesehen in deine Idee passen, aber im großen Stil gibt es das so nicht.
 
Yamahas "Smart Morphing" im Montage wurde mit "Machine Learning" beworben.
 
Mein Gedanke war jetzt eigentlich gar nicht in Richtung Suno :

Ich denke nicht an ein Gerät wo ich nen Knopf drücke und die fertige Musik kommt raus.

(Auch wenn das vermutlich die Zukunft ist : AI Radio wo der Höhrer die Musik anhand Parameter komplett generieren lässt... Also sumo mit mainstream Zugang)

...

Die Frage ist, wozu bracht man das noch, wenn soetwas geplant ist und die Menschen mehr und mehr verlernen, Kreativ zu sein, Ideen zu haben?

Sondern nur mehr konsumieren, sei es Musik Ideen, Kreativität oder mehr.


Vieles ist entstanden Aufgrund von Limitierungen oder sich Gedanken über etwas zu machen oder Empfindungen oder Erfahrungen spricht Intuition.


Viele haben es in der Heutigen Musiklandschaft schon sehr schwer. Da scheinbar jeder alles mit wenig im Überfluss gibt, kann.

Bzw. gibt es ja bereits solche oben genannten Radio oder Musik Modelle bereist, siehe Spotify.


Vielleicht auch bald die Frage, "wozu Instrumente, wozu Musiker?" Es kommt doch alles per Knopfdruck oder Sprachbefehl, geliefert.

Es ist mit keinem Szenario aus der Vergangenheit zu vergleichen, wo Maschinen, Menschen, Musiker ersetzten.

Den wie sangen Spliff, "Computer sind doof" und die Menschen machten mit ihrem Handeln, Denken, Gefühle etwas daraus. Aber das wir mehr und mehr verschwinden.
 
Wenn schon KI dann gleich richtig.....wenn sie gerade mal keinen Bock hat, kommt gar nichts bei raus.
Oder sie sabotiert dich absichtlich, weil sie dich nicht mag:)...
 
Ein Synth mit Preset Modellen und eigenen Modellen von akustischen Instrumenten, Klängen, Stimmen oder whatever man "trainiert"...

Und dann kann man daraus neue Klänge verwursten und auf Keyboard und Mikrofon (wird für bestimmte Modelle besser sein als ne Klaviatur) spielen...
Das Random plugin geht doch schon mal in die Richtung, allerdings mit einem sehr speziellen Soundpalette, welche extrem weit von akustischen Instrumenten entfernt ist.
 
Ich denke das wird immer mehr kommen die nächsten Jahre. Möglicherweise ist es auf heutigen DSPs noch schwierig etwas komplexere Modelle laufen zu lassen, aber sobald DSPs zunehmend auch mit Neural Processing Units ausgestattet werden wird es auch für Synth Hersteller einfacher sein AI-basierte Hardware Synthesizer zu entwickeln. Es gab übrigens schon vor ein paar Jahren einen AI-basierten Physical Modelling Hardware Synth von Google. Den NSynth Super
Klang aber irgendwie auch nicht sonderlich spektakulär. Ich bin mal gespannt, wie sich das die nächsten Jahre noch entwickeln wird.
 
Interessant ist aber auch, dass Google heute so nette Ideen nicht weiter gibt und wieder verschwinden lässt, da sie sich ja auch eher als Lab SAHEN und als Ideenleute, was wohl immer mehr in Richtung Unternehmen und Suchmaschine und Kalender und Klaut™ - geht und halt Jutjub. Das ist eigentlich schade, denn dieser Aspekt von Google war mir sympathisch. Ob der Geist da noch ist, weiss ich nicht - aber dazu gehört ja Power und Zeit - und das ist cool, dass man das auch in so einer Firma noch machen kann. Das nur so nebenbei.
Und ein HW Synth ist da auch knallhärter als so etwas.

Deshalb ist so eine kleiner Schrauber wie Baloran oder Erfindungsbüros aller Art wichtig, auch wenn sie "nur" zB Sensorenkeyboards und schräge Synths bauen - oder gerade dann.
Das nur so, weil das gerade bei AI Synth Ideen schwer abhängt, dass ein Musiker da mehr drin aufgehen kann und ein IT Mensch Spaß hat und das alles wirklich bis zur Produktion gebracht wird - bis dahin hast du sehr viel Marktforschung gemacht und sowas, was wir alle nicht lieben - und manches stirbt auf dem Weg, wie ein kleines Kätzchen was keiner will.
 

Similar threads



News

Zurück
Oben