Nur OnTopic Warum arbeitet ihr ITB? In The Box = komplett im Rechner

Bitte stark genau im Thema bleiben wie es im ersten Beitrag steht. Alles andere gilt als OT und kann gelöscht werden.
Man kann kaum Organisten aus dem Bereich Cover, Rock und Pop mit Barbara Dennerlein vergleichen. Ist ein anderer Anspruch.
Du hast doch die Diskussion HW vs. ITB auf das Beispiel mit dem Dirigenten und Pianisten mit dem Laptop gezogen. Klassische Musik ist auch ein ganz anderer Anspruch als elektronische Musik.

„Elektronik“ ist doch nicht nur der Klang, sondern auch die Haptik und Arbeitsweise. Ich bin gerne mit meinen Finger direkt „im Klang“ -und zwar wortwörtlich. Eingreifen, sofort und intuitiv, am Regler drehen - zack hier, zack da, zack dort, das Tape manuell abbremsen, irgendwo draufklopfen und zwar spontan und JETZT.
Nix umständlich programmieren, dann mit MIDI in der DAW aufnehmen, nein.
Ja, das ist ja auch eine valide Sichtweise. Es gibt auch Menschen für die entsteht Musik aus Generatoren und Algorithmen und Mathematik und die greifen dadurch ein, dass sie eine andere Formel irgendwo eingeben und ein anderer klickt halt lieber seine Ideen in eine Piano roll ein. Kreativität findet viele Wege.

Darum ist meine Musik lebendig und nicht so statisch.
Ich kenne deine Musik nicht

Es ist aber ein Unterschied, wie man mit dem Klang umgeht. Spiele doch mal das Superplugin so, wie ich das Continuum berühre -es ist nicht möglich.
Im Continuum ist auch nur ein Plugin drin und du kannst auch problemlos ein Plugin damit ansteuern.

Emulationen sind doch nicht „echt“, das ist wie Pornos gucken und danach erzählen, das man Sex hatte
Das sagen Liebhaber akuster Instrumente genauso über elektronische Instrumente. Für einen eingesfleischten Rocker sind Synthesizer auch böse und Plastikmusik


Ich finde die Ausdrucksmöglichkeiten eines herkömmlichen akustischen Instruments eher karg, im Vergleich zu einem mittelmäßigen Synthesizer. Aber das sieht jeder anders. Gut so.
Naja von den unterschiedlichen Sounds und wie stark sie sich ändern können haben Synths schon die Nase vorn, aber wenn es um Klangformung geht sind da schon ein paar Welten dazwischen. Schau dir doch nur mal an, was man mit einer Gitarre alles machen kann. Zig Arten von Picking, Strummen, Schlagen, Abdämpfen und mit der linken Hand auch Ausdrucks möglichkeitne ohne Ende.

Das hängt doch zusammen.
Nein tut es nur bedingt, weil du durch verschiedenste Controller auch die Haptik beeinflussen kannst. Dein Haken war auf jeden Fall ein schlechtes Beispiel, ist ja selber nur ein Softwaresynth.

Und warum klingt so vieles gleich?
Also für mich kling der ganze Modularkram auch ziemlich gleich. Kommt meistens nur Geblubbere, Geklimper und andere nervige Sounds raus. Und seit über 50 Jahren subtraktive Synthese mit maximal 3 OSCs einem Filter und ein paar wenigen Modulationen reißt jetzt auch keinen vom Hocker mehr, der auf abgefahrene Synthesizer-Sounds steht.

Sorry für die Provokation.
 
Also mir erschließt sich nicht wie du darauf kommst dass ein virtuoser Instrumentalist sich weniger für Klänge begeistern würde. Was die klangliche Wahrnehmung angeht sind sie meist mindestens so empfindlich wie der Klavierbauer. Es ist immer eine Konversation zwischen Bauer und Instrumentalist, sonst gäbe es keine Instrumente. Was Feingefühl und Feedback angeht macht man einem Virtuosen wenig vor.
Ich habe nicht geschrieben, dass der Instrumentalist sich weniger für Klänge begeistert.

Ich denke, das Klavier ist zuerst da. Es wurde vom Instrumentenbauer nach den Regeln seiner Gilde geschaffen. Je nachdem, wieviel Erfahrung er hat, welches Budget zur Verfügung steht etc. schafft er das Instrument.

Der Instrumentalist denkt sich das Klavier nicht aus. Seine Eltern meldeten ihn in jungen Jahren zum Klavierunterricht an. Im Laufe seiner 10.000 Stunden würde er geprägt. So entwickelt er Präferenzen. Es gibt bestimmt Kommunikation zwischen einem Instrumentenbauer und Instrumentalisten - ich würde jedoch schätzen, dass das nicht die Regel ist.
 
Dann hast du vielleicht noch nicht gehört welche und wie viele Klangfarben z.B. ein richtig guter Cellist aus seinem Instrument herauszaubern kann. Ich spreche da auch nicht von Nuancen.
Wobei das Cello eines der wenigen Instrumente ist, das bei mir noch Gänsehaut erzeugen kann.
Dein Beispiel ist konstruiert. Mache ich auch mal ;-) Ein Cello kann nicht so vielfältig sein, wie ein virtuos bedienter Synthesizer, welcher in der Praxis alle gängigen Syntheseformen, was auch Sampling beinhaltet, bietet. Ja, ein Cello kann sehr gut gefallen, wenn die Musik passt.
Das Problem ist, dass die Live Performance optisch nicht viel hergibt.
 
Naja von den unterschiedlichen Sounds und wie stark sie sich ändern können haben Synths schon die Nase vorn, aber wenn es um Klangformung geht sind da schon ein paar Welten dazwischen. Schau dir doch nur mal an, was man mit einer Gitarre alles machen kann. Zig Arten von Picking, Strummen, Schlagen, Abdämpfen und mit der linken Hand auch Ausdrucks möglichkeitne ohne Ende.
Du beschreibst, was ein Gitarrist macht, Spieltechniken. Aber die Gitarre wird immer nach Gitarre klingen. Kann man die Physik da überlisten?
 
Du beschreibst, was ein Gitarrist macht, Spieltechniken. Aber die Gitarre wird immer nach Gitarre klingen. Kann man die Physik da überlisten?
Ja das meine ich aber - Ausdrucksfähigkeit. Ein Gitarrist kann viel subtiler, viel feinsinniger Töne formen und modulieren und "Gefühl" reinbringen. Es geht nicht um wieviele unterschiedliche "Sounds" das Instrument hat, sondern wie er mit seinen Händen eine Note an sich formen kann. Da helfen auch zig Regler am Synthie nix. Da gibt's nur Velocity, Aftertouch, vielleicht noch Modulationsrad und Pedale, die sind ja aber auch schon eher grob im Vergleich dazu. Sowas wie ein ROLI Seaboard oder Haken Continuum hat zwar die Ausdrucksfähigkeit wesentlich erhöht, das ist aber immer noch um Welten gröber und wenigdimensionaler, wie was ein Gitarrist oder Bläser mit seinem Instrument machen kann. Hör dir doch mal so typische Audiophil-CD Jazz-Aufnahmen an, dann weißt du vielleicht, was ich meine.
 
Ich habe nicht geschrieben, dass der Instrumentalist sich weniger für Klänge begeistert.

Ich denke, das Klavier ist zuerst da. Es wurde vom Instrumentenbauer nach den Regeln seiner Gilde geschaffen. Je nachdem, wieviel Erfahrung er hat, welches Budget zur Verfügung steht etc. schafft er das Instrument.

Der Instrumentalist denkt sich das Klavier nicht aus. Seine Eltern meldeten ihn in jungen Jahren zum Klavierunterricht an. Im Laufe seiner 10.000 Stunden würde er geprägt. So entwickelt er Präferenzen. Es gibt bestimmt Kommunikation zwischen einem Instrumentenbauer und Instrumentalisten - ich würde jedoch schätzen, dass das nicht die Regel ist.
Puh da sind wir in der Wahrnehmung ganz weit auseinander. Ich selbst bin (professioneller) Gitarrist, habe auch einen Custom Gitarren Hersteller mitgeleitet. Entwicklungen am Instrument ohne Musiker sind nur in der Theorie ein Ding. Das ist immer ein Dialog. Klar gibt es Musiker die nur per Löffel gefüttert werden, aber das hat doch nichts mit echten Virtuosen zutun? Frage mich woher diese Wahrnehmung kommt. Da draußen gibt es ganze Welten an Expertise in jede Richtung, die muss man nicht abwerten um den eigenen Rahmen zu legitimieren.
 
Ich denke ITB macht mir deswegen so viel Freude weil ich ein Computernerd und kein Musiker bin. Es war einfach wunderschön damals alles auf einen Blick vor mir zu haben, wo ich vorher noch sehr sperrige Geräte rumstehen haben musste. Das alles konnte durch ein kleines Masterkeyboard ersetzt werden, das fand ich toll. Das war ein Gefühl von Freiheit.

Manche kommen ja angeblich sogar mit so einer simplen Preset-Schleuder wie einem Klavier klar.
Ja das geht ja gar nicht. Wer sein Instrument nicht komplett von Scratch baut und einfach was fertiges nimmt, der hat die Kontrolle über seine Musik verloren 😂
 
Zuletzt bearbeitet:
Ich frage mich immer warum gefühlt den Leuten, die ITB arbeiten, abgesprochen wird, dass die nicht genauso mit Gänsehaut an ihrer Musik feilen und das total genießen und darin aufgehen.

Als wenn die Arbeit mit dem Rechner weniger emotional ist als bei "echten" Instrumenten. Das ist doch alles kompletter Quatsch, weil jeder Mensch unterschiedlich ist. In meinem Falle hat es wirklich Null Unterschied gemacht ob ich Musik per MIDI-Keyboard oder per extremen Hardwaresynth gemacht hatte. Aber wenn jemand da an externer Klangerzeugung mehr Freude hat, warum auch immer, dann ist das so. Aber das gilt ja nicht für die Allgemeinheit.

Genau so wie hier Harold Faltermeyer arbeite finde ich es gemütlich. Keine tausend Geräte, einfach alles auf das wesentliche konzentriert.
 
Ich verwende nur noch selten plugins.
Mir klingen die auch zu statisch wo man dann nachträglich immer mit Humanize nachhelfen muss damit es nicht auffällt. :)
So auch bei samples.
Da musste man ja es schon immer außer man hatte einen lebhaften loop von irgend jemandem.
Mittlerweile gibt es ein paar wenige plugins die das lebendige Verhalten emulieren (acb) aber bei meinem Hardware Synthesizer muss ich das nicht.
Da kommt gleich alles mit leben raus. ;-)
Emotionen kann man natürlich mit allem rüberbringen.
 
Zuletzt bearbeitet:
Ja das meine ich aber - Ausdrucksfähigkeit. Ein Gitarrist kann viel subtiler, viel feinsinniger Töne formen und modulieren und "Gefühl" reinbringen. Es geht nicht um wieviele unterschiedliche "Sounds" das Instrument hat, sondern wie er mit seinen Händen eine Note an sich formen kann. Da helfen auch zig Regler am Synthie nix. Da gibt's nur Velocity, Aftertouch, vielleicht noch Modulationsrad und Pedale, die sind ja aber auch schon eher grob im Vergleich dazu. Sowas wie ein ROLI Seaboard oder Haken Continuum hat zwar die Ausdrucksfähigkeit wesentlich erhöht, das ist aber immer noch um Welten gröber und wenigdimensionaler, wie was ein Gitarrist oder Bläser mit seinem Instrument machen kann. Hör dir doch mal so typische Audiophil-CD Jazz-Aufnahmen an, dann weißt du vielleicht, was ich meine.
Da schreiben wir über unterschiedliche Dinge. Du schreibst von reicher Ausdrucksweise, ich von klanglicher Vielfalt. Man könnte auch abwertend von „Sounds“ schreiben.

Ich vermute jedoch, dass heute die größten Budgets in der Sparte der kommerziellen Musik, speziell da, wo es theoretisch am gefühlvollsten sein sollte, in der Filmmusik, meist komplett alles ITB passiert.

Man kann im Synth auch andere Parameter als üblich modulieren. Muss man nicht. Die Anzahl der Möglichkeiten ist praktisch endlos und der Sweet Spot muss sich nicht am klassischen Instrument orientieren.
 
Ich vermute jedoch, dass heute die größten Budgets in der Sparte der kommerziellen Musik, speziell da, wo es theoretisch am gefühlvollsten sein sollte, in der Filmmusik, meist komplett alles ITB passiert.
Wenn es Timeline und das enge Budget zulassen, dann lässt man für tragende Linien ein ganz kleines Ensemble oder auch nur einen Solisten darüberspielen. Das kann einen sehr aufwertenden Effekt erzielen.
 
Puh da sind wir in der Wahrnehmung ganz weit auseinander. Ich selbst bin (professioneller) Gitarrist, habe auch einen Custom Gitarren Hersteller mitgeleitet. Entwicklungen am Instrument ohne Musiker sind nur in der Theorie ein Ding. Das ist immer ein Dialog. Klar gibt es Musiker die nur per Löffel gefüttert werden, aber das hat doch nichts mit echten Virtuosen zutun? Frage mich woher diese Wahrnehmung kommt. Da draußen gibt es ganze Welten an Expertise in jede Richtung, die muss man nicht abwerten um den eigenen Rahmen zu legitimieren.
Auch wenn es für Dich an dieser Stelle sehr persönlich und damit emotional zu werden scheint, meine ich, dass ich nichts bewerte. Ich werte keine Expertisen ab und auch keine virtuosen Instrumentalisten. Steht da nirgendwo. Mein Rahmen steht nicht zur Debatte, weil er an dieser Stelle nicht existiert. Das was ich persönlich tue, muss ich nicht legitimieren, weil es per se legitim ist, für mich.

Trotzdem behaupte ich, dass ein Cello immer wie ein Cello klingt, eine Gitarre wie eine Gitarre etc. Ist doch nicht weit hergeholt, oder?

Und wenn Du einen CUSTOM Gitarren-Hersteller mitgeleitet hast hattest Du bestimmt auch Kontakt mit Gitarristen.

Der Rahmen der Diskussion war doch: „Warum arbeitet Ihr ITB?“, oder habe ich da etwas falsch verstanden?
 
Für den "billigen Hans" macht man erst mal das Sampleplayback fertig. Für die typischen Ostinati engagiert man 2 Celli und 3-4 Geigen und lässt die so oft spielen, wie in der Zeit geht. Die jeweils zwei am besten zusammenpassenden Durchgänge mischt man dann zusammen, zieht die Samplespuren in der Lautstärke runter und mischt die Aufnahmen bei und fertig ist der Batman.
 
Okay, ich reduziere meine Aussage.
Ein guter Konzertpianist würde niemals auf einem perfekten gewichteten Masterkeyboard mit Notebook spielen.
Er würde sogar einen bestimmten Flügel haben wollen, z. B. einen Steinberg.
Orgelprofis, wie Barbara Dennerlein, spielen ihre Konzerte auf einer Hammond B3 und sie sucht sich bei den Tourneen oft noch die „passende“ bei den Verleihern aus mehreren aus.
Sind die denn alle taub?

Ja gut, da gehts jetzt aber um Haptik. Und ein Konzertpianist, der völlig aussetzt, wenn du ihm einen Nord Stage mit Keyscape-Notebook vorsetzt, hat ein ganz anderes Problem als sein Können, nämlich sein Wollen. Keith Jarret hat das Köln-Concert auf einem Mistflügel hinbekommen und in der modernen Jazzszene laufen manche Leute mit Midikeyboards rum, auf die sogar ich keinen Bock mehr hätte. Ist denen aber egal, weil sie zwar gerne ihr Zeug um sich herum haben, aber ihr Können trotzdem auch auf objektivem Müll funktioniert.

Ich glaube das hängt auch mit dem Genres zusammen, für mich klingen viele Klangteppich Geschichten oder Ambient Sachen ziemlich gleich, so nach Presets aus Omnisphere. Für andere klingt Techno immer gleich usw. Erst wenn man in einem Genre drinnen ist erkennt man doch die Feinheiten und was den Unterschied macht. Keiner kann in allen Genres gleich tief verwurzelt sein, deswegen wäre ich vorsichtig mit dem "Klingt alles gleich".

Kollege hat es in einem Vortrag mal mit dem Unterschied zwischen aus dem Fenster schauen bei einer Zugfahrt und dem Studium des Käses im Speisewagen verglichen.

Wenn es Timeline und das enge Budget zulassen, dann lässt man für tragende Linien ein ganz kleines Ensemble oder auch nur einen Solisten darüberspielen. Das kann einen sehr aufwertenden Effekt erzielen.

Wer sich das mal anhören will, "you're here" von Mhokomo oder "Pitfalls" und "Aphelion" von Leprous sind zwei sehr gelungene Beispiele, wie zwei Solisten an Cello und Geige inmitten einer digitalen Produktion per Layerwänden funktionieren können.

That said; Trent Reznor und Atticus Ross haben auch schon mal ein millionenteures Orchester ausm Studio geworfen, weil sie die Version mit den Plugins am Ende besser und zielführender empfanden.
 
Auch wenn es für Dich an dieser Stelle sehr persönlich und damit emotional zu werden scheint, meine ich, dass ich nichts bewerte. Ich werte keine Expertisen ab und auch keine virtuosen Instrumentalisten. Steht da nirgendwo. Mein Rahmen steht nicht zur Debatte, weil er an dieser Stelle nicht existiert. Das was ich persönlich tue, muss ich nicht legitimieren, weil es per se legitim ist, für mich.

Trotzdem behaupte ich, dass ein Cello immer wie ein Cello klingt, eine Gitarre wie eine Gitarre etc. Ist doch nicht weit hergeholt, oder?

Und wenn Du einen CUSTOM Gitarren-Hersteller mitgeleitet hast hattest Du bestimmt auch Kontakt mit Gitarristen.

Der Rahmen der Diskussion war doch: „Warum arbeitet Ihr ITB?“, oder habe ich da etwas falsch verstanden?
Wie du weiter oben geschrieben hast, schreiben auch wir über unterschiedliche Dinge. Ein einziger Ton auf dem Cello hat unendliche Variationen, weil er eben nie 100% reproduzierbar ist. Du scheinst eher die Instrumenten Gattung zu meinen, ein Cello wird nie eine Triangel sein. Die Expressivität ist gerade das Vielfältige, da kommt man nur mit Physical Modeling in die Nähe. Wenn jedes Bestandteil des Endprodukts eben diese Vielfalt inne hat, ist das Endergebnis auch deutlich anders. Das ist aber eben auch nicht immer positiv und gewünscht. Als ITB Produzent sitzt man eben am Ende einer Kette von Einzelteilen, an deren Entstehung man je nachdem mehr oder wenig (vorgefertigte Synths) bis gar nicht (Samples) beteiligt war. Magie entsteht in der Multiplikation der Variationen gefiltert von musikalischen Visionen ;-)

Ich war in dem Fall der Intrumentalist der als Bindeglied zwischen Instrumentenbauern und reinen Spielern fungiert hat.
 
Da schreiben wir über unterschiedliche Dinge. Du schreibst von reicher Ausdrucksweise, ich von klanglicher Vielfalt. Man könnte auch abwertend von „Sounds“ schreiben.
Ja wir schreiben über unterschiedliche Dinge. Das will ich dir die ganze Zeit sagen. Wir kamen von Bernies Beispiel mit dem Pianisten und Laptop und da ging es schon die ganze Zeit um Ausdrucksfähigkeit, nie um Klangvielfalt - die hast du in's Spiel gebracht. Es hat hier nie Jemand behauptet ein akustisches Instrument hätte eine größere Klangvielfalt als ein Synthesizer. "Sounds" war von mir nicht abwertend gemeint.

Ich vermute jedoch, dass heute die größten Budgets in der Sparte der kommerziellen Musik, speziell da, wo es theoretisch am gefühlvollsten sein sollte, in der Filmmusik, meist komplett alles ITB passiert.
Also ich finde jetzt Kammermusik oder intime akustische Aufnahmen schon noch einmal einen ganzen Ticken gefühlvoller als Filmmusik. Da geht es ja auch nicht direkt um Kunst, sondern um Kommerz.

Man kann im Synth auch andere Parameter als üblich modulieren. Muss man nicht. Die Anzahl der Möglichkeiten ist praktisch endlos und der Sweet Spot muss sich nicht am klassischen Instrument orientieren.
Das hat ja auch nie Jemand behauptet. Aber wenn Bernie, das Beispiel bringt, warum der Klassik-Pianist keinen Laptop nutzt, wenn dich ITB so toll ist, dann gehe ich darauf ein. Klassische Musik und elektronische Musik haben ja auch nur sehr geringe Überschneidungen. Beim ersteren geht es um Komposition, Harmonien, Musiktheorie, das Zusammenwirken vieler Instrumente zu einem Ganzen und um virtuoses Spielen und Interpretieren der Stücke. Beim letzteren geht es um Experimentieren und Erforschen von Klangwelten, Groove, Punch, etc.


Ich verwende nur noch selten plugins.
Mir klingen die auch zu statisch wo man dann nachträglich immer mit Humanize nachhelfen muss damit es nicht auffällt. :)
So auch bei samples.
Da musste man ja es schon immer außer man hatte einen lebhaften loop von irgend jemandem.
Mittlerweile gibt es ein paar wenige plugins die das lebendige Verhalten emulieren (acb) aber bei meinem Hardware Synthesizer muss ich das nicht.
Da kommt gleich alles mit leben raus. ;-)
Emotionen kann man natürlich mit allem rüberbringen.

Was meinst du mit Humanize? Humanize ist nach meinem Verständnis eine Funktion von Sequenzern und hat mit der eigentlichen Klangerzeugung nix zu tun?

Dieser Aussage, dass Plugins einen "statischen" Klang hätten ist so nicht richtig. Eigentlich ist es sogar maximal unpräzise. Erstens wäre es dann nicht Plugin vs. Hw, sondern analog vs. digital. Ein Plugin das den Virus emuliert ist nicht mehr oder weniger statisch, als ein Virus selbst.

Was hast du denn überhaupt für einen Synthesizer, der sich so lebendig verhält? Ich hoffe keinen digitalen.

Streng genommen haben Plugins an sich viel weniger einen Klang an sich als HW, da sie viel flexibler sind. Natürlich können sie statisch. Sie können aber auch unendlich viel lebendiger sein als jeder Analogsynth. Ich kann quasi jeden beliebiegen Parameter mit Zufallswerten modulieren, wenn ich das wollte. Ich könnte mit 5 verschiedenen freilaufenden LFOs alle möglichen Parameter modulieren. Ich kann aber auch ebenso alle möglichen Parameter mit Keytracking-Kurven, Velocity, Aftertouch und MW gleichzeitig beeinflussen - wenn ich das will. Ich kann 20 Parameter auf ein Makro legen und diese mit einem Dreh gleichzeitig beeinflussen. Das Makro kann ich dann wiederum auf einem MPE-Controller auf Pressure oder Slide legen und den Klang mit nur einem kleinen Druck oder Slide komplett auf links drehen. Oder ich kann komplett verschiedene Klänge layern und zwischen denen auf einem XY-Pad hin- und herfaden.

Ich habe fast unendlich mehr Möglichkeiten Varianz in jeden einzeln gespielten Ton zu bringen als das durch die im Vergleich dazu begrenzte HW jemals der Fall sein wird.

Die Unpräzisheit von analogem Gear äußert sich ja nicht darin, dass jeder gespielte (gleiche) Akkord total unterschiedlich klingt, sondern das der Klang halt breiter und fetter wird. Aber auch da habe ich im Digitalen sehr viele Möglichkeiten. Wenn ich einen einfachen Sägezahn als 9 oder gar 16-fach unison spiele, dann steht da auch eine fette Wand. Mag ja sein, dass sich das dann ander fett als ein Minimoog anhört, aber bestimmt nicht weniger fett.

Ich kann per EQ, Multiband-Kompression und Multiband-Distortion den Klang komplett so beeinflussen, wie ich es will. Ich kann Effekte anwenden, da müsstest du in HW zigtausende an Euros ausgeben und hättest immer noch nicht die Möglichkeiten, die ich in der DAW hätte. Und selbst wenn, dann wäre es auch nur ein digitaler Algorithmus in einer sauteuren Kiste drin.

Das hört sich jetzt so, an als ob ich ein Verfechter von ITB oder digital sei. Tatsächlich finde ich alle möglichen Ansätze richtig und gut. Es geht immer am Ende um persönliche Preferenzen.

Aber die Argumentation, die dann teilweise herangezogen wird ist oft einfach nur absurd. Wenn es um Möglichkeiten und grenzenlose Freiheit DAW vs. HW geht. That's no competition.
 
Zuletzt bearbeitet:
Beim ersteren geht es um Komposition, Harmonien, Musiktheorie, das Zusammenwirken vieler Instrumente zu einem Ganzen und um virtuoses Spielen und Interpretieren der Stücke.
Es geht bei klassischer Musik nicht um Theorie. Es geht um Empfindungen und ihren Ausdruck – mit den Instrumenten der klassischen Epoche. Wie heute auch, nur dass die Instrumente sich gewandelt haben und damit die Musik, die man damit macht.

Das verhält sich genau umgekehrt: Bei der Musiktheorie geht es vorrangig um klassische Musik aus Europa. Also zumindest, wenn man statistische Betrachtungen üblicher Büchereiregalmeter zur Musiktheorie unternimmt, lässt sich sagen, dass neuere Musikstile eher die Minderheit bilden.

Wie Grammatiken sich lange Zeit auf europäische Hochsprachen fixiert haben, heute aber die Alltagssprache beschreiben, wird auch die Musiktheorie ihren Blick weiten um zu beschreiben, wie man heute Musik macht(-e).
 
Was meinst du mit Humanize? Humanize ist nach meinem Verständnis eine Funktion von Sequenzern und hat mit der eigentlichen Klangerzeugung nix zu tun?
Für mich hatt Humanize was menschliches.
Wenn die Noten immer in einer etwas anderen Lautstärke kommen zb.

Dieser Aussage, dass Plugins einen "statischen" Klang hätten ist so nicht richtig. Eigentlich ist es sogar maximal unpräzise. Erstens wäre es dann nicht Plugin vs. Hw, sondern analog vs. digital. Ein Plugin das den Virus emuliert ist nicht mehr oder weniger statisch, als ein Virus selbst.

Was hast du denn überhaupt für einen Synthesizer, der sich so lebendig verhält? Ich hoffe keinen digitalen.

Streng genommen haben Plugins an sich viel weniger einen Klang an sich als HW, da sie viel flexibler sind. Natürlich können sie statisch. Sie können aber auch unendlich viel lebendiger sein als jeder Analogsynth. Ich kann quasi jeden beliebiegen Parameter mit Zufallswerten modulieren, wenn ich das wollte. Ich könnte mit 5 verschiedenen freilaufenden LFOs alle möglichen Parameter modulieren. Ich kann aber auch ebenso alle möglichen Parameter mit Keytracking-Kurven, Velocity, Aftertouch und MW gleichzeitig beeinflussen - wenn ich das will. Ich kann 20 Parameter auf ein Makro legen und diese mit einem Dreh gleichzeitig beeinflussen. Das Makro kann ich dann wiederum auf einem MPE-Controller auf Pressure oder Slide legen und den Klang mit nur einem kleinen Druck oder Slide komplett auf links drehen. Oder ich kann komplett verschiedene Klänge layern und zwischen denen auf einem XY-Pad hin- und herfaden.

Ich habe fast unendlich mehr Möglichkeiten Varianz in jeden einzeln gespielten Ton zu bringen als das durch die im Vergleich dazu begrenzte HW jemals der Fall sein wird.

Die Unpräzisheit von analogem Gear äußert sich ja nicht darin, dass jeder gespielte (gleiche) Akkord total unterschiedlich klingt, sondern das der Klang halt breiter und fetter wird. Aber auch da habe ich im Digitalen sehr viele Möglichkeiten. Wenn ich einen einfachen Sägezahn als 9 oder gar 16-fach unison spiele, dann steht da auch eine fette Wand. Mag ja sein, dass sich das dann ander fett als ein Minimoog anhört, aber bestimmt nicht weniger fett.

Ich kann per EQ, Multiband-Kompression und Multiband-Distortion den Klang komplett so beeinflussen, wie ich es will. Ich kann Effekte anwenden, da müsstest du in HW zigtausende an Euros ausgeben und hättest immer noch nicht die Möglichkeiten, die ich in der DAW hätte. Und selbst wenn, dann wäre es auch nur ein digitaler Algorithmus in einer sauteuren Kiste drin.

Das hört sich jetzt so, an als ob ich ein Verfechter von ITB oder digital sei. Tatsächlich finde ich alle möglichen Ansätze richtig und gut. Es geht immer am Ende um persönliche Preferenzen.

Aber die Argumentation, die dann teilweise herangezogen wird ist oft einfach nur absurd. Wenn es um Möglichkeiten und grenzenlose Freiheit DAW vs. HW geht. That's no competition.
Hier hast du das ja gut beschrieben.
Bei plugins muss man nachhelfen oder vor Arbeiten.
Ich versuch das mal am Beispiel dub Techno.
Wenn du da deine eine Note chord sequenc hast must du für den rest das Leben entsteht was machen in der daw.
Filter automation Programmieren...veloity Werte Programmien usw.
Bei einem Hardware Synthesizer kann es ohne diesen Aufwand gleich so spielerich rauskommen.
Mit digital vs Analog hatt es ja auch nix zu tun.
Selbst meinen alten VA empfinde ich lebendiger wie jedes plugins.
Da kann es noch so hunderte Euro teure vst geben.
Es ist einfach mein empfinden so.
Mit der daw plus plugin fühlt es sich an wie ein Musik Programmierer für mich und am Hardware Synthesizer fühle ich mich wie ein Spieler.
Tatsächlich macht mir ja beides Spaß.
Ohne daw würde meine Musik auch nix werden.
Das eine schließt das andere ja bei mir nix aus.
Nur viel Programmieren tu ich in der daw dank meiner Hardware nicht mehr.
In daw nur noch nach arrangieren. ;-)
 
Ich sag mal so, Schwingkreis = Glühbirne, digitale Emulation = LED.
Ja, es gibt auch LEDs, welche Glühlampen imitieren, ist aber nicht dasselbe.
 
Für mich hatt Humanize was menschliches.
Wenn die Noten immer in einer etwas anderen Lautstärke kommen zb.
Ja schon klar. Das ist aber der Sequenzer dann. Wir waren ja bei den Plugin-Synths vs. HW-Synths


Hier hast du das ja gut beschrieben.
Bei plugins muss man nachhelfen oder vor Arbeiten.
Ich versuch das mal am Beispiel dub Techno.
Wenn du da deine eine Note chord sequenc hast must du für den rest das Leben entsteht was machen in der daw.
Filter automation Programmieren...veloity Werte Programmien usw.
Bei einem Hardware Synthesizer kann es ohne diesen Aufwand gleich so spielerich rauskommen.
Mit digital vs Analog hatt es ja auch nix zu tun.
Doch hat es. Wenn du deinen HW-Virus anschmeißt, dann klingt der exakt gleich wie die Original-SW im Emulator im Rechner. Digitale Klangerzeugung ist unabhängig davon, ob sie auf einer Rechner-CPU oder auf einem DSP in einem Metallgehäuse mit Encodern dran gerechnet wird.

Selbst meinen alten VA empfinde ich lebendiger wie jedes plugins.
Da kann es noch so hunderte Euro teure vst geben.
Es ist einfach mein empfinden so.
Das entbehrt aber jeder logischen und technischen Grundlage. Wir müssen endlich mal von den gefühlten Wahrheiten wegkommen.


Mit der daw plus plugin fühlt es sich an wie ein Musik Programmierer für mich und am Hardware Synthesizer fühle ich mich wie ein Spieler.
Wenn das für dich so ist, ist das doch eine legitime Aussage.

Allerdings habe ich manchmal den Eindruck, dass die meisten DAW-less Verfechter denken, dass man eine DAW wie ein Tracker benutzt und da alle Noten per HAnd einprogrammieren muss oder per Maus in der Piano-Roll rumklicksen.
Ich kann an der DAW auch einen MIDI-Keyboard anschließen und das direkt aufnehmen inklusive Parameter-Änderungen. Ich kann auch einen MPE-Controller anschließen und da sehr haptisch Dinge einspielen und mit meinen Händen gestalten. Ich kann das vermutlich auch viel mehr und detaillierter alle möglichen MIDI-CCs aufnehmen, als in einem HW-Sequencer. Und wenn sich MIDI 2.0 mal in der Breite durchsetzt wird die Direktheit auch noch einmal zunehmen.


Tatsächlich macht mir ja beides Spaß.
Ohne daw würde meine Musik auch nix werden.
Das eine schließt das andere ja bei mir nix aus.
Nur viel Programmieren tu ich in der daw dank meiner Hardware nicht mehr.

Als ob man auf HW nicht programmierte. Also ich persönlich ziehe ein Serum, wo man direkt alle Modulationen ziehen kann, jedem Virus vor, wo man dann in verschachtelten Menüs rumklicksen muss. Und diese ganzen HW-Sequencer alla OXI und Elektron in allen Ehren - mit meiner Push 2 an Ableton bin ich Faktor 3 schneller, habe mehr Möglichkeiten und statt 8 Tracks so viele, bis mein RAM-Speicher schmilzt.
 
Ich sag mal so, Schwingkreis = Glühbirne, digitale Emulation = LED.
Ja, es gibt auch LEDs, welche Glühlampen imitieren, ist aber nicht dasselbe.
Ja aber bei LEDs kann man die Farbtemperatur ändern, sie leben ewig und sie werden nicht heiß, weil sie einen besseren Wirkungsgrad haben und viel weniger Energie brauchen. Deswegen hat ja in Europa auch kein Schwein Glühlampen mehr.
 
Ja schon klar. Das ist aber der Sequenzer dann. Wir waren ja bei den Plugin-Synths vs. HW-Synths
Humanize gibt's nur bei Sequenzern und nicht auch auf kompakte keyboard Synthesizer?
Doch hat es. Wenn du deinen HW-Virus anschmeißt, dann klingt der exakt gleich wie die Original-SW im Emulator im Rechner. Digitale Klangerzeugung ist unabhängig davon, ob sie auf einer Rechner-CPU oder auf einem DSP in einem Metallgehäuse mit Encodern dran gerechnet wird.
Den Virus kenne ich nicht.

Das entbehrt aber jeder logischen und technischen Grundlage. Wir müssen endlich mal von den gefühlten Wahrheiten wegkommen.
Mein empfinden das ich meinen alten VA lebendiger finde wie plugins muß ja keine Grundlage für andere sein.
Wenn das für dich so ist, ist das doch eine legitime Aussage.

Allerdings habe ich manchmal den Eindruck, dass die meisten DAW-less Verfechter denken, dass man eine DAW wie ein Tracker benutzt und da alle Noten per HAnd einprogrammieren muss oder per Maus in der Piano-Roll rumklicksen.
Ich kann an der DAW auch einen MIDI-Keyboard anschließen und das direkt aufnehmen inklusive Parameter-Änderungen. Ich kann auch einen MPE-Controller anschließen und da sehr haptisch Dinge einspielen und mit meinen Händen gestalten. Ich kann das vermutlich auch viel mehr und detaillierter alle möglichen MIDI-CCs aufnehmen, als in einem HW-Sequencer. Und wenn sich MIDI 2.0 mal in der Breite durchsetzt wird die Direktheit auch noch einmal zunehmen.
Ich habe als daw ein Tracker Programm.
Das ist unschlagbar bei Sample Bearbeitung und kann auch als sehr gute Drummachine fungieren.

Als ob man auf HW nicht programmierte. Also ich persönlich ziehe ein Serum, wo man direkt alle Modulationen ziehen kann, jedem Virus vor, wo man dann in verschachtelten Menüs rumklicksen muss. Und diese ganzen HW-Sequencer alla OXI und Elektron in allen Ehren - mit meiner Push 2 an Ableton bin ich Faktor 3 schneller, habe mehr Möglichkeiten und statt 8 Tracks so viele, bis mein RAM-Speicher schmilzt.
Ich mag Hardware auch nur mit direkt Zugriff und ordentlich Knöpfe.
Hatt das wenig regler und viel menü brauch ich auch keine Hardware kaufen.
Sieht so aus als wäre der Virus nix für mich.
 
Zuletzt bearbeitet:
Ich habe als daw ein Tracker Programm.
Das ist unschlagbar bei Sample Bearbeitung und kann auch als sehr gute Drummachine fungieren.
Gut, dass kommt dann natürlich Programmieren sehr nahe. Es soll Leute geben, die sind damit schneller als jeder klassische Sequenzer. Die geben quasi ein Pattern schneller ein, als man es in Echtzeit einspielen könnte.
Ich habe mir letzt Redux zugelegt, das ist ein Abklatsch vom Renoise-Tracker. Leider erfüllt er nicht ganz meine Erwartungen. Der Phrase-Tracker ist für mich schon gewöhnungsbedürftig.

Ich mag Hardware auch nur mit direkt Zugriff und ordentlich Knöpfe.
Hatt das wenig regler und viel menü brauch ich auch keine Hardware kaufen.
Sieht so aus als wäre der Virus nix für mich.
Nein, dann bestimmt nicht. Der ist als Plugin viel besser zu bedienen als die HW und selbst dann ist es umständlicher als ein SW-Synth dessen GUI auf den Bildschirm optimiert ist, wie Serum oder HIVE.
Als One-Knob-per-Function ist HW natürlich unschlagbar.
 
Zuletzt bearbeitet:
Also ob man nun Sequenzen auf einem Hardware teil ein tippt oder in einer Tracker Programm spur.
Beides ist eine Form von Programmieren.
Deswegen nannte man ja damals auch Drummachinen Drum Computer.
 
Ja und einen Synthesizer nennt man Synthesizer, weil er Klänge synthetisch erzeugt. Und wenn sie dann per Computer supersynthetisch durch die pure Schönheit der Mathematik erzeugt werden, dann ist es manchen doch wieder zu synthetisch.
 
Ja das meine ich aber - Ausdrucksfähigkeit. Ein Gitarrist kann viel subtiler, viel feinsinniger Töne formen und modulieren und "Gefühl" reinbringen. Es geht nicht um wieviele unterschiedliche "Sounds" das Instrument hat, sondern wie er mit seinen Händen eine Note an sich formen kann. Da helfen auch zig Regler am Synthie nix. Da gibt's nur Velocity, Aftertouch, vielleicht noch Modulationsrad und Pedale, die sind ja aber auch schon eher grob im Vergleich dazu. Sowas wie ein ROLI Seaboard oder Haken Continuum hat zwar die Ausdrucksfähigkeit wesentlich erhöht, das ist aber immer noch um Welten gröber und wenigdimensionaler, wie was ein Gitarrist oder Bläser mit seinem Instrument machen kann. Hör dir doch mal so typische Audiophil-CD Jazz-Aufnahmen an, dann weißt du vielleicht, was ich meine.
Da kann man nur zustimmen. Vor allem ist das schnell und intuitiv.
Es gibt aber schon auch Synthesizer, die sich mit viel Übung und der richtigen Syntheseform sehr ausdrucksstark spielen lassen. Beispiel Nonlinear Labs C15.
 


Neueste Beiträge


Zurück
Oben