Verlorene Errungenschaften der Notenschrift: Wiederholungs- und Rückbezugsgedöns - Pendants in DAW oder nur C&P?

vergleich mal cosy mit java. ersteres kannst du in 5 stunden lernen!
Alle gängigen Programmiersprachen haben ihre Berechtigung und eben unterschiedliche Anwendungsbereiche/Zielgruppen.
Java hat eine abscheuliche Syntax (im Gegensatz z.B. zur Eleganz von Scheme) und ist extrem geschwätzig (wieder im Gegensatz zu funktionalen Sprachen), aber auf die Erfordernisse der industriellen Softwareentwicklung ist es eben perfekt zugeschnitten, da muss man dann einfach die Kröte schlucken.
Wenn ich für Audio-Anwendungen mal wieder C++ nutzen muss, fällt mir erst auf, wie schwer man dort für vieles schuften muss, dass einem Java frei Haus gibt, und wie viele Pitfalls man meiden muss.
Andererseits meide ich Java für Rapid Prototyping, weil es einfach > 10x mehr Code produziert als elegantere, kompaktere Sprachen.
Zurück zum Topic und Neusiker:
Ich denke auch für die Komposition und Kommunikation musikalischer Inhalte sind an unterschiedlichen Stellen im Schaffens- und Aufführungsprozess unterschiedliche Darstellungsformen nützlich. Diese richten sich auch nach dem Detaillierungsgrad, auf dem man sich gerade bewegt.
Für kompositorische Zwecke dürfte eine skizzenhafte Darstellung erst einmal hilfreich sein. Man will ja erst einmal Ideen entwickeln und festhalten.
Auf dieser Ebene ist auch für mich nicht immer Notenschrift nützlich und ich verwende zusätzlich auch andere Werkzeuge/reduzierte Darstellungsweisen.
In der DAW dagegen hast Du einen maximalen Detaillierungsgrad - ich glaube kaum, dass es sinnvoll ist, für alles, was man dort treiben kann, eine Notation zu entwickeln und diese z.B. als dicken Wälzer zu einem einzelnen Track zu publizieren. OK, wenn die DAW sämtliche Informationen zu einem Song als XML speichern kann (von den Binärdaten für Audio sehe ich jetzt mal ab), dann ist man schon nahe an einer umfassenden textuellen Darstellung. Aber der Informationsgehalt (im Sinne eines "praktischen Nutzens für Leser" eines solchen Werks) wäre nahezu null.
Außerdem gibt es unzählige externe Abhängigkeiten zu Instrumenten- oder Effekt-Plugins usw. Die Dokumentation der Parameter der Plugins etc. bringt einem Leser keinen Mehrwert.
Am anderen Ende haben wir die Notendarstellung zum Analysieren oder als Grundlage für die Aufführung eines Werks. Hier ist alles auf die musikalisch relevante Information "eingedampft". Dass die Notenschrift nicht textuell ist (nicht aus Zahlen/Buchstaben besteht), ist fürs rasche Lesen ein entscheidender Vorteil. Auch können so gleichzeitig noch andere als Ziffern oder Buchstaben angegebene Informationen und der Rhythmus erfasst werden - die verfügbaren Verarbeitungswege werden effektiv ausgenutzt. Die Schwächen der Notenschrift (z.B. Nähe zum diatonischen Tonsystem) ist auch hier wieder etwas, was man eben in Kauf nehmen muss. Dafür wird man mit anderen Vorteilen belohnt - nicht zuletzt mit der einfachen Kommunizierbarkeit.
Im Gegensatz zu dieser Aufteilung habe ich den Eindruck, dass der TE eine universelle Notation sucht, die sich zur Unterstützung aller Phasen des Schaffensprozesses und zur Darstellung jeder Detailtiefe eignet.
Noch weiter zurück zur eigentlichen Aufgabenstellung: Im Grunde ist das wie LaTeX vs. WYSIWYG-Ansätze oder meinetwegen Lilypond vs. Sibelius & Co.
In einem textbasierten Format kann man natürlich perfekt Makros definieren oder komplexe Einheiten an eine Variable binden und beliebig oft referenzieren.
Somit muss man nur an einer Stelle (bei der Definition) etwas ändern, um beliebige viele Vorkommen im Werk gleichzeitig und einheitlich anzupassen.
Visuelle Editoren haben hiermit üblicherweise Schwierigkeiten oder setzen ein solches Konzept von Definition / Referenzierung meist nicht konsequent um.
Zumindest in Ansätzen ist die Idee, wie ja schon mehrfach beschrieben, in Form von Ghost Clips in DAWs aber durchaus vorhanden.
 
Zuletzt bearbeitet:
Java hat eine abscheuliche Syntax

ich wollte vor allem darauf hinaus, dass java keine kompositionsumgebung ist. :)

solche sprachen sind ja nur ein bis eineinhalb level über maschinensprache und werden niemals zum kreativen arbeiten eingesetzt werden können, weil man dazu einfach zu viel zeug lernen muss, was nix mit dem zu tun hat, was man machen will.

daher können sie auch kein vorbild dazu sein, eine eigene zu entwickeln.

sowas wie basic, supercollider, oder html 4 sind da schon eher etwas, bei dem man am ersten tag 10-12 befehle lernt und dann im prinzip schon losbasteln kann.

und bei sowas wie cosy notierst du dir die beispiele und lässt sie in einem zweiten tab offen, und kannst im prinzip direkt damit arbeiten. also fast schneller wie mit protools oder einer violine.

"Cb4" tippen. return drücken. eine note erklingt. so muss das sein.
 
Zuletzt bearbeitet:
Ja eine interpretierte Sprache mit REPL ist für den Zweck natürlich am besten.
 
man (also er mit seiner sprache) kann das auf zwei arten implementieren: entweder kann man aliase live pitchen
Reines Pitching/Transpose von Aliases ist ja sowieso Standard in DAW.
oder aliase werden, wenn man sie editiert, zu neuem eigenständigem inhalt.
Und hier fragt mich meine DAW beim Versuch, ein Alias zu bearbeiten, ob ich das Original bearbeiten, oder die Aliaskopie in ein Original umwandeln will.

Mein Posting bezog sich hauptsächlich auf die zusätzliche (nichtdestruktive) harmonische Transformation von Region-Aliases und deren Sinnhaftigkeit.

Und so wie ich Neusiker verstehe, spricht er nicht von kompletten Regions, sondern von Eventgruppen, die nicht unbedingt nur zeitlich, sondern auch anhand anderer Qualifier (z.B. Tonhöhe, Subposition, Velocity) ausgewählt werden. ... wobei ich da in der DAW aus Gründen der Übersichtlichkeit einfach mehrere Spuren nehmen würde (z.B. bei einem Drumkit eine Spur für die Toms (z.B. G, H, D) und eine für die Hi-hats (F#, G# und A#), auch wenn (oder gerade: weil) sich beide "Notengruppen" in der Tonhöhe überlappen. :dunno:
 
für dal segno darf ich % empfehlen, obwohl spiegelverkehrt natürlich noch besser wäre.
% ist schon für Faulenzer - wiederhole letzte n Takte - vorgesehen. In der Notenschrift ist dafür ein flexibleres Prozentzeichen Konvention, das je nach Bedeutungsvariation mehrere Punkte wie auch mehrere Striche haben kann. Und das unterschied sich dann auch noch von Notensetzer zu Notensetzer. Kein Wunder, dass DAW-Programmierer einfach visuell das Original viederholen, das ist zumindest intuitiv. Dass der Mensch in meinem Badezimmerspiegel damit ein Problem hat, einer der Gründe warum er von graphischen DAWs kein sonderlicher Fan ist, aber zum Glück auch mit eigens programmierten Kram keine Musik machen kann ...

DAWs immerhin als Ideenlieferant. Intuitive graphische Benutzeroberflächen dienen nach meiner Erfahrung dem Einsteiger. Der Fortgeschrittene darf oft die Rechnung bezahlen. Benutzeroberflächen, die mitwachsen wie ein Schreibtisch für Schulkinder ... selten. Um mich gar nicht erst mit unzähligen Möglichkeiten auseinander setzen zu müssen, wie man Dinge "ach so kinderleicht" machen kann und für Fortgeschrittene entsprechend von hintenrum durchs Knie ins Auge, nutzte ich halt meine Möglichkeit, die langjährig mir bereits angeeigneten, gewohnten Mittel (VIM, Python, YAML/JSON als Rahmensprache, auch um vom Syntax Highlighting von VIM zu profitieren) auch zum Musik machen zu verwenden.

@Scenturio, ja, ich möchte hier keine Codelistings meiner Sprache drin haben, weil es offtopic wäre. Eigentlich dachte ich, man scheißt mich hier mit Videotutorials zu, die zeigen, wie Wiederholungen und Rückbezüge in DAWs effizient umzusetzen sind, ohne das man Ctrl-C und -V über Gebühr beansprucht. Dutzende DAWs zu installieren (zzgl. entsprechende proprietärer Betriebssysteme), nur um das auszutesten ... danke, ne, hätte nix gefragt, dann inspirier ich mich lieber auf Spaziergängen.

Und hier fragt mich meine DAW beim Versuch, ein Alias zu bearbeiten, ob ich das Original bearbeiten, oder die Aliaskopie in ein Original umwandeln will.
Zum Glück, das hätte sogar ich als eine der besseren Möglichkeiten erwartet.

Und so wie ich Neusiker verstehe, spricht er nicht von kompletten Regions, sondern von Eventgruppen, die nicht unbedingt nur zeitlich, sondern auch anhand anderer Qualifier (z.B. Tonhöhe, Subposition, Velocity) ausgewählt werden. ... wobei ich da in der DAW aus Gründen der Übersichtlichkeit einfach mehrere Spuren nehmen würde (z.B. bei einem Drumkit eine Spur für die Toms (z.B. G, H, D) und eine für die Hi-hats (F#, G# und A#), auch wenn (oder gerade: weil) sich beide "Notengruppen" in der Tonhöhe überlappen.
Ich formuliere meine Frage um: Sind nur rechteckige Regions möglich oder lassen sich einzelne betroffene Events zumindest deselektieren, damit diese nur an dieser Stelle bleiben, nicht mitgenommen werden, egal wo man die Region hinkopiert/verknüpft? Wenn das nicht geht, müsste man tatsächlich eine Pianospur aufteilen in Melodie und Harmonie, um mit Regions zu arbeiten. Zumindest, wenn man melodische Themen unterschiedlich harmonisieren will oder ein und dasselbe rhythmische Motiv - Ostinato - mit komplexer Melodik überlagern möchte.

Ich habe langsam den Verdacht, dass unsere aktuelle elektronische Musik die Melodie extrem reduziert oder komplett auf eine ggf. vorhandene Singstimme verlagert, nicht weil instrumentale Melodik gegen den Stil wäre. Sondern weil einem das DAWs erschweren. So beeinflusst Technik die Produkte derselben, mithin unseren Stil, da wir uns daran gewöhnen, anstatt umgekehrt die Produktdesignwünsche die Technik. Ist in der Architektur ja aber auch nicht anders. Repetitive Strukturen ganze Straßenzüge lang. Einfach weil Computerprogramme genutzt wurden. Jedes Computerprogramm kann nur zwei aus den dreien ermöglichen: Einfachheit, Flexibilität und Automatismus - ein Teufelsdreieck. Für mich ist Einfachheit am ehesten verzichtbar, daher bin ich hier der Exot. Folgerichtig sollte ich mich auf Nerdcore verlegen statt auf die Interpretation existierender Literatur.
 
Wenn das nicht geht, müsste man tatsächlich eine Pianospur aufteilen in Melodie und Harmonie, um mit Regions zu arbeiten.
das ist tatsächlich (zumindest bei mir) das Mittel der Wahl bem DAW Einsatz. Vielleicht gibt es da inzwischen progressivere Ansätze (ich gehöre da ja noch eher zur konservativen Fraktion). Da könnte vielleicht andere mehr zu sagen.

Eigentlich dachte ich, man scheißt mich hier mit Videotutorials zu
Ich bin nicht so der Freund von Videotutorials - lese lieber altmodische Handbücher. Es sollte aber kein Problem sein, selbst nach den üblichen verdächtigen Stichworten zu googlen. ;-) Die wurden ja hier schon genannt.
 
ohne das man Ctrl-C und -V über Gebühr beansprucht.

das geht schon auch mit mouse-only, sofern sie 2 tasten hat, um die 3 modi verschieben, kopieren, alias erzeugen zu erreichen.

cubase hast seit 1990 dann noch alternativ das stift werkzeug, mit dem du so viele kopien erzeugst wie du weit ziehst.

mit einer ausgewählten gruppe aus mehreren abschnitten geht es auch. aber z.b. eben nicht mit einem halben oder nur mit inhalt, der höher als C5 ist.

Ich formuliere meine Frage um: Sind nur rechteckige Regions möglich oder lassen sich einzelne betroffene Events zumindest deselektieren, damit diese nur an dieser Stelle bleiben, nicht mitgenommen werden, egal wo man die Region hinkopiert/verknüpft?

die meisten DAWs bieten auf der arrangementebene, wo die süßen kleinen kästchen liegen, keinen direkten zugriff auf den inhalt. um nur die hölfte der ereigniss auszuwählen, musst du dann in den editor des kästchens gehen.

Sondern weil einem das DAWs erschweren.

techno ist durch kästchen kopieren entstanden, daran besteht kein zweifel.

in kombination mit samplern mit nur wenigen sekunden samplezeit konnte nichts anderes dabei rauskommen.


vergiss aber nicht, dass du z.b. auch 110.modular in max4live benutzen kannst. :) oder supercollider und csound via VST.

oder dass du erst in dem einem programm komponieren und später in einem anderen produzieren könntest.


das, was leuten wie uns in cubase oder protools fehlt, fehlt da nur vermeintlich.

irgendwo ist immer die grenze eines abgeschlossenes systems.

dann muss man einen anbau errichten oder umziehen.
 
das ist tatsächlich (zumindest bei mir) das Mittel der Wahl bem DAW Einsatz. Vielleicht gibt es da inzwischen progressivere Ansätze (ich gehöre da ja noch eher zur konservativen Fraktion). Da könnte vielleicht andere mehr zu sagen.
Ist aber auch insoweit naheliegend, als dass auch die meiste Literatur für Klavier in linke und rechte Hand aufgeteilt ist. Die zweizeiligen Strukturen nennt man Akkoladen.

Ich bin nicht so der Freund von Videotutorials - lese lieber altmodische Handbücher.
Ich auch nicht. Erfahrungsgemäß kriegt der Ottonormalnerd hier Videos nachgeworfen, was alles so geht oder schon mal da war. Tatsächlich kann man auch als Außenstehender, nicht registrierter Nutzer, das Handbuch zu Ableton Live 11 herunterladen, hab ich soeben gesehen. Hab ich was zu schmökern. Außerdem probiere ich es praktisch mit der Open-Source-DAW Zrythm aus - da gibt es vielleicht in etwa vergleichbare Funktionen. Nicht, dass meine Ablehnung von graphischen Oberflächen noch krankhafte Züge annimmt, kein Wunder, dass ich von nix nen Schimmer hab.
 
bei editieren geht rechts/links. rechts und links sind dann eifnach abschnitte auf verschiedenen spuren. die lassen sich dementsprechend in den editoren entweder gemeinsam oder getrennt voneinander bearbeiten.

ungelöst in DAWs bleibt das problem, wie man rechts und links getrennt einspielt. um die linke hand kanal 2 zuzuordnen müsste der keyboard controller ja wissen, welche hand die taste drückt.
 
ungelöst in DAWs bleibt das problem, wie man rechts und links getrennt einspielt.
Splitpoint - und die paar überlappenden werden dann manuell verschoben. ;-)

Oder - wie vermutlich häufig - man spielt das eh nacheinander ein, weil man mit zweihändig sowieso überfordert ist ... :wegrenn:
 


Neueste Beiträge

News

Zurück
Oben