Musizieren vs. Musikproduktion

dass viele menschen heute "musik machen" ohne zu komponieren ist auch so ein thema. aber da bin ich mal lieber still, meine meinung dazu ist ja bekannt.
Ach, jeder kann doch seine Meinung äußern, solange er dabei nicht abwertend wird. Wenn ich Wikipedia richtig verstanden habe, dann nutzt man Begriffe wie Komposition oder komponieren eher für Klassische Musik, alles andere ist dann mehr Arrangieren: https://de.wikipedia.org/wiki/Komposition_(Musik)

Komposition ist vor allem der für die „klassische“ Musik (i. S. v. Kunst- bzw. E-Musik) charakteristische Schaffensprozess.
...

Außerhalb der „klassischen Musik“ sind Komposition und Komponist von vergleichsweise geringerer Bedeutung,
 
Diese Wikipedia Definition geht mE überhaupt nicht weit genug. Es ist so gut wie unmöglich, Komposition, Improvisation und Arrangement ordentlich gegeneinander abzugrenzen.

Improvisation wird gerne als Ad-Hoc Komposition bezeichnet. Die Arrangements, die Leute wie Sammy Nestico, Quincy Jones oder Glenn Miller aus Broadway-Melodien geschaffen haben sind eigenständige musikalische Werke. Und ganz eng betrachtet ist eine Bach-Fuge auch nur eine Arrangement einer einfachen Melodie. Oder eine Improvisation, wenn er auf ein vom König vorgespieltes Thema mal schnell eine vierstimmige Fuge rausgehauen hat.

Dass der Komponist in der Popmusik wichtig ist erkennt man schon daran, dass er die Tantiemen kriegt.

Diese Begriffe in irgendeine Wertigkeit oder Qualität umsetzen zu wollen halte ich für verfehlt.
 
also die GEMA, der gesetzgeber, und viele menschen, die selbst komponist nennen, erlauben sich das anders zu sehen.

aber wir können die gleichen argumente auch gerne mit dem begriff "musik machen" diskutieren:
wenn jemand bei einer maschine auf start drückt, damit die dann zufallswerte ausgibt, und er dann noch ein bischen am filter herumdreht weil er den klang vom filter so mag, ist das "musik machen"?

ich denke nein. das ist musik laufen lassen und nicht musik machen.


mal ganz davon abgesehen, dass es überhaupt keinen grund gibt, beim thema "musizieren vs. musikproduktion" die klassische musik von vorneherein reflexartig auszuschließen, so als ob die dabei irgendwie irrelevant wäre und getrennt betrachtet werden müsste.

klassische musik wird genau so live gespielt und für tonträger oder streaming im studio produziert wie andere musik auch.

live gespielt wird sie vermutlich sogar von viel mehr menschen als technogedudel.

wer zwischen e-musik und u-musik unterscheidet und behauptet u-musik würde nicht komponiert, entwertet damit auch seine eigene arbeit.

oh, verzeihung. :) das mit der "arbeit" ist ja auch noch umstritten! die welt muss noch viel von mir lernen.


Improvisation wird gerne als Ad-Hoc Komposition bezeichnet.

richtiges beispiel, beim improvisieren kann man schwer sagen, wo genau der unterschied nun eigentlich sein soll, was für die einen der performance dient und unter "Musik machen" fällt, ist für di anderen eher eine kompositionsmethode, bei auch schon mal was ganz neues entsteht.

interessant ist hier, dass der jazz recht hat, denn er macht hier nur das, was jahrhunderte lang vollkommen normal war.

denn kompositionen in dem sinne, als dass es eine unverrückbar feststehende melodie gibt, das gibt es eigentlich erst seit der erfindung des urheberrechts (bzw. des tonträgers.) vorher sagte man nicht "melodie" sondern "thema", und das thema wurde immer so variiert, wie man gerade lust hatte.

diese mündlich überlieferten themen hatten dann irgendwann gegenüber den schriftlich festgehaltenen, feststehenden melodien keine chance mehr.
 
Zuletzt bearbeitet:
Also ich produziere Musik. Das ganze Hybrid. Heißt ich sitze in meinem akustisch behandeltem Studio zu Hause vorm PC mit 2 Monitoren + 2 Abhörmonitoren und habe über 20 Hardwaresynths um mich herum, meist Analog. Damit produziere ich in der DAW Studio One 6 Tracks. Ab und an schraub ich auch einfach mal nur an einem Synth um der sturen Produziererei entgegenzuwirken. Das nenn ich dann jammen. So lerne ich den Synth noch besser kennen und wenn ein geiler Sound entsteht bei dem ganzen fang ich daraus einen Track an. Zu 80% produzier ich nämlich nach Schema. Zuerst Kick und Bassline bauen u.s.w
Dazu gehört noch mittem im Produzieren das Sounddesign um jedem Sound seinen perfekten Klang zu verleihen.
Da arbeite ich allerdings nur in the Box mit UAD, Brainworx und Co.
Hatte auch mal Outboard Equipment, aber nach langem Tests zwischen Original Hardware UAD und Plugins konnte ich keinen wirklichen Unterschied hören und fand es dann sinnlos den Raum noch voller Hardware EQs, Konpressoren u.s.w zu haben. Bei Hardware Synthesizern dagegen hör ich da einen deutlichen Unterschied. Speziell bei VCO Synths. Aber selbst der Hydrasynth klingt als Digitaler geiler als jedes Plugin.
Das einzige was an Hardware in Sachen Sounddesign für mich noch Sinn macht ist ein Analog Summierer. Den von Tegeler oder SPL kauf ich irgendwann noch. Aktuell habe ich da eine Softwarekette in der Summe die das ganze in etwa so klingen lässt. Denn wenn man rein nur seinen Mix ohne was auf der Summe exportiert klingt das zu steril und die Transienten sind zu spitz. Durch die Analoge Verzerrung der Transienten durch einen Analogsummierer oder gutes Analog Mischpult, werden die Transienten etwas abgerundet und klingen weicher ohne spitz zu wirken. Das macht einen Mix nochmal angenehmer.
Um meinen Sound mit abgerundeten Transienten mit nur Plugins zu erreichen habe ich folgende Plugi Kette auf der Summe:

- Dangerous Music BAX EQ im MS Modus um einen Mitten Lowcut und Seitenlowcut getrennt zu bearbeiten

- Nugen Monofilter um alles unter 100Hz Mono zu haben. Hier wird aber bei 200Hz hinunter zu 100Hz weich geblendet um es nicht anfehackt zu haben

- UAD Ampex mit neutral Preset. Klingt schon wirklich super nach Tape mit dieser Einstellung. Nur noch das Rauschen justieren.

- SPL Vitalizer um mehr kompakten Wumms zu generieren

- Softube Overstayer um diesen abgerundeten Analog Transienteneffekt zu bekommen. Macht dieses Plugin genial.

Nur mit diesen Plugins in der Kette und genau der Reihenfolge wird mein Sound gut. Trotzdem kauf ich irgendwann einen Analogsummierer von Tegeler und SPL wenn ich Kohle habe, weils damit einen Tick besser wird. Eventuell noch eine API Lunchbox um das Recorden von einzelnen Hardwaresynths direkt vorm Recorden zu bearbeiten. Das spart Zeit.

Das ganze ist für mich musizieren. Musizieren und Musikproduktion vereint. Aus dem Nichts einen Track zu erschaffen der auf ewig in Form von einer WAV Datei festgehalten wird und mit der Menschheit geteilt wird.
Musik schaffen.
Das musizieren ist dabei das Schrauben und spielen eines Hardwaresynths bis der richtige Sound und Melodie zum Recorden geschaffen wurde.

Einfach nur in dem Stil musizieren ohne am Ende des Tages etwas verwertbares für einen Track zu recorden ist für mich sinnlos und Zeitverschwendung.

Bei Synthesizern würde ich am liebsten alle Plugins vom Rechner löschen und alle durch Hardwaresynths ersetzen. Leider fehlt mir dafür die Kohle. Also nutze ich wohl oder übel auch ab und an einen VST Synth.
Geht aber nix über Hardware.
Selbst mein VirusTI Polar klingt in seinem Bereich besser als jedes Plugin. Unerreicht !
 
Zuletzt bearbeitet:
... man könnte folgende Frage stellen:
Ist der Computer Instrument zum musizieren - oder ist der Computer Werkzeug für das musizieren?
 
Einfach nur in dem Stil musizieren ohne am Ende des Tages etwas verwertbares für einen Track zu recorden ist für mich sinnlos und Zeitverschwendung.

Wie Du es schilderst bist Du vermutlich auch kein reiner Freizeitmusiker sondern zumindest semiprofessionell. Dann spielt die Verwertbarkeit natürlich eine Rolle.

Den Leuten mit Bass und Bier oder mit DX7 vorm Fernseher geht es halt eher um den Spaß an der Sache - beides hat seine Berechtigung.

Die Frage am Anfang lautete schließlich "wie machst Du Musik", und in dem Zusammenhang würde mich mal interessieren, was der Kollege einseinsnull eigentlich so macht?
 
Ich mache Musik und will mich damit ausdrücken. Ich will Stimmungen und Gefühle erzeugen, die man so vorher vielleicht noch nie gehört oder gefühlt hat. Vielleicht ist das auch nur eine Hilfe, um meinen eigenen Gefühlen einen Ausdruck zu verleihen, der sonst auf der Strecke bleibt.

Ich arbeite meistens sehr zielgerichtet auf ein Produkt hin, weil ich mich sonst in Details verliere, die für sich genommen keine Musik sind und mir auch keinen längerfristigen Spaß bereiten. Ich will die spontane Stimmung einfangen und verewigen, also ein Kunstwerk schaffen, welches die Zeit überdauert. Eigentlich ist das wie Fotografieren, nur dass man wesentlich freier in der Wahl des Motivs ist.

Aber tatsächlich würde ich gerne auch mal ein Instrument richtig spielen können, einfach zum abschalten, rumspielen, klimpern, den Moment genießen.
 
Ach, jeder kann doch seine Meinung äußern, solange er dabei nicht abwertend wird. Wenn ich Wikipedia richtig verstanden habe, dann nutzt man Begriffe wie Komposition oder komponieren eher für Klassische Musik, alles andere ist dann mehr Arrangieren: https://de.wikipedia.org/wiki/Komposition_(Musik)

"...
Vom Komponisten werden in vielen Musikrichtungen Bearbeiter bzw. Arrangeure unterschieden, die zu vorgegebenen Melodien und Harmonien einen musikalischen Tonsatz oder eine Arrangement für andere Besetzungen schreiben.
..."

und

"...
Edward Kennedy „Duke“ Ellington (* 29. April 1899 in Washington, D.C.; † 24. Mai 1974 in New York City) war einer der einflussreichsten amerikanischen Jazzmusiker. Als Pianist war er einer der wichtigsten Neuerer des Stride-Piano. Als Komponist verfasste er annähernd 2000 Kompositionen (Lieder und Suiten), von denen bald hundert zu Jazzstandards wurden.
..."

Ich sehe da einen gewissen Widerspruch.

Grüße
Omega Minus
 
Echtzeit:
musizieren, Musik machen. ...

nicht Echtzeit:
Musik arrangieren, Musik produzieren, ...

Kennt eine ein gute Antonym *) zu Echtzeit?

Grüße
OmegaMinus

*)
Das Antonym zu 'Synonym' ist 'Antonym'.
 
Falschzeit? Zeitagnostisch? Aus englischen Quellen hab ich batch-processing, aber, hm ...

Das ausschlaggebende an Echtzeit ist ja die fehlende verlustfreie Korrigierbarkeit, der Unabänderlichkeit der einmal ausgesandten "Signale".

Selbst "Offline-Synthese" passt nur bedingt. Wenn du Aufnahmeschnipsel arrangierst, synthetisierst du ja nicht.
 
Zuletzt bearbeitet:
Kennt eine ein gute Antonym *) zu Echtzeit?
Im "Hier und Jetzt"
Im Flow sein
Im Moment sein.

Longlist:
Im Sein sein.
Ich sein.
Sein, nicht müssen.
Sein
(?)

Der Begriff "Echtzeit" braucht Prozessoren.
'Nicht Echtzeit' bei Menschen ist Arbeit.

Aber vielleicht bin ich da auch zu subjektiv im Hier und Jetzt grad.
 
Zuletzt bearbeitet:
Ich kann sequenzierte Gates und Kompressoren Grooves erzeugen lassen (Musik).
Oder eine Katze 10 Minuten über Synth-Tasten laufen lassen und daraus 5-sekündige Melodien extrahieren. (Musik)
Wer da was "produziert" (oder auch musiziert) ist mir schnuppe. (Katzen, Katzentatzen; Circuits, Parameterbewegungen; Sequencer die Parameterbewegungen verzögern; Sequencer, die Parameterbewegungen verzögern, die von Katzen- oder Menschentatzen verursacht wurden; Strom.)

Musizieren geschieht im Kopf, produzieren geschieht nicht im Kopf. Würde ich mal behaupten.
Geschieht beides gleichzeitig kann geiler Klang im Raum erzeugt oder geschaffen werden. (nicht "NUR produziert" oder "NUR musiziert")

Wenn ich diesen Klang dann verkauft kriege, produziere ich Produkte und generiere Geld damit, keine Musik.
Ergo: Der Begriff "Produktion" ist genauso unscharf, wie die oft unklare Verwendung von "Musizieren" vs. "Musikproduktion"

Ich würde sagen: Im richtigen Moment und im richtigen Kontext feststellen, dass man sich auf die Bedeutung von Begriffen einigen muss, ist Gold wert.
Ich verstehe diesen Thread als Erinnerung daran.

Von daher: Danke Horn. :)

Sprache ist echt nicht leicht, wenn man es ernst damit meint.
Nun können Worte aber alles. Das ist die Chance.
 
Zuletzt bearbeitet:
Die Frage am Anfang lautete schließlich "wie machst Du Musik", und in dem Zusammenhang würde mich mal interessieren, was der Kollege einseinsnull eigentlich so macht?

hätte ich noch dazu scheiben sollen, dass ich keine lust habe mich daran zu beteiligen? ich dachte das wäre klar.

und vermutlich gehlre ich zu den vielen, die das gar nicht klar beantworten könnten, weil sich das alle paar jahre radikal ändert.

aber versuchen wir es mal in kurzform... weil du es bist.

erst klavier, dann homerecording, dann konventionell produziert, um die jahrtausendwende dann relativ schnell der bildschirmarbeit verfallen und musikalisch richtung experimentell gewechselt, zwischendurch tausende von bach und chopin bearbeitungen erstellt, hunderte von plug-ins und diverse sequencer- und audioeditor systeme erstellt, die ein oder andere technologie erfunden und vermarktet.

unterm strich bin ich also wohl eher so eine art philosoph, der sich diverser computersysteme und einem permanenten kampf mit den verhältnissen auseinandersetzt als denn ein "musiker".
der größte spass für mich ist komplexe probleme zu lösen (und z.b. eben nicht in einer scheune betrunken tuba zu blasen) dass ich als gelernter pianomann inzwischen nicht mal mehr einen keyboard controller im heimstudio aufgebaut habe sagt vermutlich schon alles über diese entwicklung.
die so mancher wohl eher in anführungszeichen schreiben würde...

"alles mit musik" ist für mich einfach nur eine kunstform, ähnlich wie ich auch das meiste, was ich politisch und gesellschaftlich mache, unter "kunst" einsortiere (ausnahmen bestätigen da nur die regel)

aktuell habe ich die tägliche doppelschicht politik eingestellt und arbeite an digitaler kunst in form von bild- und filmwerken. die verwandtschaft zum schöpfen von werken der musik dürfte dabei außenstehenden unerklärlich sein, für mich ist das im prinzip alles das gleiche.

da meine ziele dabei zu 95% nichtkommernziell sind, schaue ich auf werkzeuge nicht zwnagsläufig nur unter dem aspekt, ob es meine exakten bedürfnisse befriedigt, sondern lasse mich auch einfach mal davon inspieren, was man mit einem neuen werkzeug so alles herumspielen kann, ohne dass vorher eine konkrete anforderung da gewesen wäre.

ich bin anhänger der "never change a running system" glaubensgemeineschaft, halte mich aber leider allzuoft nicht an die regeln.
 
Echtzeit:
musizieren, Musik machen. ...

nicht Echtzeit:
Musik arrangieren, Musik produzieren, ...

würde ich so nicht sagen.

eine musikproduktion kann schon daraus bestehen, dass erst eine band ihr stück live einspielt und dann jemand hinterher die spuren noch mal von vorne bis hinten durchspielt.

bei klassik, jazz, metal usw ist das overdubbing genauso unbekannt wie das klötzchen schieben. da wird musiziert und aufgenommen.


in der ITB welt ist die abgrenzung einfacher:

realtime ist, was sich an die video framerate hält oder dem audiotakt vom DAC treiber folgt, und nonrealtime ist, wenn diese rate davon abweichend oder auch komplett dynamisch ist, z.b. um sie entweder so schnell wie möglich oder auch langsamer als in echtzeit abzuspielen.
beim rendern von dateien schneller in realtime spart man zeit - beim rendern langsamer als in realtime können dadurch berechungen durchgeführt werden, die in realtime bei über 100% der CPU leistung liegen.
 
@einseinsnull, gut, das auf die ITB-Welt bezogene war jetzt die technische "low level"-Ebene. Aber ist die für Musiker irgendwie tatsächlich relevant?
beim rendern von dateien schneller in realtime spart man zeit - beim rendern langsamer als in realtime können dadurch berechungen durchgeführt werden, die in realtime bei über 100% der CPU leistung liegen.
Du baust hier eine willkürliche Lichtmauer auf. Oder, historisierend, eine Pferdemauer ähnlich zu:
"Bei Reisegeschwindigkeiten schneller als die, die ein kräftiges Pferd zu Wege bringen vermag, ist mit Übelkeit oder gar Vomission zu rechnen. Daher räth der Verbandt der Postkutschenverleiher von der Nutzung der Eisenbahn für die Personenbeförderung ab."
Wohlgemerkt immer aus Musikersicht, soweit ich mich in diese einfühlen kann.
 
also, dass es einen großen unterschied macht ob ich ein gitarrensolo in einem durch auf einer bühne spielen darf und muss oder ob ich es im studio nach stundenlangem warten auf befehl und so lange erneut spielen muss bis es perfekt ist, das steht doch außer frage.
ich würde es nur nicht als "nonrealtime" bezeichnen, da sich dieses attribut ja auf signale bezieht (und nicht auf kognition), und der instrumentalist im studio ja nicht an der uhr drehen kann während er spielt sondern eine minute dort genauso eine minute dauert wie auf der bühne.
 
Für mich sieht das so aus:
Musizieren -erlebnisorientierte "Geräuschstrukturerzeugung" gern mit mehreren Gleichgesinnten mit Hardware gemeinsam wobei wir uns gern im Momentum treiben lassen
Produzieren -ergebnisorientierte "Geräuschstrukturerzeugung" eher allein mit DAW hybrid(immer mehr ITB mit einer einigermassen konkreten Zielsetzung.
 
Ersteres - auch ohne unzuverlässige, unpünktliche, bekiffte ... Gleichgesinnte - geht auch in der DAW ; ist dann aber eher ein Monolog, als ein Dialog :)
 
Der Dialog respektive die Interaktion zwischen den(m) Musizierenden und/oder dem Publikum geben dem Musizieren seine eigentliche Bedeutung und Charme.
Natürlich kann man auch alleine musizieren, das ist aber nur halb so reizvoll.

Da gebe ich Dir Recht. Ich kann mich noch an Live- und Bandmaschinenzeiten erinnern: einmal verhauen, und das wars. Daher genieße ich den Luxus, in der DAW kleine Verhacker oder Tempofehler einfach mit ein paar Mausklicks korrigieren zu können.

Gerade scheint die Diskussion ja irgendwie in Richtung "technoide Ödnis" zu gehen: mit der DAW kommt die Vereinsamung des Künstlers, und in der Band war alles besser (gut, ist jetzt sehr karikiert, aber Ihr wisst schon, was ich meine). Ja, Band/live hat mehr Spaß gemacht, das war "voll im Leben". Konnte aber auch richtig stressig werden, wenn das Drummer mal wieder Krach mit seiner Freundin hatte, man sich wieder mal nicht auf ein Programm einigen konnte, der Probenraum gekündigt wurde ...

Ich mag die stillen Momente, in denen mich alle einfach mal in Ruhe lassen können (um es höflich zu sagen), in denen ich mich von Klängen verzaubern lasse, ohne irgendeinen Sinn dabei zu sehen oder ein konkretes Ziel vor Augen zu haben.

Wenn ich mir diesen Thread ansehe, haben wir durch die Bank recht unterschiedliche Workflows, Vorlieben, Zugänge etc.. Aber allen gemeinsam ist doch der Spaß an der Musik. Freue mich daher weiter auf viele andere Meinungen.
 
@einseinsnull einverstanden, umso mehr wundere ich mich, dass du da mit der technischen Bedeutung von realtime umme Ecke kommst. Das hat null damit zu tun. ITB/OTB-Unterscheidung scheint mir fingiert, DAC Sync oder nicht mag ne Rolle spielen, wenn es darum geht Aussetzer beim Playback zu beseitigen.

Ist es nicht erst mal für den Musiker egal, ob ein Plugin technische Echtzeitfähigkeit für sich beansprucht, es aber nicht einhalten kann wegen zu viel IO oder falscher Konfiguration (genauer, im inneren Workflow werden an einer Stelle Daten mit zu hoher Latenz verworfen), oder ob das Plugin nicht echtzeitfähig ist, aber in der Hoffnung angewendet wird, die Hardware sei leistungsstark genug, dass die Latenzen zu vernachlässigen sind? Das Aufkommen der Quantentechnologie könnte da einige Karten neu mischen.

Musiker, also die mit professionellem Auftreten und Bühnenerfahrung vor sitzendem Publikum (keine DJs), sind daran gewöhnt, dass es eine zeitlich simultane Beziehung gibt zwischen der Manipulation am Controller und dem Erklingen eines Tons oder einem Effekt auf Tönen. Das ist Echtzeit, das ist Musizieren.
 
Aber allen gemeinsam ist doch der Spaß an der Musik.
Wobei die Zeit vorm Rechner bei mir echt zäh, mental anstrengend und meistens dann auch frustrierend ist. Mit dem Begriff "Spaß" kann ich das nicht so richtig in Einklang bringen. :mrgreen:

Aber klar, ne grundsätzliche Freude an Musik (von anderen) ist natürlich da, sonst würde ich mir das nicht geben.
 
Musiziere ich einfach improvisierend ohne Ziel vor mich hin, ertappe ich mich oft bei dem Gedanken "klang klasse, wäre auch für andere schön gewesen, hättest Du aufnehmen sollen".

Wenn ich mich aber aufzunehmen und zu "produzieren" versuche, will ich etwas erreichen, verkrampfe – und so klingt es dann auch.
 
Musiziere ich einfach improvisierend ohne Ziel vor mich hin, ertappe ich mich oft bei dem Gedanken "klang klasse, wäre auch für andere schön gewesen, hättest Du aufnehmen sollen".

Wenn ich mich aber aufzunehmen und zu "produzieren" versuche, will ich etwas erreichen, verkrampfe – und so klingt es dann auch.

das scheint ein grundsätzliches (psychologisches?) Dilemma zu sein, kann ich gut nachvollziehen.
 
@einseinsnull einverstanden, umso mehr wundere ich mich, dass du da mit der technischen Bedeutung von realtime umme Ecke kommst. Das hat null damit zu tun.

ich kenne überhaupt nur diese bedeutung.

im kontext von "musik am rechner arrangieren vs. live musizieren" ist mir der begriff nonrealtime noch nie untergekommen.

oder hast du schon mal einen gitarristen sagen gehört "bildschirmarbeit finde ich doof, ich mache lieber auf der kontinuierlichen zeitebene musik"?

Ist es nicht erst mal für den Musiker egal, ob ein Plugin technische Echtzeitfähigkeit für sich beansprucht, es aber nicht einhalten kann wegen zu viel IO oder falscher Konfiguration (genauer, im inneren Workflow werden an einer Stelle Daten mit zu hoher Latenz verworfen), oder ob das Plugin nicht echtzeitfähig ist, aber in der Hoffnung angewendet wird, die Hardware sei leistungsstark genug, dass die Latenzen zu vernachlässigen sind?

sofern ich dich richtig verstanden habe: nein.

drei beispiele:

1. es ist eine absolut realistisches szenario einen PC als klavier sampler zu benutzen, und ihn auf der bühne live zu bespielen - um dann später das live eingespielte im studio noch mal mit höherer qualität zu rendern, weil diese höhere qualität live gar nicht geht.
das allererste dedizierte piano instrument (the grand, ja ich weiß, schrecklicher sound) hatte genau aus diesem grund einen low quality modus, denn damals hat es noch einen verdammten unterschied gemacht ob man 88 samples gleichzeitig in 16 oder in 32 bit abspielen muss.

2. du machst was mit reynthese, additiver synthese oder FFT in kyma, live spielen kannst das dann in der qualität, die die kiste hergibt, rendern kannst du 10 mal höher aufgelöst

3. du spielt einen synthesizer mit 30 stimmen in max oder cubase an um etwas auszuprobieren, später renderst du das mit zehn mal so viel stimmen parallel, was live nicht ginge.

Musiker, also die mit professionellem Auftreten und Bühnenerfahrung vor sitzendem Publikum (keine DJs), sind daran gewöhnt, dass es eine zeitlich simultane Beziehung gibt zwischen der Manipulation am Controller und dem Erklingen eines Tons oder einem Effekt auf Tönen. Das ist Echtzeit, das ist Musizieren.

ja, aber von der performance einer rock band gibt es doch gar keine version in nonrealtime.

und warum unterstellen die leute immer, dass man computer nicht live modulieren könnte? das geht mit PCs genauso wie mit einer ukulele.

genau wie auch umgekehrt "produktion" beinhalten kann, dass musiker live musizieren und stücke von vorne bis hinten einmal ganz durchspielen beim recording - bis him zu improvisierten einlagen.

auch "live alben" werden "produziert".
 
genau wie auch umgekehrt "produktion" beinhalten kann, dass musiker live musizieren und stücke von vorne bis hinten einmal ganz durchspielen beim recording - bis him zu improvisierten einlagen.

auch "live alben" werden "produziert".

Und da ist der Moment, in dem der Musiker den Track einspielt, im Modus 'musizieren'.

Um es auf die Spitze zu treiben:
Musiker A spielt Track 13 ein.
Das wäre in Deiner Denk- oder Bezeichungsweise 'produzieren'. Weil - wird ja aufgenommen.
Jetzt hat aber jemand leider das Kabel aus dem Mischpult gezogen und es wurde nicht aufgenommen.
Hat der dann plötzlich musiziert?

Oder ich Improvisiere auf dem Piano, ich mache Musik.
Ups, vergessen die Aufnahme zu stoppen,es wurde aufgezeichnet in der DAW ... ich habe jetzt produziert?

Soll zur Illustration dienen, bitte dieses Beispiel nicht kaputt diskutieren, das bringt nichts und keinen weiter. :cool:

Das meine ich mit 'Echtzeit':
Ich spiele in Echtzeit, egal, ob das zu welchen Zwecken auch immer aufgenommen wird.
Ich habe in Echtzeit 15s Zeit, um 15s Musik zu machen und diese 15s verlaufen gleichmäßig.
Ohne Ctrl-Z, C&P und Snap!.

Nicht, ich kann endlos Töne verschieben, ausprobieren, bis das fertige Produkt vielleicht irgendwann hinten rausfällt. Das wäre für mich(!) eher produzieren.

Wir versuchen gerade eine technische Defintion von einem Gemütszustand.
Ich denke, der Unterschied ist, was gerade im Gehirn passiert.

YMMV

Grüße
Omega Minus
 
Zuletzt bearbeitet:
Patches von Devine‘schen Ausmaßen, der Versuch, riesige Netzwerke noch zu erdenken, Knotenpunkte, Kreisläufe, auf den Knien vor Millimeterpapier. Mit den Ohren im Dreieck noch in die kleinste Nuance kriechen, Aufnahme, Stopp, Aufnahme, Dateiberge, Schnitt, Schnitt, Schnitt.

In eine technische Welt hineingeboren, erste Erinnerung, the rumble in the jungle, Fernsehen
(bilde mir auch ein, mich an die Mondlandung zu erinnern). Monitorwände, was haben 200.000
LEDs aus mir gemacht? Twin Towers, Kernschmelze im Newsroom.

Produzieren, produzieren, 24h. Lebt Bana Alabed noch? Der Versuch, eine Festung gegen die Bilderfluten zu bauen, ein akustisches Kettenhemd auf dem Webstuhl weben.

Die Synapsen glühen, an Schlaf nicht zu denken. Sackgasse. Lachen, alles dasselbe Benthamsche Panoptikum.

Ohne Musizieren wäre ich nicht mehr hier, Stärke im Slum der Realität, in der Realität des Slums, Shoppen in der Schönstedtstraße. Das ist weit gefasst. Da beginnt es, die Stimme. Orte können ein Brummen, ein Summen, Singen und Schreien in mir auslösen, das Pfeifen im Walde.

Akustische Erinnerungsschätze, auf zahllosen ziellosen Wanderungen durch die Stadt erbeutet,
in der Schatztruhe meines Lebens. Die Kornmühle an der Oberbaumbrücke, der metallene Getreidespeicher, den Kopf in der kleinen Luke, das Summen im Hall. Wie ich tagelang keine Lösung gefunden habe, ein Loch zu finden, um ein Seil herunter zu lassen, auf dem Grund im Hall zu sitzen. Kabelwerke Oberspree, die tote Enge der oberen Büros, die pochenden Töne der
Gusseisenleichen in der Maschinenhalle.

Die elementare Körperlichkeit des Musizierens. Beim Kehlkopfgesang, wenn genau die Frequenz da ist, obere und untere Schädeldecke geraten in Vibration und bilden einen ganz eigenen Resonanzraum, eine Art Hall im eigenen Kopf. Im Drone, am Didge, wenn der Punkt erreicht ist, das die Bauchmuskeln diese konditionell so anspruchsvolle Spannung halten können, Lunge und Gesichtsmuskeln dagegen entspannt, die Kreisatmung in vollkommenen Fluss, wenn der lange unendliche Ton entsteht, und dann, in diesem so seltenen Moment, die silbernen Schlangen am Boden aus allen Richtungen Dir die Beine hinaufsteigen, vom Rückenmark in den Kopf in reines Licht explodieren.

Wie ich mich freue, wenn ich Shabaka Hutchins, Brighde Chaimbeul oder Angel Bat David sehe und höre, was für schöne Sonnengeflechte. Wie viel Frieden die von einer Gruppe gesungenen gemeinsamen Obertöne geben können, das haben wir zusammen geschafft, der Ton schwebt über uns allen.

Wenn ich Didgeridoo auf einem Soldatenfriedhof spiele und versuche, die so sinnlos Gestorbenen zu trösten. Überhaupt, der Trost, Musik als Beginn und Ende des Lebens, als Übergangsritual.
Die Menschen, die in meinen Armen gestorben sind, spontan entstand ein Mantra, eine kleine Melodie, um den Übergang zu erleichtern, hey, ich bin da, meine Stimme ist bei Dir. Diese Mantren und Melodien kommen immer wieder und verbinden mich mit den schon Gestorbenen, alle haben hier ihre einzigartige Linie der Erinnerung in mir gezogen.

Das alles ist Musizieren, vielleicht sind das auch mehr Aspekte, die grundsätzlich in unserer Gesellschaftsform verloren gegangen sind. Ich bewundere Menschen, die versuchen, Kindern genau dieses Gefühl zu vermitteln: Da ist mehr in der Musik als Spotify und Produzieren.

Aber sicher, ich würde nicht in einem Synthesizer-Forum schreiben, wenn nicht beides da wäre,
auch ich kann nicht ganz aus der technischen und ökonomischen Haut, kenne ja seit meiner Geburt nichts Anderes.

Doch mir ist klar, wenn ich genau jetzt wegen eines Brandes das Haus verlassen müsste,
würden Computer und Modularsystem hierbleiben, ein Arm voll Blasinstrumente kämen mit.
 


News

Zurück
Oben