Klang und Musik synthetisiert anhand Textbeschreibung – Hörbeispiele

D

D1g1t4l D3t0x3r

Offline bis Juli '24. Erreichbar via PN.
[Längeren Sermon gelöscht. Nicht dass Leute deswegen aussteigen.]

Hört sich zwar ungefähr wie Klavier an, ist aber "selbstgemacht". Der Klang ist weder gesampelt, noch habe ich Physical Modelling betrieben, reine Mathematik ists, Sinusfunktion, polynombasierte (Bèzier-Bernstein-approximierte) Envelopes und additive Synthese. Selbst gemacht ist auch die Komposition an sich.

Kommentare erwünscht. Auch kritische, natürlich.
 

Anhänge

  • anfaengerstueck_1.mp3
    2 MB · Aufrufe: 62
Zuletzt bearbeitet:
Die Komposition klingt klassisch Barock, das Klavier jedoch kommt nicht über die Qualität eines Bontempi keyboards. Weiß nicht welches Instrument du verwendest hast, in einem Kawai k5000 bspw. steckt mehr Potential, als das was ich eben raushörte. Du hast versucht ein Klaviersound zu erzeugen und das ist dir im weitestgehenden Sinne durchaus gelungen.
Versuch mal noch ein bisschen mehr aus dem Instrument zu holen. Es lohnt sich.


Ist denn die Sinusfunktion nicht eher ein Begriff aus der Trigonometrie ?
 
Naja, ein "Instrument" habe ich nicht verwendet, es ist von Grund auf selbstgemacht bzw. programmiert, wie der Threadtitel schon sagt. Das kann man mit vorhandenen, nicht musikspezifischen Mitteln, viel Zeit zum autodidaktischen Wissenserwerb vorausgesetzt, solange man halt darauf verzichten kann, in Echtzeit Musik produzieren zu wollen. Mit dem Anspruch wär ich wohl über kurz oder lang bei fertigen Lösungen gelandet.

Der Bontempi- oder Melodica-Vergleich lässt mich jetzt nicht so wirklich kalt. Aber was solls, ich wollte ja Kritik, daran kann ich und mein Klavier reifen, und außerdem war das Klavier anfänglich im Diskant ein Akkordeon. Aber auch unabhängig davon glaube ich auch nicht, dass ein Bontempi-Keyboard (ich hatte nie eins, kann es nicht beurteilen), vom tiefsten bis zum höchsten Ton so klingt wie in meinem Durchlauf ... (Achtung, Lautstärke reduzieren, die höchsten Töne sind eine Zumutung für Ohr und Technik.)

Am Diskant muss ich halt immer noch arbeiten. Oder weiß nicht, könnte auch mal ne Zeitlang auch einfach Klangexperimente ohne "Vorbild" machen sollte. Ein Beispiel, wie das Stück auch klingen kann, wenn ich mal ein bisschen spiele mit meiner unendlichen Parametrik (wie sie wohl jedes Tonstudio hat), findest du im Anhang. Okay, gut klingen geht anders, das kommt eben beim freien naiven Experimentieren raus.

Wie kommst du auf Barock? Nur interessehalber. Ich meine, dass das kein kontrapunktisches Zeug ist oder Chanson oder was aus dem Stammbaum der modernen Musik, muss nicht heißen, dass es Barock ist, und nicht alle homophone Musik kann man dieser Epoche zuordnen. "Alle meine Entchen" kann man auch mit ner Harmonie versehen, und daraus wird dann trotzdem kein Barock. Also jedenfalls find ich es witzig, dass es in deinen Ohren so klingt und wenn du Zeit und Gelegenheit hast, bin ich ganz Ohr, äh, Auge.
 

Anhänge

  • anfaengerstueck_1.mp3
    2 MB · Aufrufe: 2
  • piano_A0-C8_52keys.mp3
    564,9 KB · Aufrufe: 277
Zuletzt bearbeitet:
Also dafür dass es programmiert und errechnet ist , Hut ab ! Ein wenig mehr Dynamik, innerhalb der Komposition würde es schon viel weiter weg von dem starren Raster helfen (Laut/Leise)
 
Will mich nicht auf Barock festlegen. Wollte nur andeuten, dass es dem Gefühl aus einer vergangenen Stilepoche stammt.

Ich verstehe noch nicht so ganz, auf welcher Basis du das programmiert hast.
 
Klingt ab 0.05 eher nach iiijjjjaaa als nach Klavier, es fehlt ein wenig Charakter, so ein Instrument besteht nicht nur auf Formanten. Ist wie bei 3D Grafik, wenn die Texturen fehlen.
Zu den tiefsten Basstönen habe ich auch das meiste aus der Literatur ziehen können. Je weiter rechts es geht auf der Klaviatur, um so mehr muss ich annehmen aus reiner Intuition. Ich versuche auch immer, am Kawai-Konzerter meines Lehrers Klänge abzulauschen und mir die Charakteristika einzuprägen.

Ich muss mich selbst ständig zu Geduld ermahnen bei der Arbeit. Das sind wirklich Pikometerschrittchen, die ich von einem ... "Orgeldeon" :D in den Anfangstagen in Richtung Konzertflügel unternehme. Die Entwicklung der Konzertflügel hat ja auch schon 400 Jahre Erfahrung, die kann ich beim besten Willen nicht aufholen, zumindest ist es absolut illusorisch in den gut anderthalb Jahren, seitdem ich mich mit Musik überhaupt beschäftige.

Erschwerend kommt hinzu, dass das Ohr wie die anderen Sinne sehr vorurteilsbehaftet ist. Ich werde also auf immer schon den Kawai-Konzertflügel meines Klavierlehrers heraushören, tendenziell, eine andere Testhörerin wird immer sagen, es sei immer noch sehr synthetisch, da sie nun mal nur auf echte Instrumente steht. Rein statistisch betrachtet muss ich daher wohl anerkennen, dass das Bontempi-Urteil wohl das realistischste ist.

Eben habe ich noch an den Obertönen geschraubt, die gegen Ende des Tons nicht so stark abfallen sollen wie der Grundton (eine Annahme), in der Hoffnung, dass die Töne im Diskant voluminöser werden. Was mir noch entschieden fehlt ist der Anfangspling, der so typisch ist für die höheren Oktaven. Am schlimmsten (lies: herausforderndsten) wäre es, wenn ich herauskriege, dass diese in einer Größenordnung von Halbtönen tiefer anklingen und erst Hundertstelsekunden später die Solltonhöhe erreichen.

Ich verstehe noch nicht so ganz, auf welcher Basis du das programmiert hast.

Gefragt, kann ich ja gewissenlos ausholen ... :D
(Wen das nicht so detailliert interessiert, kann schon mal den ollen Mozart hören. "Alla Turca"-Klaviersonate Nr. 11 (K331), 3. Satz hören. Ohne Gewähr, dass das alles wirklich richtig klingt, Noten lesen kann ich nämlich noch nicht so hundert pro: . Am Ende dieses Beitrags findet ihr Links zu den vollständigen Quelltexten, die, verarbeitet durch das Programm, zu genau obigem Output (im Wav/Flac/Ogg-Format) führen würde.)

Kurze Antwort auf deine Frage ...
Auf Basis eines handelsüblichen Laptops mit Python. Python ist eine allgemeine "General-Purpose"-Programmiersprache, mit der man genauso gut auch einen Taschenrechner machen könnte, oder Webapplikationen, z.B. ein Forensystem wie das hier.

Ausführlicher ...
Natürlich habe ich das nicht wirklich 100% alles selbst gemacht, sonst könnte ich wohl auch über Wasser gehen. Sondern ich benutze fremdprogrammierte Erweiterungspakete, die mein Programm als Abhängigkeit für den Betrieb voraussetzt. Dabei ist es ein Anspruch, den ich an mich gestellt habe, mich nur auf eine minimale Anzahl von solchen Erweiterungen zu stützen, die ihrerseits nichts als Python selbst voraussetzen und welche zudem nicht selbst musikspezifisch sein dürfen.

Unter den verwendeten Erweiterungen ist die, die bezüglich dieses geforderten Nichtzusammenhangs mit Musik am ehesten zu bekritteln wäre, für die Formatierung der Millionen selbstberechneter Zahlen nach wav, flac, ogg etc. verantwortlich. Diese Zahlen repräsentieren jeweils die Auslenkung eines hypothetischen Luftteilchens zu einem einzigen Zeitpunkt und könnten roh in einer Reihe nicht von einem beliebigen Audioplayer abgespielt bzw. von einer beliebige DAW importiert werden, denn es fehlten jegliche Metadaten, wie die Bytesequenzen zu lesen sind. (So eine Zahl wird übrigens auch "Sample" genannt, dieser Begriff bezieht sich allerdings öfter auf komplette Audiofragmente.)

Die Berechnung der Zahlen geschieht mit eigener Algorithmik, die ich anhand der Informationen aus Tafelwerken und mathematischer Websites und einem Haufen ausgelaugter grauer Zellen entwickelt habe. Eine weitere Python-Erweiterung namens "numpy" gewährleistet mir nur, dass sie durch Low-Level-Optimierung annehmbar fix ausgeführt und dabei kein Speicher verschwendet wird.

Und dann gibt es noch eine Erweiterung, die ich einfach verwende, die das hierarchische Textformat YAML liest und schreibt. YAML stellt die Syntax, also das "Metaformat", wie das bekanntere XML, das ist mir aber zu verböse. Im Rahmen dieser YAML-Syntax ist mein eigenes Format entwickelt, denn soweit ich MIDI verstehe, ist mir das zu ungeeignet dafür, nicht nur Musik zu machen, und das auch nur mit Einschränkungen, wenn auch Tausende von Musikern damit zurechtkommen (ich nicht, bin da waschechter Eigenbrötler), sondern auch Klänge. Mit YAML kann ich meine Instrumentdefinitionen wie auch die Score-files formulieren und dabei einen stinknormalen Texteditor verwenden.
Während die YAML-Syntax an sich leicht gelernt werden kann, trifft das auf die eigentlichen Angaben leider weniger zu. Die Schlüssel "A", "S" und "R" beziehen sich auf die bei der Klangsynthese etablierten Begriffe "attack", "(decay+)sustain" und "release", aber die Werte dazu sind nicht nur Zeitdauern und lineare Pegelabstände, sondern relative Koordinaten von Hüllpolygonen für ergo frei gestaltbare Polynomfunktionen. Diese Polynome bilden wiederum die Envelopes für die elementaren Oszillatoren, u.a. den sinusförmigen nebst Sägezahn, Rechteck, Dreieck, Rauschen und so, die mit dem Schlüssel "O" angegeben werden. Neben diesen ADSR-Definitionen gibt es noch die darauf aufbauenden Angaben
  • "WS": waveshape,
  • "FM": Frequenzmodulation,
  • "AM": Amplitudenmodulation,
Diese finden beim Klavier aber keine Verwendung. Und dann gibt es über die Eigenschaften von einzelnen Elementartönen / Elementartonclustern hinausgehend noch die Schlüssel
  • "PROFILE": additive Aufeinanderschichtung einzelner Partialtöne oder Partialtonclustern mit ihren Volumina und anderen Eigenschaften,
  • "TIMBRE" (beim Klavier nicht verwendet): Das Profil bzw. die Teiltonvolumina ändernde Formantendefinition über dem gesamten Frequenzband und
  • "SPREAD": Definition der akkumulierenden Differenzen von der natürlichen Obertonreihe 1f, 2f, 3f, ..., nf, um etwa die Saiteninharmonizität von Klavieren abzubilden.
  • "MORPH": nochmalige Variation des Profils, genauer der einzelnen gerenderten Hüllkurven. So habe ich etwa die Anschlagdynamik beim Klavier umgesetzt, allerdings mangels Wissen komplett aufs Geratewohl, und leider wohl nicht wirklich hörbar.
Und nicht zuletzt gibt es noch Möglichkeiten der einmaligen, aber wiederverwendbaren Definition jedweder Komponenten über Referenzierung frei bestimmbarer Labels, sowie die Zusammenmischung, ähnlich wie in alten Kochrezepten "man nehme hiervon 3 Teile und davon 2 Teile ...".

Also, den Klang, egal ob es jetzt noch ein Bontempi ist, liegt vollständig in Textformat definiert vor, und ich habe hoffentlich verständlich gemacht, dass der Klang weder durch Physical Modelling noch mittels Sampling zustande kommt. Die Wahrheit liegt irgendwo dazwischen – bei Interesse siehe den aktuellen Stand, wie er zum Zeitpunkt der Veröffentlichung dieses Beitrags ist bzw. war.

Mozarts Klaviersonate Nr. 11, 3. Satz ("Rondo alla turca") habe ich ausgehend von Noten, die in der freien IMSLP liegen, ebenfalls Note für Note in eine eigens entwickelte, YAML-basierte Sprache übertragen, die ich mit dem Programm verarbeiten kann: siehe dieses Score-File. Nicht nur die Noten, auch Dynamik- und Tempoangaben lassen sich damit umsetzen.

Ich habe das jetzt in der Tiefe erklärt, damit man das Potenzial abschätzen kann. Und außerdem bin ich nur schnöde stolz auf das in anderthalb Jahre geschaffte. Bontempi, pah ... ;-)
 

Anhänge

  • wam_rondo_alla_turca.mp3
    3,2 MB · Aufrufe: 257
Mir egal ob das ein Bontempi oder Yamaha Teil ist, ich mag den Sound sehr. Erinnert mich an die alten DOS Game Zeiten und die primitiven FM Soundkarten.
Die Komposition ist chillig ruhig und erinnert auch eher an die Zeit. Diese ganzen Multimedia, Infotainment, Edutainment oder Desktop Publishing Sachen. Da war oftmals derartige Musik mit dabei.

Gefällt mir. Zwar ist die Zeit davon schon sehr lange vorbei, aber es macht immer wieder Freude zu sehen, dass sich Leute doch noch mit anderen Sachen als Behringer-Bashing beschäftigen.
 
Was mir noch entschieden fehlt ist der Anfangspling, der so typisch ist für die höheren Oktaven.
Der Anschlag fehlt auch im Bass Bereich, mit Harmonischen wird man da nicht weiter kommen, da sind auch nichtharmonische Obertöne bei. Mit wieviel Harmonischen arbeitest du im Moment?
 
Das ist das erste mal, dass ich davon höre, dass jemand auf diese Weise Musik erzeugt.
Für mich steht damit eigentlich eher deine Programmierarbeit im Vordergrund. Der Erzeugte Track ist lediglich ein Beleg dafür, welch großen Wissensdrang du hattest, um so viel Arbeit und Zeit da rein zu stecken. Auch ist erkennbar, dass du in dieser Richtung was drauf hast. Ich finde dies auch sehr bewundernswert.

Vor diesem Hintergrund ist der Sound, der mich wirklich an die gute alte Bontempi erinnert, nicht als negativ zu bewerten.
 
Der Anschlag fehlt auch im Bass Bereich, mit Harmonischen wird man da nicht weiter kommen, da sind auch nichtharmonische Obertöene bei. Mit wieviel Harmonischen arbeitest du im Moment?
Der Anschlag im Bass könnte sich etwas früher (weiter links beginnend, außerdem schneller) entwickeln, ja.

Die Frage, ob schon A0 ein hörbares Pling hat, kann man sicher diskutieren, einhergehend mit der weiteren Frage, wozu bei einem Konzertflügel die Bassseiten mit Blei(?) ummantelt sind. Aber diese Fragen finde ich zu klaviertechnisch für dieses Board, ergo deplatziert, vor allem für diesen Thread hier, wo es ja neben dem Klang auch um meine Tracks gehen soll, auf der Ebene der Komposition
Der Konzerter meines Lehrers hat jedenfalls keinen hörbaren Anschlag im Subkontrabereich, und das ist nun mal meine erste Referenz, anerkennend dass jedes Exemplar en detail sowieso individuell klingt.

Aber um noch deine Frage zu beantworten: Zu wenige, konkret "nur" 35 Teiltöne (harmonisch sind die übrigens nicht, Stichwort Saiteninharmonizität), langsam abnehmend bis ca. 8. Das ist eben eine Abwägung zwischen Rechenaufwand und Klangqualität. Wenn man weiß, dass bei Leuten in meinem Alter normalerweise bei 15kHz schon sensorisch Ende Gelände ist, ergibt sich daraus n_max. A0 = 27.5Hz -> 15000Hz / 27.5Hz = 545, ui. Aber auch in Hinsicht auf das Volumen eines Teiltons gibt es Beschränkungen zu berücksichtigen. Bei 16 Bit etwa ist alles unter -91dB praktisch zu 0 nivelliert. Eingedenk der Tatsache, dass schon die CD Klaviertöne realistisch speichern konnte (44.1kHz à 16 Bit), kann ich mir die Definition von Teiltönen unter dieser Volumengrenze sparen, damit würde ich nur Rechenzeit verschwenden. Nu hab ich allerdings schon bei -50dB aufgehört zu definieren. Die Literatur gab aus Platzgründen nicht mehr her, und zu raten hatte ich noch genug im Diskant, da habe ich das erst mal zurückgestellt.
 
Man hört den Hammer wenn er auf Seiten trifft, wenn du nur harmonische hast kannst du versuchen das mit 'ner Tonhöhenhüllkurve nachzubilden.
Ja - 35 sind sehr wenige, selbst die 64 des K5000 (die man zu 128 kombinieren kann) sind im Bass Bereich schon was eng, dann werden die Seiten ja auch gedämpft, die Wirkung des Filz wirkt sich in Form einer Textur auf den Sound aus.
 
Ich muss da tatsächlich Hörerfahrungen an einem echten Klavier sammeln. Daran fehlt es mir offenbar noch, wenn mir der Bass realistisch erscheint, ich aber von erfahrenen Testhörern nicht bestätigt kriege.

Im tiefsten Bass ist mir noch kein differenziertes Anschlaggeräusch aufgefallen, auch nicht das Aufschlagen des Hammers auf die Seite. Ob dieses Hammergeräusch auch einen wertigen Flügel ausmacht bei Pianisten? Schließlich waren die Hämmer mal mit Leder bespannt, bevor man zu Filz überging, vermutlich um eben gerade das Hammergeräusch zu reduzieren. Und auch ein Klavierstimmer lockert ja Hammer für Hammer den Filz auf, auch mit genau diesem Ziel. Da muss man halt wissen, was man nachbilden will. Und nein, so genau weiß ich das selbst nicht.

So überlege ich, meine Haltung zu entspannen, mir zu sagen, okay, die Instrumentdefinition soll nur den ungefähren Charakter wiedergeben; vielleicht hat ja der ein oder andere Dritte den Elan, das weiter zu perfektionieren. Wenn das Ergebnis klingt wie von einer primitiven 16-Bit-FM-Synthese-Soundkarte, ist das zwar nicht wirklich erbaulich für einen ausgebufften Perfektionisten, aber das ist immer noch besser als 8-Bit-Sound. Und wer weiß? DOS-Games und 16-Bit-Soundkarten ... lang ists her, und die ganzen Kritiker sitzen ja alle einer gewissen Vergangenheitsverklärung auf, in Wirklichkeit hat das alles doch viel schlimmer geklungen, zum Teil auch den Lautsprechern geschuldet. ;-) Und hatten die damit produzierten Klänge überhaupt Dynamik, d.h. wohl das, was du Textur nennst, also unabhängig voneinander verschieden schnell einschwingende und abklingende Teiltöne?

Aber genug mit diesem Klavier, es sei wie es sei und wird hoffentlich noch besser.

Ich habe auch andere Instrumente in petto, die selbstverständlich auch zusammen zum Erklingen gebracht werden können. Ist es hier eigentlich gern gesehen, dass man Public-Domain-Stücke nachvertont und einstellt, oder muss es eigenes sein? Wenn ja, würde ich hier Georg Friedrich Händels Opernarie "Lascia ch'io pianga" (Rinaldo) einstellen. Obwohl, auch das liegt schon in meiner Soundcloud veröffentlicht:
Ansehen: https://soundcloud.com/nerd-generamus/lascia-chio-pianga-orig-by-gf-handel-1705
 
Einfach mal auf Youtube ein paar Piano Videos suchen ;-)

 
summa, hast du evtl. auch einen clavio.de-Account? Meiner ist "tasteur" und ich finde, diese ganze Diskussion wäre in diesem Thread auf clavio.de thematisch besser aufgehoben. Hier sollte es vor allem um meine "Tracks" gehen; dass sie (hoffentlich) auch qualitativ von meinen stetigen Verbesserungen am Sound von Klavier und anderen Instrumenten profitieren, sich also vom DOS-Game-Niveau schrittweise entfernen hin zu dem von modernem Gerät, das sei nur sekundär, wenngleich auch lediglich mein kleines Ego dranhängt.

Zumal es in Bezug auf meine Musik weniger relevant sein sollte, was für Instrumente spielen und wie nah sie an ihren "echten", physischen Vorbildern sind, falls sie welche haben). Sondern vielmehr ob sie passen, sowohl zu den anderen verwendeten Stimmen als auch zur Komposition.

Das ist ja gerade der Vorteil von elektronischer Musik, das macht ihre Faszination aus, dass der Musiker nicht nur haargenau kontrollieren kann, was gespielt wird, d.h. welche Note wann und wie artikuliert, sondern eben auch wie es eigentlich klingt. Klanggestaltung liegt somit sehr viel stärker auf seiten des Interpreten, während traditionell der Instrumentenbauer maßgeblichen Einfluss hat.

Also lasst uns bitte nicht mehr darauf herumreiten, dass mein Klavier so weit weg von einem Klavier ist. Nicht weil ich das anzweifle, ganz im Gegenteil, ich weiß das selbst, sondern weil es hier nicht reingehört. Das von dir verlinkte Video zeigt mir wieder einmal, wie jämmerlich meine Hörerfahrung ist, die Unterschiede waren für mich kaum hör- geschweige denn fassbar. Allerdings meine ich vor allem meine praktisch-experimentelle Hörerfahrung (Gefühl für den Zusammenhang zwischen Ein- und Ausgabe bei meinem Synthi), die noch reifen muss.

Ich sollte es mir zur Angewohnheit machen, die instrumentalen Vorbilder zu meinen Tracks nicht mehr zu verraten. Zum Beispiel verrate ich nicht, dass in der Demo des Liedes "Ich weiß nicht, was soll es bedeuten" (nicht von mir, sondern von einem Friedrich Silcher 1837), ein Didgeredoo spielt, so wahr ich doof bin. :D
 

Anhänge

  • loreley.mp3
    803,7 KB · Aufrufe: 175
Zuletzt bearbeitet:
summa, hast du evtl. auch einen clavio.de-Account?

Nein, einen Clavio.de Account hab' ich nicht, aber ich bin seit Mitte der 80er immer mal wieder am nachbauen von Klavier Sounds, schon weil mir damals der Sampler fehlte.

Ich sollte es mir zur Angewohnheit machen, die instrumentalen Vorbilder zu meinen Tracks nicht mehr zu verraten. Zum Beispiel verrate ich nicht, dass in der Demo des Liedes "Ich weiß nicht, was soll es bedeuten" (nicht von mir, sondern von einem Friedrich Silcher 1837), ein Didgeredoo spielt, so wahr ich doof bin. :D

Die Komposition ist nicht von dir, von daher lässt sich das auch nur schlecht bewerten oder eine Leistung erkennen, die nicht mit dem Sound zu tun hat. Das hört sich mehr nach farbigen bzw. aufmodulierten Rauschen als nach Didgeridoo an, es fehlt die Drone und die resonante Komponente. Du solltest dich mehr mit Synthesizern beschäftigen, um das Rad nicht jedesmal neu zu erfinden zu wollen und dein Gehör was Sounds betrifft ein wenig zu schulen oder einfach nur mit Fantasiesounds arbeiten, die dir zufälligerweise gefallen.
 
Zuletzt bearbeitet:
Nein, das war natürlich keine Didgeredoo, das war ja der Gag, denn ich bin ja auch nicht doof. Bald kommt wieder was eigens komponiertes. Also ich meine, ab jetzt verbiete ich mir Instrumentbezeichnungen. ;-)

Das gleichnamige Heine-Gedicht, worauf das Lied von Silcher aufbaut, thematisiert den gefährlichen Loreley-Felsen. Farbiges Rauschen passt, Wasser und Wind. Wie auch immer diese Leistung zu bewerten ist, es ist eine individuelle künstlerische Leistung, das so zu vertonen. So weit erlaube ich mir grundsätzlich auch fremde Kompositionen zu vertonen. Dass ich das im Einzelfall rechtlich gesehen darf, ist dabei eine selbstverständliche Voraussetzung. Public Domain oder Eigenkompositionen, nichts Fremdes bei unklarer Rechtslage.
 
Hätte ja sein können dass du das Didgeredoo so hörst, Impressionismus eben ;-)
 
Hier mal wieder ein neues Stück von mir. Das Instrument ist eine freie, vorbildloses Werk von mir, wie auch die Komposition an sich. Wer sich beim Klang an ein bestimmtes Musikinstrument erinnert fühlt, mag dies gerne kundtun, interessiert mich nämlich wie es ankommt. Was die Komposition angeht, hoffe ich, kann sie sich hören lassen.

 

Anhänge

  • anfaengerstueck_2.mp3
    1,1 MB · Aufrufe: 151
Naja, ein "Instrument" habe ich nicht verwendet, es ist von Grund auf selbstgemacht bzw. programmiert, wie der Threadtitel schon sagt. Das kann man mit vorhandenen, nicht musikspezifischen Mitteln, viel Zeit zum autodidaktischen Wissenserwerb vorausgesetzt, solange man halt darauf verzichten kann, in Echtzeit Musik produzieren zu wollen. Mit dem Anspruch wär ich wohl über kurz oder lang bei fertigen Lösungen gelandet.
Das ist Sound Design, NICHT Sound Art. :)

Sound Art = ganz andere Baustelle....
 
Numpy für den hochoptimierten Umgang mit und schnellen Berechnungen auf langen Zahlenreihen; soundfile um aus der Zahlenreihe zum Schluss eine Audiodatei zu basteln; sowie pyYAML zur Vorverarbeitung der Quelltexte. Das sind die eigentlichen Abhängigkeiten, ohne dass das Programm nicht funktioniert.

Daneben gibt es noch ein paar Nice-to-haves. Optional matplotlib um das Elementare beim Entwurf von Instrumenten zu visualisieren. Ebenfalls optional cython, das man benötigt wenn man die Berechnung von Bézierverläufen durch vorkompilierten Code um ein Vielfaches beschleunigen will, aber da der Code in doppelter Ausführung vorliegt, in Python und in Cython bzw. als Kompilat daraus, und halt letzteres bevorzugt geladen wird wenn vorhanden, ist es eigentlich keine Abhängigkeit, sondern eine Empfehlung. (Cython wiederum hat Abhängigkeit zu einer C-Compiler-Suite, bitte frag mich niemand, welche man wie auf einem anderen OS als Linux oder BSD installiert.)

Also alles vergleichsweise light-weight.

Den Quellcode findest du auf Gitlab: https://gitlab.com/flowdy/sompyler. Das Repository umfasst 1,2 MB. Habe von klassischen Tonstudios wenig Ahnung, aber ich glaube, das Programm deckt einen wesentlichen (aber bestimmt nicht den größten) Teil davon ab. Was das Programm ausgibt an Audiomaterial, sollte man aber leicht als Sample in anderen Tools weiterverarbeiten können, etwa um Hall hinzufügen.

Was man damit nicht machen kann, ist komfortabel Musik machen, da jegliches interaktives Interface fehlt. Daher benutze ich MuseScore, um meine Kompositionen zu erstellen und wenn ich damit zufrieden bin, kodiere ich die reinen Noten von der üblichen westlichen Notation nach YAML um, händisch. Sehr gute Übung zum Notenlernen. Da man statt MuseScore auch jedes andere Notensatzprogramm verwenden kann, oder überhaupt nix, sondern direkt vom Papier lesen kann, würde ich das aber nicht als Abhängigkeit im engeren Sinne betrachten.

(Übrigens, wer ggf. mitarbeiten möchte: Einem MIDI-to-Sompyler-Score-Converter wäre ich nicht abgeneigt, solange ich ihn nicht selber entwickeln muss. Ich habe nämlich keine Idee und derzeit auch keine Lust mich damit zu beschäftigen, wie man von den einzelnen MIDI-Events so abstrahiert, dass am Ende verlässliche Noten- und Taktinformationen rauspurzeln. MIDI hat etwas von Kompilaten im Gegensatz zu Quelltexten, und es ist immer schwierig Kompilate zu reverse-engineeren. Hab mal den MIDI-Importer von Muse-Score ausprobiert, Notenbild ist echt für den Papierkorb.)
 
Zuletzt bearbeitet:
Das ist Sound Design, NICHT Sound Art. :)

Sound Art = ganz andere Baustelle....
Kann man Sound-Art nicht mit Klangkunst übersetzen? Und Musik ist doch Klangkunst, was allerdings nicht umgekehrt der Fall sein muss, etwa Soundscapes sind keine Musik, aber auch die kann man – von beweglichen virtuellen Klangquellen abgesehen – damit umsetzen.
 
Kann man Sound-Art nicht mit Klangkunst übersetzen?
Kann man, aber der Begriff ist schon belegt. Nur durch hören vom ersten Audiobeispiel, würde ich dass eindeutig bei Sound Design einordnen.... um das was es da geht.

Es ist auch nicht Digital Sound Art, dass wäre dann ehr sowas....

 
Zuletzt bearbeitet von einem Moderator:
Okay, wenn ein Mod hierüber stolpert, kann er den Threadtitel gerne ändern zu "Klang und Musik anhand von Textbeschreibungen synthetisiert – Hörbeispiele" oder so. Kann es anscheinend nicht selbst, oder weiß ned wie.

Ich war mir über die spezifische Bedeutung des Begriffs "Sound art" bzw. "Klangkunst" nicht genau genug im Klaren. Wollte eben ausdrücken, dass es nicht nur um Musik geht, sondern auch um einige benachbarte Ausdrucksformen auf dem Gebiet der Audiokunst, im Kern um den Klang als kleinste wahrgenommene Einheit.
 
Danke, erledigt. So, zurück zum Thema ... :)
 
Meine Suche nach dem Klavierklang betreib ich nicht mehr so verbissen, wozu auch, Klavierbauer haben ihn schon ausentwickelt und Synthetiker rauf- und runterversampelt, und wenn ich je mehr oder weniger zufällig darauf stoße, schön und gut. Wenn nicht, auch egal, in der Nähe zu diesem - für mich - König aller Klänge gibt es auch interessante Entdeckungen.

Hier ein Beispiel anhand einer eigenen Komposition, die ich mir neben dem synthetischem Musikkram auch am Klavier beibringe.


So langsam, hab ich das Gefühl, sollt ich mal was Polyphones liefern, mal sehen.

Anhang, zur Dokumentation:
Code:
title: Anfängerstück 3
composer: Florian *flowdy* Heß

stage:
    windglasspiano: 1|1 0 # hab ich jetzt einfach mal so genannt

instrument windglasspiano:
    R: 1:10;3,4;4,0
    TIMBRE: 15000:100;3,86;5,92;6,85;8,69;9,65;12,100;17,94
    SPREAD: 30:-5+10;0,4;3,1;4,6;5,3;7,9;8,7;12,0
    VOLUMES: 30:100;1,85;2,95;5,70;30,0 
    PROFILE:
    - A: 0.015:1,1;3,1;5,1
      S: 4:100;1,105;2,108;3,80;4,75;5,75;25,70
    - S: 4:100;1,68;2,75!;3,82;4,85;5,90;8,60;40,40
    - match: 4
      S: 4:100;1,40;2,45!;40,40
    - match: 8n
      V: -30
    - match: 10
      A: 0.02:1,1;2,1
    - match: 30
      A: 0.01:1,1
      S: 2:10;1,0

---
_meta:
   ticks_per_minute: 440
   upper_stress_bound: 100
   lower_stress_bound: 93
   stress_pattern: 2,1,1;2,0,1,0
   cut: 10
windglasspiano:
   10: E4 2

---
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- G3 .4o.3o >ceg
- C3 o_3o+4.3o >ceg

---
windglasspiano:
- C4 o_o+7_o-3_7
- G3 .4o.3o_3
- C3 o_3o+4

---
windglasspiano:
- F4 o_o-5_o+4_o+_o+4_3
- A3 .4o.3o_3
- F3 o_3o-5.3o+9_3

---
windglasspiano:
- B4 o_o-4_7o-3_
- B3 .4o.3o_3
- D3 o_3o+5

---
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- <ceg

---
windglasspiano:
- D4 o_o+7_o+5_7
- A3 .4o.3o_3
- D3 o_3o+3

---
windglasspiano:
- A4 o_;2o-4_o+2_;6o-2_o-3_3
- F3 o_3o++_7
- B2 .4o_7

---
windglasspiano:
  0:
  - F4 4
  - B3 4
  - G3 4
  - F3 4
  4:
  - E4 5
  - G3 5
  - C3 5
  10: E4 2

---
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- <ceg

---
windglasspiano:
- C4 o_o+7_o-3_7
- G3 .4o.3o_3
- C3 o_3o+4

---
windglasspiano:
- F4 o_o-5_o+4_o+_o+4_3
- A3 .4o.3o_3
- F3 o_3o-5.3o+9_3

---
windglasspiano:
- B4 o_o-4_7o-3_
- B3 .4o.3o_3
- D3 o_3o+5

---
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- <ceg

---
windglasspiano:
- D4 o_o+7_o+5_7
- A3 .4o.3o_3
- D3 o_3o+3

---
windglasspiano:
- A4 o_;2o-4_o+2_;6o-2_o-3_3
- F3 o_3o++_6
- B2 .4o_6

---
_meta:
    ticks_per_minute: 360;5,360!;10,180!;12,360
    upper_stress_bound: 93;1,100;2,100
    lower_stress_bound: 88;1,93;2,93
windglasspiano:
- B3 o_3;5o+_3o++_3
- G3 o_3;5 o++_3*2
- D3 12

---
_meta:
    ticks_per_minute: 440
    upper_stress_bound: 100
    lower_stress_bound: 93
windglasspiano:
- E4 o_3o+3_o-5_o--_3
- C4 o_3o-5.3o
- E3 .4 o.3*2

---
windglasspiano:
- G4 o_3o-3_o--_o--_3
- <ceg

---
windglasspiano:
- D4 o_3;9o+3_3o-_3
- A3 o_3;9o-4_7
- D3 .4 o_7

---
windglasspiano:
- F4 o_3;1o+4_;1o--_5;12
- F3 .4o__.o++_3;12
- A2 o_3;1o+3__

---
windglasspiano:
- G4 o_3;8o-3_o--_o--_3
- C4 o_3;8o-5_7
- E3 .4 o_7

---
windglasspiano:
- G4 o_3o-3_o--_o--_3
- <ceg

---
windglasspiano:
- D4 o_3;1o+3_3;4o-6_3
- B3 o_3o-4_7
- G3 o_3o-8_7

---
_meta:
    ticks_per_minute: 440;7,440!;8,147!;9,147!;10,440!;11,440
windglasspiano:
- F4 o_;6o-3_o++o+o-3_o-3_o+5_
- G3 10
- D3 10

---
_meta:
    ticks_per_minute: 440
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- <ceg

---
windglasspiano:
- C4 o_o+7_o-3_7
- G3 .4o.3o_3
- C3 o_3o+4

---
windglasspiano:
- F4 o_o-5_o+4_o+_o+4_3
- A3 .4o.3o_3
- F3 o_3o-5.3o+9_3

---
windglasspiano:
- B4 o_o-4_7o-3_
- B3 .4o.3o_3
- D3 o_3o+5

---
windglasspiano:
- G4 o_3o-2_o-_o-4_3
- <ceg

---
windglasspiano:
- C4 o_o+9_o+3_7
- F4 .4 o_7
- A3 .4o.3o_3
- C3 o_3o+5

---
_meta:
    ticks_per_minute: 440;1,440;2,180;4,440
windglasspiano:
    0:
    - D4 o_o+7_o-2o-2o-3_;1
    - F3 o_3o++.3o+4_3;1
    - B2 .4o.3o+6_3
    8:
    - F4 4 2 o=;7o+ o=o+*2 o=o-
    - G3 5

---
_meta:
    ticks_per_minute: 440;2,200;3,200
windglasspiano:
    - D4 2
    - C3 o;7o+7o+9o+3o+5
 
Zuletzt bearbeitet:
Das mit dem Komponieren, da geht es mir wie mit der Annäherung an den Klavierklang. Hab da nicht immer Bock drauf. Steige dann aus der Fokussierung heraus und gehe in die Breite. Oder beackere ein anderes Feld.

Aktuell ist es die, äh, "Klangkomparatistik" möcht ichs nennen, die vergleichenden Studien der Klangwirkung. Es geht mir da weniger um Ästhetik, mehr um Essenz, um die Herausbildung von Zusammenhängen zwischen dem Gehörten und dem Definierten, um Aufbau von Intuition also. Immer schwingt dabei auch so ein bisschen Traurigkeit dabei mit, da ich wieder eigenbrötlerisch ein einsames Feld bearbeite, und der ein oder andere möchte mir vielleicht zurufen, kauf dir ein paar schöne Geräte, um die es hier geht, und dann mach endlich Musik mit den Klängen, die diese Geräte eben hergeben. Möchte ich nicht. Ich will selber gehen lernen, so dilettantisch es auch scheinen mag, während es andere vorziehen sich mit der Steuerung von Maschinen zu beschäftigen. Das man so leichter zu besser klingenden Musik kommt, Musik, die mich zuweilen echt staunen lässt, sehe ich ein, aber tja ...

Ich nehme also ein Notenwerk, meist von denen, die ich schon erworben habe, oft wegen Klavierunterricht oder halt etwas aus dem Netz, und gebe sie in den Texteditor ein. Dann mache ich ein paar Freistilklänge auf ähnliche Weise und suche mir aus meinem bestehenden Inventar welche aus. Welche klingen synthetischer, welche natürlicher und warum? Welche würden zusammenpassen? Fühl mich da noch nicht reif für praktische Flugversuche was mehrere Instrumente betrifft. Irgendeinen Murks zusammenzumischen ist da ähnlich frustrierend wie nicht zu wissen, warum es manchmal gut klingt. Da prokrastiniere ich lieber noch drumherum.



Hier also mal etwas von Bach ...

Code:
title: Siciliano (from BWV 1031)
composer: J.S. Bach / arranged for solo Beginner's piano by A. Terzibaschitsch

stage:
   p: 1|1 0 dev/piano

---
_meta:
  stress_pattern: 2,1;1,0,0;1,0
  ticks_per_minute: 210
  upper_stress_bound: 70
  lower_stress_bound: 66
p: E3 o=;11o+3o+4o-4o+4o-4 * 2

---
# usw. So wie im obigen Post halt, im Prinzip.









Welches Instrument ist das aus dem vorigen Posting? Erkennt ihr noch meinen Versuch einer Annäherung an den Klavierklang (und ja, ich finde auch, dass mein Digitalpiano viel mehr nach echtem Klavier klingt, aber es war halt ein Versuch). Was ist zu den beiden anderen zu sagen, nennen wir sie F und Z?

Zusatzherausforderung: Welche Textversion gehört zu F und welche zu Z? Aber gut, das ist glaube ich zu schwer. Das ist wie zu fragen, wer sagt »Ich gehe jetzt schwimmen« und ich bekomme einen Chinesen und einen Libanesen zu hören, der das in der jeweiligen Landessprache sagt, ich kenn aber weder die eine noch die andere. Ich wäre auch aufgeschmissen, würdet ihr Fotos eurer Patchings / Controllerkonfiguration / etc. hochladen, dazu Sounds und ich müsste zuordnen ... pure Raterei.

Code:
A: 0.03:1,10;2,30;3,30;4,28
S: 0.2:40;1,36;2,34;8,32
R: 0.5:1;1,0
AM: 3[1,1];1:3
FM: 5.31f[1;1,0;3,0];4:1

Code:
VOLUMES: "30:100;3,65;8,50;15,25;25,0"
MORPH:
- 1 1;1,1
- 4 15;3,14;10,12
- 12 1;15,1;20,0
R: "0.5:1;2,1;3,0"
PROFILE:
- match: 1
  A: 0.03:1,1;2,1
  S: "5:10;1,8;7,7"
- match: 3
  A: 0.01:1,1;2,1
- match: 20
  A: 0.02:1,1
  S: "5:10;1,9;9,6"

Mich fasziniert das halt ähnlich stark wie Musik selber. Klang und Musik in Zeichen zu beschreiben, aber dann ein kontinuierliches Ganzes zu hören. Das ist wie Zauber. Andere machen Musik, ich zaubere sie. :D
 

Anhänge

  • jsb_siciliano_a.mp3
    945,3 KB · Aufrufe: 49
  • jsb_siciliano_b.mp3
    938,8 KB · Aufrufe: 48
  • jsb_siciliano_c.mp3
    942,9 KB · Aufrufe: 89
  • jsb_siciliano_d.mp3
    949,8 KB · Aufrufe: 1
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: t2s


News

Zurück
Oben