Wie erlernt man am effektivsten die Prinzipien der Klang-Synthese?

Wenn man nur wenige Lernende hat, dann ja. Für eine größere Gruppe, etwa eine Schulklasse, würde ich ein Rechner basiertes Scope nehmen, dessen Ausgabe man mit einem Beamer oder Großbildschirm für alle sichtbar darstellen kann. Aber ein Oszilloskop ist auf alle Fälle super
Wie auch immer.. Hauptsache die ohren bekommen Unterstützung von den Augen,
Kennt jemand das Phänomen mit Asiaten vermutlich Chinesen wenn sie auf Reisen sind und zb. Einen Poller auf dem Gehweg Fotografieren und wir uns denken, klasse ein Bild von einem Poller, wenn die Reisenden sich das Bild von dem Poller später wieder ansehen fällt ihnen alles was vor dem Poller Fotografieren währenddessen und danach war wieder ein...

Wie erlernt man etwas, man muss sich etwas fragen weil man sich dafür interessiert, auf der Suche sein nach der Antwort seiner Frage, Interesse muss man haben.
 
Ich finde es gibt Sachen die man besser versteht wenn man sehen kann was da so passiert, speziell bei FM fand ich das ziemlich erleuchtend, weil da ja die Wellenformen regelrecht verbogen (sowohl gestaucht als auch gedehnt) werden. Mittlerweile hab' ich im Kopf ein Modell das mir zeigt was passiert wenn ich bestimmte Parameter kombiniere, aber so zum Einstieg/Verständnis find' ich das bei bestimmten Synthese Formen wichtig dass man sieht was da so mit der Wellenform angestellt wird.
Auch die Spektral Analyse kann sehr hilfreich sein, weil die Wellenformen ja nach Phasenlage der Harmonischen nicht mehr unbedingt so aussehen müssen wie man sie in Erinnerung hat oder von der Grafik auf dem Gehäuse kennt, man sich von der äußeren Erscheinung nicht täuschen lassen darf. Auch spannend um zu sehen in welchem Frequenzbereichen die jeweiligen Funktionen den Sound beeinflussen.
Schwierig ist es einen Sound zu bauen und ständig zu sehen was da passiert, weil das Gewusel auf dem Bildschirm einem Wahrnehmungen suggeriert, die man ansonsten nicht dominant/präsent genug sind als dass man sie vom Rest des Sounds unterscheiden bzw. raushören würde.
In dem Zusammenhang ist es hilfreich den Sound am besten nochmal nach 'ner Weile Blind beurteilen, ganz ohne irgendwelche grafische Untermalung, vielleicht wenn man den Sound später nochmal anfasst um ihn zu finalisieren.
 
Ich verwende im Unterricht für eine einführende Sequenz zum Thema "Synthesizer" im Lehrervortrag das in VCV-Rack eingebaute Oszilloskop, das ist recht gut. Leider gibt es in der freien Version anscheinend kein Ext.-Input-Modul.

Schon im 5. Schuljahr setze ich das Oscarizor-Plug-In in Logic ein, um die "Eigenschaften von Tönen" zu demonstrieren. Warum klingt eine Gitarre anders als ein Klavier? Oft ist die Analyse des Spektrums ergiebiger als das reine Oszilloskop. Die Kinder haben großen Spaß dabei zu erkunden, dass einen A-Vokal zu singen ein anderes Spektrum ergibt als einen I-Vokal zu singen und dass Linda ein anderes Spektrum hat als Ali beim gleichen Ton und Vokal.
Jetzt bin ich selbst wieder zum Schulunterricht zurückgekehrt. Aber ich denke: Was für meine Fünftklässler schon faszinierend ist, kann für uns alle nicht verkehrt sein.

Ich selbst schwöre auf das Mordax DATA in meinem Modularsystem:

Ich habe alle Stimmen damit verbunden über einen mehr oder weniger extra dafür zur Verfügung stehenden Doepfer A-150-8, mit dem ich die unterschiedlichen Quellen umschalte, die ich beobachten möchte:
 
Ich wollte es dann doch nicht unkommentiert lassen: Es hat mit Programmierung wirklich nichts zu tun.

Anhang anzeigen 211411

Eher ist es vergleichbar mit einem Modularsystem in dem Audio und Modulation getrennte Signalwege sind. Diese kleinen Verbinder sind die Patchkabel. Das hier ist es schon. Damit kann man alle Basics zeigen die man möchte. Saw, Triangle, Square, Sinus, FM, Waveshaping, etc etc. Und ein Oszilloskop (natürlich auch in PD implementiert) gibt es noch geschenkt dazu. ;-) Pure Data selbst gibt's übrigens auch geschenkt. Was ich hier halt gut finde ist, dass die dahinterliegende Mathematik (die ja erstmal nicht so anspruchsvoll ist) transparent wird. Und was ist Musik anderes als Mathematik?

Ich verstehe natürlich, dass das erstmal etwas abschreckt. Aber kompliziert ist es nach bereits 10 Minuten wirklich nicht mehr.

Aber jeder hat halt so seinen Zugang dazu.
Aus Spaß auch mal in Csound - auch nicht wirklich kompliziert. Deinem PD-Programm entspricht der Teil zwischen instr Sinus und endin im kompletten Programm...

iMidi = 60
kFreq1 = mtof:k(iMidi)
aSin1 = poscil:a(0.2,kFreq1)
kFreq2 = mtof:k(iMidi+5)
aSin2 = poscil:a(0.2,kFreq2)
outall(aSin1+aSin2)

...der Rest darin ist etwas Programmier-Voodoo...
;-)


HTML:
<CsoundSynthesizer>

    <CsOptions>
        -n -d -o dac
    </CsOptions>

    <CsInstruments>

        ; Initialize the global variables.
        ksmps = 32
        nchnls = 2
        0dbfs = 1

        instr Sinus

            iMidi = 60

            kFreq1 = mtof:k(iMidi)
            aSin1  = poscil:a(0.2,kFreq1)
 
            kFreq2 = mtof:k(iMidi+5)
            aSin2  = poscil:a(0.2,kFreq2)
 
            outall(aSin1+aSin2)
 
        endin

    </CsInstruments>

    <CsScore>
       i "Sinus" 0 2
    </CsScore>

</CsoundSynthesizer>
 
Zuletzt bearbeitet:
Ist es nicht sinnvoller, für die 200:Euro des Korg NTS in ein richtiges Gerät zu investieren ?

Das hier z.b.
 

Anhänge

  • IMG_2317.png
    IMG_2317.png
    2,4 MB · Aufrufe: 14
Ist es nicht sinnvoller, für die 200:Euro des Korg NTS in ein richtiges Gerät zu investieren ?

Das ist viel zu kompliziert für Unterricht.
Außerdem hat es für Musiker außerhalb des Unterrichts den Nachteil, dass es nicht die nützlichen Funktionen als Generator von Envelopes, LFOs, OSCs oder Clocks beinhaltet.

Korg NTS und Mordax Data sind speziell auf die Bedürfnisse von Musikern ausgerichtet. Das eine ist deutlich preisgünstiger und für den mobilen Einsatz gedacht, das andere deutlich teurer und auf den Einsatz speziell im Modularsystem ausgerichtet.
 
Habe ein NTS2 und ein anderes Gerät mit Namen DS212 für wenig Geld - beide machen den Job - man kann heute OSC'e kaufen die alle laufen und geeignet sind, da man eh nur niedrige Frequenzen braucht - der NTS ist etwas vielfältiger für Audio und daher schon ganz nett - ich hatte früher sowas nicht - es kann aber optisch ein bisschen helfen Dinge zu lernen - muss man aber nicht - es gibt auch Apps und sowas - Zeug was billiger ist und die Waveform Darstellung der DAW - dh - angucken kann man Signale schon auch leicht.
 
ich hatte früher sowas nicht
Ich erinnere mich noch sehr lebhaft, wie mein Vater ein Oszilloskop von der Arbeit mitbrachte, als wir meinen Gitarrenverstärker repariert haben. Ich muss da so ungefähr 14 Jahre alt gewesen sein. Wir haben mit dem Oszilloskop die Signale aus dem Verstärker dargestellt und ich konnte absolut nicht fassen, dass immer nur eine einzige resultierende Welle (oder Schwingungsform) herauskam, egal, ob ich ein, zwei, drei oder sechs Töne gleichzeitig auf der E-Gitarre spielte. An dem Tag habe ich auf einen Schlag einige sehr wichtige Grundlagen der (Elektro-)Akustik erlernt, glaube ich.
 
Ich wollte es dann doch nicht unkommentiert lassen: Es hat mit Programmierung wirklich nichts zu tun.

ob max und pd den tatbestand des "programmierens" erfüllen oder nicht kommt schon sehr darauf an, was man damit macht.

nimm dein bild als beispiel: um wirklich zu verstehen, was das macht, muss man erst mal wissen, was ein buffer oder ein register technisch bedeutet, man uss das samplingtheorem kennen, man muss ein bild davon haben, dass [dac~] die signalvektoren an den ASIO treiber weiterleitet.

und man muss eigentlich auch wissen, dass [mtof~] intern 440. * exp(.057762265 * ($f1 - 69.)) macht, obwohl laut dem heiligen 110 (wenn man dem denn glauben will) die variante 8.1758 * pow(1.0594633\,$f1) für ~70% CPU cycles mehr viel exakter wäre, und man muss eigentlich auch erst mal verstehen, warum das überhaupt so berechnet wird und wie floating point arithmethik funktioniert.

und wohl auch, wie ich oben schon mal erwähnte, dass es sich bei schall um schwingungen handelt und wie das ohr und das gehirn so funktionieren.

die meisten abiturienten wären heutzutage indes schon mit dem [+ 5] in dem patch kognitiv überfordert und schicken deswegen lieber einfach ihre schwester auf den strich wenn sie geld für drogen brauchen.


deswegen habe ich beap als real existierendens beispiel für solches lehrmaterial genannt, denn das zeug ist von einem lehrer und für studenten erstellt worden und daher noch verhältnismäßig einfach - aber dennoch nicht für jedermann in 3 tagen vorbereitungszeit zu verstehen und umzusetzen.

wobei es ja auch nicht auslangen würde, wenn der herr lehrer es selbst auf die reihe bekommt, sondern man muss ja dann auch noch den schülern erst mal erklären wie diese sachen mit dem "digital" so generell funktioniert.


ich überlege gerade welche beispiele aus der physik / mit akustischen instrumenten dazu geeignet wären als analogie zu "synthesizern" zu dienen. (2 violinen layern? trompete mit dämpfer? ...)
 
Zuletzt bearbeitet:
meist flippen osc'is aus - wenn da was schwebt oder mehrere OSCs im Einsatz ist - triggern ist schwer.
Das waren ja damals analoge Oszilloskope - und Profi-Geräte. Die zeigten sehr deutlich einfach eine Darstellung der resultierenden elektromagnetischen Schwingungsform.

Auch in diesem Bereich scheint "echt analog" irgendwie "besser" zu sein als digital. Aber auch viel aufwändiger und teurer. Jedenfalls wenn mich meine Erinnerung nicht täuscht.

ich überlege gerade welche beispiele aus der physik / mit akustischen instrumenten dazu geeignet wären als analogie zu "synthesizern" zu dienen. (2 violinen layern? trompete mit dämpfer? ...)
Da gibt es ganz vieles. Flöte, Trompete, Orgel, einzelne Geige, mehrere Geigen, diverse Schlaginstrumente. Die Frage ist nur, ob man diesen Weg wirklich gehen sollte. Das führt ja dann meistens dazu, dass das akustische Vorbild immer als "besser" wahrgenommen wird als die elektronische Annäherung. Vielleicht sollte man elektronische Instrumente einfach als das zeigen, was sie sind: eben elektronische Instrumente - mit einer Menge Möglichkeiten, die akustische Instrumente umgekehrt eben nicht bieten.
 
ich hatte früher sowas nicht
Ich auch erst seit Ende der 90er - afair irgend 'ne Software die mir das Audio In der Soundkarte angezeigt hat, war nützlich um zu verstehen was der FS1R so macht ;-) So ab Anfang der 00er S(M)exoscope und Fre(a)koscope (Spectrum Analyzer) als Plugin in VST-Host.
 
Die Frage ist nur, ob man diesen Weg wirklich gehen sollte. Das führt ja dann meistens dazu, dass das akustische Vorbild immer als "besser" wahrgenommen wird als die elektronische Annäherung.

historisch gab es ja schon immer beides, neue klangwelten erschaffen (a la "elektronische musik" der fünfziger) aber auch das künstliche generieren nach natürlichem vorbild (mit den technologien und produkten der achtziger jahren als schwerpunkt)

wie willst du das trennen? wenn du die natur-vorbilder ganz weglassen willst dann stehst du ohne AD- bis ADHSR-hüllkurven, vibrato und tremolo da. und im grunde genommen auch ohne den cosinus tongenerator. :)
 
Zuletzt bearbeitet:
Auch in diesem Bereich scheint "echt analog" irgendwie "besser" zu sein als digital. Aber auch viel aufwändiger und teurer. Jedenfalls wenn mich meine Erinnerung nicht täuscht.
Nö, das hat in dem Fall nix mit "echt analog" zu tun, sondern einfach mit...

So ein HP oder gar schon bessere Hameg nutzen im Default relativ schlaue Signalabhängig Hysteresis-Settings, um saubere Triggerpunkte zu bekommen. Seltsamerweise bilden das die einfachen digitalen nicht ab, obgleich es auf der digitalen Ebene keine Kunst wäre.
 
es hat noch keiner eine sinuskurve in freier wildbahn gesehen!
wenn du einen sehr tiefen Sinuston mit ausreichend Legel auf die Bassbox gibst, kannst du die Schwingung locker sehen. Mit Eisenspänen kann man auch ne Menge machen ... ;-)
... und wenn ich einen Stein ins Wasser werfe - ok, dass ergibt wohl meistens mehrere sich überlagernde Sinuskurven.
Aber wenn die Ausgabe auf einem Oszilliskop für dich Metaphern sind, sind es auch Wellen auf dem Teich oder die Aufzeichnung eines Seismographen ...
 
eine saite, in der mitte angeschlagen, kann erst mal nichts anderes machen als einen sinus.

die gesamte idee der fouriersynthese ist nichts weiter als eine umkehrung dessen, was in einem physikalischen modell einer schwingungserzeugung stattfindet.
 
Anstatt morgens einen Kasper zu frühstücken empfehle ich die Lektüre eines guten Buches. Gerüchteweise soll eins erscheinen.
 


Neueste Beiträge

News

Zurück
Oben