Audio / Synthesizer Programmiersprachen vs Faust vs Supercollider vs PureData vs C und so weiter…

Das VCV-Rack könnte hier in dieser Rubrik möglicherweise auch seine Heimat finden.
 
Siehe oben - VCV ist patchen, coden ist das nicht. Aber nix dagegen -
so es passiert - einfach tun! Aber - wie gesagt - ich könnte mir vorstellen, dass hier alles was digital und synthese Basis ist zuhause ist - wenn vcv, dann auch G2 und co - viele sind's ja nicht - und es wäre ggf. die spannendste Abteilung "wo gibt".

Übrigens - ja, Komposition kann man coden oder eben patchen.
Welcher Typ sind sie? Machen sie den großen Test - jetzt im SynMag oder Jagd & Hund.
 
Fehlt mir leider das Wissen um auf der Core Ebene was zu machen.
Das Wissen worüber? Falls es Core ist -
Core selbst ist -jedenfalls in Reaktor 5- recht einfach, in 6 wurde das unnötig verquast mit Levelhierarchien
und den Kabelbündeln und solchen Sachen. Ich nutz 6 nicht, für meine Zwecke bringt das Null Vorteil und etliche Nachteile wie
schlechtere Lesbarkeit.

Wenn Du allerdings Tables sowohl in Primary als auch in Core nutzen willst, brauchst Du R6.

Falls Du noch R5 hast und schnell einsteigen willst würde ich damit einsteigen zumal das Handbuch dort nicht von Vadim ist
Etwas erklärungsbedürftig sind die Memory Module, die aber auch leicht zu nutzen sind, die meisten anderen Module sind selbsterklärend
und es gibt nur ne Handvoll davon. Die Memorymodule sind allerdings ein Key, den man von Anfang verstehen muss.
Diese und die daraus gebildeten "Latch" und "Modulation" Module (das sind einfach Module bei denen ein Wert abgelegt und durch ein
Event abgerufen werden, um dann eine Operation damit auszuführen)

Gewöhungsbedürftig für Programmierer von Skriptsprachen ist halt daß man immer in Einzelevents und Signalfluss von diesen Events denken muss, und in "Wert ablegen und abholen" Schemata.
(das Grundprinzip von Core ist, daß Audio als eine Kette oder Strom von Einzelevents behandelt wird).
Deswegen ist es eher für Audio geeignet als für komplexe Logiksachen, weil ein einzelnes if then else schon ermüdend langwierig zu patchen ist.
Also Reaktor wäre nicht die erste Wahl für algorithmische Musik denke ich aber wenn man damit solche Sachen machen will
sollte man Core auch einbeziehen da man mehr Kontrolle über Events hat und diese nicht unfrewillig verdoppelt usw.
und Core eigentlich Eventbasiert ist.

Im 5er Handbuch zu Core kann es sinnvoll sein erst hinten zu lesen wie Core funktioniert und dann das Beispeil weiter vorne zu machen.
Wenns einem jemand gut direkt erklärt kann mans in ner halben Stunde bis Stunde kapieren, mit Handbuch dauerts etwas länger.

Sich an das Paradigma zu gewöhnen und darin zu denken dauert allerdings dann je nach dem schon deutlich länger...
Wie lange weiß ich nicht und ist sicher individuell verschieden.
 
Aufgrund dieser kleinen Schachtel

Ansehen: https://player.vimeo.com/video/266741634?color=ffffff&title=0&byline=0&portrait=0

…interessiere ich mich für die Sprachen Supercollider und Lua, allerdings beherrsche ich weder diese beiden Sprachen noch bin ich Programmierer.

Trotzdem macht mich diese akkubetriebende Kiste namens norns an: Stereo-Ein- und Ausgänge plus Kopfhörerausgang sowie vier USB-Anschlüsse, an die nahezu beliebige USB-Controller angeschlossen werden können, vor allem das ebenfalls im Video zu sehende monome grid. Über einen kleinen WiFi-USB-Stecker kann das Teil bei Bedarf mittels einen Web-Browsers angesprochen und programmiert werden. Programme und Daten (z.B. Samples) werden nichtflüchtig gespeichert.

Für die Klangerzeugung werden Supercollider-Programme genutzt,
es werden mehrere Programme mitgeliefert,
und es entwickelt sich gerade eine Community, die weitere schreiben.

Die in Echtzeit steuerbaren Parameter eines Supercollider-Programms werden über die Script-Sprache Lua mit den eingebauten und per USB angeschlossenen Bedienelementen verbunden.

In einem Lua-Script kann man aber nicht nur Bedienelemente mit Parametern verbinden, sondern auch
mit einem Bedienelement die Funktion eines anderen Bedienelementes umschalten,
Zufallswerte für Parameter erzeugen,
einen Sequencer bauen
und dergleichen Schabernack mehr.

Supercollider ist hier kostenlos erhältlich,
ersten Schritte gibt es hier:

Ansehen: https://www.youtube.com/watch?v=ntL8QDOhhL8


Hier gibt es Lua kostenlos,
und hier ein Tutorial.

Nein, ich habe noch kein norns.
 
Im KVR-Forum nennen die den Bereich "DSP und Plugin Entwicklung" Mit DSP ist da nicht die CPU art gemeint, sondern allgemein Digital Signal Processing, also alles was mit digitale Signal Bearbeitung zu tun hat, egal ob auf einem FPGA, DSP-Prozessorr, x86/ARM/PowerPC/Motorola/AVR/PIC CPU oder sonst was.

Man kann das dann auch ganz simple Rechenwerk nennen. Nur ob danach jemand im Netz sucht?
Quelle:https://www.kvraudio.com/forum/viewforum.php?f=33
Unbenannt.PNG
 
Zuletzt bearbeitet von einem Moderator:
Schaut euch zum Einstieg in das live coding doch mal die Beispiele auf https://gibber.cc
an. Da muss man nichts installieren und es läuft direkt im Browser!

Ansonsten habe ich mal bei mir unter osx supercollider tidal cycles mit einer haskell umgebung installiert, das ging, war aber etwas anspruchsvoller als gibber im browser, da die synthengine von Supercollider von tidal direkt angesprochen wird.
Das ganze thema ist etwas anderes als eine Patch in Reaktor bauen. Es geht hier eigentlich mehr um Komposition und Song/Patternstrukturen (aber auch um sounds), die direkt per skripting erstellt werden.

Hab jetzt mal meinen Audacity Beitrag in diese Kategorie gemacht. Passt das? ist halt kein Coding hab aber nix besseres gefunden

https://www.sequencer.de/synthesizer/threads/musik-mit-audacity-und-nix-anderem.141568/
Das würde ich eigentlich eher woanders hin packen.

Im KVR-Forum nennen die den Bereich "DSP und Plugin Entwicklung" Mit DSP ist da nicht die CPU art gemeint, sondern allgemein Digital Signal Processing, also alles was mit digitale Signal Bearbeitung zu tun hat, egal ob auf einem FPGA, DSP-Prozessorr, x86/ARM/PowerPC/Motorola/AVR/PIC CPU oder sonst was.

Man kann das dann auch ganz simple Rechenwerk nennen. Nur ob danach jemand im Netz sucht?
Quelle:https://www.kvraudio.com/forum/viewforum.php?f=33
Anhang anzeigen 35554
Auch das hat nichts mit livecoding zu tun.
 
Zuletzt bearbeitet:
Also soll alles rund um DSP/VA/Plugin-Entwicklung hier mit rein(Web & Algorhythmics) ohne Unterkategorie? Das wäre natürlich sehr ärgerlich für die Suchmaschinen Algos, aber das ist sicher klar.
 
Könnte schon rein passen.
Momentan existiert 2 mal "Web Synths" (wenn auch 2 mal unterschiedlich geschrieben):
  • Softsynth
    Software Synthesizer VST/AU, Standalone auf Rechnerbasis, Editoren, Patchverwaltung, Daten umherschieben, Web Synths
  • Web & Algorhythmics
    Websynths, Live Coding, Algorithmische Komposition, Max/MSP, CSound, Super Collider, Coding, Hacks, Offene Systeme, OS-unabhängig, Experimente, ehrliche handgemachte Musik mit dem Rechner,
 
"Web" kann noch viel mehr sein, als nur Synths. Das ist hier schon ganz richtig aufgehoben. Ich fummle grad an einer neuen Version von meinem JV880-Sysex-Editor auf Basis von HTML5 und JavaScript herum und das Ding ist nun mal kein Synthesizer.
 
Hm, vielleicht versteh ich auch den Sinn der Kategorie falsch, aber alles was ich bisher gelesen hab, geht doch stark in die Richtung "algorithmische Komposition", "Musik-Programmierumgebung", "Live-Coding" etc. - mag sein dass es da auch was im sog. "Web" gibt, aber hat für die Kategorisierung keinerlei Bedeutung.

Ein "normaler" Web-Synth oder ein webbasierter Editor gehören für mein Verständnis nicht hier hin.
 
Ein "normaler" Web-Synth oder ein webbasierter Editor gehören für mein Verständnis nicht hier hin.

Klar gehören diese Sachen hier rein. Weil: "Rechtsklick -> Quelltext anzeigen".

Jede Webanwendung ist gleichzeitig auch Lehrmaterial zum Thema "coding". Das liegt in der Natur dieser Anwendungen und das ist auch grade das Geile da dran.

Warum soll man solche Perlen denn weiterhin quer durchs Forum verteilen, wenn sich hier stattdessen ein neuer und sinnvoller Sammelbereich dafür aufgetan hat?
 
Dann wird's aber ziemlich uferlos hier: DAW, DSP, Soft-Synth, MIDI, Notations-Software, Microcontroller usw. würde dann auch alles hier rein gehören?

Wer generell zum Thema "Coding" Informationen sucht, ist wohl in anderen Foren besser bedient.

Und ich bin mir sicher, dass solche "Perlen" auch nach wie vor quer übers Forum verteilt werden, eben genau weil die nötige Abgrenzung fehlt. Das ist dann gleichzeitig "alles und nichts".
 
Also ein Synth der im Web liegt - auch hier rein, gibt eigenen Thread für Websynths.
Max und Co - ist auch hier - Spezielles, Karma, KI, whatever und Generative Konzepte.
 
Zuletzt bearbeitet:
@Moogulator
Softsynth
Software Synthesizer VST/AU, Standalone auf Rechnerbasis, Editoren, Patchverwaltung, Daten umherschieben, Web Synths
Kommen nun Web Synths dahin oder hierhin? Ich verstehe es immer noch nicht.
Was ist der Unterschied zwischen Web Synths und Websynths?
 
Verwaltungsantwort: Softsynth - da sind
sie nicht mehr - der Unterschied wäre ein Leerzeichen.
Und jetzt sind die hier - passt besser zum Thema - da wo man auch andere Dinge wie Editoren und Hacking einbringen kann, da es dafür auch keine Sektion gab.

Sieh es als Sammelbecken für alles, was in DAW und Softsynth und SoftFX nicht so richtig passt oder so - Rechner für irgendwas, wie BPM to irgendwas oder was man sonst nirgendwo noch unterbringen kann und nie ein Zuhause hatte.


#Editoren #Hundehütte #soft
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: khz
von der Zuordnung geht das schon halbwegs in Ordnung finde ich, aber das "Web" im Namen, noch dazu an 1. Stelle, passt finde ich einfach gar nicht - wieso nicht einfach "Algorhythmics"?

Das ist die Sammelgruppe für alle hier genannten Inhalte.

"Web" ist nur eine Teilgruppe davon, stattdessen könnte man genausogut "Programmierumgebungen", "Editoren", "Hacking" nennen...
 
SOUL Audioprogrammierung, ein Nebenprojekt von JUCE.
Läuft in dieser Präsentation direkt im Browser (soweit er WebAudio/WebMIDI-fähig ist). Was aber offenbar nur als Beispiel dient, um es Programmierern schmackhaft zu machen. Denn es soll irgendwann überall laufen, bis hin zu Hardware, heißt es.
 
Ich habe vorhin CSound im google AppStore gefunden.

Leider abgestürzt als ich auf Play gedrückt habe.
 
Ich habe vorhin CSound im google AppStore gefunden. [...]
Ich hätte ja furchtbar gern irgend so was fürs iPhone.
Die Csound-App RunloopSound sieht zwar gut aus, ist aber nicht im deutschen iOS-AppStore erhältlich.
Für PureData gibts nur einen Player, keine Entwurfsumgebung, nämlich PdParty. Immerhin schön, dass es funktioniert.
Gibts denn überhaupt nichts Ähnliches, also eine Audio-/Musik-Programmierumgebung für unterwegs?
 


Zurück
Oben