Renoise vs. SuperCollider

Dieses Thema im Forum "DAW / Komposition" wurde erstellt von mark, 23. Oktober 2014.

  1. mark

    mark -

    Renoise vs. SuperCollider

    Renoise mit SuperCollider vergleichen zu wollen erscheint auf dem ersten Blick nicht nur wie der Versuch Äpfel mit Birnen zu vergleichen zu wollen, sondern wie die Tat eines Wahnsinnigen. Nun ich möchte es dennoch tun, weil man sich Festlegen muss. Also kann man eine Sache wie SuperCollider nur als reine Ergänzung ansehen oder ist es sogar möglich neue Wege zu gehen und so etwas als Ersatz zur herkömmlichen DAW zu sehen. Da es keinen Sinn macht mit mehreren DAW gleichzeitig zu arbeiten, macht eventuell der Vergleich zwischen Renoise und SuperCollider vielleicht doch wieder Sinn.

    Renoise ist für mich nach wie vor unter Linux die DAW für elektronische Musik, auch wenn wie mittlerweile Bitwig Studio oder Ardour 3.x kennen. Bitwig Studio beschränkt sich nicht nur auf die Lauffähigkeit unter Ubuntu sondern es verbraucht enorm mehr Leistung vom Rechner ab und kostet stolze 300 €. Auch ist die Übersichtlichkeit auf einem Laptopbildschirm nicht günstig. Renoise ist dagegen speziell auf den Einsatz auf einem Laptopbildschirm optimiert und lässt sich auch für kleinere Auflösungen anpassen. Ardour hat seit der Einführung von V3 einen vollwertigen MIDI Sequenzer integriert und man kann nun Ardour tatsächlich als eine Art Cubase Ersatz unter Linux ansehen. Nur ob das alles für elektronische Musik im klassischen sinne gut geeignet ist ist die Frage, deswegen bleibt für mich Renoise mit seinem sehr guten Sampler und der sehr guten Performance mit zusammen mit dem Problemlosen Einsatz unter jeder Distribution die Nummer 1. Das einzige Problem das ich gesehen habe, ist das bei einigen Distributionen wohl das Paket xorg-x11-fonts-misc fehl, wodurch beim Startbildschirm von Renoise eine andere Schriftart verwendet wird. Nun gut eine Kleinigkeit. Da sich Renoise insbesondere auf das Sampling fixiert hat man aber leider auch mit dessen Problemen zu tun, Stichwort, Alliasing. Ja, also damit muss man lernen umzugehen und wissen wie man EQ und filter richtig einsetzt. Ansonsten macht es Spass mit Renoise auf sehr schnelle Art mit kleineren Einschränkungen auch Livetauglich elektronische Musik jeder Art zu bewerkstelligen.

    Ich habe durch den kontakt mit Linux irgendwann mit der Shellscriptprogrammierung angefangen und musste wegen der fehlenden Fliesskommafähigkeit schnell auf C/C++ umsteigen. PD extended kannte ich schon länger und war bei mir auch hin und wieder im Einsatz. Wie es der Zufall so will kam ich auf die Idee man könne doch seine eigenen VST Plugins für Linux/Renoise entwickeln oder gar kleinere Module für PD extended. Nach viel Kopfzerbrechen bin ich über Csound, Synthesisitoolkit (STK) gestoßen und Faust. Und jetzt fängt es auch an wirklich kompliziert zu werden...

    Das Synthesistoolkit sind C/C++ Klassen die einen Programmierer unterstützen sollen schneller Audioapplikationen wie Synthesizer zu entwickeln. Die STK kann man kostenlos herunterladen und sind auch einigermaßen gut dokumentiert. Aber um ein Plugin zu entwickeln benötigt man außerdem die VST und oder DSSI Headerdateien. Also in der Summe ist da neben dem reinen C/C++ noch ein so hohes Mass an Zeug das man erlernen und kombinieren muss das man sich zum Schluss berechtigt die Frage stellen darf ob das überhaupt alles Sinn macht, denn selbst wenn werden wohl die eigens erstellten Plugins nie die selbe Qualität erreichen wie die der kommerziell erhältlichen. Ich habe mich zum Schluss mit Triogeometrie und linearer Algebra auseinander setzen müssen wo ich doch froh bin wenn ich wenigstens mein eigenes Geburtsdatum nicht zu vergessen. Was kann man noch machen. Ok man kann noch für Renoise scripten, Renoise hat eine umfangreiche API die sich aber leider andauernd mit einem neuen Update ändert. So kann e passieren das man für Renoise 3.1 ein Tool scriptet und unter Renoise 3.3 ist es nicht mehr lauffähig (Beispiel). Ich habe versucht auch hier mich in Lua einzuarbeiten... Aber das nimmt ja alles kein ende mehr und endet im totalen Wahnsinn. Was soll ich denn noch alles lernen und da haben wir ja noch gar nicht über das eigentliche DSP Prorammieren gesprochen. Also bleibt es doch bei Renoise und ein bisschen PD extended.
    Eines Tages bin ich so Dinge wie Chuck und Live Coding gestoßen. Csound kannte ich schon aber war selbstverständlich auch nicht mein Ding. Genaugenommen brauchst du gar keine Zusätze, du könntest einfach einen Filestream in eine Wavedatei lenken der über die gewünschte Länge mal die Samplerate per triogeomerischer Formel Aplitudenwerte in ein Array schreibt. Weil zum Schluss besteht ja ein wavfile oder allgemein jeder digitale Sound aus einer Zusammensetzung von Werten im Bereich von -1 und 1. Nur wer wird so Musik mache, also seine Musik oder Wavfiles compilen.

    Chuck war da schon viel interessanter für mich. Nachdem ich weiter nach gebohrt habe um mich zu erkundigen was genau LiveCoding ist und ob es da nicht auch alternativen gibt, bin auch auf SuperCollider gestoßen. SuperCollider hat mir obwohl ich es noch nicht gekannt habe auf Anhieb nur alleine schon durch das auftreten der Website am besten gefallen. Mein Riechorgan hat mich in dieser Hinsicht bis heute auch nicht enttäuscht. Beim Vergleich zu chuck ist mir aufgefallen das die IDE (Audicle) mehr CPU verbraucht und man zu viel Fensterwirtschaft betreibt. Außerdem ist Chuck nicht so mächtig wie SuperCollider. Solangsam kommt auch PD extended wieder mit ins Spiel. Ich muss dann aber zum Schluss sagen das PD extended trotz seines wesentlich größeren Bekanntheitsgrad nicht an SuperCollider heran reicht aber das selbe Niveau angestrebt wird. Wobei PD ohnehin ein anderes Konzept anstrebt und vielleicht genau deswegen von höherer Beliebtheit ist. Gerade für einen Anfänger ist PD (pure data) viel einfacher zu bedienen und damit zurecht zu kommen. Ich muss aber leider sagen und das muss sich pure data gefallen lassen, es ist verbugt. Irgendwie funktioniert zwar alles und man kommt zurecht, aber es ist wirklich buggy. SuperCollider hingegen erscheint mir bis jetzt bugfrei, also ich habe noch keinen Mangel zu beanstanden gehabt.

    Also sind wir nach der langen Erzählung bei 2 Dingen angekommen: Renoise und SuperCollider. So nun stellt sich die Frage bleibt SuperCollider eine Ergänzung für den Hobbyprogrammierer zu Renoise weil sich mit Renoise effektiver und zielstrebiger Musik produzieren lässt. Ich bin zu dem Schluss gekommen das SuperCollider nicht nur die wesentlich bessere Audioengine hat sondern Renoise um lägen überlegen ist und Ersetzt. Um das akzeptieren zu können muss man bereit sein neue Wege zu gehen. Hier kommen wir dann zu Stichworten wie LiveCoding oder Algorithmische Komposition. Ich habe schon zuvor das Problem des Alliasing unter Renoise angesprochen, hingegen erreicht man mit SuperCollider atemberaubende Ergebnisse. Also ich bin hin und weg über die Tatsache das man hier sozusagen die Enzyklopädie der digitalen Audiotechnik als eine Art advanced textbasiertem Digital – Modularsystem mit dem Syntax einer Objektorientierten Programmiersprache kostenlos als OpenSource zur Verfügung stellt. Also ich habe letztens im ebay gesehen das der G2 Engine für fast 2 $ gehandelt wird. Die Algorithmen von SuperCollider sind wirklich hervorragend, der Klang ist total sauber, vom Charakter her so wie man es von einem Hardwaresynth höherer Preisklasse gewohnt ist. PD extended kann spätestens ab hier ganz geschweige Renoise überhaupt nicht mehr mit halten. Der klangliche Unterschied ist auf dem ersten hören hin so gravieren das du dir Freiwillig den Willen aufzwingst die Syntax zu erlernen. Auch wenn Renoise bedingt Livetauglich ist so geht man mit SuperCollider und dem Begriff LiveCoding ganz neue Wege.

    Der Anfang von SuperCollider ist schwer, der integrierte Holpbrowser der IDE ein muss. Man wird am Anfang viel im Wörterbuch nachschlagen müssen und man wird sich den Kopf zerbrechen. Man wird sich fragen ob SuperCollider wirklich so gut ist oder ob das alles einen Sinn macht, denn mit Renoise und einem VST Plugin ist die Welt doch so viel einfacher. Nur zum Schluss ist der Klang der aus der Renoise Engine kommt durch das Sampling verschmiert und mit Effekten so hin gebogen das es für den Hörer erträglich klingt. Aus technischer Sicht unsauber und im Vergleich zu Supercollider dumpf und muffig.

    Mit der Hilfe von SuperCollider erlernt man spielend die Konzepte der Objektorientierten Programmierung kennen und lernt die Hintergründe der DSP Programmierung zu begreifen, man lernt wie in einer normalen DAW im Hintergrund Prozesse ablaufen. So weiss jeder wie er sich in einer konventionellen DAW zurechtfindet und jeder kann mit der Maus einen Slider bewegen und ein Untermenü aufklappen. Aber wer weiß was im Hintergrund wirklich passiert. Man muss sich in SuperCollider mit seinem 3ten Auge ein virtuelles Studio vorstellen können. Am analogen Mischpult drückt man auf einem Knopf für die Subgruppe, oder man dreht den Aux Kanal auf. Aber unter Supercollider bist du der Architekt der verstehen muss Synths Nodes in Gruppen zu organisieren und auf Busse zu routen. Dies ist insbesondere dafür wichtig wenn man Klangquellen mit Effekten weiter verarbeiten will.

    Der wohl schwierigste Teil ist das Sequencing. Der Sequencer von SuperCollider ist im Vergleich zu den Möglichkeiten von PD vorhanden. SuperCollider versteht was bpm ist, was bars und beats sind und kann auch Quantisierung und sync einzelner Patterns. Nur das ist alles doch sehr kompliziert und doch einfach. Weil Pattern werden als Routinen in arrays definiert, welche über schleifen und Kontrollstrukturen events auslösen. Je weiter man sich dann hier beschäfftigt, so mehr vertieft man sich in die Themen der Algorithmischen Komposition, was mir sogar lieber ist als unter Renoise Loopbasiert starre Strukturen in der Pattern Matrix aufzubauen. Selbst algebraische formeln können zum Schluss zur Hilfe genommen werden um Pattern / Sequenzen zu erzeugen oder zu manipulieren. Nun ist in der Summe das Potential von SuperCollider so umfangreich, weil wirklich alles was man sich Vorstellen kann an Modulen enthalten ist, egal ob Granularsynthese, Physical Modelling, FFT oder simplem FM oder Moog Filter. Die Syntax ist im Gegensatz zu PD durchdacher, so multipliziert man ein signal mit einem EnvGen Ugen was Sinn macht und man kennt es auch von den Modulatoren im Renoise Sampler genauso. Also irgendwann kommen wir dann zu dem entschluss Renoise oder SuperCollider. Und da komme ich eben zu dem Entschluss zu sagen, ich brauche kein Remoise mehr geschweige denn irgendwelche anderen Plugins oder gar Programmiersprachen, wobei ich aber trotzdem zu mindestens meine Shellspritkentnisse vertiefen will bevor ich vielleicht irgendwann mal wieder doch auf C/C++ zurückkommen werde nachdem ich mit SuperCollider das Programmieren mit der Objektorientierung spielend erlernt habe.

    Ich empfehle ausserdem die SuperCollider 3 Plugins, hier sind dann auch der Jpverb dabei, ein wirklich wahnsinnig Geil klingender Reverb Effekt. Ähm, man darf hier nicht vergessen, das das ganze Zeugs OpenSource ist und nichts kostet, aber es viele Menschen gibt die tsd von € auf den Tisch legen um den selben oder ähnlichen Klang zu erhalten. Nun gut dafür brauchen diese Leute dann auch nur noch aufs Knöpfchen zu drücken oder eine Preset aufrufen. Also die harten Producer die sofort eine schnelle Lösung brauchen und keine Zeit haben neue Zeug zu lernen. Schliesslich muss Termingerecht das nächste Album fertig werden. Aber das LiveCoding ist eine definitive Alternative zu Analogboom der kürzlichen Vergangenheit. Alles was ich brauche ist mein Laptop, mit Linux / Fedora, die Planet CCRMA Repositories und SuperCollider, sonst nichts, das wars.

    Ich habe zwar Genelc Monitore, benutze aber die OnboardSoundkarte weil ich so selbst im Betrieb das Thinkpad aus der Dockingstation heben kann. Normalerweise müsste man doch sonst erst alles zumachen, herunterfahren. Aber wenn du nur die Onboardsoundkarte benutzt, kannst du on the fly einfach nur den stöpsel absteckenund dich mit dem laptop unter die bettdecke verkriechen um dort weiter im Helpbrowser der SuperCollider IDE zu wühlen. Wichtig st dann nur noch wenigstens ein Monitorcontroller damit es beim ab ud umstöpseln nicht kracht oder wie im Falle der Genelec aufgrund der Abschaltautomatik die Speaker sinnlos ein und ausgeschlatet werden.

    Natürlich kann sich jemand einen besseren Wanler leisten, aber liegt dann in der Entscheidung des einzelnen, so wie alles. Auf jeden Fall brauchst du ab heute keine weitere Hardware mehr, noch nicht einmal mehr eine teure DAW mit eingeschränkter Funktionalität oder weiteren noch teureren Plugins. Alles was du brauchst ist eine gute Portion Gehirnschmalz und SuperCollider.

    Ich habe für meinen Teil sogar beschlossen in jedem Falle wenigstens einen kleinen Betrag meines Möglichen zu spenden, weil wie gesagt, es handelt sich hier um die ultimative Zusammenstellung aller nur denkbaren Algorithmen der DSP Programmierung. Und zwar keinen Schrott sondern das Zeug klingt im Ergebnis hochwertig.


    Eines noch: wenn man SuperCollider über Ubuntu installiert fehlen die Erweiterungen, auch die zusätzlichen Plugins. Diese müsste man manuell compilen. Wenn man Fedora ab V. 20 benutzt kann man einfach die Planet CCRMA repositories und gegebenenfalls noch die Rpm Fusion Repositories installieren (geht ganz fix, weniger als 2 Min.) Dann nur noch von der Kommandozeile yum install supercollider-world und das wars (Du hast dann auch die zusätzlichen Plugins). Du hast dann zwar den ganzen emacs Kram mit drauf (den ich ich nicht brauche weil ich gedit benutze aber man muss dann halt bei einigen Textdateien nur die Zuweisung ändern damit nicht immer emacs aufgeht).


    Vergiss das ganze Analog gequatsche, dass ist alles nur Marketing Strategie um die Leute dazu zu bewegen ihr Geld auf die Ladentheke zu legen. SuperCollider gibt es genauso wie Pure Data bereits seit Mitte der 90er Jahre. Chuck seit ca 2003 oder selbst der Alsa Modular wurde Anfang 2000 entwickelt. Ich habe selber Jahre lang meine Kohle für sinnlose Studiohardware ausgegeben nur weil ich mich von der Werbung und anderen Leuten hab voll quatschen lassen. Zum Schluss hätte ich mir damals nur den G2 Engine kaufen sollen, aber der wurde mir damals von einem Bekannten ausgeredet mit Begründung das da kleine Regler dran sind und man deswegen damit nichts anfangen können. Naja, jeder fängt irgendwann mal bei Null an, scheisse nur wenn man von einer Null lernt oder auf ihr hört weil man sich von dem vollgestellten studio mit den bunten Lichtern beeindrucken lässt.

    Für mich ist wie gesagt SuperCollider die Zukunft, das reicht wahrscheinlich bis an mein Lebensende aus, wenn ich überhaupt jemals das gesamte Potential ausschöpfen werde. Livecoding ist außerdem eine coole Sache, mal was anders als der analoge Kabelsalat auf der Bühne, Acsho Visuals und Guis kann man mit SuperCollider auch machen, genauso wie vollparamerische EQ und compressoren.


    So jetzt aber Schluss
     
  2. Willkommen im Forum!

    Sorry, habe es nicht ganz durch deinen Post geschafft,
    hast Du vielleicht noch ein kurzes Fazit? :kaffee:
     
  3. Rastkovic

    Rastkovic Pleasure to Kill

    Jau, dann lass mal hören. An Audiobeispiele wäre ich sehr interessiert. :supi:

    Bin bis jetzt bei Reaktor hängengeblieben. Was das umsetzten von Ideen angeht, konnte ich bisher keine bessere Lösung für mich finden....
     
  4. PySeq

    PySeq eingearbeitet

    Hmm, hatte mal die Renoise-Demo installiert, konnte auf 1024x768 nix machen, hab's wieder gelöscht. Obwohl Tracker eigentlich meins wären. :sad: Mit Cubase (Win) dagegen auch bei 800x600 keine Probleme.
    Nein, nein, die Fließkommaproblematik liegt an der Darstellung der Zahlen in Computern und tritt auch bei C/C++ auf:

    http://www.cprogramming.com/tutorial/fl ... point.html
    CSound, und wenn ich nicht irre, auch SuperCollider, sind sehr low-level.
    Das heißt, mit CSound kann man z.B. DX7-Sounds rendern, die verdammt echt klingen (das macht DXulator (leider nur Win (Visual Basic + CSound + DX7-Algorithmen))). Man kann Sounds also auf einer sehr grundlegenden Ebene berechnen (und dann z.B. einen Soundfont aus dem Ergebnis machen). Um Melodien und Tracks zu schreiben, ist das nicht so geeignet (und ich glaube auch nicht dafür gedacht).
    Ja genau, Audio or it didn't happen. :mrgreen:
    Nee, das geht leider nie "spielend". Schön wär's. Am einfachsten ist OOP wohl noch in Python:
    Code:
    #!/usr/bin/python
    # coding: iso-8859-1
    
    class Lamp:
    
        def __init__(self):
            self.state = "off"
    
        def switchOn(self):
            self.state = "on"
    
        def switchOff(self):
            self.state = "off"
    
        def showState(self):
            print "The lamp is " + self.state + " now."
            if self.state == "on":
                print "Light."
            else:
                print "Darkness."
    
    l = Lamp()
    l.showState()
    l.switchOn()
    l.showState()
    l.switchOff()
    Lua sollte für einen C/C++-Programmierer eigentlich kein Problem sein. War für mich, dem C/C++ definitiv zu schwierig und umständlich ist, innerhalb etwa einer Woche machbar. Wenn Du willst, gibt' in Lua auch OOP:

    http://www.lua.org/pil/16.html

    Damit sähe das Lampen-Beispiel z.B. so aus:
    Code:
    #!/usr/bin/lua
    
    Lamp = {}
    
        function Lamp:new()
            local o = {}
            setmetatable(o, self)
            self.__index = self
            self.state = "off"
            return o
        end
    
        function Lamp:switchOn()
            self.state = "on"
        end
    
        function Lamp:switchOff()
            self.state = "off"
        end
    
        function Lamp:showState()
            print("The lamp is " .. self.state .. " now.")
            if self.state == "on" then
                print("Light.")
            else
                print("Darkness.")
            end
        end
     
    l = Lamp:new()
    l:showState()
    l:switchOn()
    l:showState()
    l:switchOff()
    l:showState()
    Nee, vollquatschen geht gar nicht. :mrgreen:
     
  5. mark

    mark -

    Ich brauche nicht 20 verschiedene Programmiersprachen die alle einen unterschiedlichen Dialekt haben und mich so durcheinenader bringen, sondern ich brauche eine Programmiersprache mit der ich das erreichen kann was ich will. In meinem Falle wäre es von Prinzip her C/C++. Nur warum soll ich das Rad komplett Neu erfinden wenn sich bereits schlaue Leute über Jahre hinweg die Arbeit gemacht haben eine Programmiersprache extra für Audio Synthese und Algorithmische Komposition zu entwickeln. Also SuperCollider, auch nicht Pure Data, weil es verbugt ist und nicht an die Performance von SuperCollider heranreicht, PD ist nur interessant für den Anfänger, weil er so mit grafischen Elementen arbeiten kann. Die Syntax von SuperCollider ist logisch durchdacht, man schreibt einfach das auf was man im Studio normalerweise machen würde.

    Um nochmal zu SuperCollider und insbesondere dem Thema, Live Coding zurück zu kommen habe ich hier ein kleines Zitat gefunden, das ich diesem Thema mit anfügen wollte.

    "Just in time programming (or: conversational programming, live coding2 , on-the fly-programming, interactive programming) is a paradigm that includes the programming activity itself in the program's operation. This means a program is not taken as a tool that is made first, then to be productive, but a dynamic construction process of description and conversation - writing code thus becoming a closer part of musical or experimental practice. SuperCollider, being a dynamic programming language, provides several possibilities for modification of a running program - this library attempts to extend, simplify and develop them, mainly by providing abstract placeholders (proxies) that can be modified and used in calculations while playing. There is some specific networking classes which are made to simplify the distribution of live coding activity.

    JITLib simplifies and unifies some orthogonal aspects of SuperCollider. It consists of a number of placeholders (server side and client side) and schemes of access. These two aspects of space corresponding to inclusion and reference, depend on their context - here the placeholders are like roles which have a certain behaviour and can be fulfilled by certain objects. It is useful to be aware of the three aspects of such a placeholder: a certain set of elements can be their source, they can be used in a set of contexts and have a default source, if none is given."
     
  6. mark

    mark -

    SuperCollider ist Crossplatform, kam ursprünglich aus der Mac Welt wurde dann nach Linux und Windows portiert. Unter Windows sieht die IDE zwar nicht genausogut aus wie unter Linux oder Mac, aber wenn du es dir installiert hast kannst du dir über en Helpbrowser die zahlreichen Code Schnipsel genauer unter die Lupe nehmen als auch evaluieren und dir so selbst ein konkretes Bild über die Qualität der Audioengine machen.
     
  7. PySeq

    PySeq eingearbeitet

    Schade, ich hätte gern was von Dir selbst gehört.

    Hier sind ein paar Klangbeispiele:

    http://supercollider.sourceforge.net/au ... -examples/

    Sound ganz interessant, musikalisch Null.
    *seufz* C/C++ sind die Sprachen für Profis. Also so Unternehmen wie Microsoft. Die ca. 500 bezahlte Angestellte, die das studiert haben (bzw. von ihnen selbst ausgebildet wurden), in Vollzeit 'ransetzen, um ein Programm entwickeln zu lassen. Das dann weltweit vermarktet wird.
    C/C++ ist low-level, knapp über Assembler. Schnell in der Ausführung, aber ohne jede Rücksicht auf den Programmierer (warum auch, man hat ja 500 davon, die wissen, was sie tun).
    C/C++ ist für jedermann verfügbar, aber ein Einzelner, zumal, wenn er kein abgeschlossenes Informatikstudium hat, kann damit nur wenig produktiv sein.
    Die Sprachen richten sich einfach nicht an ihn, sondern an große Teams von Profis.
    In Python schreibt man für dieselbe Datenverarbeitungsaufgabe 2-11 mal weniger Code. Deshalb hat man im Vergleich zu C/C++ dann das Gefühl, man könne fliegen:

    http://xkcd.com/353/

    Was glaubst Du wohl, warum SuperCollider eine eigene Programmiersprache anbietet? Warum schreibt man das nicht direkt in C/C++? Weil's für den Einzelnen ein Schmerz im Hintern ist.

    Wie gesagt sind C/C++-Programmierer, zu denen Du Dich anscheinend zählst, Profis. Für derartige Profis ist es überhaupt kein Problem, auch 20 andere Programmiersprachen zu verstehen und zu lernen. Die meisten Programmiersprachen (abgesehen von Exoten wie Haskell oder Brainfuck) haben alle dieselben Sprachkonstrukte: Variablen, Operatoren, Schleifen, Bedingungen, Funktionen, Objekte.
    Und selbst, wenn das nicht so wäre, würde von einem C/C++-Programmierer erwartet, daß er es versteht.

    ----

    Das Ganze ist auch manchmal ein Problem bei Musikern: Die Leute sehen das VST-Software-Development-Kit von Steinberg

    http://www.gersic.com/vstsdk/

    und lesen, aha, das macht man mit C++. Na fein, Graphik editiert man mit gimp, VSTs baut man mit C++ (als wäre C++ eine Anwendung). Dann öffnen sie vielleicht noch ein IDE, und denken, ah, das ist C++.
    Das ist natürlich ein grundlegender Irrtum.

    Aber es kann jeder gern selbst seine Erfahrungen damit machen.
    Nur behauptet bitte nicht, ihr seid C/C++-Programmierer, wenn ihr nicht wenigstens 5 lauffähige Programme mit mehr als je 1.000 Zeilen Code in diesen Sprachen geschrieben habt.
     
  8. C0r€

    C0r€ -

    Davon solltest du dich nicht abschrecken lassen!

    Nette Reverbs gehen z.B. ziemlich einfach.

    src: https://youtu.be/_2N7lG5uzJI

    Mit besserer Abstimmung kann das sogar noch besser klingen.
    Sehr schoen sind auch die binaural und physical modelling Sachen, und die Art und weise wie man in einen laufenden Sequenzer neue Spuren einsynchen kann.
    Natuerlich gibt es auch viele Beispiele, die eher fuer Mathematiker interessant sind, als dass sie gut klingen. Aber das muss man ja nicht so nutzen.
     
  9. Rastkovic

    Rastkovic Pleasure to Kill

    Klingt richtig gut, schön sauber digital.

    Bei "musikalisch Null" würde ich jedoch wieder sprechen, es ist vielleicht nicht Dein Geschmack. Mir gefallen einige Sachen auf der Seite, bin aber auch grundsätzlich ein Freund von Klangcollagen....
     
  10. mark

    mark -


    keine Ahnung
     
  11. mark

    mark -

    Also, Butter bei die Fische...

    Ich hatte mit dem Thema nicht vor gehabt meine Künste des Programmierens unter Beweis zu stellen. Genau genommen scheitere ich täglich, kläglich bei den kleinsten Aufgaben mit SuperCollider. Das hat nichts damit zu tun das SuperCollider nichts taugt, sondern damit wie Komplex es ist und wie sehr die abverlangte Lernkurve ist.

    Aaaaber, SuperCollider bietet einfach das komplette Sammelsurium an nur Vorstellbaren Möglichkeiten im Bezug auf Klangsynthese. Man hat hier die Möglichkeiten die einem kein noch so teures Analoges Modularsystem bieten kann und zwar kostenlos. Das einzige wo das analoge Modularsystem trumpfen kann ist eben der Komfort im Bezug auf die Bedienung.

    Das schwierige ist es eben einen Klang zu programmieren von dem man noch nicht weiß wie er später klingen soll. Die Anzahl der Argumente steigen und es wird immer unübersichtlicher und schwieriger die Parameter im nachhinein zu verändern um so seinen gewünschten Klang zu bekommen. Zur Hilfe kann man sich einen externen MIDI Controller nehmen, aber auch der muss eingebunden werden und jeweils neu angepasst werden, Werte müssen zuvor in Zwischenvariablen gespeichert sein, weil ansonsten der Klang mit den Standardwerten der Argumente in der SynthDef aufgerufen werden. Noch unangenehmer wird es wenn man Effekte benutzen will, hier muss man expliziet die Reihenfolge der Nodes und Gruppen einordnen und auf dem Server sortieren, ansonsten kommt nichts raus.

    Den Vogel abschießen tut man aber wenn es um die Funktionalität des Sequenzer geht. Die Komplexität steigert sich ab hier ins Grenzenlose. So kann man über die Aufstellung mathematischer Gleichungen aus einem Pattern meherer Streams erzeugen die einen ever changing Beat erzeugen...

    Alles sehr Komplex, aaaaber wenn man einen Mac hat macht es wieder Sinn, weil wenn man einen Mac hat kann man die erstellten Synths als StandAlone Applikation erzeugen. Unter Linux bleibt dann höchstens noch die Möglichkeit mit Gui Elemten vereinfachung zu schaffen.

    Das Ding überhaupt und warum ich persönlich gerne SuperCollider mag ist das Thema Live Coding sowie Algorithmische Komposition.

    Mit diesen 2 Schlagworten trifft man bei SuperCollider ins Schwarze. Nur erfordert es eine extreme Lernkurve und viele Jahre Übung. Für mich ist SuperCollider die Hauptmahlzeit und als Pausenhäppchen bleibt Renoise... Ich bin jedesmal aufs neue erstaunt wie einfach ich mich im Umgang mit Renoise tue nachdem ich mir Stundenlang mit SuperCollider den Kopf zerbrochen habe.

    Also man hat durch die Anwendung und das erlernen der Möglichkleiten von SuperCollider in jedem Fall einen großen nutzen mit der Aussicht auf unendlich Komplexe Klangstrukturen, die sich mit der Hilfe einer kleinen Gleichung beschreiben lassen
     

Diese Seite empfehlen