MAX 8 (Cycling 74)

herw schrieb:
suomynona schrieb:
[...]
- ok. core kenne ich nicht. ich kannte nur reaktorversionen ohne das "core". was kann das denn?
[...]
samplerate-genaue bitweise Audio-Verarbeitung.
D.h. z.B. zu jedem sampletick kann ich gleichzeitig (!) viele Rechen- und Logikoperationen durchführen.
Die Folge können sein, völlig neue Oszillatoren, Filter, Effekte.

hört sich interessant an. gibt es denn beispiele, wie das klingt? könnte aber auch nach hinten losgehen was die cpu-last angeht. reaktor war immer ein bisschen ein cpu-schwein™, oder hat sich das gebessert?
 
herw schrieb:
nihil schrieb:
[...]
ich würde mal gerne wissen wie du zu dem schluss kommst das max/msp klanglich nicht an reaktor heranreicht, so ganz sachlich, und wirklich nur klanglich nicht was möglichkeiten angeht.
[...]
Ein wichtiges Indiz ist dafür schon, dass es so viele musikalisch nutzbare Ensembles gibt. Max macht für mich den Eindruck, eine Spielwiese für Studenten zu sein. Ausgefeilte Audio-End-Produkte gibt es bei max nur selten, ich kenne keins, aber würde gerne mal ein Audioprodukt hören.
Polyphonie ist ein anderes Stichwort: Mehrstimmigkeit ist in Reaktor genial gelöst. Die Stimmenverwaltung ist äußerst einfach und automatisch. Synthesizerherstellung steht damit nichts (naja außer viel Erfahrung) im Weg.

Da mich Videoverarbeitung nicht interessiert, will ich mir auf diesem Gebiet über max kein Urteil erlauben. Das ist eine ganz andere Kategorie von Kunst und nicht mein Ding.
Wenn die Interessen in diese Richtung gehen, dann ist sicherlich Reaktor die falsche Wahl. Ich würde mir auch eine solche Erweiterung für REAKTOR nicht wünschen. Dann sollte man lieber zu einem anderen Spezialprogramm (in dem Fall max) wechseln.
Bei der Audioverarbeitung ist dagegen für mich eindeutig REAKTOR erste Wahl.

das heisst im klartext deine behauptung basiert auf vermutungen, du hast es selbst nicht ausprobiert.
 
Ein Nord Modular kommt nicht in Frage? Lad dir mal die kostenlose einstimmige Demo runter, die laeuft auch ohne die Hardware. Man kann natuerlich nicht so "tief runter" wie mit den anderen, dafuer ist man sehr schnell und hat auch gleich die Regler auf den Modulen.

Ansonsten wuerde ich auch Reaktor sagen.

Max/Msp muss man schon moegen, ich bin damit nicht wirklich warm geworden. Ist halt, wie oben schon erwaehnt, was fuer Frickler. Auf Youtube gibt es einige Videos was die Leute damit machen: Alles sehr seltsam und hoert sich meistens auch richtig sch*** an (das "Visual Basic der Audioprogrammierung") - gibt natuerlich auch Leute denen sowas gefaellt...
 
die g2-demo hab ich vor einiger zeit mal getestet, war auch ziemlich g2-infiziert, will mir aber aus logistischen gründen keine hardware mehr hinstellen, ist mir eigentlich auch ein bisschen zu eingeschränkt?!
ist dann letztendlich wohl geschmacksache, ob reaktor oder max.
 
Ich wäre definitiv für MaxMSP. Mir ist Reaktor zu sehr toplevel.
Dass MaxMSP schlecht klingt/nur für langweilige Experimente einegesetzt wird etc halte ich def. für ein Gerücht.
Robert Henke macht beispielsweise viel mit Max, Autechre haben es benutzt (oder benutzen es noch), etc
achja und ich benutze es auch *g*
 
Eigentlich ist die Frage eher was man damit machen will und wie man arbeiten möchte, zudem ergänzen sich einige Sachen, MAX ist auch hochgradig eine "Steuersprache" - Quasi mehr Buchla - Mehr Spannungen aufteilen als das eher "Synth"-Ding Reaktor, wobei man mit letzterem schneller ans Ziel kommen kann und noch schneller mit dem G2, weil sie jeweils so sind wie sie eben sind.

Max schrieb:
Den G2 gibt es uebrigens auch als "Engine"-Version (ohne Knoepfe in einem 1HE Rack)

GAB!! Es GAB den G2 mal, inzwischen nur noch Restbestände.
 
Zuletzt bearbeitet:
suomynona schrieb:
herw schrieb:
suomynona schrieb:
[...]
- ok. core kenne ich nicht. ich kannte nur reaktorversionen ohne das "core". was kann das denn?
[...]
samplerate-genaue bitweise Audio-Verarbeitung.
D.h. z.B. zu jedem sampletick kann ich gleichzeitig (!) viele Rechen- und Logikoperationen durchführen.
Die Folge können sein, völlig neue Oszillatoren, Filter, Effekte.

hört sich interessant an. gibt es denn beispiele, wie das klingt? könnte aber auch nach hinten losgehen was die cpu-last angeht. reaktor war immer ein bisschen ein cpu-schwein™, oder hat sich das gebessert?
cpu-Last ist immer davon abhängig, wie geschickt oder ungeschickt man programmiert.
Eine generelle Antwort kann man nicht geben, aber komplexe Audiobearbeitung erfordert auch eine hohe CPU-Last.
Hier mal drei beeindruckende Beispiele, was mit REAKTOR u.a. in core möglich ist.

piano III - "Kongrosian" v1.1
und
Advanced Filters in Reaktor Core v1.5

Klick jeweils die mp3-demos an.

und natürlich auch
spark

ciao herw

nihil schrieb:
herw schrieb:
nihil schrieb:
[...]
ich würde mal gerne wissen wie du zu dem schluss kommst das max/msp klanglich nicht an reaktor heranreicht, so ganz sachlich, und wirklich nur klanglich nicht was möglichkeiten angeht.
[...]

Ein wichtiges Indiz ist dafür schon, dass es so viele musikalisch nutzbare Ensembles gibt. Max macht für mich den Eindruck, eine Spielwiese für Studenten zu sein. Ausgefeilte Audio-End-Produkte gibt es bei max nur selten, ich kenne keins, aber würde gerne mal ein Audioprodukt hören.
Polyphonie ist ein anderes Stichwort: Mehrstimmigkeit ist in Reaktor genial gelöst. Die Stimmenverwaltung ist äußerst einfach und automatisch. Synthesizerherstellung steht damit nichts (naja außer viel Erfahrung) im Weg.

Da mich Videoverarbeitung nicht interessiert, will ich mir auf diesem Gebiet über max kein Urteil erlauben. Das ist eine ganz andere Kategorie von Kunst und nicht mein Ding.
Wenn die Interessen in diese Richtung gehen, dann ist sicherlich Reaktor die falsche Wahl. Ich würde mir auch eine solche Erweiterung für REAKTOR nicht wünschen. Dann sollte man lieber zu einem anderen Spezialprogramm (in dem Fall max) wechseln.
Bei der Audioverarbeitung ist dagegen für mich eindeutig REAKTOR erste Wahl.

das heisst im klartext deine behauptung basiert auf vermutungen, du hast es selbst nicht ausprobiert.
wie ich oben schon erwähnte, habe ich max zweimal in demoversionen ausprobiert.
ich habe nichts anderes behauptet, da es ja keine library und keine community (user library) für max gibt. Aber es gibt Foren zu max, die diese Behauptung stützen.
Gib doch mal ein Beispiel eines in Max 5 ausgeführten Synthesizers an! Ich kenne keines.
Selbst einen Synthesizer mit der Demoversion zu bauen ist unmöglich. Man bleibt in einfachsten und primitivsten Algorithmen schon hängen. Klanglich gibt's dann nur einen Sägezahnoszillator. Erwartest Du, dass ich ein solch jämmerliches Beispiel als Argument für max anführen soll?
Mein Urteil basiert auch auf Diskussionen, die in anderen Foren geführt werden - hier ist was zum Lesen:

http://reaktor.approx.de/phpbb3/viewtopic.php?f=2&t=618
http://www.cycling74.com/forums/index.php?t=msg&goto=161349&rid=0&srch=reaktor#msg_161349
http://www.native-instruments.com/forum/showthread.php?t=76792

ciao herw
 
Zuletzt bearbeitet von einem Moderator:
danke für die links, nach nem reaktor-forum hatte ich noch gar nicht geschaut.
musik, die mit hilfe von max entstanden ist, gibt es auf der cycling seite unter releases. geht teilweise schon stark richtung "kunst/unhörbar", sind aber auch einige nette sachen dabei.
generell habe ich das gefühl, das max mehr als fx benutzt wird und weniger zum programieren von leadsynth usw. darum geht es mir aber auch weniger, ich benutze ne analoge kiste, wenn ich sowas denn noch mal brauche.
ein reines modularsystem brauche ich auch nicht, daher fällt der g2 auch flach.
im moment ist eher der random-generator mein bester freund, da kommt mir max schon sehr entgegen.
ich habe die demo auf 2 rechner benutzt, daher konnte ich jetzt 6 wochen intensiv damit arbeiten und bin als absoluter anfänger nur mit der help-funktion zu meiner meinung nach schon recht ordentlichen ergebnisen gekommen. also ein einfacher synth sollte auch als anfänger in 3 wochen demo-zeit problemlos möglich sein, zumal es auch tutorials gibt, die das (mehr oder weniger) anschaulich erläutern.
bin auch auf eine seite gestoßen, auf der mann unmengen von max-patches runterladen kann, prima sache.
klar, die reaktor-ensembles sind schon echt beeindruckend, da gibts mal nix, aber ich denke, ich habe mich schon für max entschieden.
leider läuft die reaktor-demo immer nur ne halbe stunde, das macht es schwer, sich da richtig einzuarbeiten. macht die demo ja eigentlich für leute, die an core interessiert sind, rel. unbrauchbar, wenn ich überlege, wie lange ich am max manchmal sitze.......

Klanglich gibt's dann nur einen Sägezahnoszillator.
öhh? wie meinste das?
es gibt in max doch standardwellenformen, säge, rechteck, dreieck, sine....
 
Zuletzt bearbeitet von einem Moderator:
CO2 schrieb:
Klanglich gibt's dann nur einen Sägezahnoszillator.
öhh? wie meinste das?
es gibt in max doch standardwellenformen, säge, rechteck, dreieck, sine....
das war nur ein Beispiel, um deutlich zu machen, wie wenig ich in einer max demo zustande bringen konnte.
Aber wie schon mehrfach gesagt bin ich durch meine langjährige Zugehörigkeit zur REAKTOR-Gemeinde stark beeinflusst.
Daher ist sicherlich auch meine Abneigung gegen max begründet.
Beiden Programmen gemeinsam ist sicherlich, dass sie nicht „mal eben” erlernbar sind; d.h. egal wie eine Entscheidung ausfällt, muss man sich im Klaren sein, dass die Lernkurve nicht steil ist und man mehrere Jahre (!) Erfahrung sammeln muss.

ciao herw
 
Ich hab seit ein par Wochen ein Monome 40h und verwende die Ccommunity software, wie z.b., TinTinambulome, mlrv, polygome etc ...

Fa geht schon einges, allerdigns hat man manchmal schon ein bisserl ein Gefühl von "unfertig".

Zu Reaktor, NI und diese Software sind für mich gestorben, auf ewig. Ich habe die downloadversion von reaktor gekauft und soviele Probleme mit Software hatte ich seit Jahren nicht mehr. Live ist ja ansich ein unkaputtbarer Host, wirklich selten das diese app mal abstürzt, mit Reaktor crasht es permanent, vor allem wenn ich neue Ensembles öffnen möchte, dabei spielt es keine Rolle ob die von NI oder der Community sind. Natürlich kann man mit reaktor klanglich Welteln erforschen, darauf kann ich aber verzichten wenn ich dauernd nur Ärger mit der Stabilität habe. Eine falsche Konfigurierung meinerseits schliesse ich eher aus, da ich hauptsächlich mit Hardware bastle gibts kein anderen Plug-Ins die da Reaktor eventuell stören und ein 2 GHZ C2D mit 2 GB Ram (Macbook) solte auch ein Weilchen reichen.

Genau aus diesen Gründen hatte ich auch meine Reaktor 3 version verkauft, leider hatt sich nix gebessert udn heute gelingt es mir nichtmal meine reaktor 5 lkizenz zu verkaufen.

Für 400 Euro als Download eine extrem schwache Leistung.



Hm, das war jetzt vielleicht ein bisserl offtopic ;-)
 
sushiluv schrieb:
[...]Live ist ja ansich ein unkaputtbarer Host, wirklich selten das diese app mal abstürzt, mit Reaktor crasht es permanent, vor allem wenn ich neue Ensembles öffnen möchte, dabei spielt es keine Rolle ob die von NI oder der Community sind. Natürlich kann man mit reaktor klanglich Welteln erforschen, darauf kann ich aber verzichten wenn ich dauernd nur Ärger mit der Stabilität habe. [...]
read this:
http://www.native-instruments.com/forum ... ve+reaktor

ciao herw

CO2 schrieb:
Klanglich gibt's dann nur einen Sägezahnoszillator.
öhh? wie meinste das?
es gibt in max doch standardwellenformen, säge, rechteck, dreieck, sine....
ich habe „mal eben” einige Nullphasen-Oszillatzoren in core gebastelt (die Periode beginnt mit einer variablen Nullphase, der Rest wird durch die gegebene Wellenform aufgefüllt)

Nullphasenoszillator

ciao herw
 
Zuletzt bearbeitet von einem Moderator:
herw schrieb:
CO2 schrieb:
Klanglich gibt's dann nur einen Sägezahnoszillator.
öhh? wie meinste das?
es gibt in max doch standardwellenformen, säge, rechteck, dreieck, sine....
ich habe „mal eben” einige Nullphasen-Oszillatzoren in core gebastelt (die Periode beginnt mit einer variablen Nullphase, der Rest wird durch die gegebene Wellenform aufgefüllt)

Nullphasenoszillator

ciao herw

hier mal die links zu den max/msp tutorials mit ähnlichem inhalt:

lfo-wellenformen


custom oscillator-wellenformen
 
suomynona schrieb:
herw schrieb:
CO2 schrieb:
Klanglich gibt's dann nur einen Sägezahnoszillator.
öhh? wie meinste das?
es gibt in max doch standardwellenformen, säge, rechteck, dreieck, sine....
ich habe „mal eben” einige Nullphasen-Oszillatzoren in core gebastelt (die Periode beginnt mit einer variablen Nullphase, der Rest wird durch die gegebene Wellenform aufgefüllt)

Nullphasenoszillator

ciao herw

hier mal die links zu den max/msp tutorials mit ähnlichem inhalt:

lfo-wellenformen


custom oscillator-wellenformen
sorry das ist überhaupt nicht vergleichbar, da es sich „nur” um gewichtete Additionen verschiedener Grundwellen handelt. Bei REAKTOR geht es darum, ganz neue Wellenformen neu zu erfinden (sample-genaue Bearbeitung). Da hab ich von Max noch nichts gesehen. Außerdem handelt es sich bei meinem Beispiel nicht um LFOs sondern um Audiooszillatoren, die auch noch zusätzlich einen Antialiasing-Algorithmus benötigen. LFOs benötigen wesentlich weniger Programmieraufwand.
Wie greife ich denn in den LFO-Agorithmus direkt ein. Ich sehe in dem verlinkten Tutorial lediglich die Möglichkeit, Parameter festzulegen. Das ist mir zu wenig.
 
man kann für max externe module schreiben in c, ist zwar nicht leichter als reaktor, aber geht, damit ist allerdings dann eine tiefe erreicht die in reaktor so nicht vorhanden ist.
 
Max und noch mehr SuperCollider sind "Code"-freundlich. Ebenso Kyma, allerdings nur interner Code (Smalltalk).

Reaktor ist sehr grafisch, was für mich als ITler die Core-Sache manchmal eher schwerer macht. NI ist eh gut einfachs kompliziert zu erklären in deren Handbüchern.. Das rafft man kaum bis gar nicht - Also wenn man diese Vorwissensache nicht hätte, wäre das schon noch härter.
 
herw schrieb:
herw schrieb:
suomynona schrieb:
hier mal die links zu den max/msp tutorials mit ähnlichem inhalt:

lfo-wellenformen


custom oscillator-wellenformen

sorry das ist überhaupt nicht vergleichbar, da es sich „nur” um gewichtete Additionen verschiedener Grundwellen handelt. Bei REAKTOR geht es darum, ganz neue Wellenformen neu zu erfinden (sample-genaue Bearbeitung). Da hab ich von Max noch nichts gesehen. Außerdem handelt es sich bei meinem Beispiel nicht um LFOs sondern um Audiooszillatoren, die auch noch zusätzlich einen Antialiasing-Algorithmus benötigen. LFOs benötigen wesentlich weniger Programmieraufwand.
Wie greife ich denn in den LFO-Agorithmus direkt ein. Ich sehe in dem verlinkten Tutorial lediglich die Möglichkeit, Parameter festzulegen. Das ist mir zu wenig.

* dass das eine lfos und das andere oscis sind ist schon klar. deshalb hab ich ja auch den 2. link zu den audiooszillatoren gepostet. das tutorial an sich ist aber interessant, weil schön erklärt wird, wie man sich ausgefallene lfo-signale bauen kann. was meinst du mit "direkt in den LFO" eingreifen? reicht es nicht, wenn man sich die wellenform mit logischen operatoren zurechtschustern kann?

* unterschied zwischen direkt eingreifen und den "gewichtetet additionen" im verlinkten tutorial ist mir nicht klar. klingt es denn anders?
vielleicht meinst du sowas wie in dem phase vocoder tutorial?
 
nihil schrieb:
man kann für max externe module schreiben in c, ist zwar nicht leichter als reaktor, aber geht, damit ist allerdings dann eine tiefe erreicht die in reaktor so nicht vorhanden ist.

Von einem theoretischen Standpunkt aus gesehen muesste Core eigentlich den Funktionsumfang einer Turing-Maschine haben (wie max wahrscheinlich auch), sprich die "Tiefe" der beiden Programme ist wohl eher identisch, und das ganze dann eher eine Frage des Zugangs. Ein Vorteil von dem Core-Ansatz ist dabei auf jeden Fall, das nicht durch ein Programmierfehler im Modul das Programm abgeschossen werden kann, in C bekommt man sowas ja problemlos hin. Auch Memory-Leaks kann man sehr einfach in C, aber nicht mit Core produzieren. Aber fuer jeden Scheiss immer mit Modulen und Kabeln arbeiten zu muessen ist ziemlich zeitaufwendig, ich haette gerne die Moeglichkeit auch fuer Reaktor Module zu programmieren. Kleine Tools erstelle ich mir daher mittlerweile auch in js (http://www.cockos.com/reaper/sdk/js/).

Von frueher weiss ich, dass mehrstimmige Strukturen in max/msp aufwendiger zu erstellen war, habe keine Ahnung ob sich das mit max5 geaendert hat. Das wuerde aber zumindest erklaeren, warum es weniger max/msp synthesizer gibt (ein andere Grund duerfte aber auch eine andere Usergroup sein). Wenn man aber vor allem Sequenzer erstellen will, duerfte man mit Max eigentlich besser bedient sein.
 
suomynona schrieb:
herw schrieb:
herw schrieb:
suomynona schrieb:
hier mal die links zu den max/msp tutorials mit ähnlichem inhalt:

lfo-wellenformen


custom oscillator-wellenformen

sorry das ist überhaupt nicht vergleichbar, da es sich „nur” um gewichtete Additionen verschiedener Grundwellen handelt. Bei REAKTOR geht es darum, ganz neue Wellenformen neu zu erfinden (sample-genaue Bearbeitung). Da hab ich von Max noch nichts gesehen. Außerdem handelt es sich bei meinem Beispiel nicht um LFOs sondern um Audiooszillatoren, die auch noch zusätzlich einen Antialiasing-Algorithmus benötigen. LFOs benötigen wesentlich weniger Programmieraufwand.
Wie greife ich denn in den LFO-Agorithmus direkt ein. Ich sehe in dem verlinkten Tutorial lediglich die Möglichkeit, Parameter festzulegen. Das ist mir zu wenig.

* dass das eine lfos und das andere oscis sind ist schon klar. deshalb hab ich ja auch den 2. link zu den audiooszillatoren gepostet. das tutorial an sich ist aber interessant, weil schön erklärt wird, wie man sich ausgefallene lfo-signale bauen kann. was meinst du mit "direkt in den LFO" eingreifen? reicht es nicht, wenn man sich die wellenform mit logischen operatoren zurechtschustern kann?

* unterschied zwischen direkt eingreifen und den "gewichtetet additionen" im verlinkten tutorial ist mir nicht klar. klingt es denn anders?
vielleicht meinst du sowas wie in dem phase vocoder tutorial?
nein, meine ich nicht; vielleicht ist es schwer verständlich, wenn man in die Strukturen von Reaktor noch nicht hineingeschaut hat.
Das einfache Mischen und Gewichten von Basiswellenformen meine ich nicht, sondern es geht darum, auf den Oszilltoralgorithmus, der eine Wellenform bestimmt, direkt einzugreifen.
Zum Beispiel ist folgende Wellenform denkbar:
Eine Grundwelle wie ein Sägezahn gibt eine Schwingungsfrequenz vor. Die Schritthöhe der Sägezahntreppe wird daraus bestimmt, soweit einfachste DSP-Praxis.
Nun kann ich in REAKTOR direkt bei jedem Sampletick (also bei jeder Treppenstufe) logische und algebraische Operatoren anwenden, um aus dieser Grundwelle eine andere Wellenform zu erstellen:
ein Beispiel: ich könnte die ersten 30% der Welle auf Null setzen und die restlichen 70% der Welle mit einer Sinuswelle mit variabler (höherer) Frequenz auffüllen. Erhöht man nun dynamisch den Anteil der Nullphase und auch gleichzeitig die Zahl der Wellen für den Rest, behält man die Grundfrequenz (Tonhöhe) bei, wechselt aber gleichzeitig zu höheren Obertönen. Ein sehr interessantes Material; der Algortihmus ist durch wenige Module programmierbar (in der Grafikprogrammierebene). Dies kann man auch durch Hardsynchronisation und ähnlicher Form erhalten.
Ich kann jetzt nicht sagen, ob das in MAX auch möglich ist; ich möchte nur erläutern, wie tief REAKTOR hineingehen kann und was ich unter „direktem Eingriff in den Algorithmus” verstehe.

ciao herw
 
Danke für die Erläuterungen. Das hört sich schon sehr interessant an.
Ich glaub ich kann auch nachempfinden, was du zu den MSP-Wellenformen gesagt hattest. Die sind nämlich standardmäßig recht "basic" und man bekommt leicht den Eindruck, dass da nicht viel gehen würde.

Habe mir auch mal den NI-Kore-Player installiert. Bin davon aber etwas enttäuscht, hatte mir aber mehr versprochen. Der Installer hat direkt reproduzierbar gecrasht, als ich versuchte ein Verzeichnis für die 300Mb Demo-Samples auszuwählen (leider kenne ich so ein Verhalten von früheren NI-Produkten, und leider scheint sich da nichts geändert zu haben).
Die Kore-Sounds selber klingen nicht schlecht, sind aber für 300 MB dann auch nicht so sehr beeindruckend.
 
suomynona schrieb:
[...]
Habe mir auch mal den NI-Kore-Player installiert. Bin davon aber etwas enttäuscht, hatte mir aber mehr versprochen. Der Installer hat direkt reproduzierbar gecrasht, als ich versuchte ein Verzeichnis für die 300Mb Demo-Samples auszuwählen (leider kenne ich so ein Verhalten von früheren NI-Produkten, und leider scheint sich da nichts geändert zu haben).
Die Kore-Sounds selber klingen nicht schlecht, sind aber für 300 MB dann auch nicht so sehr beeindruckend.
das hat jetzt aber mit REAKTOR/MAX nichts zu tun; nicht verwechseln:
KORE ist eine übergeordnete Hard/Software zur Verwaltung und Anwendung von Klängen verschiedener VSTs.
CORE (in REAKTOR) ist eine Programmierebene.
 
CPU-anforderungen, features, benutzerfreundlichekeit, strukturen,...

interessant, dass der KLANG der systeme (bzw. ihrer algorithmen) eigentlich kaum zur sprache kommt und gar nicht so zu interessieren scheint. eine zeiterscheinung vielleicht?
 
Fidgit schrieb:
CPU-anforderungen, features, benutzerfreundlichekeit, strukturen,...

interessant, dass der KLANG der systeme (bzw. ihrer algorithmen) eigentlich kaum zur sprache kommt und gar nicht so zu interessieren scheint. eine zeiterscheinung vielleicht?

Wie klingt eine Programmiersprache? Will damit sagen, es mag zwar einen Klang der mitgelieferten Module in Reaktor/MAX geben, aber da man ja eigene Algorithmen vollstaendig implementieren kann, gibt es nunmal keinen Grundklang von Reaktor.
 
Fidgit schrieb:
CPU-anforderungen, features, benutzerfreundlichekeit, strukturen,...

interessant, dass der KLANG der systeme (bzw. ihrer algorithmen) eigentlich kaum zur sprache kommt und gar nicht so zu interessieren scheint. eine zeiterscheinung vielleicht?
ähh, hast Du meine vorletzte Post nicht bis zum Schluss gelesen? Dort habe ich erwähnt, dass der direkte Eingriff in Algorithmen zu interessanten Klangveränderungen (hier systematische Veränderung der Obertöne) führt. Das sagt doch viel über den Klang aus, wenn man die Hartsynchronisation schon mal selbst beim modularen System ausprobiert hat. In einem polyphonen System, wie es REAKTOR ist, bekommt man eine wahre Fundgrube an neuen Klängen.

ciao herw

Klinkenstecker schrieb:
Fidgit schrieb:
CPU-anforderungen, features, benutzerfreundlichekeit, strukturen,...

interessant, dass der KLANG der systeme (bzw. ihrer algorithmen) eigentlich kaum zur sprache kommt und gar nicht so zu interessieren scheint. eine zeiterscheinung vielleicht?

Wie klingt eine Programmiersprache? Will damit sagen, es mag zwar einen Klang der mitgelieferten Module in Reaktor/MAX geben, aber da man ja eigene Algorithmen vollstaendig implementieren kann, gibt es nunmal keinen Grundklang von Reaktor.
ja REAKTOR ist auch eine Art Klangforschungssystem, aber eben nicht nur; die klanglichen Ergebnisse sind in ganz verschiedenen Richtungen äußerst befriedigend.
 
Zuletzt bearbeitet von einem Moderator:
Klinkenstecker schrieb:
Fidgit schrieb:
CPU-anforderungen, features, benutzerfreundlichekeit, strukturen,...

interessant, dass der KLANG der systeme (bzw. ihrer algorithmen) eigentlich kaum zur sprache kommt und gar nicht so zu interessieren scheint. eine zeiterscheinung vielleicht?

Wie klingt eine Programmiersprache? Will damit sagen, es mag zwar einen Klang der mitgelieferten Module in Reaktor/MAX geben, aber da man ja eigene Algorithmen vollstaendig implementieren kann, gibt es nunmal keinen Grundklang von Reaktor.

Naja, es gibt schon einen Klang der Standard OSCs, Filter und so weiter.
Das ist kein sooo abwegiges Thema. Wir wissen schon alle, dass ein G2, Kyma oder ein Reaktor-Patch mit "Machen wir mal nen Minimoog als Strukturkopie" erstmal anders klingen. Ja, es ist auch klar, wieso. Das Original ist ja mit 3 OSCs in Mix in Filter in Amp mit 2 ENVS nicht ganz getan.

Die Diskussion um div. Modularsysteme bei dem Thema "Neutralität" und "Anpassbarkeit" gehen von radikal bis "so wie bei den Kompaktsynthesizern".

Finde das aber sehr legitim, sowas zumindest man anzufragen.

CORE zu programmieren finde ich zB etwas mühselig im Vergleich. Max "klingt" oftmals nicht so "super", aber vielleicht will man ja auch eine ganz andere Herangehensweise? Da sind Phat und Co keine relevanten Attribute.

Super Collider ebenso.

Das klingt schon alles sehr anders, sowas als Synthesizer ohne Modular wäre zuweilen weniger erfolgreich. Das hat Gründe und Ursachen.

DIE kann man diskutieren. Hier verschiebt sich schnell was.
 
Moogulator schrieb:
Naja, es gibt schon einen Klang der Standard OSCs, Filter und so weiter.
Das ist kein sooo abwegiges Thema. Wir wissen schon alle, dass ein G2, Kyma oder ein Reaktor-Patch mit "Machen wir mal nen Minimoog als Strukturkopie" erstmal anders klingen. Ja, es ist auch klar, wieso. Das Original ist ja mit 3 OSCs in Mix in Filter in Amp mit 2 ENVS nicht ganz getan.

Klar, das die mitgelieferten Module einen eigenen, spezifischen Klang mit sich bringen, habe ich ja im Prinzip schon geschrieben, nur ist das deswegen noch lange nicht der Klang von Reaktor, jemand mit genug Knowhow und Zeit kann nunmal jederzeit jeglich digital erzeugten Klang nachbauen. Deswegen meine Frage nach dem Klang von Programmiersprachen.
 
die audio engine bleibt trotzdem fix.
interne samplingraten (als triviales bsp.) bleiben fix.
summieralgorithmen bleiben fix.
usw.

man schafft es auch nicht (mit nur ansatzweise vertretbarem aufwand) max/msp so "wertig" tönen zu lassen wie die kyma-algorithmen.

sonst musst du wirklich mit C, assembler oder was auch immer musik machen. nicht mit reaktor, PD etc.
dann hast du wirklich fast alles selber unter kontrolle.
 


Neueste Beiträge

News

Zurück
Oben