Ich hatte ja eher den Verdacht dass dahinter 'ne modifizierte FM bzw. Phase Modulation Engine steckt, nicht nur der Filter erinnert mich an den FS1R, den ich vor dem AN1x hatte. Auch der Freehand LFO ist vielleicht sowas wie die Light Version der Formantsequenzen des FS1R.

Den Gedanken mal weitergesponnen könnte der AN1X ja den gleichen Custom-Chip-Satz haben wie der FS1R. Wer von euch hat beide Teile im Studio, schraubt die mal auf und stellt die Fotos hier rein? markusfuller 2.0 ?
 
Die Bilder gibts im Netz, die Chipsätze werden nicht identisch sein, auch die FX Sektion des FS1R wurde wesentlich erweitert, dürfte vieles von der SW1000 Karte und div. XG Klangerzeugern aus der Zeit enthalten.

inside_right.jpg

AN1X_-_Motherboard_CloseView2.jpg
 
Yamaha eigene Chips, im Vergleich zu Virus, Nordlead und vielen anderen Synths die zu dieser Zeit Motorola DSPs verwendet haben.
An sich ist der Chip, der rechnet, egal. Eine Eins ist eine Eins und eine Null ist eine Null. Entscheidend ist der Code, den ein Programmierer schreibt. Hätten Programmierer von Yamaha den selben Code, bzw. einen Code, der dieselben mathematischen Ergebnisse liefert, für eine Intel-CPU geschrieben, hätte der Synth absolut identisch geklungen, sofern die Samplingrate oder auch die Bittiefe identisch. Der Chip an sich ist also nicht der Grund. Es kann allerdings sein, dass man auf Grund einer bestimmten CPU sich einfach für andere Wege entscheidet, einfach einen anderen Code schreibt, andere Samplingraten wählt usw.
 
Falls das obere Bild der FS1R ist und das untere Bild der AN1X - dann lese ich oben und unten "Yamaha YSS236-F" (oben 2x, unten 1x).

Das sind m.E. Custom-Chips von Yamaha.
 
Falls das obere Bild der FS1R ist und das untere Bild der AN1X - dann lese ich oben und unten "Yamaha YSS236-F" (oben 2x, unten 1x).

Das sind m.E. Custom-Chips von Yamaha.
Ich auch, könnte sogar 4 davon im FS1R stecken, die beiden oberen kann man leider nicht so gut lesen.
 
Custom-Chips zeichnen sich i.A. dadurch aus, dass sie (entgegen frei programmierbarer DSPs) große Teile der Synthese-Engine in Hardware-Funktionseinheiten beinhalten (und damit schneller und effizienter sind). Der legendäre DX-7 basiert ja auch auch einem solchen Custom-Chip für die 6-OP Synthese.

Diesem Argument folgend könnte also der AN1x die gleiche Synthese-Engine besitzen wie der FS1R.
 
An sich ist der Chip, der rechnet, egal. Eine Eins ist eine Eins und eine Null ist eine Null. Entscheidend ist der Code, den ein Programmierer schreibt. Hätten Programmierer von Yamaha den selben Code, bzw. einen Code, der dieselben mathematischen Ergebnisse liefert, für eine Intel-CPU geschrieben, hätte der Synth absolut identisch geklungen, sofern die Samplingrate oder auch die Bittiefe identisch. Der Chip an sich ist also nicht der Grund. Es kann allerdings sein, dass man auf Grund einer bestimmten CPU sich einfach für andere Wege entscheidet, einfach einen anderen Code schreibt, andere Samplingraten wählt usw.

Man kann so einen Chip ja für bestimmte Zwecke optimieren, die DSPs von Motorola die in den Synth eingesetzt wurden sind jetzt nicht unbedingt auf Klangerzeugung spezialisiert, sind Integer DSPs. Gerade bei Rechenoperationen entstehen 'ne Menge Fehler, sogar die Reihenfolge der Operationen kann entscheidend sein.
 
Hab den jetzt seit 20 Jahren im Einsatz. Die Filter im AN1x klingen IMO irgendwie nach Oberheim. Nach den ganzen OB6 Demos, dachte ich, der Sound kommt mir bekannt vor, liegt aber lustigerweise auch an den Effekten, also die haben irgendwie einen ähnlichen Charakter. Im Gesamten ein fantastischer Polysynth, für Mono bevorzuge ich aber Analoge.
Das ist sehr witzig dass du das schreibst.
Denn ich hatte beide eine Zeit lang und bei beiden habe ich dieses SweetspotGefühl, da könnte ich einfach stundenlang dran rumsitzen und am Filter drehen, so ganz diffizil, und nur ganz kleine Veränderung vornehmen. Dem stundenlang zuzuhören macht mir richtig Freude, und ich kann nicht erklären wieso das so ist bei den beiden Geräten. Und Witzigerweise haben genau die beiden, der OB-6 und der AN1X genau dieses Gefühl bei mir ausgelöst.
Also könnte deine Filtervermutung richtig sein.
Das klingt für mich jedenfalls so.
 
Man kann so einen Chip ja für bestimmte Zwecke optimieren, die DSPs von Motorola die in den Synth eingesetzt wurden sind jetzt nicht unbedingt auf Klangerzeugung spezialisiert, sind Integer DSPs. Gerade bei Rechenoperationen entstehen 'ne Menge Fehler, sogar die Reihenfolge der Operationen kann entscheidend sein.
Man sollte es in der Summe sehen. Chip + Programmierung. Ich finde z.B., dass der Chip im MOX6 klanglich Scheiße-Ergebnisse liefert. Das muss aber nicht an dem Chip selbst liegen. Anders programmiert wäre ein anderer, besserer Klang möglich.
 
Laut Service Manual hat der AN1x 2x einen YSS236-F / VOP3 drinnen. Wenn in [1] keine alternativen Fakten stehen, so ist dieser Chip auch in PSR-740, PSR-2000, PSR-2100, PSR-9000, CVP-208, CVP-210 drinnen. Es gibt ein Beispiel, wie man den VOP3 als Harmonizer beschalten soll:

yss236_vop3_pinout.png


Das ist von daher wohl eher ein stinknormaler DSP als sonst was. Technisch gesehen ist der AN1x also eine auf edel geschminkte Tischhupe.

[1] http://www.dtech.lv/techarticles_yamaha_chips.html
 
Wieso klingt der virtuell analoge AN1x "analoger" als viele virtuell analoge Synthesizer von heute?
Ich habe das noch nie so empfunden und empfinde es auch heute nicht so. Warum, weiß ich auch nicht. Mir haben sämtliche Waldorf- und Nord-Synths klanglich immer besser gefallen. Nur mal so zum Beispiel. Und die heutigen Roland-Emulationen (ACB) klingen nun wirklich "authentischer analog" als ein AN1X. Wobei mir eigentlich ziemlich egal ist, ob etwas "analog" klingt oder nicht. Es kommt darauf an, dass es gut klingt.
 
Zuletzt bearbeitet:
Laut Service Manual hat der AN1x 2x einen YSS236-F / VOP3 drinnen. Wenn in [1] keine alternativen Fakten stehen, so ist dieser Chip auch in PSR-740, PSR-2000, PSR-2100, PSR-9000, CVP-208, CVP-210 drinnen. Es gibt ein Beispiel, wie man den VOP3 als Harmonizer beschalten soll:
...

Das ist von daher wohl eher ein stinknormaler DSP als sonst was. Technisch gesehen ist der AN1x also eine auf edel geschminkte Tischhupe.

[1] http://www.dtech.lv/techarticles_yamaha_chips.html

Interessante Website. Dass der YSS 236-F kein reinrassiger DSP ist, erkennt man daran, dass er DRAM-Speicher verwalten kann und CAS/RAS-Ports zu Ansteuerung dieses Speichers hat.
Der Chip ist als "Vocal Harmonizer" deklariert. In der Annahme, dass das auch stimmt, folgende These.

Ein Harmonizer(-Chip) führt in Echtzeit eine Delay- und v.a. eine Pitchshifting Funktion auf einen eingehenden Audiostream / die Audiodaten aus.

Das sieht dann auf den ersten Blick so aus, als wenn Yamaha die Transposition der Synthvoices über den Harmonizer Chip realisiert.

Und der Signaleingang für den Harmonizer Chip ist dann das Ausgangssignal aus der Synth-Engine (mit einer festen Samplerate). Falls das so ist, würde das erklären, warum der Chip sich auch in Tischhupen wiederfindet. Die Synthese / das Modelling findet in diesem Fall woanders statt (in einem anderen Chip / Prozessor).
 
Das sieht dann auf den ersten Blick so aus, als wenn Yamaha die Transposition der Synthvoices über den Harmonizer Chip realisiert.

Sorry aber das ist echt Quatsch, so funktioniert kein VA.

Der Chip findet sich überall weil es ein DSP ist. Auf dem kann man halt alles realisieren.

Und warum ein DSP kein Speicher adressieren können soll erschließt sich mir auch nicht -?
 
Das sieht dann auf den ersten Blick so aus, als wenn Yamaha die Transposition der Synthvoices über den Harmonizer Chip realisiert.
Auch hier hilft ein Blick in das Service Manual vom AN1x. Diese These muss falsch sein, da die Eingänge (Pin 66-71) nicht beschaltet sind. Die Ausgänge der beiden VOP3 gehen in einen MEG Chip, der die FX berechnet, danach kommt der DAC und ein wenig analoger Kram. Die beiden VOP3 greifen auf ROM (auch dediziert) und SRAM (offensichtlich shared mit der CPU) zu. Der MEG hat dediziert DRAM. Das SRAM dient sicher der Klangspeicherung und das DRAM ist für z.B. Delay/Reverb. Der Code zur Klangerzeugung nutzt dann offenbar nur den On-Board Speicher der VOP3.
 
Im FS1R Service Manual wird recht gut beschrieben (bzw. kann recht gut im Diagramm sehen) wofür die Chips zuständig sind:

FSYMP706-F MAIN ein zweiter davon SUB
YSSF236-F FILTER, ein zweiter davon EFFECT

full
 
Zuletzt bearbeitet:
Hast Du evtl. einen Link zum Servicemanual vom FS1R? Ich habe da bisher nur Kaufkram gefunden...
 
Hab's eben erst gefunden, ist aus dem Files Bereich der FS1R-Yahoogroup, aber ich kann das ZIP hier auch nochmal hochladen.
 

Anhänge

  • Yamaha_FS1R_Service_Manual.zip
    4,9 MB · Aufrufe: 7
Zuletzt bearbeitet:
Hab's eben erst gefunden, ist aus dem Files Bereich der FS1R-Yahoogroup, aber ich kann das ZIP hier auch nochmal hochladen.
Wunderbar. Ins Synthesizer Darknet war ich noch nicht hinabgestiegen. Die Info ist beim FS1R aber ebenso spärlich, wie beim AN1x. Immerhin sollte nun hinreichend klar sein, dass der Chip einfach ein DSP ist, der Serial Audio In und Out bietet.

Ich persönlich bin mit dem AN1x nie so richtig warm geworden. Klanglich finde ich da nichts spezielles. Immerhin hat mein EX5R die Engine drinnen.
 
Immerhin sollte nun hinreichend klar sein, dass der Chip einfach ein DSP ist, der Serial Audio In und Out bietet.
Vom Aufbau scheinen sie ja spezialisiert auf Audio Verabeitung zu sein, anders als z.B. die Motorola DSPs aus der Zeit, die nicht ganz so festgelegt sind.

Ich persönlich bin mit dem AN1x nie so richtig warm geworden. Klanglich finde ich da nichts spezielles. Immerhin hat mein EX5R die Engine drinnen.

Er ist weitgehend schwurbelfrei, hat 'nen breiten Sweetsport, so richtig kann er seine Stärken bei polyfonen Sounds ausspielen, daher bringt er dir duofon im EX5R vielleicht nicht ganz so viel oder du bist durch den harten Waldorf Sound einfach verdorben ;-) In die Sättigung fährt der Filter nur bei Feedback, daher eignet er sich nicht ganz so gut für die typischen mofonen Lead-Sounds und bratzigen analoge Bässe. Der Filter des FS1R klingt zwar genauso, lässt sich aber über einen Filterinput Parameter ordentlich in die Sättigung fahren und reagiert flüssiger auf Controller Modulation.
Was meiner Arbeitsweise zu gute kommt ist die Kombination aus Selfsync, Ringmod und der Möglichkeit die Oszillatoren zum Sinus zu reduzieren zu können, daher hab' ich mir vor ein paar Jahren auch die Ultranova geholt, deren Sweetspot VA typisch nicht ganz so breit ist, aber in der Beziehung dank 2x Ringmod, Wavetables und div. Modulationsquellen sogar noch was flexibler ist. Die Ganzen nach Choir, Voice, Glöckchen, Wavetable und FM klingenden Sounds meiner AN1x Single Sound Demos sind auf diese Weise entstanden.
 
entscheidend für den klang ist dennoch der verwendete Algorithmus und nicht die Plattform. vom da-wandler einmal abgesehen.

Die Genauigkeit spielt bei den Berechnungen eine nicht zu unterschätzende Rolle.
 
die DSPs von Motorola die in den Synth eingesetzt wurden sind jetzt nicht unbedingt auf Klangerzeugung spezialisiert, sind Integer DSPs

Das ist falsch: Motorola 56k ist kein Integer DSP sondern ein Festkomma DSP. Integer sind ganze Zahlen, Festkommazahlen aber nicht.
Übrigens ist Arithmetik in Festkommazahlen ist auch nicht unbedingt ungenauer als in Fließkommazahlen. Das hängt ganz stark von den Zahlenbereichen und den Rechenoperationen ab, die man bearbeiten muss. Gerade für Audio sind in vielen Anwendungen Festkomma-DSPs immer noch üblich (Fernseher, Music Player etc.).
In gewisser Weise ist Floating Point sogar schwieriger zu handhaben: Da gelten dann besondere (unintuitive?) Regeln, z. B. wenn bestimmte Zahlen nicht mehr exakt dargestellt werden können. 0.1 hat z. B. keine exakte Darstellung in IEEE754 floating point.
Dann ergibt 1.0 + 0.1 plötzlich 0.10000000149011612 oder sowas.
 
Der Unterschied zwischen fixed point und floating point ist Quantisierungsrauschen, mehr eigentlich nicht.
Oder was für Unterschiede stellst Du Dir vor?
Ich stelle mir vor wie sich das Rauschen bei jeder Berechnung innerhalb des Synth Engine addiert und div. Nebeneffekte hat. Edit: Speziell bei nonlinearen Operationen.
 
Zuletzt bearbeitet:
vom da-wandler einmal abgesehen.

FS1R und AN1x sind so neu, dass der Wandler nicht mehr klingt.
Es gibt praktisch drei Generationen von Audio-DA-Wandlern:
1. "selber zusammengebastelte" Audio-Wandler, aus der Zeit als es noch keine Spezialisten gab. Frühe Sampler, der UR-DX7 dürfte einer der letzen Digital-Synths sein, die so etwas noch hatten. Hörbar, aber doch eher im Einfluss überschätzt.
2. Richtige Audio-Wandler, mit analogem Rekonstruktionsfilter. Beispiel-Synth: Roland JD-800. Die klingen in den meisten Fällen schon transparent, man wird aber sicher Hörer und Sounds finden, die da noch einen Unterschied zu einem beliebig teuren Hai-Ent Wandler raus-ABX-en können. (Wobei der JD-800 mit seiner 32kHz Engine da eine schlechte Quelle ist, der JD990 mit 44.1kHz (und gleicher Wandlertechnologie) wäre die bessere Wahl dafür. Und alle die, die nicht mal den Unterschied zwischen den beiden Engines hören, brauchen erst gar keinen Wandlerklangtest versuchen... )
3. moderne Wandler mit digitalem Rekonstruktionsfilter. Wer hier meint Fehler zu hören, ohne drei Tage mit ABX-Tests in einem richtigen Studio verbracht zu haben ist schlichtweg zu blöde zum testen. (Im Sinne von: komplett Ahnungslos, wie man einen sinnvollen Hörtest macht. )

Im Gegensatz dazu stehen die Fehler der Synth-Engines. Die sind viel größer, als Fehler der 2. und 3.Wandlergeneration.
Und der Witz bei den Yamaha-Synths scheint zu sein, dass die eben nicht die "typischen" VA-Fehler durch 48kHz Sample-Rate ohne weiteres Anti-Aliasing und 100Hz lahme Modulations-Engine machen.
(Mit 48kHz bekommt man das Filter bis 16kHz in die Selbstresonanz, ohne dass es instabil wird, das reicht also gerade so. Und das Aliasing "naiver" Oszillatoren ist dann auch nur bei PWM mit schmalen Pulsen zu hören. )

Die Genauigkeit spielt bei den Berechnungen eine nicht zu unterschätzende Rolle.
Das kann man aber auch in den Griff bekommen.
Die 32Bit Float einer DAW machen i.A. keine hörbaren Fehler mehr. Pathologische Ausnahmen mag es geben, aber z.B. 200 EQs in Reihe, die alle kräftig eingreifen, sind gar kein Problem.

Mit Integer-Zahlen kann man sich dagegen relativ schnell in die Scheiße reiten, das hängt dann am Geschick des Programmierers und der ALU[1] der CPU. Hier sind also vor allem üble Fehler bei VSTs zu erwarten, deren Programmierer ja sehr oft gut in GUI-Programmierung sind.

Dann ergibt 1.0 + 0.1 plötzlich 1.10000000149011612 oder sowas.
Solche Fehler sind optisch unschön, wenn man die Zahlen anzeigt, im Audio-Kontext aber nur etwas weißes Rauschen, was dazu kommt. Meistens extrem wenig.
Übrigens rechneten historische Computer für Banken daher mit BCD-Zahlen (also im Zehnersystem statt im Dualsystem), die machen das so nicht.

----------------
[1] hier sind vor allem mehr Bit für Zwischenwerte innerhalb der Berechnung gerne genommen.
 
Solche Fehler sind optisch unschön, wenn man die Zahlen anzeigt, im Audio-Kontext aber nur etwas weißes Rauschen, was dazu kommt. Meistens extrem wenig.

Genau! Und im übrigen auch ein Spitzfindiges Beispiel, weil es natürlich auch beliebige Zahlen gibt, die sich in Fixed Point nicht darstellen lassen. Ich wollte eher unterstreichen, dass das in Floating Point eben _auch_ nicht geht, obwohl unbedarfte Leser das oft erwarten. Das Rauschen durch Fixed Point Arithmetik ist in den typischen Audioanwendungen ohnehin ebenfalls weiß, insofern sehe ich da den Fixed Point DSP jetzt einem Floating DSP nicht unterlegen.
 
Theoretisch rauscht fixed point mehr weil der Fehler im Schnitt größer ist, wenn man gleichzeitig 16 vs 32 Bit annimmt.

Aber jedenfalls sieht es so aus als ob wir uns einig sind daß das nicht für einen "guten Klang" verantwortlich ist.
 
entscheidend für den klang ist dennoch der verwendete Algorithmus und nicht die Plattform. vom da-wandler einmal abgesehen.

Das kann ich so nicht unterschreiben ;-)

Es macht einen Unterschied wie die Gesamtfunktion (die logische Architektur der Synthese) aufgeteilt / dekomponiert und auf die HW und SW abgebildet wird.

Aber ein Forum lebt ja auch davon, dass unterschiedliche Auffassungen mal nebeneinander stehen dürfen, ohne sie gleich als "Quatsch" zu titulieren (gell @blauton ;-))
 
Theoretisch rauscht fixed point mehr weil der Fehler im Schnitt größer ist, wenn man gleichzeitig 16 vs 32 Bit annimmt.

Klar wird der Fehler größer, wenn du die Wortbreite halbierst.

Bei 32 Bit Plattformen ist der Fehler aber generell quasi vernachlässigbar klein, und darum geht's doch oder?
 
Zuletzt bearbeitet:
Ich kann mich nur an 'ne Vorlesung erinnern, mein FH Informatik-Studium ist ja jetzt schon wieder 'ne Weile her, wo mir anschaulich erklärt wurde wie große der Fehler alleine schon durch die falsche Reihenfolge Berechnung sein kann, auch das ändert per se nix am Algorithmus. Zudem arbeiten viele Synths mit fester Filtersättigung, imho um Probleme/Rauschen durch Ungenaugkeiten bei kleinen Werten zu vermeiden.
 


Neueste Beiträge

News

Zurück
Oben