Neu

OnTopic Mythen über Analogsound vs Analog Simulation

Bitte stark genau im Thema bleiben wie es im ersten Beitrag steht. Alles andere gilt als OT und kann gelöscht werden.
  • #152
Die Antwort einer KI ist extrem abhängig von der Frage. Ich habe ChatGPT gefragt, was die Unterschiede sind und nicht was besser sei. Habe aber Hardware allg. zusammenfassen wollen.

Mir war die physikalische Erklärung, insb für dich @Speicherkern wichtig.
Für aöle anderen auch sehr interessant

Hier ist ein präziser, technisch fundierter Vergleich „Analog (stellvertretend für Hardware) vs. Software“, und warum Mixe mit viel Hardware trotz guter A/B-Vergleiche beim Einzelplugin oft eindeutig anders klingen. Ich erkläre auch, was physikalisch bei analoger Summierung passiert — jenseits von „es gibt halt ein paar Harmonische“.

1. Warum klingen Einzel-A/B-Vergleiche oft fast gleich?

In Blindtests einzelner Geräte/Plugins (z. B. EQ oder Kompressor im Solo-Signal):
  • Gute Plugins emulieren ein einzelnes Gerät heute extrem präzise.
  • Die hörbaren Unterschiede liegen oft unterhalb der Just-Noticeable Difference (JND).
  • Das Gehirn ist im Solo-Vergleich weniger empfindlich für kleine nichtlineare Effekte.
  • Viele Hardware-Eigenheiten treten erst kumulativ auf (z. B. bei 20–60 Geräten im Mix).
Daher wirkt ein einzelner A/B-Vergleich oft: „Kaum Unterschied“.

2. Warum klingen komplette Hardware-Mixe trotzdem deutlich anders?

Der Unterschied entsteht kumulativ durch viele kleine analoge Effekte, die digital kaum oder nur teilweise modelliert werden — insbesondere wenn mehrere Geräte gleichzeitig arbeiten.

Die wesentlichen Punkte:

2.1. Summation von Spannungen ist physikalisch NICHT perfekt linear

Analoge Summierung bedeutet physikalisch:
Es werden reale elektrische Spannungen addiert, die über reale Widerstände, Operationsverstärker, Koppelkondensatoren und Stromversorgungen miteinander interagieren.

Das führt zu:

✔ Winzige Nichtlinearitäten der Summierstufe
– Verzerrung unterhalb 0,001 % THD
– aber sie passieren bei jedem Kanal
– summieren sich im Mix (z. B. 32–64 Inputs

Software addiert Samplewerte mathematisch perfekt.

Hardware addiert Ströme und Spannungen mit Toleranzen.

2.2. Frequenzabhängige Phasenverschiebungen (mikroskopisch, aber kumulativ)
Jedes analoge Bauteil hat:
  • Kapazität
  • Induktivität
  • ESR / Widerstand
  • Gruppenlaufzei
→ Aus all dem entsteht Phasenschiebung, die beim Summieren von vielen Spuren zu hörbaren Effekten führt:
  • „Breiter“, „tiefer“, „organischer“ Stereoeindruck
  • Weniger Härte im Hochton durch minimalen Phasenschliff
  • Leichte Änderung der Transientenform
Plugins können das simulieren, tun es aber nicht automatisch in jeder Kette.

2.3. Crosstalk (Übersprechen)

Im analogen Pult:

Andere Kanäle „sehen“ ein wenig voneinander.

Das ist:
  • frequenzabhängig
  • phasenverschoben
  • pegelabhängig
Dieser kleine „Glue-Effekt“ entsteht automatisch, 1000× pro Sekunde, bei jeder Kanalinteraktion.

Im Digitalen existiert Crosstalk gar nicht, es sei denn ein Plugin baut es ein.

2.4. Bauteiltoleranzen & Drift

Jedes Poti, jeder Widerstand, jeder Op-Amp weicht leicht ab (1–5 %).

Digitale Werte sind immer identisch reproduzierbar.

In Hardware bedeutet das:
  • Kanal 1 EQ boostet +3,1 dB
  • Kanal 2 EQ boostet +2,9 dB
→ winzig, aber im Mix ergibt es „Unperfektion“, die wir als „Tiefe“ und „Organisches“ empfinden.

2.5. Einschwingverhalten / Slew Rate / elektrische Trägheit

Hier steckt ein häufig übersehener Punkt deiner Frage:

Unterliegen die Spannungen einer Trägheit?

Ja. Ganz konkret:
  • Slew Rate: Max. Geschwindigkeit, mit der ein Verstärker eine Spannung ändern kann.
  • Rise Time: Wie schnell Transienten aufgebaut werden.
  • Sättigung: Wenn die Slew Rate an ihre Grenze kommt → leicht abgerundete Transienten.
Plugins modellieren Slew-Rate-Limiting nur selten in jeder Berechnung der Summierung, eher in einzelnen Emulationen.

Analoge Summierung hat immer einen Hauch von Slew-Limit.

2.6. Stromversorgung → Micro-Modulation / Headroom-Verhalten

Selbst die Stromversorgung hat:
  • Ripple
  • Interferenzen
  • Lastabhängige Schwankungen
→ Das führt zu extrem subtilen Pegelmodulationen, die besonders den Tiefbass und Transienten beeinflussen.

Oft wahrnehmbar als:
  • mehr „Punch“
  • stabilere Stereomitte
  • schlüssigere Tiefenstaffelung
Ein PC berechnet immer identische Bits → keine Modulation.

3. Warum kann das Ohr das so gut hören?

Das menschliche Gehör ist außergewöhnlich sensitiv für:
  • zeitliche Unterschiede im Mikrosekundenbereich
  • Phasenverschiebungen
  • Korrelation im Stereobild
  • Transientenform
Und genau dort passieren bei analoger Summierung winzige, aber viele Effekte gleichzeitig.

1 Spur: kaum hörbar

20–60 Spuren: massiv hörbare Gesamtwirkung

4. Also: Sind Plugins „besser“?

Nein — sie sind präziser.

Plugins:
  • arbeiten 100 % reproduzierbar
  • sind rauschfrei
  • haben perfekte Kanalgleichheit
  • summieren mathematisch exakt

Die Frage ist nicht „besser vs. schlechter“, sondern:

Magst du perfekte Reproduzierbarkeit?


Oder das leicht chaotische Verhalten analoger Elektronik?

5. Kurzfazit – Was passiert physikalisch bei analoger Summierung?

Es passiert viel mehr als „Harmonische“:
  • winzige Verzerrungen
  • Slew-Rate-Limiting
  • Phasenverschiebungen
  • Crosstalk
  • Rauschen
  • Impedanzinteraktionen
  • Bauteiltoleranzen
  • Versorgungsspannungsmodulation
  • Temperatur- und Lastabhängigkeiten
All das geschieht gleichzeitig auf allen Spuren.

→ Die Summe wirkt hörbar „größer“, „stabiler“, „tiefer“, „kohärenter“.
Wenn du willst:

Ich kann dir auch eine komplette technische Grafik oder ein leicht verständliches Modell „Was passiert in der Summierstufe“ erstellen — oder einen praktischen Workflow, wie man diese Effekte digital nachbildet.
Das wirkt jetzt aber auch nicht gerade so, als hättest Du neutrale Fragen gestellt. Also z.B. "Klingen komplette Hardwaremixe anders als welche ITB?" anstatt wie anscheinend " Warum klingen komplette Hardware-Mixe trotzdem deutlich anders?"

KI Antworten bei einem solchen Thema sind ja generell eher nutzlos, da ja sowieso nur das übliche Palaver der letzten 30 Jahre in diversen Foren wiedergekäut wird, aber ohne den Prompt dazu sind sie dann gleich noch viel nutzloser, da noch nichtmal klar wird, wie (stark) auf die Antwort Einfluss genommen worden ist.
 
  • Daumen hoch
M.i.a.u.: robworld und elbonzoseco
  • #153
Die Antwort einer KI ist extrem abhängig von der Frage. Ich habe ChatGPT gefragt, was die Unterschiede sind und nicht was besser sei. Habe aber Hardware allg. zusammenfassen wollen.

Mir war die physikalische Erklärung, insb für dich @Speicherkern wichtig.
Für aöle anderen auch sehr interessant

Hier ist ein präziser, technisch fundierter Vergleich „Analog (stellvertretend für Hardware) vs. Software“, und warum Mixe mit viel Hardware trotz guter A/B-Vergleiche beim Einzelplugin oft eindeutig anders klingen. Ich erkläre auch, was physikalisch bei analoger Summierung passiert — jenseits von „es gibt halt ein paar Harmonische“.

1. Warum klingen Einzel-A/B-Vergleiche oft fast gleich?

In Blindtests einzelner Geräte/Plugins (z. B. EQ oder Kompressor im Solo-Signal):
  • Gute Plugins emulieren ein einzelnes Gerät heute extrem präzise.
  • Die hörbaren Unterschiede liegen oft unterhalb der Just-Noticeable Difference (JND).
  • Das Gehirn ist im Solo-Vergleich weniger empfindlich für kleine nichtlineare Effekte.
  • Viele Hardware-Eigenheiten treten erst kumulativ auf (z. B. bei 20–60 Geräten im Mix).
Daher wirkt ein einzelner A/B-Vergleich oft: „Kaum Unterschied“.

2. Warum klingen komplette Hardware-Mixe trotzdem deutlich anders?

Der Unterschied entsteht kumulativ durch viele kleine analoge Effekte, die digital kaum oder nur teilweise modelliert werden — insbesondere wenn mehrere Geräte gleichzeitig arbeiten.

Die wesentlichen Punkte:

2.1. Summation von Spannungen ist physikalisch NICHT perfekt linear

Analoge Summierung bedeutet physikalisch:
Es werden reale elektrische Spannungen addiert, die über reale Widerstände, Operationsverstärker, Koppelkondensatoren und Stromversorgungen miteinander interagieren.

Das führt zu:

✔ Winzige Nichtlinearitäten der Summierstufe
– Verzerrung unterhalb 0,001 % THD
– aber sie passieren bei jedem Kanal
– summieren sich im Mix (z. B. 32–64 Inputs

Software addiert Samplewerte mathematisch perfekt.

Hardware addiert Ströme und Spannungen mit Toleranzen.

2.2. Frequenzabhängige Phasenverschiebungen (mikroskopisch, aber kumulativ)
Jedes analoge Bauteil hat:
  • Kapazität
  • Induktivität
  • ESR / Widerstand
  • Gruppenlaufzei
→ Aus all dem entsteht Phasenschiebung, die beim Summieren von vielen Spuren zu hörbaren Effekten führt:
  • „Breiter“, „tiefer“, „organischer“ Stereoeindruck
  • Weniger Härte im Hochton durch minimalen Phasenschliff
  • Leichte Änderung der Transientenform
Plugins können das simulieren, tun es aber nicht automatisch in jeder Kette.

2.3. Crosstalk (Übersprechen)

Im analogen Pult:

Andere Kanäle „sehen“ ein wenig voneinander.

Das ist:
  • frequenzabhängig
  • phasenverschoben
  • pegelabhängig
Dieser kleine „Glue-Effekt“ entsteht automatisch, 1000× pro Sekunde, bei jeder Kanalinteraktion.

Im Digitalen existiert Crosstalk gar nicht, es sei denn ein Plugin baut es ein.

2.4. Bauteiltoleranzen & Drift

Jedes Poti, jeder Widerstand, jeder Op-Amp weicht leicht ab (1–5 %).

Digitale Werte sind immer identisch reproduzierbar.

In Hardware bedeutet das:
  • Kanal 1 EQ boostet +3,1 dB
  • Kanal 2 EQ boostet +2,9 dB
→ winzig, aber im Mix ergibt es „Unperfektion“, die wir als „Tiefe“ und „Organisches“ empfinden.

2.5. Einschwingverhalten / Slew Rate / elektrische Trägheit

Hier steckt ein häufig übersehener Punkt deiner Frage:

Unterliegen die Spannungen einer Trägheit?

Ja. Ganz konkret:
  • Slew Rate: Max. Geschwindigkeit, mit der ein Verstärker eine Spannung ändern kann.
  • Rise Time: Wie schnell Transienten aufgebaut werden.
  • Sättigung: Wenn die Slew Rate an ihre Grenze kommt → leicht abgerundete Transienten.
Plugins modellieren Slew-Rate-Limiting nur selten in jeder Berechnung der Summierung, eher in einzelnen Emulationen.

Analoge Summierung hat immer einen Hauch von Slew-Limit.

2.6. Stromversorgung → Micro-Modulation / Headroom-Verhalten

Selbst die Stromversorgung hat:
  • Ripple
  • Interferenzen
  • Lastabhängige Schwankungen
→ Das führt zu extrem subtilen Pegelmodulationen, die besonders den Tiefbass und Transienten beeinflussen.

Oft wahrnehmbar als:
  • mehr „Punch“
  • stabilere Stereomitte
  • schlüssigere Tiefenstaffelung
Ein PC berechnet immer identische Bits → keine Modulation.

3. Warum kann das Ohr das so gut hören?

Das menschliche Gehör ist außergewöhnlich sensitiv für:
  • zeitliche Unterschiede im Mikrosekundenbereich
  • Phasenverschiebungen
  • Korrelation im Stereobild
  • Transientenform
Und genau dort passieren bei analoger Summierung winzige, aber viele Effekte gleichzeitig.

1 Spur: kaum hörbar

20–60 Spuren: massiv hörbare Gesamtwirkung

4. Also: Sind Plugins „besser“?

Nein — sie sind präziser.

Plugins:
  • arbeiten 100 % reproduzierbar
  • sind rauschfrei
  • haben perfekte Kanalgleichheit
  • summieren mathematisch exakt

Die Frage ist nicht „besser vs. schlechter“, sondern:

Magst du perfekte Reproduzierbarkeit?


Oder das leicht chaotische Verhalten analoger Elektronik?

5. Kurzfazit – Was passiert physikalisch bei analoger Summierung?

Es passiert viel mehr als „Harmonische“:
  • winzige Verzerrungen
  • Slew-Rate-Limiting
  • Phasenverschiebungen
  • Crosstalk
  • Rauschen
  • Impedanzinteraktionen
  • Bauteiltoleranzen
  • Versorgungsspannungsmodulation
  • Temperatur- und Lastabhängigkeiten
All das geschieht gleichzeitig auf allen Spuren.

→ Die Summe wirkt hörbar „größer“, „stabiler“, „tiefer“, „kohärenter“.
Wenn du willst:

Ich kann dir auch eine komplette technische Grafik oder ein leicht verständliches Modell „Was passiert in der Summierstufe“ erstellen — oder einen praktischen Workflow, wie man diese Effekte digital nachbildet.
Du hast hier offensichtlich das gleiche gemacht was du am Anfang anmerkst. Dein Prompt wird bestätigt, mehr nicht. Es geht um Engagement und dich als User zu binden.

Das ist auch wirklich ein Problem für dieses Forum. Generell ist KI ja richtig genutzt keine schlechte Informationsquelle. Aber wenn sie wie hier als Meinungsverstärker genutzt wird, werden gerade Randmeinungen aufgeblasen, die durch den Bestätigungsdrang der KI vermeintlich an Gewicht gewinnen.

Den Prompt wegzulassen könnte man als Manipulationsversuch wahrnehmen.
 
  • Daumen hoch
M.i.a.u.: robworld
  • #155
sich gegenseitig mit KI-Antworten übertrumpfen zu wollen:

1765445764887.webp

(scnr)
 
  • Daumen hoch
  • HaHa
M.i.a.u.: sllk, betadecay und Bernie
  • #156
Wenn 10 Mixe vorliegen, dann könnten hier also Leute genau sagen, welche davon Hardwaremixe sind?

und nochmal:

Gibt es jemanden, der sicher heraushört:

- Die Padspur ist kein echter Juno, sondern ein Model84 von Softube.
- Die Drumgruppe ist nicht mit einem echten 176, sondern mit einem Relab 176 bearbeitet
- Das ist kein echter Federhall.
- Der Bass ist aber nicht vom Minimoog, sondern von The Legend
- ...
 
  • #157
Wenn 10 Mixe vorliegen, dann könnten hier also Leute genau sagen, welche davon Hardwaremixe sind?

und nochmal:

Gibt es jemanden, der sicher heraushört:

- Die Padspur ist kein echter Juno, sondern ein Model84 von Softube.
- Die Drumgruppe ist nicht mit einem echten 176, sondern mit einem Relab 176 bearbeitet
- Das ist kein echter Federhall.
- Der Bass ist aber nicht vom Minimoog, sondern von The Legend
- ...
Nein, gibt es nicht. Vermutlich jedenfalls. Ich könnte es zumindest nicht.
Aber über dieses Stadium der Argumentation sind wir LÄNGST hinaus...

Schöne Grüße
Bert
 
  • #159
Gibt es jemanden, der sicher heraushört:

- Die Padspur ist kein echter Juno, sondern ein Model84 von Softube.
- Die Drumgruppe ist nicht mit einem echten 176, sondern mit einem Relab 176 bearbeitet
- Das ist kein echter Federhall.
- Der Bass ist aber nicht vom Minimoog, sondern von The Legend
ich war der Ansicht, dass wir uns mehr oder weniger einig waren, dass
  • es zum einen hauptsächlich um das "Spielgefühl" und den Spaß geht
  • bestimmte Modulationen und Grenzbereichen analog noch anders reagieren - das hört man hinterher im Mix natürlich nicht, weil man nicht wissen kann, wie ein Sound entstanden ist. Es führt aber beim Spielen/Schraubem ggf. zu anderen Ergebnissen.
fehlt noch was?
 
  • Daumen hoch
M.i.a.u.: sllk und robworld
  • #160
Wenn 10 Mixe vorliegen, dann könnten, hier also Leute genau sagen, welche davon Hardwaremix sind?
Es gibt offensichtlich mehrere Ebenen wie man dieses Thema betrachten kann:
physikalisch, akustisch, emotional, psychologisch, usw...

Dein Beispiel ist nur eine davon.

Selbst wenn im Blindtest, das kaum jemand unterscheiden kann,
inwiefern ist das relevant wenn die Geräte auch aus anderen Beweggründen genutzt werden?
 
Zuletzt bearbeitet:
  • Zustimmung
M.i.a.u.: sllk
  • #161
Selbst wenn im Blindtest, das kaum jemand unterscheiden kann,
inwiefern ist das relevant wenn die Geräte aus anderen Beweggründen genutzt werden?
Vieles kann man schon unterscheiden.
Einen Synthiesound im Mix wird man sicherlich nicht heraushören, das wissen wir alle.
Es gibt aber viele Sounds, das sind besonders Klänge mit echtem analogen Tonband, Federhall, Feedback, Röhren, analogem Rauschen, Modulationen, etc., wo die Software sich meist ganz anders verhält.
 
  • Daumen hoch
M.i.a.u.: sllk und robworld
  • #163
Es gibt aber viele Sounds, das sind besonders Klänge mit echtem analogen Tonband, Federhall, Feedback, Röhren, analogem Rauschen, Modulationen, etc., wo die Software sich meist ganz anders verhält.
Könntest du das in einem Track heraushören, wenn eine Spur mit echtem Tonband, Federhall, Feedback, Tube, Rauchen usw. gemacht wurde und eine andere Spur eben Analog Simulationen als Kette nutzt?
 
  • #165
triviales gegenbeispiel fuer die analogleugner:
crossmodulation.
also einen osc mit sich selber, oder 2 oscs sich gegenseitig oder so.
der naive digitale versuch hat mit der realitaet nichts zu tun. mit hochschrauben der samplerate wirds dann weniger schlimm.
lichtgeschwindigkeit vs samplerate halt.
und ist natuerlich die frage ob das ein kurioser einzelfall ist, oder ob es weitere, und vermutlich subtilere unterschiede gibt.
 
  • #167
triviales gegenbeispiel fuer die analogleugner:
crossmodulation.
also einen osc mit sich selber, oder 2 oscs sich gegenseitig oder so.
der naive digitale versuch hat mit der realitaet nichts zu tun. mit hochschrauben der samplerate wirds dann weniger schlimm.
lichtgeschwindigkeit vs samplerate halt.
und ist natuerlich die frage ob das ein kurioser einzelfall ist, oder ob es weitere, und vermutlich subtilere unterschiede gibt.
Ich bin mir eigentlich ziemlich sicher dass es dafür mittlerweile eine Lösung gibt, kann mich an div. Synths bzw. angetesteten Emulationen erinnern bei denen solche das selbst bei extremen Einstellungen nicht mehr in einer Aliasingschlacht endet.
 
  • #168
Könntest du das in einem Track heraushören, wenn eine Spur mit echtem Tonband, Federhall, Feedback, Tube, Rauchen usw. gemacht wurde und eine andere Spur eben Analog Simulationen als Kette nutzt?
kommt immer auf den Track an.
Ich habe jedenfalls bis heute noch keine gleichwertige digitale Alternative zu meinen Tape-Loops gefunden und damit bin ich auch nicht der Einzige.
Mir wäre eine digitale Lösung im Eurorack auch lieber, als ein mechanischer Cassettenplayer (Loopman von Error Instruments), aber da gibts ja nix.
Hainbach beispielsweise nutzt ja sogar live immer noch seine alten Nagra Bandmaschinen, nicht ohne Grund.
 
  • Daumen hoch
M.i.a.u.: Speicherkern

News

Zurück
Oben