Neu
  • Tages-/Nachtmodus unten links (Footer) ändern:

    System: Automatische Anpassung an die Helligkeit eures Betriebssystems.
    Hell: Sequencer im Daymode.
    Dunkel: Weniger Kontrast – ideal für Nachteulen!

OnTopic Mythen über Analogsound vs Digital

Bitte stark genau im Thema bleiben wie es im ersten Beitrag steht. Alles andere gilt als OT und kann gelöscht werden.
  • #91
Sobald ein analoges Signal AD gewandelt wird liegt das Signal als Nullen und Einsen vor.
Es gibt zunächst mal keinen Grund dafür, warum ein Rechner nicht genau solch eine Folge an Nullen und Einsen erzeugen können sollte.
 
  • #92
ja, das sehe ich auch so. Gibt ja für alles Spezialisten, aber es kann auch interessant sein, einen Klangerzeuger mal außerhalb seiner "Komfortzone" einzusetzen ...
Wie zum Beispiel die angezerrte 303 in deinem nächsten Satz.
Oder das Saxophon (eigentlich für Marschkapellen konzipiert).
Oder das Boogie-Woogie-Piano oder die Blues-Harp oder die Hillbilly- oder gar Cajun-Geige.

was wäre ein Orchester ohne angezerrte 303? ;-)
Gegenfrage: Was wäre ein Orchester MIT einer angezerrten 303?
Antwort: Mal was anderes.
Das Orchester NUR aus 303s fand ich jedenfalls ziemlich langweilig damals...

Schöne Grüße
Bert
 
  • #93
Sobald ein analoges Signal AD gewandelt wird liegt das Signal als Nullen und Einsen vor.
Es gibt zunächst mal keinen Grund dafür, warum ein Rechner nicht genau solch eine Folge an Nullen und Einsen erzeugen können sollte.
Doch. Der Grund ist, dass das digitale Modell eben nur ein Modell ist und die Realität nicht in seiner unendlichen Vollständigkeit abbilden kann.

Sicher sind in den letzten 20 Jahren viele Fortschritte erzielt worden und man kann ja auch die Elektronik relativ gut simulieren, aber jeder Elektroniker, der z.B. mit Spice Prototypen erstellt, wird Dir von den Abweichungen und dem tatsächlichen Verhalten der real aufgebauten elektronischen Schaltung erzählen können.

Also: Nein, die verwendeten Rechenmodelle weichen im Ergebnis von den realen Analogen ab (einer der Gründe ist natürlich Optimierungen, damit nicht bereits zwei Instanzen den dicksten Rechner dichtballern, ein anderer all die Dinge, die nicht verstanden sind und daher im Modell nicht berücksichtigt werden).
 
  • #94
und die Realität nicht in seiner unendlichen Vollständigkeit abbilden kann.

Das gilt solange der Signalpfad bis zu deinem Ohr analog bleibt.
Sobald es etwas digitalisiert wird ist nichts auch nur annähernd unendlich. Da wird ja schon vor der Wandlung der Frequenzbereich beschnitten.

Ich persönlich glaube auch, dass die Methode der Emulation viel zu aufwendig ist um die letzten ein bis zwei Prozent Unterschied im Verhalten zu eliminieren.
Und für die "normalen" Sounds ist der Unterschied ja praktisch weg. Für extreme Modulationen und Nichtlinearitäten in den Frequenzrandbereichen wird man das mit einem vertretbaren Aufwand wahrscheinlich nicht genau hinbekommen.

Meiner Ansicht nach wird das irgendwann über KI funktionieren, wenn man die ausreichend gut trainiert.
Die lernt vom Endergebnis her.
 
  • Daumen hoch
M.i.a.u.: Rolo
  • #95
Sobald es etwas digitalisiert wird ist nichts auch nur annähernd unendlich.

Auch im analogen ist nix unendlich genau. Irgendwann rauscht es einfach, weil die Technik Grenzen hat. Es gibt zum Beispiel kein einzelnes Mikrofon, das alles an akustischen Ereignissen optimal aufnehmen kann. Man muss da vorher wissen, ob z.B. Schlagzeug oder Gesang aufgenommen werden soll.
 
  • Daumen hoch
M.i.a.u.: sllk
  • #96
Sicher sind in den letzten 20 Jahren viele Fortschritte erzielt worden und man kann ja auch die Elektronik relativ gut simulieren, aber jeder Elektroniker, der z.B. mit Spice Prototypen erstellt, wird Dir von den Abweichungen und dem tatsächlichen Verhalten der real aufgebauten elektronischen Schaltung erzählen können.
Denkst du das spielt bei der eher beschränkten menschlichen Wahrnehmung eine Rolle?
 

News

Zurück
Oben