Braucht man heute noch DSP-Erweiterungskarten?

Sind diese Karten und Interface mit dieser Funktion heute bei einem aktuellen PC/Mac noch nötig?
Kommt sicher drauf an, gibt sicher noch einige die so ein UAD Apollo DSP oder so was nutzen, wegen der geringeren Latenz. Da kann ich aber leider nichts zu sagen, da geringe Latenz für mein Musikmachen keinerlei Relevanz hat.
 
Was soll das denn sein? Kenn ich nicht, also nein...

Sowas ust gemeint

 
Na ja ... solche DSP-Erweiterungen ermöglichen es professionellen Studios zum Beispiel, den Musikern bei der Aufnahme latenzfrei bestimmte Effekte wie Reverb und Kompression aufs Ohr zu geben. Wenn man das nur mit Hilfe von Software machen würde, würden die Latenzen evtl. zu groß. Auch heute noch.
 
Für bestimmte Anwendungen macht das durchaus Sinn, entlastet auch den Rechner. Betreibe auch Uad und Powercore, super hochwertige Sachen.
 
So wie ich das verstanden habe, nutzen das die Leute die live was aufnehmen und gleich dabei einen latenzarmes FX drauf haben wollen, latenzfrei ist ja schlecht möglich.
Wenn man ITB arbeitet dann sehe ich den einzigen Vorteil in solcher DSP-Hardware, dass es einige Plugin eben nur für diese Plattform gibt, oder man hat wirklich einen sehr schwachen Rechner, dann kann die Entlastung durch DSPs auch Sinn machen.
 
Sind diese Karten und Interface mit dieser Funktion heute bei einem aktuellen PC/Mac noch nötig?

Macht u.U. Sinn, wenn du bspw ein Problem mit Aliasing hast und in höheren Sampleraten arbeiten möchtest, kann so'n Mac Mini schnell mal schlapp machen.

Da kann man sich so einer Lösung bedienen.

Und sonst auch. So iel Leistung hat der m2 pro bspw nicht
 
Das kann man nicht allgemeingültig sagen. Einige mögen es - ich folge eher der Idee der "Bordmittel" und daher - gern nein, weil OS Update und Stress mit dem Kram will ich nicht. Ist aber eine private Haltung dazu.
 
So wie ich das verstanden habe, nutzen das die Leute die live was aufnehmen und gleich dabei einen latenzarmes FX drauf haben wollen, latenzfrei ist ja schlecht möglich.
Wenn man ITB arbeitet dann sehe ich den einzigen Vorteil in solcher DSP-Hardware, dass es einige Plugin eben nur für diese Plattform gibt, oder man hat wirklich einen sehr schwachen Rechner, dann kann die Entlastung durch DSPs auch Sinn machen.

Gibt es da noch exklusive Plugins? Bei UAD gibt es doch jetzt alles nativ?
 
Wurde ja schon geschrieben... Uad Apollo Interfaces und Avid HDX Syteme ermöglichen low latency recording mit Plugins, da das Audio direkt auf die DSPs geht ohne den Weg zur Cpu.
Beide Systeme haben auch einen integrierten Mixer (bei HDX mit FPGA gelöst), was eben auch aufwendige Kopfhörer Mischungen (mit Plugins) ermöglicht, da wie gesagt das Audio direkt auf der Karte oder im Interface geroutet wird und das alles ohne den Weg zur CPU und zurück...
Protools im Verbund mit HDX ist in der Hinsicht eine sehr stabile Umgebung. Da ist dann der Hardware Mixer in der Software integriert, was auch ein Mixen aufwendiger Projekte mit niedrieger Latenz ermöglicht. (Wenn man nur DSP Plugins benutzt...) Auch hat man pro Karte 64 In and Outs, die man mit 4 Avid Interfaces dann auch voll bestücken kann, was sicherlich kaum einer braucht, außer er hat einen "Riesen Synhtpark" oder ein großes Studio, wo mit vielen Spuren aufgenommen wird.

Apollo hat da einen anderen Ansatz nutzt eine Mixer App, names Console... Mein Highlight ist da die Benutzung des des Sphere DLX Mics...

Für reine DSP Karten (UAD2,Powercore) gilt das aber nicht, da die keinen autarke Mixer Umgebung haben...

Ich selber nutze HDX sehr gerne. Es funktioniert einfach stabil.... Das Apollo nutze ich für das Sphere DLX Mic..

Verdict:
Wenn man solche Anforderungen nicht hat, braucht man definitv keine DSP Systeme mehr...

@Martin Kraken

Ja Powercore hat noch einige. Z.B die nativen Versionen von den TC 6000 Algos können nur Stereo, während die Powercore Varianten auch Surround können, wenn ich mich richtig erinnere.
Auch bei UAD gibt es noch viel Plugins, die noch nicht portiert wurden...(z.B Neve DFC Channel, AMS RMX, die C-Suite Plugins, Neve 88RS usw...)
 
Wurde ja schon geschrieben... Uad Apollo Interfaces und Avid HDX Syteme ermöglichen low latency recording mit Plugins, da das Audio direkt auf die DSPs geht ohne den Weg zur Cpu.
Beide Systeme haben auch einen integrierten Mixer (bei HDX mit FPGA gelöst), was eben auch aufwendige Kopfhörer Mischungen (mit Plugins) ermöglicht, da wie gesagt das Audio direkt auf der Karte oder im Interface geroutet wird und das alles ohne den Weg zur CPU und zurück...
Protools im Verbund mit HDX ist in der Hinsicht eine sehr stabile Umgebung. Da ist dann der Hardware Mixer in der Software integriert, was auch ein Mixen aufwendiger Projekte mit niedrieger Latenz ermöglicht. (Wenn man nur DSP Plugins benutzt...) Auch hat man pro Karte 64 In and Outs, die man mit 4 Avid Interfaces dann auch voll bestücken kann, was sicherlich kaum einer braucht, außer er hat einen "Riesen Synhtpark" oder ein großes Studio, wo mit vielen Spuren aufgenommen wird.

Apollo hat da einen anderen Ansatz nutzt eine Mixer App, names Console... Mein Highlight ist da die Benutzung des des Sphere DLX Mics...

Für reine DSP Karten (UAD2,Powercore) gilt das aber nicht, da die keinen autarke Mixer Umgebung haben...

Ich selber nutze HDX sehr gerne. Es funktioniert einfach stabil.... Das Apollo nutze ich für das Sphere DLX Mic..

Verdict:
Wenn man solche Anforderungen nicht hat, braucht man definitv keine DSP Systeme mehr...

@Martin Kraken

Ja Powercore hat noch einige. Z.B die nativen Versionen von den TC 6000 Algos können nur Stereo, während die Powercore Varianten auch Surround können, wenn ich mich richtig erinnere.
Auch bei UAD gibt es noch viel Plugins, die noch nicht portiert wurden...(z.B Neve DFC Channel, AMS RMX, die C-Suite Plugins, Neve 88RS usw...)

Wieso haben diese externen DSPs so eine geringe Latenz? Gilt das nur, wenn ich das Audio direkt an der Hardware abgreife? Was macht sie so viel schneller? Berechnet der DSP den Effekt schneller als der CPU im Computer?
 
Die Latenz ist nur so niedrig, wenn man die "speziellen Apollo-Preamps" benutzt - und dann hat man den Effekt mW auch genau so auf der Aufnahme ohne Möglichkeit noch was zu ändern

die "regulären" UAD-Effekte brauchen extrem hohe Latenz durch den Weg zum DSP und zurück!

die neuen nativen UADx Effekte haben im direkten Vergleich wesentlich weniger Latenz und die verbrauchte Rechenleistung ist auch ziemlich gut
 
Braucht man heute noch solche Fragen? - Wer sich sich so was anschafft wird wohl seinen Grund dafür haben...

Jedenfalls kauft sich das wohl niemand, weil die Dinger sexy aussehen

@Martin Kraken - Keine Lust gerade den, oder die passenden Threads rauszusuchen. Aber hast du nicht mal behauptet, dass die Dinger bei der heutigen, regelmäßigen Rechenleistung unserer Hauscomputer diese DSP Hardware obsolet machen?
 
Wieso haben diese externen DSPs so eine geringe Latenz? Gilt das nur, wenn ich das Audio direkt an der Hardware abgreife? Was macht sie so viel schneller? Berechnet der DSP den Effekt schneller als der CPU im Computer?
So ein DSP kümmert sich mehr oder weniger exklusiv um die Berechnung der eingebundenen Effekte bzw. Hardwareemulationen... anders als eine CPU, die sich ja permanent auch noch um all den anderen Kram kümmern muss, insbesondere um das Betriebssystem.

Ich bin ja vor kurzem auf ein MacBook umgestiegen und habe mir kurz darauf auch ein Appllo Twin X Duo zugelegt... was soll ich sagen: Ziemlich geiler Scheiß! Die HW-Emulationen sind top und man kann mit extrem niedriger RT-Latenz arbeiten, wenn notwendig (insbesondere im Zusammenspiel mit LUNA).

Ob man das heute noch benötigt ist tatsächlich fraglich, da die Rechenleistung stetig nach oben skaliert... ich wollte es einfach mal ausprobieren, hatte Lust auf was Neues & Abenteurer ;-)

Es mag aber auch vom Worklflow bzw. vom Zielbild abhängen: Wenn ich beispielsweise UAD Plugins mixen und mastern möchte, ist es wahrscheinlich ratsam sich noch ein oder zwei dieser Satellites anzuschaffen, um ausreichend DSP Power zur Verfügung zu haben.
 
Wieso haben diese externen DSPs so eine geringe Latenz? Gilt das nur, wenn ich das Audio direkt an der Hardware abgreife? Was macht sie so viel schneller? Berechnet der DSP den Effekt schneller als der CPU im Computer?
Schwierig zu erklären...

Versuch...

Wenn du Daten in die CPU schaufelst braucht das Zeit und funktioniert mit einen Buffer, da die CPU neben der Plugin Berechnung noch zig andere Sachen macht. (z.B. auch das Handling der Cores)
Das fällt bei direkter Berechnung auf dem DSP weg, da dieser nur für eine Aufgabe gedacht sind. Bei HDX übernimmt der FPGA das Voice Handling (ein Audio Stream. eine Voice) und die DSPs nur das Berechnen der Plugins.
Auch darf man den PCIe Bus (zur CPU) nicht vergessen, der wegfällt, da alles auf der Karte gemacht wird eben völlig unabhängig von den ganzen Computer (sprich: Weg über PCIe Bus zur CPU (Buffer Berechnung) und dann wieder zurück zum Audio Interface...

Mischt man natürlich native Plugins mit DSP Plugins in einen Channel, wars das mit dem Vorteil, da ja dann auch die CPU benutzt wird...

@Max Vieleicht verstehe ich Dich falsch, aber wenn ich normale UAD DSP Plugins unter der Console App des Apollo Interface verwende, ist die Latenz bei der Aufnahme oder Monitoring geringer als die wenn ich die native Variante in der DAW benutze... Das gilt auch für Antelope usw..., die DSPs zur Berechnung von Plugins in der Signal Chain nutzen....
Aber in der DAW selbst haben die UAD Plugins eine höhere Latenz als die nativen Versionen, weil da das "Signal" zuerst auf das Apollo Interface nur zur Berechnung geht, dann wieder zurück zur CPU für Track Handling (DAW) und zuletzt nochmal zum Interface für die finale Audio Ausgabe...
Bei Protools und HDX ist das anders, da dort die Software und Hardware sozusagen eine Einheit ergeben, wenn man nur mit den AAX DSP Plugins arbeitet.
Universal Audio hat ja mit Luna ein ähnliches Konzept geschaffen.


Verdict:
Wiegesagt es gibt eben keine klare Antwort... DSP Systeme haben in bestimmten Situationen wesentliche Vorteile (Recording, Routing für Monitoring und Kopfhörermixe...z.b Hall für den Sänger oder Chorus für eine cleane E-Gitarre usw.) Manche möchten halt schon das FX auf den Headphones haben beim Einspielen und singen. Das geht dann eben mit geringer Latenz...

Hat man diese Anforderungen nicht, braucht man auch kein Dsp System...
 
Zuletzt bearbeitet:
Welche Latenzunterschiede kann ich da erwarten? Wann braucht man Monitoring mit Effekten?
Zur ersten Frage kann ich keine genauen Angaben machen, außer dass man die Unterschiede deutlich merkt als Musiker.

Die zweite Frage habe ich eigentlich schon beantwortet: Monitoring mit Effekten benötigt man dann, wenn der beteiligte Musiker - zum Beispiel ein Sänger - dies wünscht. Viele Sänger können zum Beispiel ohne ein wenig Kompression, EQ und Reverb auf dem Kopfhörer nicht so gut singen.

Ich zum Beispiel brauche das nicht, weil ich meistens nur meine eigene Musik aufnehme und dann entweder ganz trocken arbeiten kann oder die entsprechenden analogen Signalketten zur Verfügung habe, um jegliche digitalen Effekte überflüssig zu machen. Würde ich aber andere Musiker gegen Bezahlung aufnehmen wie ein guter Bekannter von mir, wäre es etwas anderes.
 
Zuletzt bearbeitet:
Wann braucht man Monitoring mit Effekten?

Das wurde schon korrekt erklärt.

Erweitert dazu: du kannst als Sänger in/mit/gegen die Kette von Mic / EQ / Comp / Hall oder was auch immer man da einbaut singen. Du formst also deine Stimme mit der Kette zu einer Art Instrument. Die FX ändern damit die Aufnahme auch wenn sie nur auf dem Monitor hängen und später dann durch was anderes ITB ersetzt werden.

Ich bin da kein Profi, da ich mit Stimme nix mache, ist von daher hörensagen. So wurde es mir zumindest vor Jahren von nem Tontechniker erklärt.

Das geht mit DSP Karten und natürlich auch mit Outboard, alles was super niedrige Latenz hat.
 
Das sind dann wahrscheinlich sehr versierte Studiosänger. So eine Gesangstechnik braucht bestimmt eine Menge Übung. Kann man das dann so einstellen, dass man das dann ohne Effekte aufnimmt? Also im Low Latenz Modus? Also der Sänger hört das und man nimmt aber dry auf? Wer will schon eine Vocal Spur mit Effekten haben?
 
Kann man das dann so einstellen, dass man das dann ohne Effekte aufnimmt? Also im Low Latenz Modus? Also der Sänger hört das und man nimmt aber dry auf? Wer will schon eine Vocal Spur mit Effekten haben?
Ja natürlich... Der die Sänger/in bekommt einen unabhängigen Kopfhörer Mix mit Effekten und das Signal wird ganz normal trocken über den Input aufgenommen...
 
Das sind dann wahrscheinlich sehr versierte Studiosänger. So eine Gesangstechnik braucht bestimmt eine Menge Übung. Kann man das dann so einstellen, dass man das dann ohne Effekte aufnimmt? Also im Low Latenz Modus? Also der Sänger hört das und man nimmt aber dry auf? Wer will schon eine Vocal Spur mit Effekten haben?
Genau das ist die Idee... maximal latenzarmes (latenzfrei mag ich bezweifeln) Direct Monitoring mit allem was der Künstler braucht, um seinen Sound bei der Performance zu hören. Aufgenommen wird aber das pure Signal, so dass man später im Mix die größtmögliche Gestaltungsfreiheit zur Verfügung hat. Ist z. B. auch für Gitarre & Bass ganz interessant... der beim Einspielen wahrgenommene Sound kann schon unmittelbar inspirierend sein. Zudem hast Du bei so einem Worklflow auch die Möglichkeit des so genannten Re-Amping. Einfach mal googeln...
 


News

Zurück
Oben