Vorteile einer dedizierten Grafikkarte für DAW Rechner mit 8700K

Dieses Thema im Forum "PC" wurde erstellt von spacerunner, 19. November 2018.

  1. Hallo liebe Musiker / PC - Freundinnen - und Freunde :beam:

    Macht eine zusätzliche (anstelle der internen) Grafikkarte in einem DAW - Rechner Sinn?

    Hier geht es um einen Win10 PC mit dem 8700K Prozessor, 32GB 3200MHZ RAM, Samsung 512GB NVMe SSD und 1TB Samsung SATA SSD. Gearbeitet wird mit einem hochauflösenden 40 Zoll Monitor. Dieser PC wird nicht für Gamen gebraucht, es ist ein reiner DAW - Rechner mit dauerndem Zugang ins Internet.

    Falls eine Grafikkarte eine Performance - Steigerung bringen würde, welche wäre hier angebracht?

    Vielen Dank für eure Argumente und bis bald,
    Rolf aus Zürich
     
    Zuletzt bearbeitet: 19. November 2018
  2. In meinem Audiorechner habe ich auf Empfehlung der Jungs von Digital AudionetworX eine passive Grafikkarte (keine Lüftergeräusche also) einbauen lassen. Damit ist sichergestellt, dass Du – sofern überhaupt Bedarf bei einem 40 Zoll Monitor – zwei Devices mit ausreichend Grafikpower speisen kannst. Wahrscheinlich wird es aber kaum Beeinträchtigung in der Gesamtleistung geben, wenn Du die GPU vom Mainboard nutzt (falls diese Deinen Monitor bedient).

    Cheers
    A.
     
  3. dest4b

    dest4b neu hier

    Ich würde auch eine Dedizierte Graka nehmen... Wobei das mit den integrierten Intel dingern gar nicht mehr so schlecht ist und auch der Zugriff aufs RAM ist nicht mehr so schlimm wie früher.

    Passiv ist super. Ich hab ne Geforce GT730 mit drei monitoren allerdings stellt sich mir eine frage: Gibt es vorteile bei ATI / NVIDIA und ner DAW. ?

    Im latency monitor ist bei mir immer dxgkrnl.sys und nvlddmkm.sys bei 380 bzw 499 µs.. ist ja noch im Ramen.. aber bei grösseren Projekten und geringer Latenz knisterts wenn sich viel inableton bewegt.
     
    Zuletzt bearbeitet: 19. November 2018
  4. xenosapien

    xenosapien hochgradig unprofessionell

    Ich hab in meinem (übrigens auch von Digital AudionetworX) Laptop nur das onboard Intel-Grafikchip Ding.

    reicht auch für den Betrieb mit einem externen Monitor mehr als genug aus und könnte sogar 1-2 (etwas ältere) Games damit noch spielen.

    wenn die dedizierte GraKa keinen wertvollen Platz verschwendet und Dich kein Vermögen kostet, ist es nicht verkehrt - aber die onboard-GPUs sind mittlerweile so gut dass es für die reine Darstellung von GUIs etc. völlig ausreicht.
     
  5. Sogyra

    Sogyra Rauschfrei

    Bei der "internen" Grafikkarte wird ein Kern von der CPU für die Grafik abgezwackt. Vom Hauptarbeitsspeicher ebenso (je nach Reservierung im BIOS).
    Wenn dich das nicht stört, und du auf die Leistung verzichten kannst, dann kannst du das schon so verwenden. Solange du nicht auf dem Rechner große Spiele zockst, ist die Leistung ausreichend.
    Ich hab mir aber trozdem eine separate Radeon 6450 in passiver Form geholt. Lieber die volle CPU für Audio-und Videoproduktionen zur Verfügung haben, als Abstriche machen zu müßen.
     
    Zuletzt bearbeitet: 19. November 2018
  6. Summa

    Summa hate is always foolish…and love, is always wise...

    Das ist weniger ein Problem des Kerns, der ist zusätzlich vorhanden und kann in den meisten Fällen weiterhin zum rendern von Videos etc. eingesetzt werden, aber die Speicherbandbreite wird bei einer Grafikkarte dank des eigenen Speichers geschont, auch wenn der Gewinn durch schnellere Speicheranbindung und Dual Channel nicht mehr ganz so extrem sind. Trotzdem ist der Speicher natürlich ein Flaschenhals, speziell wenn 6 Kerne darauf zugreifen.
     
  7. dest4b

    dest4b neu hier

    Biste dir da sicher bei heutigen intel CPUs ? Ich mir nicht so die haben doch einen eigenen Grafik shader. Dieser ist bei mienem xeon zb deaktiviert das unterscheidet ihn vom i7
     
  8. xenosapien

    xenosapien hochgradig unprofessionell

    Ich zumindest rede nicht von einem ausgelagerten CPU-Prozess, sondern von einem "on board chip".

    Das ist schon eine extra GPU, nur eben nicht als austauschbare Karte, sondern fix als Chip auf dem Mainboard verlötet.
     
  9. swissdoc

    swissdoc back on duty

    Die GPU (hier eine Intel® UHD-Grafik 630) sitzt als eigene Unit auf der CPU und zwackt ausser System RAM und Speicherbandbreite keine Leistung ab. Das bisschen 2D Grafik bei Audio bringt die locker und da 32 GB Ram im System stecken, sehe ich hier auch keine Probleme.

    Hier sieht man noch einige Details und Daten incl. Benchmarks der UHD 630:
    https://www.notebookcheck.com/Intel...-Benchmarks-und-Spezifikationen.257918.0.html
     
    xenosapien und dest4b gefällt das.
  10. dest4b

    dest4b neu hier

    Sagichdoch
     
  11. psicolor

    psicolor Busfahrer und Bademeister

    Echt? Früher war das nämlich nicht so. Zumindest gab es Ein-Kern-CPUs in Rechnern mit Onboard-Grafikkarte und die haben auch funktioniert.
     
  12. dest4b

    dest4b neu hier

    Iss auch nicht so.
     
  13. Summa

    Summa hate is always foolish…and love, is always wise...

    Zuletzt bearbeitet: 19. November 2018
  14. dest4b

    dest4b neu hier

    Ebend und beim Xeon ist der abgeschaltet
     
  15. Summa

    Summa hate is always foolish…and love, is always wise...

  16. Sogyra

    Sogyra Rauschfrei

    Ach so. Ok. Ich hab mir damals die i5 2500k geholt, und erst später irgendwo gelesen, das die interne Grafikeinheit quasi einen Kern abzwackt. Deshalb hab ich mir dann eine separate GraKa geholt.
    Man möge mir verzeihn, wenn ich Blödsinn geschrieben habe.
     
    klangsulfat und xenosapien gefällt das.
  17. BLACKLIGHT

    BLACKLIGHT ......

    @spacerunner

    Es gibt einen erheblichen Vorteil ( dedizierte GraKa ) mit einigen VST PlugIns :
    ( und es werden langsam immer mehr )

    Die CUDA Architektur der nVidia Karten wird zur Berechnung mitgenutzt.
    Das kann einen großen Unterschied ausmachen, besonders wie viele
    PlugIn-Instanzen man gleichzeitig nutzten kann.

    Liquidsonics Reverberate ist z.B. so ein PlugIn ( Faltungshall ).

    Die CUDA Rechenleistung der GraKa wird den PlugIns zusätzlich zur Verfügung
    gestellt - ist gut vergleichbar mit den verschiedenen DSP Lösungen ( UAD ).

    Je mehr CUDA Kerne man zur Verfügung hat, desto mehr Leistung ist nutzbar.
    ( GTX 1080Ti = 3584 Kerne / GTX 2080 TI = 4352 Kerne usw. )

    Intel & AMD bieten zwar ähnliche Technologien, sind aber nicht mit
    CUDA kompatibel.

    Was ist CUDA ?
    https://www.nvidia.de/object/cuda-parallel-computing-de.html

    CUDA VST PlugIns :
    https://www.liquidsonics.com/software/reverberate-le/
    https://www.acustica-audio.com/pages/engine
    http://gpuimpulsereverb.de
     
    Zuletzt bearbeitet: 19. November 2018
  18. swissdoc

    swissdoc back on duty

    Das ist OpenCL und nicht CUDA. Ansonsten muss man sich klar sein, dass mit der GPU eine gewisse Puffer-Latenz ins Spiel kommt. Bei 512 Samples und 44.1 kHz sind das um die 11 ms. Aber ansonsten eine coole Sache...
     
  19. Summa

    Summa hate is always foolish…and love, is always wise...

    Naja, kompletter Blödsinn ist es nicht, beim i5 2500k (2te Generation) war der Speicher noch nicht ganz so schnell angebunden, da wird der Unterschied spürbarer sein als bei den Prozessoren der 8ten Generation. Zudem konnte der Chip nicht mal HD Videos dekodieren, Youtube Videos schauen hat die CPU noch intensiver belastet.
     
    Zuletzt bearbeitet: 20. November 2018
    Sogyra gefällt das.
  20. BLACKLIGHT

    BLACKLIGHT ......

    Ist schon klar, es geht um einen Vorteil der dedizierten GraKa.
    Bist Du nicht drauf gekommen ...

    Zusätzliche Latenzen sind dabei auch nichts Neues ( UAD usw. )
     
  21. Summa

    Summa hate is always foolish…and love, is always wise...

    Hmmm... zumindest hat der Synth für den ich als letztes Sounds gemacht hab' im Task Manager unter Windows 10 was von GPU Last angezeigt, das muss ich mir mal genauer anschauen.
     
  22. 2bit

    2bit ||

    Achtung, sehr spezifisches Nerdwissen aus dem Gamingbereich:

    Mit dem Absterben der CRT-Monitore sind auch die sehr üblichen 75Hz- und 85Hz-Bildwiederholraten im 2D-Desktopmodus weggefallen und durch den amerikanischen 60Hz-TV-Standard ersetzt worden, weil die Flachbildmonitortechnik eben nicht mehr so krass erkennbar flimmerte, wie Röhren das eben taten. Erst so langsam setzen sich wieder Monitore mit höheren Raten durch, aber das packen die Embedded-GPUs nicht.

    Für Raten jenseits der 60Hz bei hohen Auflösungen (FullHD + WXHD + 4K) ist eine eigene ordentliche Grafikkarte mit Displayport-Buchsen und ein geeigneter Monitor also Pflicht. Aber das kostet auch ebenso ordentlich und dürfte für die meisten Leute hier eher ziemlich indiskutabel sein.

    Der ziemlich theoretische Sinn: Auch auf einem 2D-Desktop fühlen sich höhere Bildwiederholraten deutlich(!) flüssiger an, was sich wohl vor allem dann bemerkbar macht, wenn man häufig Fenster verschiebt und sehr viel scrollt. Außerdem könnte sich das als vorteilhaft erweisen, wenn man regelmäßig den grafischen Echtzeit-Output von FFT-/Spektraldiagrammen nach sehr kurzen Events hin untersucht, weil man zum Beispiel regelmäßig mastert oder mischt.

    Das lohnt sich aber vor allem für Leute, die ihren DAW-PC auch zum Zocken benutzen und Bildwiederholraten > 60Hz als Synergieeffekt in den DAW-Modus rüber schleppen können. Da gehen für GPU der unteren Mittelklasse und Monitor der Einstiegsklasse locker schon mal 600 Euro für drauf.
     
    Zuletzt bearbeitet: 20. November 2018
  23. Summa

    Summa hate is always foolish…and love, is always wise...

  24. 2bit

    2bit ||

    Ob man jetzt 30 Euro für einen leisen CPU-Lüfter mit genügend Headroom fürs übertakten oder für ne passive GraKa ausgibt, muss jeder selbst wissen. Ersteres ist aber eine ziemlich halbgare Bastellösung, die auch nicht gerade der Lebensdauer der CPU förderlich ist.
     
  25. Summa

    Summa hate is always foolish…and love, is always wise...

    Die CPU wird dabei nicht übertaktet, nur der Monitor durch Custom Timing an seine Grenzen gebracht, aber zeigt dass die Intel Teile mehr als nur 60Hz können. Hab' das mal bei meinem Internet PC mit i3m bzw. HD3000 gemacht, das Timing minimal verändert, weil der Monitor Geräusche gemacht hat, daher kannte ich das Menü.
     
  26. 2bit

    2bit ||

    Effektiv aber eben schon, denn die CPU muss ja in der selben Zeit auch mehr Frames berechnen und wird darum logischerweise auch heißer (und der Lüfter lauter).

    Je nach Wiederholrate und Konstellation wird das auch richtig krass: https://www.overclock.net/forum/69-...-temperatures-power-draw-your-nvidia-gpu.html

    Genau in diese Situation des obigen Links bin ich gekommen, als ich meinen Primärmonitor auf 144Hz (Sekundärmonitor weiter auf 60Hz; beide lediglich 1920*1080) geschaltet hab. Die GTX 1070 ging nicht mehr in den Idle-Modus und blieb konstant über 50°. Primärmonitor runter auf 120Hz und alles wieder leise und kühl.

    Ich würde da echt die Finger von lassen. Da gibt's ja kaum belastbare Benchmarks für. Vor allem, wenn man da leistungshungrige Plugins zuschaltet. Einfach nur den Monitor im Idle-Betrieb hochtakten ist ja witzlos.
     
  27. Summa

    Summa hate is always foolish…and love, is always wise...

    Nur beim zocken, bei 2D wird maximal die Speicherbandbreite reduziert. Ich schätze das was da warm wird sitzt bei 'ner CPU mit eingebauter GPU auf dem Motherboard, von daher wird das die CPU kaum beeinflussen.
     
    Zuletzt bearbeitet: 20. November 2018
    dbra gefällt das.
  28. 2bit

    2bit ||

    Ne, nicht nur beim Zocken. Seit Windows Vista sind auch die Desktops standardmäßig hardwarebeschleunigt, wann immer das möglich ist.
     
  29. Das klingt höchst implausibel. Quelle?
     
  30. Summa

    Summa hate is always foolish…and love, is always wise...

    Der Desktop war schon unter Windows 98 HW beschleunigt, transperenz Effekte, Aero & Co lässt sich zum Glück alles abstellen. Meine Windows 10 Desktop sieht im Prinzip (sieht man mal von den Kacheln in der Startleiste ab) nicht so viel anders als unter Windows 98 aus, viel mehr als Linien Zeichnen und Bitmaps verschieben muss die Grafikkarte da wahrscheinlich nicht. Aber einige aktuelle VSTis scheinen bei der GUI tatsächlich was tiefer in die GPU Kiste zu greifen, das Auge hört bekanntlich mit.