Ableton Live 6 Rendering ...

Dieses Thema im Forum "DAW / Komposition" wurde erstellt von Voltage, 25. Juli 2008.

  1. Voltage

    Voltage Tach

    Hi ...

    Mich interessiert warum beim Rendervorgang so viel Sound verloren geht bzw warum es nach dem Rendering so schwach klingt ??? habe jetzt schon ein paar sachen ausprobiert Live Recorden in ein Pult ist am besten da geht fast nichts verloren nur wieso ???? fragen über fragen ...

    gruß Voltage
     
  2. Anonymous

    Anonymous Guest

    Technisch erklären können es sicher andere hier besser. Ich stelle mir den Masterausgang immer wie einen Flaschenhals vor, dessen Ausgang sich alle Signale teilen müssen. Wenn deine Sounds/Loops vorher jeder für sich z.B. in 24Bit/44Khz vorliegen müssen sie sich dieselbe Auflösung dann mit anderen Signalen teilen. Das resultiert dann in einer verminderten Auflösung. Ich hoffe das ist jetzt kein Schwachsinn, den ich hier schreibe!

    Ich lege die DAW-Signale auf 4 Subgruppen-Outs und nehme das Ergebnis dann in Wavelab auf. Dadurch benötige ich dann weniger bzw. keine Kompressoren, da die Signale viel griffiger sind. Stichwort: Analoges Summieren! Der Vorteil wird von vielen angezweifelt, ich bin aber von den Vorteilen total überzeugt. Das ganze kann bei höheren Auflösungen aber evtl. weniger drastische Auswirkungen haben. Mein Mastering-Mensch ist aber immer ganz begeistert wenn er meine Mixes bekommt und bekräftigt mich in meiner Meinung!

    Nachtrag: Ich sehe gerade, daß wir evtl. im selben Studio mastern lassen. Die können dir da sicher auch was zu sagen. Sind ja nette Menschen bei Timetools!
     
  3. Anonymous

    Anonymous Guest

    Doch ist es. Mathematisch/technsich ist die Summierung völlig unkritisch. Es gibt keine reduzierte Auflösung. Und die Rechenfehler sind bei analoger Summierung *erheblich* grösser.


    Mit anderen Worten:
    Digitale Summierung macht keine prinzipiellen Fehler.

    Die Fehler analoger Summierung sind bei weitem grösser, als die Rechen(genauigkeits)fehler innerhalb der DAW. (Und von allen Rechenfehlern innerhalb der DAW sind die bei der Summierung vergleichsweise klein.)

    Es gibt in der Digitaltechnik keine begrenzte zeitliche Auflösung. Die zeitdiskrete Abtastung erfordert für eine zu 100% informationstreue Abbildung lediglich ein bandbegrenztes Signal. Eine höhere Abtastrate hat lediglich eine höhere Bandbreite zur Folge.

    Die Abtastung ist eine lineare Abbildung: es ist mathematisch völlig egal ob ich erst Abtaste und dann Summiere oder umgekehrt.

    Soviel zu den Gründen, die einen Klangunterschied schon aus "simplen" mathmatischen Gründen garantiert nicht hergeben *können*.
     
  4. Anonymous

    Anonymous Guest

    Das hört sich technisch gesehen ja sehr schlüssig an, doch leider ist das Ergebnis ein anderes und ich schwöre drauf! Ich könnte dir das hier locker demonstrieren und auch Ungeübte würden sofort einen Unterschied wahrnehmen.
     
  5. Anonymous

    Anonymous Guest

    Da hast du mich misverstanden: Ich habe kein Ergebnis postuliert - ich habe nur darauf hingewiesen welche Ursachen garantiert nicht in Frage kommen können.

    Dein Ergebnis stelle ich nicht in Frage - es ist absolut im Rahmen dessen, was ich erwarte, wenn ein Projekstudiobetreiber so einen Test durchführt.
     
  6. Voltage

    Voltage Tach

    @ Fetz und Spion thx erstmal für euer reply, was mich halt daran Wurmt ist das ich nicht unbedingt erst Mastern möchte um einen Track im Club spielen zu können, was ich weiß ist das beim Rendern der Sound nichts mit der Soundkarte zu tun hat weil es ein interner Rechenprozess ist, wenn man aber das Signal aus dem Sequenzer raus Routet und in Wavelab etc aufnimmt läuft der Sound über die Wandler der Karte, ich wüsste gerne mal wie ich das aus Ableton raus Route und in Wavelab aufnehem einfach nur mal zum vergleich, ich hofffe da kann mir jemand die mal weiter schritte erklären. :arrow:

    so far euer Voltage
     
  7. freidimensional

    freidimensional Tastenirrtuose

    ich meine, dass wavelab mal eine "record the output"-funktion hatte, ich kann sie aber leider nicht mehr wieder finden...habe letztens auch vergeblich aus den gleichen gründen versucht so einen weg zu finden, aber es gibt auch ein paar freeware-plugins die diese funktion bieten.
    hatte auch im ea-forum danach gefragt, aber mir konnte leider niemand helfen...
     
  8. Anonymous

    Anonymous Guest

    Manche Soundkarten (wie RME) können das im Treiber routen.
    Wenn das nicht geht kann man das mit einem Kabel vom Digital_out auf Digital in sozusagen in Hardware nachrüsten.
     
  9. Voltage

    Voltage Tach

    Puhhh @ fetz mal sehen ob ich das hinbekomme, dumme frage aber steht sowas nicht im Handbuch der Soundkarte ??? :roll:
     
  10. Voltage

    Voltage Tach

    @ Fetz ich kann es bei meiner Karte auch Routen mal schauen wie das funzt ...
     
  11. Anonymous

    Anonymous Guest

    Bei RME steht es im Handbuch - ich hätte es aber nie gefunden, wenn ich das nicht mal als Tipp gelesen hätte.
     
  12. Voltage

    Voltage Tach

    Sry Fetz ich habe ne M-audio Delta 10/10 LT aber das ist da auch Routbar habe gerade mal auf der Herstellerseite geschaut hoffe das funzt ;=))
     
  13. modulator

    modulator Tach

    nur so eine frage renderst du auf 16 oder 24 bit?
     
  14. Voltage

    Voltage Tach

    @ Modulator ich render in 16 bit ...
     
  15. feilritz

    feilritz Tach

    ...

    Man sollte das rendern verbieten, da geht doch nur Sound verloren.

    Bitte immer Analog mischen, bzw die Gesamtsumme am Audiokartenausgang aufnehmen
     
  16. modulator

    modulator Tach

    die meisten soundkarten habe heute ja eine höhere auflösung als 16bit für die ausgänge. so gesehen ist klar, dass du beim rendern auf 16 bit soundqualität einbüsst.

    wenn du nachher noch masterst würde ich für die endgültige version im live mit 24 bit rendern. ansonsten beim rendern auf 16 bit einen vernünftigen dithering algorithmus verwenden. so kannst ein teil der bits rüberretten. live 7 hat als neue funktion dithering.
     
  17. Anonymous

    Anonymous Guest

    Ach ja?
    Und das hörst du in deinem Studio?
    (Neulich gab es mal eine AES-Veröffentlichung: da haben die fertige SACDs auf 16bit/44kHz runtergewandelt. Der Unterschied konnte nicht signifikant gehört werden. Profistudios, gute Abhörbedingungen, viele Testhörer. )
     
  18. THE NERD

    THE NERD Tach

    ähm ich denke wenn du alle deine spuren ertsmal einzeln renderst und zwar
    ohne frequenzen die in den sounds nichts zusuchen haben weg cuttest zb der standart cut bei 50hz und 17000hz ,sowie kannst du bei den hihats und anderen hohen sounds ja alles fast alles bis zu den mitten wegcutten dammit nur das hörbare in der spur gebounct wird und nichts anderes an frequencen die sich physisch mit anderen sounds in die quere kommen .

    so wie solltest du dir überlegen ob auch wirklich jeder scheiss comprimiert werden soll da macht man ja schon die meisten fehler........

    am besten geht auch auf 24bit arbeiten und dann auf 16bit bouncen

    sprich wenn du jede einzelne spur frequenziell gebounced und gestaffelt hast und alles in 24bit gehalten hast es in 24bit bounced als master und es in wavelab von 24bit in 16bit mit dithering renderst muss es genauso klingen wie in abelton ..

    und bloss keinen eq oder compressor oder änlichen schund in den master kloppen ..ausser einen limiter aber den auch nur gerade so auf neutral gestellt

    achte darauf das sich jeder spur einzeln bearbeiten lässt was eqs und comp. angeht und immer alles unter 0db halten




    naja alle kochen mit wasser aber anderen zutaten....
     
  19. intercorni

    intercorni aktiv

    Das ist Schwachsinn, dass beim Bouncen ein extremer Klangverlust eintritt.
    Ich würde den Fehler woanders suchen. In den meisten Fällen gibt es ein Pegelproblem, weil die Kanäle falsch ausgesteuert sind. Ich sehe oft, dass die einzelnen Kanäle oft bis oder sogar über 0dB gefahren werden, dafür dann die Summe reduziert wird. Die DAW macht keine Fehler, nur derjenige, der davor sitzt ;-)
     
  20. modulator

    modulator Tach

    ehrlich gesagt ich weiss es nicht, weil ich nie einen wirklichen vergleichstest gemacht habe. ich bin selber auch nicht der meinung dass beim rendern sound verloren geht. aber diese diskussion taucht immer wieder im zusammenhang mit verschiedenen programmen auf. so gesehen finde ich man sollte alles mögliche unternehmen um die soundqualität zu bewahren. beim rendern auf 16 bit heisst dass eben dithern.

    es zeigt sich immer wieder die psychologie beim hören ist sehr wichtig. wenn ich einen track im live höre und den bildschirm betrachte nehme ich den sound anders war, als wenn ich nicht hinschaue.

    interesantes ergebnis, weisst du wie die das gemacht haben? wurden die überzähligen bits beim runterwandeln einfach abgeschnitten oder wurde gedithert?
     

Diese Seite empfehlen