YouTube Max. Quality. Bitrate 8000kbs & 50000kbs

  • Tag Kameraden,


    habe meinen zweiten Part von Onimusha in 8000kb/s und in 50000kb/s Bitrate (YouTube Maximum) gerendert. Weil ich gelesen habe das dies das Maximum wäre was YouTube verarbeiten könne. Ich dachte ich gebe YouTube das Maximum um meinen Zuschauern das Maximum zu bieten. Erkenne jedoch keinen Unterschied. Außer das der 50000kb/s Part 5GB größer ist...
    Was heißt Bitrate? Was spielt das genau für eine Rolle? In welchem Zusammenhang?


    Es gibt leider sehr viele Unterschiedliche Schriftstücke dazu im Internet im Bezug auf die YouTube Empfehlung.
    Hier der offizielle:


    Empfohlene Einstellungen


    Dort sind für 1080p, 30FPS, 8000kb/s empfohlen. Für 60FPS 12000kb/s.
    Aber ich erkenne trotzdem keinen Unterschied.
    Was hat es mit der Thematik auf sich?


    Danke für die Hilfe :)


    LG o7
    FRNK Whyte

  • habe meinen zweiten Part von Onimusha in 8000kb/s und in 50000kb/s Bitrate (YouTube Maximum) gerendert. Weil ich gelesen habe das dies das Maximum wäre was YouTube verarbeiten könne.

    Mir ist neu, dass es da ein Limit nach oben gibt. Ich glaube nicht, dass das stimmt.

    Was heißt Bitrate?

    Die Bitrate bezeichnet die Ausgabemenge von Informationseinheiten bei digitalen Multimediaformaten im Verhältnis einer Datenmenge zu einer Zeit, typischerweise gemessen in Bit pro Sekunde, abgekürzt als Bit/s oder bps. Also einfach gesagt: Die Dateigröße pro Zeiteinheit.

    In welchem Zusammenhang?

    Bei ansonsten gleichen Einstellungen: Die Datei wird größer und verliert weniger Bildqualität bei der Kompression.

    Was spielt das genau für eine Rolle?

    In der ganzen Kette wird mehrfach verlustbehaftet kodiert - mindestens ein mal bei dir auf dem Rechner und dann noch durch YouTube. Jede verlustbehaftete Kompression frisst Qualität auf, und das nächste Glied der Kette kann dann nicht mehr so optimal arbeiten. Es geht also weiter auf die Qualität. Wenn du dem nächsten Glied also besseres Ausgangsmaterial gibst, dann bleibt mehr von dem Bild übrig.


    Hört sich einfach an, bisschen was kommt aber noch dazu:

    • Es gibt konstante Bitraten und variable Bitraten. Bei konstanten Bitraten würde eine Schwarzbildsequenz, die einfach zu komprimieren ist, ebenso viel Bitrate bekommen wie eine horrend zu komprimierende Sequenz mit Vegetation und vielen Details. Das ist ineffizient. Bei variabler Bitrate gibt der fähige Encoder der Schwarzbildsequenz wenig, der anderen Szene dafür mehr.
    • Es gibt Modi, um die Bitrate automatisch festzulegen. Man gibt einen Qualitätslevel an, der Encoder macht der Rest und verteilt wie es gerade sinnvoll ist. Das ist auch die gängigste Empfehlung im Forum. Nachteil ist halt, dass die Dateigröße nicht vorher zu bestimmen ist.
    • Es gibt eine Vielzahl an Encodern, die unterschiedlich effizient arbeiten. Und eine Vielzahl an Konfigurationsoptionen. Manche sind schneller, produzieren aber eher größere Dateien, manche langsamer und spucken bei gleicher Qualität kleinere Dateien aus.
    • Die Bildqualität auf YouTube hängt nicht immer nur an der Bitrate der Quelle.

    Es gibt leider sehr viele Unterschiedliche Schriftstücke dazu im Internet im Bezug auf die YouTube Empfehlung. Hier der offizielle:

    Das sind grobe Anhaltspunkte, damit kein völliger Blödsinn rauskommt. Man kann sich dran richten, muss und sollte es aber nicht.

  • Mir ist neu, dass es da ein Limit nach oben gibt. Ich glaube nicht, dass das stimmt.

    Doch, im Link ist es so beschrieben :) official answer by Google.



    Die Datei wird größer und verliert weniger Bildqualität bei der Kompression.

    Würde für mich im Umkehrschluss heißen: Um so größer die Bitrate, um so größer die Datei, um so weniger Verlust der Bildqualität, sprich, bessere Bildqualität.
    Aber dem ist ja eben nicht so! Konnte keinen Unterschied feststellen.


    Also du würdest variable Bitraten empfehlen? So wie YouTube?!
    Ich rendere aktuell in CRF (constant quality). Und stelle auf 100. Und Bitrate eben das Maximum. Also 8000 bei 30FPS und 12000 bei 60FPS.
    Werde mal VBR ausprobieren. Weil das mit den Schwarzsequenzen klingt schon plausibel. Aber für ein paar Sekunden schwarz werden ja eigentlich keine 2GB mehr aufkommen. Also doch lieber CBR oder CRF?
    Weil so ganz verständlich ist mir der Unterschied im Bezug auf die Qualität irgendwie noch nicht...

  • 3200x1800 mit CRF unterhalb 20 statt Bitrate hochladen.


    Mein Monitor packt maximal FullHD. Also 1920x1080. Wenn ich es größer rendere, gibt es doch einen hässlichen Pixelstretch???

  • 15 mbit vs 3,5 mbit.


    Da ist der Auflösungsskalierer (wo du bei einem guten scaler sowieso kaum/kein unterschied sehen wirst) absolut egal.



    Ich lade in CRF18 hoch, zuletzt in 1152p60 (bringt das überhaupt was? Oder reicht 1080p60?)

    Wenn du die VP9 Fassung bekommst - ja.


    Bei konstanten Bitraten würde eine Schwarzbildsequenz, die einfach zu komprimieren ist, ebenso viel Bitrate bekommen wie eine horrend zu komprimierende Sequenz mit Vegetation und vielen Details

    Nicht ganz.
    Schwarzbild wäre lossless kleiner als die geforderte Bitrate. Der Encoder füllt aber nicht auf. Dann wird die losslessbitrate benutzt.

  • Nein ist es nicht.



    Empfohlene Video-Bitraten für SDR-Uploads


    Verwende einen Browser oder ein Gerät mit VP9-Unterstützung, um neue 4K-Uploads in 4K wiederzugeben.

    2160p (4K)35–45 Mbit/s53–68 Mbit/s
    1440p (2K)16 Mbit/s24 Mbit/s
    1080p8 Mbit/s12 Mbit/s
    720p5 Mbit/s7,5 Mbit/s
    480p2,5 Mbit/s4 Mbit/s
    360p1 Mbit/s1,5 Mbit/s




    Empfohlene Video-Bitraten für HDR-Uploads


    2.160p (4K)44–56 Mbit/s66–85 Mbit/s
    1.440p (2K)20 Mbit/s30 Mbit/s
    1.080p10 Mbit/s15 Mbit/s
    720p6,5 Mbit/s9,5 Mbit/s
    480pNicht unterstütztNicht unterstützt
    360pNicht unterstütztNicht unterstützt



    gut, empfohlen. Meine aber mal was von einem Maximum gelesen zu haben^^
    Naja. Ich werd mal etwas rumprobieren. :)
    Danke Jungs :)

  • Ja die Empfehlungen sind nur grob und keine Pflicht und nicht immer ideal. Zumal die auch nicht von einem vegetationsgeflutetem non-videokamera und somit alles perfekt scharf (erstrecht wenn motion blur aus ist) Spiel ausgehen.
    Wär aber schon ganz geil, wenn sie ihre empfohlenen Raten für ihre Re-encodes nutzen würden :P


    Das einzige Max was es gibt ist eine Dateigröße von 128 GB.


    Und die Auflösungstricks schreiben die da mit Sicherheit nicht rein :P

  • Ok. Aber warum erkenne ich keinen Unterschied in der Bildqualität wenn ich CRF 100% 8000kb/s oder CRF 100% 50000kb/s rendere?



    "Die Datei wird größer und verliert weniger Bildqualität bei der Kompression."


    Würde für mich im Umkehrschluss heißen: Um so größer die Bitrate, um so größer die Datei, um so weniger Verlust der Bildqualität, sprich, bessere Bildqualität.
    Aber dem ist ja eben nicht so! Konnte keinen Unterschied feststellen.

    Wie siehst du das De-M-oN?

  • Das Wichtigste ist nach wie vor, das du dich von dem Elend 1080p trennst

    xDDD

    Weil youtube's 1080p re-encode so oder so scheiße aussieht

    Das heißt?


    Machst du sowas in der Art beruflich?
    Arbeitest du in der Filmbranche? Cutter etc.?


    Achso, ich rendere mit TMPGEnc5 und werde mir wohl das 6er zulegen wenn ich wieder Kohle hab. Denn ich finde TMPGEnc5 super :)

  • Doch, im Link ist es so beschrieben :) official answer by Google.

    Nein. In dem Link steht absolut nichts von maximal 50.000.
    Der höchste dort zu findende Wert wären 85.000.


    Und bei den Angaben die sowieso zweifelhaft dort sind, berücksichtigst Du die Auflösung leider gar nicht. Das ist Dein Fehler. Alternativ hätte es Dir schon geholfen in diesem Forum mal eine Stunde zu lesen :)

  • Weil youtube's 1080p re-encode so oder so scheiße aussieht


    Das Wichtigste ist nach wie vor, das du dich von dem Elend 1080p trennst

    Wenn man ein 1080p/144hz Monitor hat, und sagen wir 1440p aufnimmt / rendert, hat man ein besseres upskaled Bild als bei 1080p (native) wegen dem youtube seitigen "schlechten" 1080p re-encode, srly? @De-M-oN

  • Wenn man ein 1080p/144hz Monitor hat, und sagen wir 1440p aufnimmt / rendert, hat man ein besseres upskaled Bild als bei 1080p (native) wegen dem youtube seitigen "schlechten" 1080p re-encode, srly? @De-M-oN

    Ja.

    • Es ist von deinem Monitor unabhängig. Wichtig ist, welche Auflösung bei Youtube ankommt.
    • Die 1440p-Stufe auf Youtube bekommt unverhältnismäßig mehr Bitrate, als 1080p. Dadurch hat die Stufe weniger Artefakte und die Bildqualität ist besser.
    • Das auch unter dem Vorbehalt, dass der Skalierer was taugt. Sonst sieht es trotzdem doof aus.
  • Ja.

    Interesannt. Also lieber 1440p/30fps als 1080p/60fps?


    Es ist von deinem Monitor unabhängig. Wichtig ist, welche Auflösung bei Youtube ankommt.

    Mhn, okay. Dann noch eine Frage, 1080p aufnehmen und hochskalieren, oder in OBS direkt 1440p aufnhemen obwohl es native kleiner ist? Bzw. geht das überhaupt? -Habe mich mit ü. 1080p60 noch nie beschäftigt. Wenn ich 1440p nehme müsste ich meine bitrate von 50.000 wahrscheinlich auch uppen bzw beim rendern?



    • Das auch unter dem Vorbehalt, dass der Skalierer was taugt. Sonst sieht es trotzdem doof aus.

    Kann man den überhaupt bei Premiere umstellen? Oder ist der Standard Gut genug?

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!