Ich hab ja auch noch nie verstanden, warum man erst was in sonstwelcher übertriebener Bombenqualität aufnimmt, um es dann in einem längeren Prozess wieder runterzurechnen. Aber gut, das mag dann mein fehlendes technisches Verständnis gepaart mit einer genügsamen Philosophie sein 
Hat den Grund damit der Generationsverlust (lossy zu lossy) https://de.wikipedia.org/wiki/Generationsverlust gemindert wird. Auch youtube sollte natürlich bessere Bitrate hochgeladen bekommen als die von ihren Transcodes, weil mit einer besseren Quelle kann der Encoder natürlich bessere Ergebnisse erzielen.
30 Mbit Bitrate ist zu schwach für 1800p60 bei jedem Spiel was halbwegs Komplexität aufweist. Gerade moderne Spiele mit viel detailliertem Gebüsch, Motion Blur aus usw, oder auch Autorennen, oder gar Dirt Rally. Das wird niemals mit 30 mbit auskommen.
30 Mbit dürfte bei einigen Spielen auf CRF 26+ hinaus laufen. Das ist definitiv zu hart komprimiert. Kenne 30 Mbit auch recht gut durch Youtube Livestreams wo youtube völlig genauso transcodiert wie die VODs, und die 30 Mbit Streams sahen zwar recht anschaubar aus, aber mit der Qualität die youtube hinbekommt von den lokalen Aufnahmen kann das halt nicht wirklich mithalten. Die bessere Quelle hilft da youtube schon spürbar. Und ich habe da ja schon VBR benutzt für die Streams.
Bei CBR kommt hinzu das es nicht auf Wechsel von Inkomplexität auf unerwarteter Komplexität reagieren kann. Sieht man auch oft bei Twitch Streams wenn die Leute nur CBR benutzen: Gerade ruhige Szene, auf einmal passiert unerwartet viel Action und du hast für paar Sekunden erstmal ordentlich kästchensalat. VBR kann für so einen Fall sofort kurz mehr Bitrate reingeben, es muss ja am Ende nur den Durchschnitt einhalten. Beide bitratenbasierten Encodings haben aber einfach den riesen Nachteil das die Qualität mit jedem Spiel eine Wundertüte ist. Dynamische Quantizer (CRF) hast du einheitliche Framequalität. Wenn dir 30 mbit ausreichen kannst du vermutlich gar auf CRF26 gehen.
Mittlerweile ist es auch besser in volle 4k (3840x2160) hochzuladen. Ergibt mittlerweile bessere Qualität als 3200x1800.
Aktuell am idealsten wäre zb für youtube:
4k60 H.265 Level 6.2 mit P010 Farbe mit CRF/CQ 23 oder besser (nicht CQP. CQP ist nicht das gleiche wie CQ) (vielleicht sogar AV1 statt H.265, aber das kann meine 2080 Ti nicht)
Beispielsweise:
Aufnahme:
OBS ffmpeg:
preset=p3 rc=vbr b=0 maxrate=500M bufsize=0 cq=15
und bei Erweitert Farbformat auf P010 (würde aber aufnahmedateigröße deutlich steigern, sieht aber schöner aus und ergibt die schöneren transcodeergebnisse nach youtube). Wenn keine lokale weitercodierung geplant ist und das OBS Video auf Youtube soll, dann kann der CQ Faktor auch direkt zwischen 20 und 23 sein. 15 hat ansonsten für die eigene weitercodierung sonst den besseren puffer gegen Generationsverlust.
Für die weitercodierung könnte man dann zb in ffmpeg dies benutzen:
ffmpeg -rtbufsize 2147M -thread_queue_size 1024 -probesize 10M -i "d:\XVideos\TRR_DirtRally2_S9_Race04\TRR_DirtRally2_S10_Race04.avs" -vcodec hevc_nvenc -preset p7 -pix_fmt p010le -profile:v main10 -level 6.2 -g 600 -fps_mode cfr -rc:v vbr -b:v 0 -cq 23 "d:\XVideos\TRR_DirtRally2_S9_Race04\TRR_DirtRally2_S10_Race04.mkv"
aber ich nutze diesen AMD Encoder unter OBS und bisher habe ich keine Probleme erkennen können
Problem ist halt das der Encoder wesentlich schlechter ist als der Encoder von Nvidia. Und das trifft ja auf quasi allen Features zu. Sei es nun der Video Encoder, Tensor Kerne Performance (Raytracing, DLSS, weitere KI Aufgaben) usw. Aber ja die GPUs sind teuer, das stimmt schon.
z.B. hat der AV1 Encoder von AMD einen schlechteren VMAF Score als Nvidia mit H.265 😁