Xsplit Broadcaster Nvenc Lossless Aufnahme (wie) möglich ?

  • Moinsen.


    Hat evtl. jemand von euch Erfahrung mit Xsplit Broadcaster bzw. der Aufnahme mit dem Programm ?
    (Ich weis das es mit OBS geht und gut funktioniert, aber ich möchte gerne mal ein wenig mit Xsplit rumspielen weils mir recht gut gefällt. Daher keine "nimm OBS" Antworten bitte ;) )


    Ich habe dort unter dem Preset Ultra High folgende Parameter :
    &ex:profile:100&ex:rateControlMode:0&ex:constQP.qpIntra:16&ex:constQP.qpInterP:18&ex:constQP.qpInterB:20


    Reicht es da die drei ConstQP Werte im Custom-Preset einfach auf Null zu setzen ? Ich kenn mich mit den Nvenc befehlen nicht wirklich aus und werde auch bei der Suche im Netz irgendwie nicht schlauer.


    Falls irgendwer von euch da evtl. nen Plan und ne Antwort für mich hat wäre ich echt dankbar.
    Gruß Friese :)

  • Es reicht wenn du schlichtweg NVEnc's Lossless preset nimmst.
    NVEnc bietet die Wahl aus diesen:

  • Es reicht wenn du schlichtweg NVEnc's Lossless preset nimmst.
    NVEnc bietet die Wahl aus diesen:

    Danke für die Antwort. :)
    Nun stellt sich nur die Frage wie ich im Xsplit Broadcaster dieses Preset anwähle/eingebe. Die Möglichkeiten sind dort nämlich nicht so üppig wie bei OBS. Eigentlich hab ich für eigene eingaben nur Codec-Wahl und eben die Presets von Low bis Ultra High + Custom.
    Unter Custom kann kann ich eben Parameter festlegen die wie oben im Thread aussehen. Und da liegt bei mir das Problem. Ich kenne mich nicht genug damit aus das ich das irgendwie umsetzen könnte.




  • Das sind xsplit eigene commands, da musste dann mal gucken was das Ding anbietet. Vllt erfährst ja mehr über das ? icon.
    Aber wenn ich die unterste Option sehe, sagt mir das, das die Entwickler ziemlich wenig Ahnung von Videocodierung haben. Für Youtube muss nichts "optimiert" werden. Auch youtube braucht nur ein Video das möglichst hohe Auflösung hat und möglichst hohe Qualität.
    Was findest du an XSplit denn besser? Also eigentlich ist OBS da schon besser - da konfigurationsfreudiger und offensichtlich auch Programmierer mit halbwegs Erfahrung im Bereich Video. Wer so'ne Option da unten anbieten muss, zeigt mir, das die keine Ahnung von Videocodierung haben :|

  • Das sind xsplit eigene commands, da musste dann mal gucken was das Ding anbietet. Vllt erfährst ja mehr über das ? icon.
    Aber wenn ich die unterste Option sehe, sagt mir das, das die Entwickler ziemlich wenig Ahnung von Videocodierung haben. Für Youtube muss nichts "optimiert" werden. Auch youtube braucht nur ein Video das möglichst hohe Auflösung hat und möglichst hohe Qualität.
    Was findest du an XSplit denn besser? Also eigentlich ist OBS da schon besser - da konfigurationsfreudiger und offensichtlich auch Programmierer mit halbwegs Erfahrung im Bereich Video. Wer so'ne Option da unten anbieten muss, zeigt mir, das die keine Ahnung von Videocodierung haben :|

    Ich hab ne 1 Jahres Premium Lizenz für Xsplit geschenkt bekommen und hab angefangen mit dem Broadcaster rum zu testen.
    Zum Streamen kann ich nur sagen das alles bestens funktioniert und auf meinem Steinzeitrechner sogar besser läuft als OBS.
    Aber ich möchte eben gerne den Stream parallel in höchster Qualität aufzeichnen um ihn dann anschließend hochzuskalieren etc. für Youtube. (SSM & Megui)
    Mit OBS funzt das ja auch alles, aber ich hab gemerkt das mir der Broadcaster persönlich irgendwie besser gefällt von der Bedienung und eben auch von der Performance auf meinem Brotkasten.
    Und daher wäre das super wenn man irgendwie das Aufzeichnungsgedöns lossless hinkriegt.


    Unter dem ? Symbol kommt man auch nicht wirklich weiter, das führt nur zum News Blog. Es gibt noch diese Seite: https://supportdesk.xsplit.com…nvenc-encoding-parameters , da sind dann alle befehle aufgeführt aber in keinster Form beschrieben. Es gibt dort zwar noch weiterführende Links die wahrscheinlich die Lösung beinhalten. Aber da steig ich beim besten Willen nicht durch. :(
    Auch Google hab ich schon den ganzen Tag gequält, aber ich finde absolut nichts was mich da irgendwie weiterbringt bzw. heranführt.


    Die "Youtube" Optimierung ist auf jeden Fall ein großer Witz, da hast du recht. Das Häkchen sorgt einfach nur dafür das die
    "Spezifikationen" von Youtube (die man hier findet : https://support.google.com/youtube/answer/1722171?hl=en ) strikt eingehalten werden.
    Ganz großer Mumpitz also. :) (würde mir dann z.B. eine 1080p Aufnahme auf 12Mbits festnageln... kein Kommentar ;) )


    Tjoa... wenn alles nix hilft dann halt wieder OBS. Aber es muss doch einen Weg geben den Schiet auf lossless zu bekommen.
    Würde mich jedenfalls freuen. Die Gründe stehen ja oben warum ichs gerne nutzen würde.

  • Leider nichts gelistet für die Presetwahl, naja kannst ja die Quantizer auf 1 setzen, das ist ja dann fast wie lossless. Für komplett lossless müsstest du nämlich auch auf das high444predictive profil wechseln, da high oder gar main kein lossless erlauben.

  • Hallo zusammen,


    Friese, konntest du hier schon testen?


    In OBS reicht es also nicht, einfach das "Verlustfrei" preset zu wählen und die B-Frames auf "0" zu setzen?
    Funktioniert high444predictive Profil überhaupt? Ich dachte, dass OBS alles als YUV 4:2:0 ausgibt ^^


    Parallel zu einer lossless Aufnahme in OBS versuchen Friese und ich gerade, in Bandicam lossless aufzunehmen.
    Wieso Bandicam? Hier werden meine beiden Capture Cards erkannt.
    Ich kann somit mit einem Programm das jeweilige Spiel und die Facecam ohne hooking über NVEnc aufnehmen.


    De-M-oN: Gibt es für uns irgendeine Möglichkeit nachzuvollziehen, ob Video x auch wirklich lossless ist? Kann man nachvollziehen, ob das Video mit All-i aufgezeichnet wurde?


    Sorry, wir stehen hier noch ziemlich am Anfang...

  • Funktioniert high444predictive Profil überhaupt?

    Ja.
    Allerdings wird immer nur 4:2:0 Chroma an NVEnc gesendet. Weiß der Teufel wieso. NVEnc würde ja abgesehen von Kepler auch 4:2:2 und 4:4:4 in sogar 10bit können. Aber OBS übergibt halt immer nur 4:2:0. Stellt man in OBS was höheres ein, wird ohne Interpolation von 4:2:0 auf zb 4:4:4 falls 4:4:4 deine Wahl war, hochgesampelt, ergo jeder 2. Pixel farblos.
    z.B. meine Capture Karte captured in RGB. Die Kette scheint dann zu sein : RGB -> 4:2:0 -> upsample ohne interpolation zu 4:4:4


    Mit NVEnc & OBS daher immer bei 4:2:0 NV12 bleiben.


    Parallel zu einer lossless Aufnahme in OBS versuchen Friese und ich gerade, in Bandicam lossless aufzunehmen.
    Wieso Bandicam? Hier werden meine beiden Capture Cards erkannt.
    Ich kann somit mit einem Programm das jeweilige Spiel und die Facecam ohne hooking über NVEnc aufnehmen.

    Interessant.
    Also ginge eine reine Capture Karten Aufnahme ohne Spielhook hier?
    Welche NVEnc Settings sind möglich? kannst du vllt mal ein genaues Video dazu machen, was die ganze Config durchleuchtet?
    Weil ich suche die ganze Zeit ein Programm was DirectShow Capturen kann, aber an NVEnc senden kann, statt VfW CPU Encode.
    Bisher fand ich da nur OBS. Problem ist a) OBS erkennt meine Datapath Vision SC-DP2 zwar, aber gibt nur Schwarzbild aus. Die vorige DVI-DL ging jedoch problemlos - jedoch ist das ein ressourcehog gewesen halleluja geht ja mal gar nicht. 20% GPU und 7% CPU, was mein F1 2016 von 80 auf 50 und bei capture sogar auf 36fps droppen ließ. Jep. 30fps verlust nur durch bloßen idle eines OBS. Da bin ich ja mit hook schneller lolz. Bei Virtualdub geht fast 0 verloren. Dennoch spüre ich immer noch bissl den CPU Encode. Es bleibt ja nich aus bei 2560x1600p60
    Das OBS selbst beim Idle schon so viel frisst liegt alles an der Preview, die auch deaktiviert weiterhin gerendert wird. Daher hoff ich ja insgeheim das OBS das Problem endlich mal angeht, dann wäre das Programm nämlich ansonsten ideal - sogar 2 audiotracks und sogar global hotkeys. was will ich mehr. Daher wär ich mal interessiert was bandicam so bietet. Ich fürchte ja eine unvollständige NVEnc config, aber bin mal gespannt. Wäre toll wenn du da mal was zeigen könntest zu :)

  • Ja.Allerdings wird immer nur 4:2:0 Chroma an NVEnc gesendet. Weiß der Teufel wieso. NVEnc würde ja abgesehen von Kepler auch 4:2:2 und 4:4:4 in sogar 10bit können. Aber OBS übergibt halt immer nur 4:2:0. Stellt man in OBS was höheres ein, wird ohne Interpolation von 4:2:0 auf zb 4:4:4 falls 4:4:4 deine Wahl war, hochgesampelt, ergo jeder 2. Pixel farblos.
    z.B. meine Capture Karte captured in RGB. Die Kette scheint dann zu sein : RGB -> 4:2:0 -> upsample ohne interpolation zu 4:4:4


    Mit NVEnc & OBS daher immer bei 4:2:0 NV12 bleiben.


    Interessant..... Wäre toll wenn du da mal was zeigen könntest zu :)

    Moin :)


    Ja die Config ist leider nur auf ein Minimum beschränkt und das ist sehr schade.




    Ich hab hier noch eine Mediainfo zur einer Aufnahme mit Bandicam und Nvenc auf 100%. (die Einstellungen wie sie auf dem Bildern sind außer FourCC, der stand auf X264)



    Video
    ID : 0
    Format : AVC
    Format/Info : Advanced Video Codec
    Format-Profil : [email protected]
    Format-Einstellungen für CABAC : Ja
    Format-Einstellungen für ReFrames : 1 frame
    Format_Settings_GOP : N=1
    Codec-ID : X264
    Codec-ID/Info : XiWave GNU GPL x264 MPEG-4
    Dauer : 1min 0s
    Bitrate : 376 Mbps
    Breite : 1 920 Pixel
    Höhe : 1 080 Pixel
    Bildseitenverhältnis : 16:9
    Bildwiederholungsrate : 60,000 FPS
    ColorSpace : YUV
    ChromaSubsampling : 4:2:0
    BitDepth/String : 8 bits
    Scantyp : progressiv
    Bits/(Pixel*Frame) : 3.025
    Stream-Größe : 2,65 GiB (100%)




    Und , ja, es gehen sowohl für die Spiel- als auch die Webcamaufnahme jeweils Capture Cards. Auf Wunsch wird alles separat aufgezeichnet (Ingame, Cam und Tonspuren) oder direkt zusammengefügt. Daher hat man keine miesen FPS-Einbrüche.
    Man kann natürlich auch mit jedem anderen lossless Codec arbeiten, wir suchen aber gerade nach ner Möglichkeit die CPU möglichst wenig zu belasten während der Aufnahme und daher wäre Nvenc (sofern es möglichst lossless ist) die beste Wahl.

  • Danke fürs antworten, Friese :) Ich bin leider etwas busy auf Arbeit und kann aktuell leider schlecht etwas vorbereiten ^^
    Und das ist in meinen Augen das pro für Bandicam. Ein Programm und aber getrennte Files für tolle, flexible Schnittmöglichkeiten (Facecam bei Cutscenes sauber rausschneiden, bei witzigen Jumpscares ggf. ein Zeitlupenrückblick mit Vollbild Facecam, usw.).


    Friese und ich haben aktuell leider ein noch viel größeres Problem, was uns gestern erst so richtig klar geworden ist...


    Unsere NVEnc lossless Files können von keiner Schnittsoftware gelesen werden. Entweder kommt beim Importieren eine Fehlermeldung, dass das Videoformat nicht verstanden wird oder es wird importiert (TMPEnc) und spielt bei der Wiedergabe direkt in der Software nur den Ton. Im Videofeld steht dann "kein Video enthalten".


    Gibt es da bekannte Probleme oder Settings, die gesetzt werden MÜSSEN?


    Ich habe sehr viel Geld in mein Projekt investiert und würde gerne so verlustfrei wie nur möglich arbeiten.


    Falls das mit NVEnc nicht ordentlich umzusetzen ist, muss wohl ein 2-PC-Setup ran und dann über MagicYUV aufgezeichnet werden :/

  • Unsere NVEnc lossless Files können von keiner Schnittsoftware gelesen werden. Entweder kommt beim Importieren eine Fehlermeldung, dass das Videoformat nicht verstanden wird oder es wird importiert (TMPEnc) und spielt bei der Wiedergabe direkt in der Software nur den Ton. Im Videofeld steht dann "kein Video enthalten".


    Gibt es da bekannte Probleme oder Settings, die gesetzt werden MÜSSEN?

    Das Problem ist bekannt.
    Die Handelsüblichen Schnittprogramme wie z.B. Premiere, Vegas, Magix und Co. können H264 Material was Lossless kodiert wurde nicht einlesen, aufgrund des nicht unterstützten High444 Profiles.


    Selbst beim High422 stellen sich viele bekannte Schnittprogramme recht dämlich an diese Videos dann fachgerecht zu laden.
    Diese Programme sind nur für Videos mit Low Profiles gedacht. Sprich Baseline, Extended, Main und High und eventuell auch noch High10.
    High422 und High444 werden dann nicht supportet.
    Mehr dazu siehe: https://de.wikipedia.org/wiki/H.264#Profile


    Das High444 Profile baut weiter auf dem High422 Profile auf und ist z.B. Voraussetzung für:

    • Lossless
    • 4:4:4 Farbraum wie z.B. YV24
    • 9 bis 12Bit Farbtiefe
    • Exakte Rasterfarbenumwandlung

    Das High422 Profile kann...

    • zusätzlich zum High10 Profile ein Video mit dem Farbraum 4:2:2 speichern. z.B. YUY2 oder YV16

    Ein höheres Profil einer H264 Datei kann alle die darunter befindlichen Profil-Features verarbeiten.


    Dinge wie ASO, FMO, RS oder Daten Partitionierung sind für Aufnahmen, Youtube oder sonstiges recht uninteressant. Das sind Features aus alten Steinzeittagen. Wird noch nicht mal mehr für BluRays verwendet mehr. Also merken Baseline und Extended als auch Main Profile braucht ihr erst gar nicht mit hantieren. Die sind Out to Date.
    Erst ab einem High Profile aufwärts kann man mit Videos bzw. in Videos einige interessante Features nutzen.


    Freeware Programme wie z.B. FFmpeg, SSM + MeGUI über FFMS2 oder L-Smash, XMedia Recode, oder z.B. auch TMPgenc sind in der Lage recht kostengünstig diese High422 oder High444 Profile von H264 zu lesen und zu verarbeiten.


    teure Schnittprogramme legen mehr Wert auf andere Dinge, als die Unterstützung mehrerer Video Codecs und dessen Profile.
    Einfach aus dem Grund, weil sie von Vornherein sagen das Farbtiefen von 9 - 12 Bit irrelevant sind und 8Bit Tiefe ausreicht. Auch eine Lossless Speicherung mit einem für Lossy ausgerichteten Codec ist recht Sinnfrei. Weil dafür gibt es bessere Codecs wie z.B. MagicYUV oder UTVideo die darauf besser spezialisiert sind.


    Wenn ein H264 Codec wie z.B. x264 oder NVenc ein Video in Lossless speichern tuen sie dies mitunter all ihrer Kompressionsverfahren. Bedeutet das die Decodierung oftmals Rechenintensiver sind als wenn man ein regulären Lossless Codec nutzt. Dazu kommt noch das H264 Lossless in Interframes speichert, während Codecs wie MagicYUV oder UTVideo in Intraframes speichert.
    Sprich letzteres speichert nur in Keyframes, also vollwertige Bilder, während Interframes hin und wieder ein Referenzbild noch dazwischen speichern.


    Technisch gesehen ist es also nicht zu 100% Lossless was H264 Codecs unter Lossless verstehen. Wohlgemerkt: Technisch.


    Außerdem bieten H264 Aufnahmen für die User oftmals die meisten Seelensorgen bei den Aufnahmen.




    Zur Frage aber:
    Wenn du den Quantizer von NVenc auf 1 stellen könntest, also Qualität so 99%, dann ist es FAST Lossless und es wird in einem entsprechenden High Profile gespeichert. Ob nun High oder High10 sei mal dahingestellt. Aber deine Schnittsoftware wird das Video dann entsprechend verarbeiten können. Nimmst also Lossy auf und gut ist.


    Dazu kommt noch: Einen Keyframeintervall von 1
    Was ist diese 1 nun? Eine Frameangabe oder eine Zeitangabe?


    Bei einem 60 FPS Video sollte der Keyframe-Intervall 60 Frames min. betragen. Sollte es sich über eine Frameangabe handeln.


    Ist es eine Zeitangabe, dann ist die 1 korrekt.
    Denn in 1 Sek bei einem 60 FPS Video beträgt der Keyframeintervall die gleiche Menge wie die FPS Angabe. Nämlich 60 Frames.


    Kann ich so aus dem Bild nicht mal ableiten was es für eine Angabe nun ist.




    Und BITTE.... Ein H264 Video NIEMALS in ein AVI Container schreiben. Sonst streiken erst recht viele Programme bei der richtigen Einlesung der Dateien.
    Statt PCM bei Audio, kann man auch gleich AAC nutzen bei 320kbit/s. Den Unterschied hört kein Mensch mehr.


    Es sei denn User XYZ hat Ultraschallohren und seine Sinne sind so hoch das er einzelne Samples hört das diese Verlust haben. <- Das war jetzt Ironisch gemeint. ^^


    Also:
    H264 Video + AAC Audio. Alles entsprechend konfigurieren wie beschrieben und dann sollte das auch jedes Programm laden können.
    Müsst aber dafür halt ein Tüpfelchen Verlust hinnehmen. Weil ja halt diese bekannten hochwertigen Schnittprogramme wie gesagt zu blöd sind mit den Codec Profilen von H264 entsprechend korrekt zu verfahren und lieber verweigern diese zu akzeptieren.


    Also H264 mit NVenc mit einer 99% Qualität (kein Lossless), damit das in ein High Profile kommt, Audio in AAC mit 320kbit/s aufnehmen am besten (Ist auch Lossy, aber kein akustischer hörbarer Unterschied zu PCM) und das ganze bitte in MP4 speichern und nicht in AVI. Denn MP4 ist für H264 halt geeignet. AVI nicht.


    PS:
    Auch wenn es zwischen den Farbräumen NV12 und YV12 keinen Technischen und Optischen Verlust gibt, so ist dennoch der Aufbau ein anderer. Das heißt das es durchaus sein kann das Programme mit dem NV12 Farbraum nicht klar kommen, aber mit dem YV12 Farbraum. In diesem Falle macht dann die Software Probleme bei der Verarbeitung von NV12. Sowas gibt es dann halt auch zu beachten.


    Für den aller äußersten Notfall kann man das H264 Video mit samt zugehörigen Audio Spuren in ein Verlustfreies Material umwandeln.
    z.B. mit FFmpeg das Ganze in UTVideo + PCM Sound in AVI. Das verstehen alle Schnittprogramme zu verarbeiten dann.


    Aber dann kann man auch gleich in MagicYUV oder UTVideo aufnehmen und spart sich diesen Vorgang. ^^
    Letzters hat mehr Gewinn.


    Aber das muss jeder für sich dann entscheiden mit was er zufrieden ist und ob er mit den Problemen lieber kämpfen will.


    Zugleich das H264 auch gern mal bei Unachtsamkeit bei der Konfiguration des Codecs in VFR speichert. Oftmals sind die User dann angepisst das ihre Videos asynchron sind. Dann hilft meist nur noch ein VFR -> CFR Wandler.
    Inwieweit neue Schnittprogramme da sind ist auch noch fragwürdig.
    Man kann Glück haben mit VFR, man kann aber auch Pech haben. Das ist dann wie ein Lotterie Spiel ;D

  • Vielen Dank für die ausführliche Antwort!


    Dann war ich die ganze Zeit auf einem falschen Weg! Ich wollte tatsächlich Intraframes. Da ich schneiden und neu rendern werde, verliere ich an der Stelle schon Qualität und dann durch YouTube ein zweites mal. Wenigstens die Aufnahme sollte so hochwertig wie möglich sein (sollte Rohmaterial eigentlich immer).


    Du scheinst ja auch in Punkto Schnittprogramme gut unterwegs zu sein :) zuvor habe ich immer ein wenig in Magix "rumgespielt" und mir gestern Abend noch eine Testversion von TMPEnc runtergeladen. Kann man sich dieses Programm für die Zukunft bedenkenlos kaufen? Welche Empfehlungen kannst du sonst noch aussprechen?


    Bis ich mir einen zweiten PC zusammengespart habe, werde ich also über NVEnc mit 99% in MP4 aufzeichnen und mit dem zweiten Rechner dann Gas geben und die CPU mit MagicYUV arbeiten lassen :)


    Hammer, so viel Kopfzerbrechen und nur durch das Anmelden in diesem Forum schon so viel weiter gekommen! ^^

  • Dann war ich die ganze Zeit auf einem falschen Weg! Ich wollte tatsächlich Intraframes. Da ich schneiden und neu rendern werde, verliere ich an der Stelle schon Qualität und dann durch YouTube ein zweites mal. Wenigstens die Aufnahme sollte so hochwertig wie möglich sein (sollte Rohmaterial eigentlich immer).

    Jein. Also wenn du mit H264 wirklich Lossless aufnimmst, dann sind das in der Tat Interframes. Sprich ab und an sind dann halt mal B-Frames mit drin. Aber generell werden Keyframes geschrieben.


    Wenn du die Qualität bei der Aufnahme jedoch Notgedrungen wegen deiner Schnittprogramme drosseln musst, damit er das Ganze in ein normales High Profil speichert, dann sind mehr Referenzframes vertreten.


    Die Keyframe Intervall Angabe ist dann auch von Bedeutung, wenn du den Lossless Modus nicht aktiv hast. Weil in jedem Keyframe Intervall ist min. 1 Keyframe vertreten. Ist er alle Sekunde bei einem 60 FPS Video, dann hast du pro Sekunde jeweils 1 Keyframe, sprich I-Frame. Der Rest der GOP besteht dann auch P- und B-Frames.



    Du scheinst ja auch in Punkto Schnittprogramme gut unterwegs zu sein zuvor habe ich immer ein wenig in Magix "rumgespielt" und mir gestern Abend noch eine Testversion von TMPEnc runtergeladen. Kann man sich dieses Programm für die Zukunft bedenkenlos kaufen? Welche Empfehlungen kannst du sonst noch aussprechen?

    TMPEnc ist schon ganz gut, wenn du z.B. mit deinen H264 Aufnahmematerial hantierst.


    Besser, schneller und Sorgenloser kommst du aber mit Aufnahme Codecs zurecht wie MagicYUV, UTVideo, Lagarith, Fraps, MPNG, usw.
    Weil das sind Verlustfreie Intraframe Speicherungen die in einen AVI Container gehen. Da hängt nicht gleich der ganze H264 Kompressions-Aufbau mit dran. Wie gesagt: H264 ist vor allem für Lossy gedacht. Verlustfrei ist nur ein Feature das es nebenbei kann.


    Und diese Verlustfreien Codecs wie eben genannt kann jedes Schnittprogramm mit umgehen, sofern der Codec installiert ist.


    FFmpeg kann damit auch umgehen, weshalb FFmpeg auch bei TMPenc genutzt wird. Also ist das schon ein sehr gutes Tool.


    Aber wenn du halt deine anderen Schnittprogramme dazu animieren willst mit hochwertigen Material umgehen zu können, musst du deinen Aufnahmecodec halt ändern. Statt NVenc oder x264 halt die genannten nutzen.
    x264 als Ausgabe Encoder im Schnittprogramm dann nutzen, um später den Bestmöglichen Gewinn für das Video raus zu holen. Und schon ist alles schick.


    Du kannst aber auch den SSM + MeGUI nutzen. Der kann via AVISynth und dem Plugin FFMS2 auch deine H264 Lossless Videos einlesen und verarbeiten. Aber ich denke das du mehr machen willst, als das was dir der SSM zur Verfügung stellt.


    Also als Fazit: Du musst entsprechend überlegen welchen Codec du nutzen willst und welcher in deinen Programmen supported wird.
    Weil es ist etwas Fail mit einem Codec aufzunehmen, von den man meint der ist Top, und hat aber hinterher mehr Arbeit das Ganze wieder gerade zu bügeln. Immerhin ist es auch eine Frage des Zeitaufwands, das man hätte woanders besser investieren können.



    Bis ich mir einen zweiten PC zusammengespart habe, werde ich also über NVEnc mit 99% in MP4 aufzeichnen und mit dem zweiten Rechner dann Gas geben und die CPU mit MagicYUV arbeiten lassen

    Alles hat seine Positiven, als auch Negativen Seiten.
    Aber ich würde niemals mit H264 aufnehmen wollen. Selbst wenn es über die GPU wie bei NVenc läuft.
    Einfach aus dem Grund schon nicht, weil H264 für Aufnahmen einfach nix taugt.


    Da gibt es definitiv besseres.


    Es ist halt der altbekannte Irrglaube das NVenc besser ist.
    Ja, es ist besser, weil er über die GPU aufnimmt.


    Und nein, das NVenc in OBS, Bandicam, und haste nicht gesehen ist nicht das gleiche Verhalten wie das NVenc wie bei Shadowplay.
    Shadowplay spielt ganz andere Taktiken für Aufnahmen aus. OBS, Bandicam und Co. nehmen immer noch regulär auf wie jedes Aufnahmeprogramm auch.
    Die meisten schnüren NVenc sogar noch indem sie als Input immer YV12 zusenden. Das heißt das man mit NVenc zwars in YV24 oder YV16 aufnehmen kann, aber eigentlich der Inhalt immernoch YV12 ist, weil vllt. bei der Programmierung zweifelhaft versucht wurde NV12 reinzudrücken.


    Das ist von den Aufnahmeprogrammen schon Fail.


    z.B. kann Mirillis Action nur YV12 Speicherungen machen. Egal was man für ein Farbraum auswählt. Es wird immer in YV12 an den Encoder weiter gegeben.
    Sprich wenn man YV24 oder YV16 aufnehmen will, dann greift das Aufnahmeprogramm das RGB32 Bild ab, wandelt es in YV12 um und schickt es dem Encoder, und der Encoder hat als Befehl erhalten das er es in YV24 aufnehmen soll z.B..
    Letzeres wäre dann halt Sinnfrei und man ist dafür selbst verantwortlich auch noch. ^^ Weil man hat mehr Speicherplatz verschwendet als das Video gebraucht hätte. Weil es war ohnehin vom Aufnahmeprogramm ein YV12 Video. ^^


    OBS macht das z.B. mit NVenc.


    Wie Bandicam da verfährt weiß ich grad nicht.



    Und NVenc hat noch ein kleines Manko. Bei NVenc ist die Grafikkarte entscheidend. Letztens war auch ein User hier im Forum der hat eine NVIDIA GTX660 gehabt. Sprich NVenc Erste Generation. Die kann kein Lossless. Und er wollte in Lossless aufnehmen. Ging nicht. Ging einfach nicht. ^^ Erst ab der zweiten Generation geht das Tadellos.


    Für hohe Auflösungen, FPS und Lossless muss schon die dritte oder gar vierte Generation von NVIDIA Grafikkarten die NVenc unterstützen herhalten um halt die Bestmögliche Performance zu erzielen.


    Das heißt im Klartext das es bei diesem GPU Encoder noch nicht mal eine klare Konfiguration gibt was bei einem gut läuft. Der eine kommt mit Einstellung XYZ klar, bei dem anderen schmiert es ab, ruckelt oder nimmt gar nicht erst auf.


    Das kann dir bei MagicYUV oder UTVideo schon gar nicht passieren.
    Die laufen auf CPU Basis und sind daher recht zuverlässig. Da kannste auch eine Uralte Geforce 2MX oder eine Radeon verbaut haben. Solange du genug CPU hast, kannst du Problemlos mit so einem Codec auf jedem Rechner was aufnehmen.


    Darum nutze ich sie Bevorzugt am liebsten. Sie sind einfach zuverlässiger und sind überall anwendbar.


    Das nur mal dazu ^^

  • @De-M-oN


    OBS Übergibt 444 wenn man das in den Video settings einstellt.
    bei nv12 yuv420 und !! RGB !! wird 420 übergeben - warum bei RGB auch 420 gemacht wird ist mir ein Rätsel - vielleicht ein Bug, aber die OBS Entwickler haben da nicht so den Fokus drauf :).


    ggf. mal mit custom ffmpeg versuchen, video auf rgb stellen und im custom mal versuchen 422 zu setzen

  • OBS Übergibt 444 wenn man das in den Video settings einstellt.
    bei nv12 yuv420 und !! RGB !! wird 420 übergeben - warum bei RGB auch 420 gemacht wird ist mir ein Rätsel - vielleicht ein Bug, aber die OBS Entwickler haben da nicht so den Fokus drauf :).

    RGB wird dann zu 420 gemacht, wenn der jeweilige Codec den Farbraum nicht unterstützt.


    z.B. kann H264 kein RGB als Farbraum erkennen. H264 höster Farbraum ist YUV444 alias YV24.


    Um Komplikationen zu vermeiden geht OBS mit dem Farbraum auf Standard YV12 zurück und übergibt dies an den Encoder.


    Und jein zum ersten Satz aus dem Zitat von dir. OBS verfährt hinsichtlich NVenc zwecks Farbräume etwas anders.
    Du kannst zwars YV24 oder sonstwas auswählen, wird aber in der Regel wieder auf YV12 zurück reflektiert, sofern die Programmierer gedacht haben das NVenc nur mit NV12 arbeiten muss.


    Haben andere Aufnahmeprogramme auch schon drauf gehabt. OBS wäre damit dann kein Einzelfall.


    Dann hast du nämlich in deiner YV24 Aufnahme ein YV12 Bild Inhalt. Und das ist Ineffizient. Das verbraucht nämlich unnötig Speicherplatz und andere Ressource. Weil das hätte man dann auch gleich in YV12 speichern können, statt YV24.


    Sprich YV24 kannst du zwars einstellen, aber mit was gepiped wird zwischen dem Aufnahmeprogramm und den Encoder kannst du nicht beeinflussen direkt, wenn das vom Programmierer fest vordefiniert wurde für bestimmte Codecs. Das ist der Clou dahinter.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!