Moviestudio und Debugmode-Frameserver

  • Guten Morgen,


    Ich komme direkt zum Punkt. Normalerweiße render ich meine Videos generell mit dem SSM und MeGUI. Aber ein Kumpel von mir, hat gestern sein 100 Abonenntenspecial bei mir aufgenommen. Jetzt würde ich das Video (Battlefield1 Sniperonly) gerne cutten, und vielleicht 1 - 2 Effekte hinzufügen, aber trotzdem versuchen annährend die Qualität von MeGUI zu bekommen, weil die Moviestudio-Encoder halt scheiße sind.


    Dafür muss ich ja einen Debugmode-Frameserver installieren. Die Frage ist nur, gibt es einen solchen Frameserver für Sony Moviestudio Platinum 13.0?
    Und für den fall, dass die Antwort auf diese erste Frage 'ja' lautet, wie installiere ich den und wie genau muss ich den einstellen?


    Ich habe zwar mehrere Threads hier im Forum über Frameserver gefunden, aber kein Thread behandelt das Thema Moviestudio. Und ich bin mir halt nicht sicher, ob es auch in der Sonysoftware unterschiede gibt, die man beachten muss.


    Auch, sind alle Videotutorials die ich via. Youtube gesucht habe only: SonyVegas, After Effekts etc. Aber es gibt kein Sony Moviestudio.
    Also alle Fragen nochmal kompakt zusammengefasst:


    Gibt es einen Frameserver für Moviestudio Platinum 13.0?
    Wie Installiere ich den Frameserver um die vorteile von MeGUI nutzen zu können?


    Ich beanke mich schonmal für die Antworten ihr tollen virtuellen Menschen. :P
    Tschüüs! :D

  • Dafür muss ich ja einen Debugmode-Frameserver installieren. Die Frage ist nur, gibt es einen solchen Frameserver für Sony Moviestudio Platinum 13.0?

    Der von Vegas funktioniert problemlos mit Movie Studio 13, es kann aber sein, dass man ihn nach der Installation noch ggf. manuell einrichten muss. Dafür muss man etwas kopieren und eine Datei anpassen - grobe Anleitung gibt's hier:


    https://github.com/satishsampath/frame-server/issues/17


    Oder, in Videoform, auch hier:


    Die Anleitungen betreffen zwar die alten Versionen, das Prinzip ist aber gleich geblieben. Kleine Ergänzung zum Video: Ich hab es mir jetzt nicht mehr vollständig angeschaut, soweit ich weiß war da bei den Frameserver-Einstellungen unter Format YUY2 gewählt - dort sollte RGB hin.

  • Der von Vegas funktioniert problemlos mit Movie Studio 13, es kann aber sein, dass man ihn nach der Installation noch ggf. manuell einrichten muss. Dafür muss man etwas kopieren und eine Datei anpassen - grobe Anleitung gibt's hier:
    https://github.com/satishsampath/frame-server/issues/17


    Oder, in Videoform, auch hier:


    Die Anleitungen betreffen zwar die alten Versionen, das Prinzip ist aber gleich geblieben. Kleine Ergänzung zum Video: Ich hab es mir jetzt nicht mehr vollständig angeschaut, soweit ich weiß war da bei den Frameserver-Einstellungen unter Format YUY2 gewählt - dort sollte RGB hin.

    WOW! vielen dank für diese schnelle Antwort! Dann werde ich direkt mal anfangen den Frameserver zu installieren und einzustellen! :)
    Sollten sich im nachhinein noch irgendwelche Fragen auftun, melde ich mich nochmal zurück. ^^

  • Ich entschuldige jetzt schon einmal den Doppelpost. Ich bin nicht beabsichtigt, den Post irgendwie zu Pushen oder so.
    Aber ich habe jezt ein problem.


    Ich habe den Frameserver installiert und bei Moviestudio hinzugefügt. Einmal habe die dll. Datei in den Sonyplugin ordner kopiert und dieses Plugin dann nochmal in die Configdatei rein editiert.


    Jetzt wollte ich testhalber 10 sekunden über den Frameserver rendern, aber wenn ich auf 'Film erstellen' klicke, stürzt mein Moviestudio ab.
    Bei Moviestudio 13.0 gibt es nicht mehr die Option 'Rendern als' sondern nur noch 'Film erstellen' wo ich normalerweiße unter 'Erweiterte Einstellungen' die verschiedenen Encoder auswählen konnte.


    Aber wie gesagt, Moviestudio stürzt einfach ab. :>

  • Ich hab es mal mit Movie Studio 13 Platinum (Build: 955 64 Bit) probiert, fand es nebenbei ziemlich hässlich. Wirklich hässlich. Aber der Frameserver lies sich einrichten. So bin ich vorgegangen:

    • Debugmode Frameserver 2.15 für Vegas 13+ auf der Seite heruntergeladen und installiert.
    • Dann bin ich in den Ordner C:\Program Files (x86)\DebugMode\FrameServer und habe die Datei dfscVegasV264Out.dll kopiert.
    • Dann bin ich in den Ordner C:\Program Files\Sony\Movie Studio Platinum 13.0\FileIO Plug-Ins gegangen, habe den Ordner fsplug erstellt und dort die Datei eingefügt.
    • Dann bin ich in den Ordner C:\Program Files\Sony\Movie Studio Platinum 13.0 gegangen und habe dort die Datei Release-x64.fio2007-config modifiziert. Habe eigentlich nur eine Zeile am Schluss ergänzt:

      • fsplug=FileIO Plug-Ins\fsplug\dfscVegasV264Out.dll
    • Unter den Erweiterten Optionen bei Film erstellen habe ich nun den Debugmode Frameserver.

    So hat's bei mir geklappt. Aus deiner Beschreibung würde ich vermuten, dass du vielleicht den Frameserver 2.14 probiert hast?

  • Ich hab es mal mit Movie Studio 13 Platinum (Build: 955 64 Bit) probiert, fand es nebenbei ziemlich hässlich. Wirklich hässlich. Aber der Frameserver lies sich einrichten. So bin ich vorgegangen:

    • Debugmode Frameserver 2.15 für Vegas 13+ auf der Seite heruntergeladen und installiert.
    • Dann bin ich in den Ordner C:\Program Files (x86)\DebugMode\FrameServer und habe die Datei dfscVegasV264Out.dll kopiert.
    • Dann bin ich in den Ordner C:\Program Files\Sony\Movie Studio Platinum 13.0\FileIO Plug-Ins gegangen, habe den Ordner fsplug erstellt und dort die Datei eingefügt.
    • Dann bin ich in den Ordner C:\Program Files\Sony\Movie Studio Platinum 13.0 gegangen und habe dort die Datei Release-x64.fio2007-config modifiziert. Habe eigentlich nur eine Zeile am Schluss ergänzt:

      • fsplug=FileIO Plug-Ins\fsplug\dfscVegasV264Out.dll
    • Unter den Erweiterten Optionen bei Film erstellen habe ich nun den Debugmode Frameserver.

    So hat's bei mir geklappt. Aus deiner Beschreibung würde ich vermuten, dass du vielleicht den Frameserver 2.14 probiert hast?

    Es hat funktioniert! Ich bin auch wirklich zufrieden es läuft. Ich hätte da nur noch ein paar Fragen.
    Das Video, welches ich gerendert habe, ist dieses hier:


    Jetzt die Fragen.
    • Das Rohmaterial sieht viel Lebendiger aus. Es ist Farblich viel Bunter. Das fertige Render sieht hart 'Blass' aus. Liegt das daran, dass Moviestudio auf RGB konvertiert?


    • Wenn ich die Fake-AVI erstelle und in den SSM ziehe, habe ich YV12 als Farbraum ausgewählt und selbigen auch in den Aufnahmeeinstellungen bei OBS. Müsste die vorrübergehende RGB-Kovertierung nicht rückgängig gemacht werden, sobald MeGUI mit dem Rendern beginnt? Immerhin handelt es sich bei der AVI nur um einen Fake. Oder übernimmt die AVI wirklich alle einstellungen von Moviestudio und somit auch die RGB Konvertierung?


    • Gibt es eine möglichkeit, bei Moviestudio einen YV12 Farbraum hinzuzufügen oder muss ich zwingend eine Colorcorrektion auf das Rohmaterial ziehen um diesem 'Blasse - Effekt' entgegen zu wirken?


    • Was meinst du mit Hässlich? xD Zugegeben, Moviestudio hat leider nicht so viele tolle funktionen die SonyVegas. Was mir persönlich am meisten fehlt, ist das Verankerrungswerkzeug im Croppingmodus womit ich Maskettransitions erstellen könnte. Aber bis dato, erfüllt das Programm seinen zweck. Die Videos lassen sich sehr angenehm schneiden. Also warum Hässlich? xD Oder meinst du nur die Benutzeroberfläche?


    PS: Ich habe eine wichtige Frage vergessen.


    • Das Rohmaterial sieht in der Vorschau bei Moviestudio noch genauso aus, wie als wenn ich das Rohmaterial mit dem VLC-Player wiedergebe. Wie genau, kann ich eine Colorcorrektion vornehmen, wenn ich nicht die 'Realität' in der Vorschau sehe?


    Ich hoffe man versteht die Frage. Nach dem Rendern ist das Video Blass. Aber das Rohmaterial sieht selbst in der Vorschau noch Lebendiger aus. Wenn ich jetzt also zb. Eine Colorcorrektion vornehme, kann ich nicht sagen, wann es genug ist, weil ich ja nicht wirklich sehe, wie es hinterher ausieht. Hast du da eventuelle ein paar Tipps? :>


    PPS:

    Zitat

    Aus deiner Beschreibung würde ich vermuten, dass du vielleicht den Frameserver 2.14 probiert hast?

    Aber sowas von richtig. xD

    Einmal editiert, zuletzt von AimRuft () aus folgendem Grund: Frage vergessen.

  • Das Rohmaterial sieht viel Lebendiger aus. Es ist Farblich viel Bunter. Das fertige Render sieht hart 'Blass' aus. Liegt das daran, dass Moviestudio auf RGB konvertiert?

    Ah stimmt, da war mal was. Jein, das liegt daran, dass Movie Studio dir dein Material in ihr "Studio RGB" konvertiert und AVISynth in dem Fall von "Computer RGB" ausgeht. Das ist nicht mehr als ein einfaches PC-/TV-Range - Problem, dessen theoretische Zusammenhänge in diesem Thread ( Farbräume (Tutorial) - erweiterte Erklärung und Zusammenhänge ) beschrieben wurden. Studio RGB wäre in dem Fall der limitierte Bereich, Computer RGB der Vollbereich.

    Wenn ich die Fake-AVI erstelle und in den SSM ziehe, habe ich YV12 als Farbraum ausgewählt und selbigen auch in den Aufnahmeeinstellungen bei OBS. Müsste die vorrübergehende RGB-Kovertierung nicht rückgängig gemacht werden, sobald MeGUI mit dem Rendern beginnt? Immerhin handelt es sich bei der AVI nur um einen Fake. Oder übernimmt die AVI wirklich alle einstellungen von Moviestudio und somit auch die RGB Konvertierung?

    Die AVI beinhaltet das, was Movie Studio & der Frameserver ausgeben, es beinhaltet also die RGB-Konvertierung von Movie Studio. Die ist immer enthalten, wenn du mit Movie Studio arbeitest. Der SSM (bzw. AVISynth) übernimmt dann das Einlesen und anpassen/"korrigieren" der AVI.

    Gibt es eine möglichkeit, bei Moviestudio einen YV12 Farbraum hinzuzufügen oder muss ich zwingend eine Colorcorrektion auf das Rohmaterial ziehen um diesem 'Blasse - Effekt' entgegen zu wirken?

    Nein ... und offen gesagt würde ich es, selbst wenn es gehen würde, trotzdem in RGB rausschicken und von AVISynth wandeln lassen. Movie Studio schickt RGB, der Frameserver schickt entweder RGB, oder kann auf YUY2 konvertieren. Aber du musst auch nicht unbedingt das Rohmaterial anpassen. Du kannst es zwar mithilfe des Sony Levels - Filters in den Vollbereich bringen, aber du kannst dein Problem auch nachträglich im SSM beheben. Wenn ich's richtig im Kopf hab, dann war die einfachste Lösung dafür, im SSM unter Farbe->Farbmatrix statt TV.709 eben PC.709 zu verwenden.

    Was meinst du mit Hässlich? xD Zugegeben, Moviestudio hat leider nicht so viele tolle funktionen die SonyVegas. Was mir persönlich am meisten fehlt, ist das Verankerrungswerkzeug im Croppingmodus womit ich Maskettransitions erstellen könnte. Aber bis dato, erfüllt das Programm seinen zweck. Die Videos lassen sich sehr angenehm schneiden. Also warum Hässlich? xD Oder meinst du nur die Benutzeroberfläche?

    Nur die Benutzeroberfläche - fand die vom 12er schlanker und deutlich angenehmer. Die vom Movie Studio 13 ist einfach sehr, sehr hässlich. :D

    Das Rohmaterial sieht in der Vorschau bei Moviestudio noch genauso aus, wie als wenn ich das Rohmaterial mit dem VLC-Player wiedergebe. Wie genau, kann ich eine Colorcorrektion vornehmen, wenn ich nicht die 'Realität' in der Vorschau sehe?

    Die Vorschau scheint in dem Fall ebenfalls mit Studio RGB zu arbeiten. Es gibt da diverse Plug-Ins, welche die Vorschau mit ein paar zusätzlichen Features verbessern, allerdings ist dies in dem Fall wie gesagt nicht nötig. Die Problematik lässt sich ohne individuelle CC hinbekommen.

  • Ah stimmt, da war mal was. Jein, das liegt daran, dass Movie Studio dir dein Material in ihr "Studio RGB" konvertiert und AVISynth in dem Fall von "Computer RGB" ausgeht. Das ist nicht mehr als ein einfaches PC-/TV-Range - Problem, dessen theoretische Zusammenhänge in diesem Thread ( Farbräume (Tutorial) - erweiterte Erklärung und Zusammenhänge ) beschrieben wurden. Studio RGB wäre in dem Fall der limitierte Bereich, Computer RGB der Vollbereich.

    Okay, dass habe ich, so leid es mir gerade auch tut nicht ganz verstanden. Moviestudio konvertiert also in ein softwareinternes StudioRGB wärend Avysinth, dieses nicht kennt und in ComputerRGB Konvertiert? Wie genau kann ich mir das vorstellen? Ich hole mir einen Golf im R - Disign obwohl es kein richtiges R-Modell ist? :> :D

    Die AVI beinhaltet das, was Movie Studio & der Frameserver ausgeben, es beinhaltet also die RGB-Konvertierung von Movie Studio. Die ist immer enthalten, wenn du mit Movie Studio arbeitest. Der SSM (bzw. AVISynth) übernimmt dann das Einlesen und anpassen/"korrigieren" der AVI.

    Damit ich das richtig verstehe. Nach meinem Wissen, ist der beste Farbraum zum Aufnehmen YV12. Ich habe in meinen Aufnahmeeinstellungen bei OBS deshalb genau diesen ausgewählt. Zum Rendern beim SSM, der ja das Avysinthscript für mich erstellt, habe ich ebenfalls den YV12 Farbraum ausgewählt. Der einzige Otto, der mir dazwischen fuscht ist jetzt Moviestudio und der Frameserver als Rendermethode für MeGUI


    Jetzt sagst du aber, dass sich das Problem umgehen lässt, weil ja Avysinth durch die einstellungen versucht den YV12 Farbraum wieder nachzurüsten, weil dieser durch Moviestudio auf RGB gedowngradet wurde. Provoziere ich durch dieses vorgehen, nicht einen Qualitätsverlust?


    Wäre es dann nicht eigendlich sinnvoller, wenn ich auch in RGB Aufnehme? Damit ich nicht beim Einfügen in das Moviestudio, und beim anschließenden Rendern einen Qualitätsverlust erzwinge?

    Nein ... und offen gesagt würde ich es, selbst wenn es gehen würde, trotzdem in RGB rausschicken und von AVISynth wandeln lassen. Movie Studio schickt RGB, der Frameserver schickt entweder RGB, oder kann auf YUY2 konvertieren. Aber du musst auch nicht unbedingt das Rohmaterial anpassen. Du kannst es zwar mithilfe des Sony Levels - Filters in den Vollbereich bringen, aber du kannst dein Problem auch nachträglich im SSM beheben. Wenn ich's richtig im Kopf hab, dann war die einfachste Lösung dafür, im SSM unter Farbe->Farbmatrix statt TV.709 eben PC.709 zu verwenden.

    Wenn ich den Farbraum beim SSM aber auf YV12 lasse und nur die Farbmatrix von TV.709 auf PC.709 stelle, habe ich doch rein Theoretisch immer noch einen Qualitätsverlust.


    Würde ich in RGB aufnehmen und dem SSM sagen, dass er das Avysinthscript auf auf Basis von RGB erstellt, hätte ich doch nicht das Problem, dass Moviestudio durch ein ersten downgrade auf RGB Konvertiert, wärend der SSM wieder versucht den YV12 Farbraum zu Simulieren. Ich hoffe man versteht was ich meine.

  • Okay ... bitte verzeih, dass ich mich gerade etwas kurz halten muss, aber bei mir brennt's grad terminlich etwas.


    Zuerst zum Thema YV12:
    YV12 ist der YUV-Farbraum mit einem Subsampling von 4:2:0 - im Klartext heißt das: Die Helligkeitsinformationen sind alle vorhanden, bei den Farbinformationen wurde etwas reduziert. RGB ist ein umfangreicherer Farbraum und in Bezug auf den Informationsgehalt ungefähr gleichzusetzen mit YUV 4:4:4 - es behält alle Helligkeits- und Farbinformationen. Die Konvertierung von YV12 zu RGB - also einen niedrigeren in einen ... höheren Farbraum - kann deshalb verlustfrei ablaufen. Verlust entsteht erst bei der Konvertierung von einen höheren in einen niedrigeren Farbraum, oder wenn man bei der Konvertierung was ... nun, verbockt.


    Zum Aufnehmen und Bearbeiten wäre deshalb RGB die bessere Wahl, auch die Spiele, dein ganzes System und dein Monitor basiert auf RGB. Man spart sich da also insgesamt vieles von der Konvertiererei und hätte zudem eine bessere Ausgangsbasis für Filter, allerdings speichert RGB auch mehr Informationen, braucht also u.A. deutlich mehr Platz. Würde es eher nicht machen, wenn nicht unbedingt erforderlich.


    Nun zum Thema: Was läuft bei dir falsch?
    Wie bereits gesagt: TV / PC - Range - Problematik. Üblicherweise hat RGB einen Wertebereich von 0 - 255, was man den Vollbereich / PC-Range nennt. Schwarz wäre bei 0, Weiß bei 255. Die TV-Range ist beschränkter und hat einen Wertebereich von 16 - 235. 16 ist pures Schwarz, 235 ist weiß. Üblicherweise nimmt man bei YUV den beschränkten Bereich an und konvertiert ihn so, dass er auf 0 - 255 "gestreckt" wird. Vegas streckt da in deinem Fall nichts, es übernimmt den begrenzten Wertebereich (TV-Range) und nennt das "Studio RGB". Die interne Vorschau kann damit umgehen und streckt das wieder auf den erwähnten Ausgabebereich.



    Wenn du das jetzt über den Frameserver weiterleitest, liest AVISynth das als RGB ein. Wenn du von RGB kommst und in AVISynth in YUV konvertierst, nimmt AVISynth bei der Matrix Rec.709 an, dass du im PC-Bereich bist und ebenfalls in den TV-Bereich willst. Es wird deshalb die Werte umrechnen - 0 als pures Schwarz liegt dann beispielsweise nach der Konvertierung bei 16. Im TV-Bereich, also auch im "Studio-RGB", gibt es aber die 0 in der Form nicht - schwarz würde bei 16 liegen. Das wird dann weiter verschoben. Dass dann der Wert nicht passt, versteht sich von selbst, und dabei kommt dann eine Art Grauschleier raus.


    Soweit so schlecht, deshalb würde ich da eingreifen und korrigieren. Mit der Konvertierung zu YUV (YV12) durch AVISynth und der Matrix PC.709 sagst du ihm: Wandle in den YUV-Farbraum um, stauche das Video aber nicht in den TV-Bereich. Der schwarze Wert lag vorher bei 16 und ist auch nach der Konvertierung bei 16.


    Ich hoffe, ich konnte dich hier etwas mehr verwirren :P Falls nötig, gehe ich später noch genauer darauf ein. Ich habe jetzt streckenweise etwas sehr vereinfacht ... aber wie gesagt: Wenn dich die Hintergründe interessieren, dann schau in das verlinkte Tutorial.


    (PS: Ich bin mir nebenbei nicht sicher, ob Vegas immer nach Studio RGB konvertiert oder manchmal auch Computer RGB verwendet. Hängt wohl von der Eingabedatei ab, was es da macht. Gab es irgendwo mal eine Tabelle, glaub ich.)

  • YV12 ist der YUV-Farbraum mit einem Subsampling von 4:2:0 - im Klartext heißt das: Die Helligkeitsinformationen sind alle vorhanden, bei den Farbinformationen wurde etwas reduziert. RGB ist ein umfangreicherer Farbraum und in Bezug auf den Informationsgehalt ungefähr gleichzusetzen mit YUV 4:4:4 - es behält alle Helligkeits- und Farbinformationen. Die Konvertierung von YV12 zu RGB - also einen niedrigeren in einen ... höheren Farbraum - kann deshalb verlustfrei ablaufen. Verlust entsteht erst bei der Konvertierung von einen höheren in einen niedrigeren Farbraum, oder wenn man bei der Konvertierung was ... nun, verbockt.


    Zum Aufnehmen und Bearbeiten wäre deshalb RGB die bessere Wahl, auch die Spiele, dein ganzes System und dein Monitor basiert auf RGB. Man spart sich da also insgesamt vieles von der Konvertiererei und hätte zudem eine bessere Ausgangsbasis für Filter, allerdings speichert RGB auch mehr Informationen, braucht also u.A. deutlich mehr Platz. Würde es eher nicht machen, wenn nicht unbedingt erforderlich.

    Alles klar, das habe ich soweit verstanden. Was ich nur nicht ganz verstehe, wieso liest man dann überall, unteranderem auch hier in diesem Forum, dass der beste Encoder UTVideo ist und YV12 die beste Einstellung zum Aufnehmen? Kann es sein das unter brücksichtigung dieser Daten etwas 'Lüge' in diesem YV12 Mythos steckt? vielleicht, um den Usern hier im Forum diesen 'Mehr Platz wegen RGB' zu ersparen?

    Wie bereits gesagt: TV / PC - Range - Problematik. Üblicherweise hat RGB einen Wertebereich von 0 - 255, was man den Vollbereich / PC-Range nennt. Schwarz wäre bei 0, Weiß bei 255. Die TV-Range ist beschränkter und hat einen Wertebereich von 16 - 235. 16 ist pures Schwarz, 235 ist weiß. Üblicherweise nimmt man bei YUV den beschränkten Bereich an und konvertiert ihn so, dass er auf 0 - 255 "gestreckt" wird. Vegas streckt da nichts, es übernimmt den begrenzten Wertebereich (TV-Range) und nennt das "Studio RGB". Die interne Vorschau kann damit umgehen und streckt das wieder auf den erwähnten Ausgabebereich.

    Bei den 0-255 musste ich gerade an GIMP, Paint.net und die anderen konsorten denken. Dort ist die Basis also ebenfalls RGB. Durch das erstellen Transparenter png.Dateien oder einfügen von Filtern, wird mir nämlich auch ein Wertbereich von 0-255 vorgeschlagen. 0 ist hierbei der Transparente und 255 der volle Farbbereich.


    Um dann jetzt noch ein letztes mal aufzuwickeln: Ich nehme also in YV12 auf. Ein Farbraum der begrenzt ist. Würde ich jetzt ohne mit dem Frameserver zu arbeiten direkt über den SSM und MeGUI rendern, hätte ich diesen Blasse Effekt nicht, weil Avysinth diesen Wert wieder streckt.


    Moviestudio hingegen, streckt nichts und schickt diese Daten über den Frameserver und der daraus entstehenden Avi Datei an Avysinth weiter und Avysinth wird wegen der StudioRGB gesagt: Lass den Farbbereich auf TV.709. statt ihn wieder zu strecken. Also auf PC.709 zu stellen?


    Ich denke ich habe es kapiert! :P

    Wenn du das jetzt über den Frameserver weiterleitest, liest AVISynth das als RGB ein. Wenn du von RGB kommst und in AVISynth in YUV konvertierst, nimmt AVISynth bei der Matrix Rec.709 an, dass du im PC-Bereich bist und ebenfalls in den TV-Bereich willst. Es wird deshalb die Werte umrechnen - 0 als pures Schwarz liegt dann beispielsweise nach der Konvertierung bei 16. Im TV-Bereich, also auch im "Studio-RGB", gibt es aber die 0 in der Form nicht - schwarz würde bei 16 liegen. Das wird dann weiter verschoben. Dass dann der Wert nicht passt, versteht sich von selbst, und dabei kommt dann eine Art Grauschleier raus.


    Soweit so schlecht, deshalb würde ich da eingreifen und korrigieren. Mit der Konvertierung zu YUV (YV12) durch AVISynth und der Matrix PC.709 sagst du ihm: Wandle in den YUV-Farbraum um, stauche das Video aber nicht in den TV-Bereich. Der schwarze Wert lag vorher bei 16 und ist auch nach der Konvertierung bei 16.

    Also im grunde genau das, was ich mir eben gerade schon gedacht habe? Würde ich die Einstellungen im SSM so lassen, wie sie gerade sind, würde der Frameserver oder die Fakeavi immer wieder die Vorgabe geben: Es ist der begrentze TV.709 statt PC.709 und so lässt du das. Ergebniss der Blasse Effekt.


    Durch die Korrektur von TV.709 auf PC.709 im SSM wird die vorgabe der avi datei ignoriert. Wärend die Avidatei den bregentzen Wert Rendern möchte weil es vom StudioRGB so vorgegeben wird, tut der SSM genau das gegenteil und gibt die vorgabe, dass doch bitte im PC.709 bereich gerendert werden soll?


    Ich GLAUBE!!! ich habe es verstanden. Nachdem ich es zum 10x gelesen habe. xd

    Okay ... bitte verzeih, dass ich mich gerade etwas kurz halten muss, aber bei mir brennt's grad terminlich etwas.

    Ich möchte dich nicht von deinen vorhaben abhalten! Ich schätze eine solche Diskusion sehr! Aber ich möchte dir dennoch nicht vermitteln, dass hier zu Antworten eine Priorität hat. Es ist auch völlig okay, wenn du aus zeitlichen gründen 2 Tage garnicht Antwortest. ^^

    Ich hoffe, ich konnte dich hier etwas mehr verwirren

    Hast du geschafft, aber Denitiv. xD

  • Die Konvertierung von YV12 zu RGB - also einen niedrigeren in einen ... höheren Farbraum - kann deshalb verlustfrei ablaufen.

    Wenn man ganz genau sein möchte, ist auch dieser Vorgang nicht verlustfrei. Jede Konvertierung von RGB nach YUV und umgekehrt beinhaltet Rundungsfehler, auch wenn diese bei geringer Anzahl für das Auge nicht sichtbar sind.


    Was ich nur nicht ganz verstehe, wieso liest man dann überall, unteranderem auch hier in diesem Forum, dass der beste Encoder UTVideo ist und YV12 die beste Einstellung zum Aufnehmen? Kann es sein das unter brücksichtigung dieser Daten etwas 'Lüge' in diesem YV12 Mythos steckt?

    Das hat nichts mit "Lüge" oder Mythos zu tun. Zumindest ich würde UtVideo nicht in YV12 aufnehmen lassen, da UtVideo nach meinem letzten Wissensstand hierbei deutlich CPU lastiger ist als in YUY2, aber das nur am Rande erwähnt.
    Für die meisten wäre der Mehraufwand einer Aufnahme in YUV422, YUV444 oder gar RGB einfach unverhältnismäßig hoch. Warum in einem höheren Farbraum aufnehmen, wenn es von YouTube sowieso auf YUV420 (YV12) runtergerechnet wird? Die einzig sinnvolle Begründung: Du möchtest hoch skalieren. Je mehr Informationen vorhanden sind, desto besser schaut die Skalierung aus. Ganz allgemein formuliert: Du möchtest das letzte bisschen Qualität herausholen. Und das letzte bisschen Qualität ist nun mal unverhältnismäßig teuer zu haben - höhere Dateigröße, höhere CPU-Last, höhere Kodierzeit.


    Meine Videos habe ich früher erst in RGB aufgenommen, skaliert und anschließend in YUV444 kodieren lassen. Inzwischen nehme ich direkt in dem Farbraum auf, in welchem ich auch kodieren möchte, aufgrund von Geschwindigkeitsvorteilen dank wegfallender Farbraumkonvertierung bei der Verarbeitung. Heißt: Aufnahme in YUV444 > Skalierung > Kodierung in YUV444. Würde ich nicht skalieren - beispielsweise bei einer direkten Aufnahme in 1800p -, würde ich auch direkt in YUV420 aufnehmen. Einerseits weil mein RAID0 zu langsam ist für mehr, andererseits weil der Mehraufwand sich für mich da nicht lohnt. Eine 27-minütige Testaufnahme (1800p, 60FPS, YUV420) nimmt satte 282 Gigabyte ein. Mit YUV444 oder gar RGB wären es noch mal bedeutend mehr.

  • Bei den 0-255 musste ich gerade an GIMP, Paint.net und die anderen konsorten denken. Dort ist die Basis also ebenfalls RGB. Durch das erstellen Transparenter png.Dateien oder einfügen von Filtern, wird mir nämlich auch ein Wertbereich von 0-255 vorgeschlagen. 0 ist hierbei der Transparente und 255 der volle Farbbereich.

    Du beschreibst hier den Alphakanal eines RGB Bildes. Das hat nix mit Begrenzung zu tun, sondern ob etwas Sichtbar ist oder nicht.
    0 = Unsichtbar
    128 = Transparent
    255 = Sichtbar


    Das betrifft nur den Alphakanal. Der Alphakanal besteht nur aus Schwarz-/Weiß- Abgleiche.


    Der Wertebereich 0 - 255 entspricht 1Byte bzw. 8Bit.


    Ein reiner RGB Farbkanal besteht dabei aus 3Byte pro Pixel
    Kommt der Alphakanal hinzu besteht er aus 4Byte pro Pixel. 3 für die Farbe und der 4te Byte ob dieser Pixel Unsichtbar, Transparent oder Sichtbar ist.


    Um dann jetzt noch ein letztes mal aufzuwickeln: Ich nehme also in YV12 auf. Ein Farbraum der begrenzt ist. Würde ich jetzt ohne mit dem Frameserver zu arbeiten direkt über den SSM und MeGUI rendern, hätte ich diesen Blasse Effekt nicht, weil Avysinth diesen Wert wieder streckt.

    Der SSM als auch MeGUI's x264 Encoder sind ohne Änderungen auf YV12 Begrenzt BT.709 eingestellt.


    Für weitere Farblehre, hier mal etwas wo du dir deine Antworten zu deinen Fragen selbst erlesen kannst: Farbräume (Tutorial) - erweiterte Erklärung und Zusammenhänge


    Moviestudio hingegen, streckt nichts und schickt diese Daten über den Frameserver und der daraus entstehenden Avi Datei an Avysinth weiter und Avysinth wird wegen der StudioRGB gesagt: Lass den Farbbereich auf TV.709. statt ihn wieder zu strecken. Also auf PC.709 zu stellen?

    Es gibt 2 Dinge die man wissen sollte:
    StudioRGB = Begrenzter Bereich 16 - 235
    ComputerRGB = Vollbereich 0 - 255


    Was du mit deinem Moviestudio nicht beeinflussen kannst wird mit großer Wahrscheinlichkeit die Farbmatrix sein. Und so wird z.B. aus einem BT.601 ein BT.709. Sprich dort werden die Farben beeinflusst.


    Die Farbmatrix gilt nur für YUV Farbräume. Für RGB ist sie irrelevant.


    Das heißt egal wie du aufnimmst, dein Video wird in Movie Studio immer in RGB gewandelt. Also einem Vollbereich. Wenn dein Video vorher ein Begrenzter Bereich war ist er somit nun Teil des Vollbereiches. Eine erneute Vollbereich zu Begrenzter Bereich Konvertierung würde das Bild an sich 2mal verblassen lassen. So die Theorie.


    Weiteres kannst du dem Farbraum Tutorial entnehmen.



    Was ich nur nicht ganz verstehe, wieso liest man dann überall, unteranderem auch hier in diesem Forum, dass der beste Encoder UTVideo ist und YV12 die beste Einstellung zum Aufnehmen? Kann es sein das unter brücksichtigung dieser Daten etwas 'Lüge' in diesem YV12 Mythos steckt?

    Ein Mythos ist es wenn man unerklärliche Sachen weder Nachweisen kann, noch es verstehen kann wie es funktioniert.
    Mit anderen Worten: Jeder der die Funktionsweise und den Aufbau von Bildern auf dem PC nicht versteht, für die ist es Magie xD


    Nein, Spaß beiseite. Wenn man weiß wieso und warum, dann ist es weder ein Mythos, noch ist es eine 'Lüge'. Technische Fakten können nicht lügen. Und gute Programmierarbeit die seit zig Jahren schon besteht gewiss kein Mythos ;D


    YV12 nehmen die meisten da es oft der geringste Farbraum ist der einem angeboten wird von den Softwares der Farbe beinhaltet.
    Zugleich wird für den YV12 Farbraum nur 12Bit verwendet, statt wie bei RGB volle 24Bit. Also spart man schon die Hälfte des Speicherplatzes.


    Warum wird da gespart?
    Weil YV12 oder besser YUV 4:2:0 eine sehr geringe Farbunterabtastung hat.
    4:4:4 wäre das der Y, U und V Kanal jeden Pixel darstellt.
    Bei 4:2:0 hat aber der Y Kanal volle Pixeldichte und U und V nur noch die die Hälfte. U und V haben als Ausgleich im Nativen Bereich Farblose Leerzeilen und Leerreihen drin.


    Die Leerzeilen und Leerreihen werden üblicherweise heutzutage Interpoliert. Das heißt sie werden rechnerisch aufgefüllt.


    Mehr dazu auch im Farbraum Tutorial.



    Es ist halt eine Frage ob man es verstehen möchte oder nicht. Für die, die es nicht verstehen möchten oder wollen, für die ist die ganze Videobearbeitung reine Magie mit vielen Unerklärlichen Sachen.
    Für die, die es verstehen was da passiert, für die ist das nur als wenn man in der Nase popelt xD

  • Alles klar, das habe ich soweit verstanden. Was ich nur nicht ganz verstehe, wieso liest man dann überall, unteranderem auch hier in diesem Forum, dass der beste Encoder UTVideo ist und YV12 die beste Einstellung zum Aufnehmen? Kann es sein das unter brücksichtigung dieser Daten etwas 'Lüge' in diesem YV12 Mythos steckt?

    Wenn man so will, ja. Qualitativ ist das mit den empfohlenen Workflows nicht die optimalste Basis. Allerdings wurde aus der Subsampling-Thematik nie ein Geheimnis gemacht und ich bin mir sicher, dass es in einem der Guides, die ich nie gelesen habe, sicher mehrfach durchgekaut wurde. Praktisch sind die Vorteile allerdings i.d.R. sehr überschaubar, die Nachteile aber deutlich spürbar. Lohnt sich aus meiner Sicht selten, mehr als YV12 (YUV 4:2:0) oder von mir aus noch YV16 (YUV 4:2:2 / YUY2) zu nehmen. Wie @Kayten gesagt hat ... das sind so die letzten 5 Prozent, die du damit rausholst.

    Wenn man ganz genau sein möchte

    ... will man nicht. Der Verlust dadurch, wenn man das überhaupt so nennen kann, ist irrelevant - punkt.


    Würde ich jetzt ohne mit dem Frameserver zu arbeiten direkt über den SSM und MeGUI rendern, hätte ich diesen Blasse Effekt nicht, weil Avysinth diesen Wert wieder streckt.

    Die Farben würden passen, es läuft aber anders ab: AVISynth würde da gar nichts mehr konvertieren.

    Ich GLAUBE!!! ich habe es verstanden.

    Supi. Wenn's nicht klappt oder es andere Probleme gibt, dann sag einfach bescheid.

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!