Beiträge von Sagaras

Ich brauche deine Hilfe, um den Fortbestand des LetsPlayForums zu sichern: Mehr Informationen findest du hier!

    Oder man lässt es mit FFmpeg an den nächsten AAC Encoder pipen. Würde auch gehen.


    Aber was soll den das Problem sein bei FFmpeg mit dem AAC Codec?


    Wie alt ist das Problem? Und ist es denn nicht schon behoben in der aktuellen Build?


    Der Fraunhofer Codec hat eine Lizenzinkompatibilität, deswegen ist er nicht dabei, man kann sich das aber selbst kompilieren, das habe ich bisher gescheut.

    Die aktuellen Versionen des Codecs sind für Android Systeme gedacht. Man kann sich auch die Mühe machen ein Front-End für den FDK AAC irgendwo zu downloaden und sich das als CLI Tool zu kompilieren. Ist halt gewaltiger Mehraufwand.


    Zumal dir das auch nicht viel bringt.



    Gute Alternative wäre: Nero AAC https://www.videohelp.com/software/Nero-AAC-Codec


    Der Standard AAC in FFMpeg ist aber meines Wissens Funktionsfähig und hatte da bis jetzt auch noch keine Probleme feststellen können.


    Zur NOT, kann man auch von FFMpeg an Nero AAC pipen. So wie das schon seit etlichen Jahren von Tools wie MeGUI unterstützt wird.

    Verstehe ich das richtig wenn ich mit Dxtory aufnehme habe ich die original Auflösung inkl richtigem Ton da es gehooked ist.?Das wäre dann die einfachste Idee heißt wiederum aber auch das man in dieser Auflösung auch spielen muss.

    In Dxtory würde ich dann den Magicyuv2. 20 Codec mit farbraum 4.2.0 nutzen.

    Für Externe Aufnahmen eines Emulators:

    Wenn du mit DxTory aufnehmen willst (Drittsoftware), dann musst du den Emulator so einstellen das er A) in Original Auflösung arbeitet (Videoeinstellung), B) ohne zusätzliche Video Filter und C) mit dem richtigen Seitenverhältnis.

    A und C) Das original Seitenverhältnis + die original Auflösung brauchst du zum einen für die 1:1 Pixelverhältnis. Du brauchst nämlich Quadratische Pixel, statt Ovale. Die Original Auflösung brauchst du, damit du wirklich mit einen Punktskalierer das maximal Ergebnis raus holen kannst.

    B) Jede Art von Filter ist ein Zusatz vom Emulator, das das eigentliche Spiel nicht besitzt. Es wird über den Emulator bereits hinzugedichtet. Da du aber mit später mit einen eigenen Filter wie xBRZ über SSM z.B. hochskalieren kannst, brauchst du den Schmu nicht. Außerdem würde solch ein Filter ein sauberes Skalieren beeinträchtigen.


    Für Interne Aufnahmen:

    Bei Internen Aufnahmen, kannst du jeden Filter verwenden den du willst im Emulator. Die meisten ignorieren die sämtliche Filter oder Skalierungen oder aber auch Seitenverhältnisse das der User vorgenommen hat bei der internen Aufnahme.

    Die Interne Aufnahme nehmen das Spiel immer so auf wie es im Original ist. Sprich korrektes Seitenverhältnis, korrekte Auflösung und keine Filter.


    ---------------


    Für solche Aufnahmen BITTE immer den RGB Farbraum nutzen. Also z.B. MagicYUV RGB und kein YUV.

    RGB brauchst du, damit der Punktskalierer seine volle Wirkung zeigen kann. Wenn es kein RGB ist, hast du A) Farbverlust und oder B) komplett verschmiertes Bild. Einfach weil YUV420 oder ein YUV422 Informationen fehlen.

    Bei YUV422 (Also YUY2 z.B.) fehlen dir waagerecht immer jede 2te Pixelzeile Farbinformationen. Die werden bei solchen Codecs per Interpolation nährungswertig hinzugerechnet.

    Bei YUV420 (Also YV12) fehlen dir nicht nur jede 2te Pixelzeile waagerecht, sondern auch senkrecht.


    Bei YUV444 (YV24) würden dir Farbinformationen abhanden kommen, aufgrund, das YUV ein Farbraum Model ist der erst berechnet werden müsste und es dort Rundungsfehler auch gibt. Da Spiele aber schon in RGB vorliegen, am besten auch in RGB aufnehmen. Zumal der Filter für die Punktskalierer in RGB Operieren.



    Erst wenn du mit allem fertig bist. Sprich in SSM skaliert usw., kannst du, wenn du das Video erstellen willst, die Ausgabe wieder auf YV12 oder was auch immer einstellen. Sprich die Videos die du dann hochladen willst.

    Aber für die Aufnahmen am besten RGB nutzen.


    Da die Videos ja halt eine extrem kleine Auflösung besitzen werden, wird das deine HDDs so ziemlich kaum belasten.


    Dann noch eine Frage zum Abschluss eine Faktor skalierung ist quasi die einfachste skalierungsart heißt es wird einfach alles vergrößert zb ein roter Pixel ist nach einer x2 Faktorskalierung 4rote Pixel im Quadrat groß heißt 2x2Pixel. Was ist dann der Unterschied zwischen xBRZ und HQx die machen das ja unterschiedlich nehme ich mal an.?

    Genau. Das sind sogenannte Punktskalierer. Die wirst du schon mal in irgendeinen Emulator gesehen haben auch.


    Die Punktskalierer nutzen wie der Name es halt schon vermuten lässt einen Pixel und vergrößern ihn.

    Der Native Punktskalierer heißt dabei "nearest neighbor", sprich der nächste Nachbar.

    Dieser würde z.B. ein Pixel nehmen und ihn bei einer 2x Skalierung in 4 Pixel umwandeln. Sprich einmal rechts, einer unten und einer rechts unten. der Pixel selbst bleibt.


    Bei HQx, xBRZ und anderen Punktskalierern kommt noch eine Umformung ins Spiel. Das was die Emulatoren auch beherrschen und womit sie dann auch so toll aussehen. Das machen die Emulatoren ebenfalls mit Filtern.


    In unserem Falle macht das im SSM auch mit dem Original Video.

    Diese Punktskalierer haben eine vorgegebene Matrix die dann über jeden Pixel gejagt wird und die erkennt welche Form die neuen Pixel dann annehmen sollen. https://en.wikipedia.org/wiki/Pixel-art_scaling_algorithms


    Diese Filter können aber erst ihr volles Potenzial zeigen, wenn um ganze Faktoren skaliert wird.


    Deswegen gibt es ja sowas wie HQ4x oder 2xBRZ oder wo sie halt ihre Zahlen hinschreiben xD

    Das sind dann die jeweiligen Faktoren.


    Als Beispiel für den SSM:

    Der SSM kann bei der Nutzung von Punktskalierer 2 mal skalieren. Der erste ist immer der Punktskalierer den du einstellst. der zweite finale ein normaler Skalierer wie z.B. Spline16.


    1. Skalierer im SSM (PointSize). Scaler 1: xBRZ -> glaube bis zu 6x war möglich. Scaler 2 ist uninteressant. Damit könnte man noch mal xBRZ rauf hauen womit man dann bis zu 36x hat.

    Der Final Scaler ist der den du bereits eingestellt hast.

    RGB32 Input Conversion lässt du am besten angehakt, da die AVISynth Skalierer RGB32 benötigen (Daher besser auch RGB Aufnahmen ;D) RGB24 zu RGB32 erfolgt ohne Verluste.


    2. Resize Factor ankreuzen und ebenfalls auf das einstellen was du bereits bei PointSize eingestellt hast.

    Sprich xBRZ hast du 6x genommen. Dann stellst du jetzt bei Resize Faktor ebenfalls 6x ein. Somit stellst du den zweiten Skalierer ab. Sprich der ist dann tot, da er die Auflösung 1:1 skalieren müsste und somit nicht arbeiten brauch.


    Passt dir aber die Auflösung nicht ganz, kannst du den zweiten Skalierer arbeiten lassen. Sprich dir fehlen z.B. noch ein wenig auf 1440p, dann musst du das selbst einstellen die Auflösung.


    Heißt: erst skaliert er mit xBRZ um das 6x hoch und wenn du dann z.B. 640x480 eingestellt hast, skaliert er wieder runter mit z.B. Spline64, sofern eingestellt.


    Empfiehlt sich übrigens um Aufnahmen zu Morphen. z.B. wenn sie im falschen Seitenverhältnis vorliegen wie z.B. Monkey Island 1 aus meinen Beispielen oben.


    Dann wird halt erst von 320x200 ( Aufnahme ) auf z.B. 1920x1200 ( 6x ) skaliert via Punktskalierer, und dann mit z.B. Spline16 auf 1920x1440. Damit wird das Video etwas gestreckt. Von 16:10 auf 4:3.


    Zum einen konnte somit der Punktskalierer sauber arbeiten und zum anderen hat das Video seine normale Ausgabe. Der nützliche Effekt wäre aber das ich somit auf 1440p kommen würde für YT xD



    Bei SNES = 512 x 448 (8:7) würde ich folgendes tun:


    448 * 3 = 1344

    448 * 4 = 1792


    Würde sich eine 3x Skalierung anbieten um später die 1440p zu bekommen. Oder gar 1792 für die 1800p


    Also Punktskalierer auf 4x mit xBRZ z.B.

    Dann hättest du schon mal 2048 x 1792

    Kannst du dann noch mal mit Spline16 auf glatte 2058 x 1800 bringen.


    Beachte das 2058 x 1800 keine exakte 8:7 Auflösung mehr ist, sondern nur eine gerundete Auflösung.

    Denn 1800 / 7 * 8 = 2057,14285.....


    Aber 2058 x 1800 ist dann für den Videoverarbeitung in z.B. MeGUI für den x264 Codec recht angenehm, da es sich um eine 8x8 Matritzen Auflösung handelt.

    Ideal wäre 16x16. Aber 8x8 ist auch gut. ^^


    Denke mal das wird nicht schwer sein. ;D

    Dann hau doch mal deine Tipps raus, werde demnächst auch wieder bissle Randomizer snes aufnehmen. Bisheriges Vorgehen war immer brzxy als Emulator skalierer zu nutzen dann in 1440x1080 mit magicyuv Version 2.20 farbraum 4:2:0 8bit aufnehmen und das dann mit spline 36 auf 2400x1800 60 fps aufzublasen für YT mit nem crf von 18. Eventl noch einen Rahmen für 16:9 und fertig wobei ich von den Rahmen inzwischen eher Abstand nehme.

    Nimm Emulator Spiele wie SNES, GBA, usw. am besten immer mit der original Auflösung auf.
    Die meisten Emulatoren bieten einen auch selbst Aufnahmemöglichkeiten an, die unabhängig von Filtern die Games in Original aufnehmen.

    Aufnahme am besten immer im RGB Farbraum durchführen.

    Pro:
    - Weniger Speicherplatz für Aufnahmen, da die Aufnahmen oft alle unter der 640x480 Marke fallen

    GB/GBC = 160 x 144 (10:9)

    GBA = 240 x 160 (3:2)

    SNES = 512 x 448 (8:7)

    ...

    Die Auflösungen sind Wichtig, da jede Aufnahme die Pixel in einen 1:1 Quadrat aufnimmt. Werden sie in einem Oval aufgenommen, also in einem falschen Seitenverhältnis, sind alle anderen nachfolgenden Tipps sinnfrei.


    - deutlich schnelleres Verarbeiten der Aufnahmen beim Rendern


    Kontra:

    - Ein wenig kniffliges Verfahren zwecks Mikrofon und Ingamesound Synchronisation, falls man über Emulator aufnimmt. (Man kann auch versuchen das Game ohne Filter in der Original Auflösung mit einem anderen Tool aufzunehmen. Geht aber meist schief, weil viele User da komplett falsch ran gehen oder lieber in einer in ihren Augen besseren Optik zocken wollen.)




    Die Aufnahmen kann man dann z.B. über den SSM mit einem Punktskalierer auf die gewünschte Auflösung bringen die man später für YT braucht. Darunter gibt es auch den xBRZ Skalierer. Skaliert werden sollte dann nur in Faktoren. 2x, 3x, 4x, usw.


    Die Rest Auflösung die dann noch fehlen sollte, kann ein anderer Skalierer arbeiten. Auch das kann man via SSM einstellen, sofern man das möchte.


    Wichtig ist aber im Grunde die Punktskalierung über Faktoren.


    Die Berechnung bei so wenigen Pixeln aus was die Aufnahmen bestehen gehen sau schnell durch den Prozess durch und man hat am Ende echt erstklassige scharfe Aufnahmen.


    Und falls interne Emulator Aufnahmen genutzt wurden, sogar ohne Tearing oder sonstige Bildfehler Quellen.


    So könnte es dann aussehen:

    160x144 auf 1600x1440 ( Skalierungsfaktor 10x )


    320x200 Aufnahme ( 1:1 Pixels Original )

    Skalierung auf 1920x1200 (Punktskalierung 6x )

    1920x1200 auf 1920x1440 ( Aspect Ratio Korrektur von 16:10 auf 4:3, da das Game auf 4:3 ausgelegt wurde. Sieht man am Mond z.B. das dieser nun Rund ist. Bei 320x200 wäre er Oval)

    Es ist immer besser zu strecken, statt zu stauchen, da sonst Bildinformationen flöten gehen könnten.


    320x200 auf 1280x800 ( Skalierungsfaktor 4x durch HQx)

    1280x800 auf 1560x1170 ( Restskalierung durch Spline16 )



    So bekommt man nicht nur eine 1a Quali, sondern kann die Verarbeitungsprozess enorm beschleunigen. Und nutzt nicht soviel Speicherplatz für die Aufnahmen.


    Und auch das Bearbeiten sollte schneller gehen, da die Aufnahme Auflösungen recht klein sind und somit schneller geladen werden können.


    Funktioniert aber nur bei Emulatoren die wirklich mit einer solchen geringen Auflösung operieren.


    720p auf 1440p geht auch noch mit nem Faktor von 2x. Aber das ist schon Grenzwertig. Einfach weil man nicht mehr soviel Heraushauen kann.


    Bei deiner jetzigen Methode hast du folgende Probleme ein SNES Game aufzunehmen:

    - Dein Aspect Ratio könnte verfälscht sein und dir somit Ovale Pixel liefern, die für eine Punktskalierung nicht geeignet sind.

    - Ebenfalls könnte durch eine Emulator Skalierung selbst diese Pixel einer Emulator Seitigen Skalierung zum Opfer liegen, solltest du extern mit z.B. OBS aufnehmen. Daher der Rat die interne Aufnahme Funktion zu nutzen.


    ODER du stellst den Emulator so ein das die Auflösung und das Seitenverhältnis so stimmt das die Pixel ein 1:1 Quadrat bilden. Zusätzlich müsstest du den Emulator so einstellen das rein gar nix das Bild verfälscht. Sprich keine Filter nutzen für das Bild. Erst dann könntest du extern mit z.B. OBS aufnehmen.


    - Bei Emulator Seitigem Aufnehmen ist das Risiko geringer das es zu einem Tearing kommt.

    - Ebenfalls wird eine interne Emulator Aufnahme immer in den FPS erfolgen indem der Emulator operiert. In den meisten Fällen ist das entweder 50 FPS bei PAL oder 60 FPS bei NTSC.

    (*beframes 2 statt 3 bezogen auf die "Empfohlenen Einstellungen für die Upload-Codierung" von YouTube selbst)

    Vergiss den Mist den die da posten schnell.


    Die B-Frames sind für die Dateikompression sehr relevant. Und zwar für die, die du auf deinem Rechner machst.

    Weil in dem Moment wo du es hochladen tust, wird es noch mal neu von Youtube kodiert und bekommen ihre eigene Enkodierungs Einstellung. Darunter auch die entsprechende Einstellung für B-Frames.


    Die B-Frames bauen sich auf die I-Frames auf.

    Sprich du hast erst ein I-Frame (Vollbild / Ganzes Bild), gefolgt von B-Frames (Differenz Bilder / Bewegungs Bilder). Die B-Frames tragen dabei nur noch Informationen die zum vorherigem Frame aufbauen.

    z.B. Bei einer Bewegung, werden nur noch diese Bewegungs Bilder gespeichert. Sprich alles was eine Differenz dargestellt hat zum zu vorherigem Bild.


    Gute Werte sind: 3-5

    Sind es Spiele im Comic Look ala Deponia, kann man es sogar auf 8 oder höher schalten um mehr Dateigröße einzusparen die man hochladen muss.


    Auch interessant sind die Dateigrößen der Skalierer:

    Spline 16 = 594 MB
    Spline 36 = 622 MB

    Spline 64 = 625 MB

    Spline 100 = 521 MB

    Spline 144 = 659 MB
    Lanczos4 = 652 MB

    Dateigröße selbst hat keine Relevanz. Weil das ist komplett unabhängig vom jeweiligem Quellmaterial ist.

    Aber daran sieht man mit welchem mehr Bitrate eingespart werden kann.


    Du wirst je nach Game mit einem anderen Skalierer mehr oder weniger Glücklicher werden als andere. Sprich das muss man testen.

    Die Frage ist auch immer inwieweit man skaliert.

    Sprich von 1080p auf 1440p ist es ein Faktor von ca. 1,3x

    Bedeutet das du ca. 33% hoch skalieren tust und dabei wird fast jeder Skalierer fast identisch wirken.

    Je höher der Faktor, desto mehr wird man den Effekt ersehen zwecks Schärfe, Treppeneffekte, Ringbildung.


    Gerade bei Lancos4 wirst du um bestimmte Sachen ein Ring Effekt haben. Sieht nicht schön aus ^^ Wird aber erst bei höheren Faktoren ersichtlich.


    Das Ziel für Youtube ist ein anderer mit diesen Skalierern.

    Höhere Auflösung = Mehr Bitrate von Youtube. Hier sei angemerkt das das eigene Video bei einer Hoch-Skalierung ebenfallst mehr Bitrate benötigen wird. Aber je nach Skalierer wird das mehr oder weniger sein.

    Wichtig ist aber folgendes: Je schärfer das Bild auf YT kommt, desto verschwommener kann es werden. Bzw. es kann sogar dann vorkommen das es in einen Pixelbrei auflösen tut.

    Daher der Rat von mir: Seicht vorgehen. Nicht zu scharf skalieren. Spline16 als auch Spline100 würde ich empfehlen wenn das Videomaterial sehr komplex ist.


    Spiele wie Deponia, Terraria, etc. würde ich Spline 64/36 nutzen. Weil viele Flächen in solchen Spielen eine Farbe haben und auch recht ruhig sind vom Bild her.


    Moderne Renngames oder Spiele mit viel Vegetation würde ich Spline16/100 empfehlen. Dadurch wird etwas Vegetation bzw. Detail verschmiert, wobei das Bild sich nicht in einen Brei verwandelt an solchen Stellen. (Das ist nur eine Gegenmaßname die man machen kann)


    Und ganz Wichtige Anmerkung:

    Ein Zuschauer pausiert keine Videos und schaut sich an wie gerade die Pixel aussehen. Wenn ein Video läuft und keine Referenz eines Vergleiches hat, so reicht es dem Zuschauer schon das das Video akzeptabel ist.

    Sprich: Kein dauerhafter Grafikbrei, sondern ein durchgehendes gutes Bild.


    Eine perfekte Videoqualität wird man nie erreichen auf YT. Schon gar nicht bei Games mit viel Details.


    Bei Emulatoren ala Nintendo, SNES, GBA, DOS-Box, etc... gibt es noch ein paar Special Tricks diese in einen Nahezu Ultra Videoqualität ohne Einbüße hochzuladen. Da nutzt man aber aus das diese auf niedrigen Auflösungen arbeiten.

    Sprich hier wird dann in z.B. 320x200 aufgenommen und später mit einem Punkt Skalierer mit Ganzen Faktoren skaliert. Ergebnis ist das die Bilder voll flächige Farben haben und somit A) Bitrate komprimiert werden kann und B) das Bild aufgrund dessen nicht verschmiert werden wird.

    Komischerweise habe ich noch keinen LP gesehen der das so macht. Da machen das viele lieber völlig ineffektiv und Verlustbehafteter. ^^


    MEGUI: Const. Quality, Quality 19, Preset Medium, 10-Bits-Encoding, ...
    (--output-depth 10 --crf 19.0 --bframes 2 --colorprim bt709 --transfer bt709 --colormatrix bt709 --output-csp i422)

    10 Bit Encoding ist sehr gut. Würde ich immer empfehlen.

    CRF von 19 kann man machen. Da ist halt die Frage wie Krass man das haben will. So ab 18, 17 stellt man keinen Unterschied mehr fest ohne mit dem Auge bei einem Standbild am Monitor zu kleben.


    Eine höhere Farbauflösung wie bei dir mit YUY2, ist natürlich auch so eine Sache. Ja, es hat einen positiven Effekt der Bildverbesserung. Hier sollte man sich aber immer Fragen: Ist es den Aufwand wert. Einfach weil deine Dateien damit deutlich größer werden und man somit mehr hochladen muss nur für einen kleinen Effekt.



    Es gibt leider kein Patent oder den heiligen Gral der perfekten Einstellung um Videos zu skalieren, oder für Enkoder. Das ist immer eine Frage des Materials.

    Und man wird immer Abstriche in Kauf nehmen müssen zwecks YT.

    zum einen: YT Videos müssen Streamfähig sein, daher wird seitens YT neu enkodiert und auf einen von YT Seitens entsprechender Standard genutzt

    zum anderen: sind die eigenen Videos auf dem lokalen Rechner immer besser, als wenn sie dann später auf ein Videoportal landen.


    Man muss es halt so hinbekommen, das wie erwähnt der Zuschauer keinen Dauerbrei ausgesetzt ist und zum anderen alles so anpassen das es nicht dazu kommt.


    Tips wären halt:

    Bluring in Spielen zu aktivieren. Bewegungsunschärfe halt, bzw. generell Hintergrundunschärfe. Hilft bei der Videokompression und dem Bild.

    Es ist nämlich völlig unnatürlich wenn weiter entfernte Sachen nicht verschwommen aussehen.

    Bei normalen Kino Filmen ist ein natürliches Motion Blur enthalten. Sprich das aus unserer Real Welt ;D Wenn man eine Kamera schnell bewegt, ist das wie als würde man den eigenen Kopf schnell bewegen. Was du sehen wirst ist eine Blur Effekt.

    Das hat was mit Licht zu tun ;D

    Bei Spielen hat man das nicht zwingend und muss daher erst Künstlich erzeugt werden.

    Ich weiß das das viele Gamer stört. Aber YT ist keine Konsole oder Computer was Bilder berechnet, sondern Bilder wieder gibt.

    Das sind 2 komplett unterschiedliche Sachen. ^^


    Hochskalierung. Bei dir würde ich eventuell Spline 16 empfehlen zwecks Crysis 1.


    Und mach wie gesagt ein paar mehr B-Frames rein. Würde es so bei 3 oder 4 einstellen für Crysis.


    Wenn man die Zahlen so liest, müsste rein von der Größer her der Spline 144 Skalierer der beste sein. Spline 100 wiederum der schlechteste.

    Jein. Wie gesagt: Dateigröße ist nicht ausschlaggebend.

    Wenn du aber Mathematisch gut bewandert bist (UNI, Fachoberschule), dann wäre hier ein Anfang: https://de.wikipedia.org/wiki/…ion#Bikubischer_C2_Spline


    Das Beispiel zeigt einen Spline16 auf.

    Sprich die Zahl der hinter der Spline Bezeichnung steht, sind die Koeffizienten Anzahl.

    Spline 16 besteht daher aus einer 4*4 Matrix

    Spline 36 aus einer 6*6 Matrix

    usw.


    Jedenfalls ändert sich dann der Zustand des Models / Kurve. Und somit auch die Art der Interpolation.


    Sprich Spline16 und Spline 100 sind Mathematisch fast identisch, da die Kurve schon eine Kehrtwendung macht.

    Von 16 bis 64 kann man das im SSM ersehen, da steigt die Schärfe und Ringbildung.

    Spline144 ist schon wieder eine Koeffizient der ein höheren Punkt hat in der Kurve. Dafür aber weniger Ringbildung.


    Für die Rechnung selbst muss man schon ziemlich firm sein in der Materie.

    Aber das wäre so ein Anlaufpunkt wenn man wirklich wissen will was am Effektivsten ist. ^^


    Nach Spline144 müsste es logisch weitergehen mit 196, 256, 324 usw.

    Macht aber keinen Sinn mehr, weil man sich sonst so A) langsam im Kreise dreht und kaum noch Effekte erzielt und B) der Mathematische Aufwand zu hoch wird. ^^


    ------------------------------------------------------


    Man kann noch mehr das ganze sagen. Aber das wichtigste ist zu wissen das es kein absolutes Top Bild geben wird. Vielmehr muss man dafür sorgen das das Bild nicht zerläuft, weil man die Bitrate gerade übersteigt. Und dein Spline16 Video sieht halt sauber aus wenn du da durch das Gras läufst.

    Komplexer wird aber dein Test Video wenn du bei Crysis z.B: in einem Wald bist mit viel Gras und eventuell noch ein Fluss daneben hast.

    Versuche dann wenn du an einen solchen Ort bist, die Kamera mit der Maus wie ein Irrer zu bewegen und baller ruhig auch ein wenig rum zwecks Licht Effekt durch Waffe. Wenn das Bild dann nicht verschmiert oder gar in einen Pixelbrei sich auftut, dann hast du gute Settings gefunden für deine Videos. Und das ist das Ziel auch.


    Dem Zuschauer ist es halt wichtig dem Geschehen verfolgen zu können ohne Augenkrebs zu bekommen. Den Rest des LP bist du verantwortlich. Sprich Videoqualität ist nur ein Bruchteil um Zuschauer zu bekommen und auf YT bekannter zu werden. ;D

    Gibt auch LPer die machen unterirdische Videos, sind aber dennoch Erfolgreich. ^^

    Ist halt die Frage wie man was verkauft.

    Also nicht RGB, sondern nur FBAS / Composite? ^^ Oder hast du ein Komponenten Kabel dran? Dann wäre es schon recht gut mit YV12 zu vergleichen.
    Oder doch S-Video? Ist schlechter als YV12.


    SCART kann nur das was ein Komponenten Kabel auch kann. Nämlich YV12 maximal.

    Das RGB steht für
    R -> Rotanteil YUV–V/Pr

    G -> Luminanz YUV–Y

    B -> Blauanteil YUV–U/Pb


    G -> bildet Luminanz

    RB -> bilden Chrominanz


    Gleiche wie beim Komponenten Kabel. Das ist das YUV Farbraum. Und das kann bei einem SCART nur YUV12 (Kurz: YV12)


    Bei S-Video würde bei einem SCART Adapter der R Anschluss gar nicht angesprochen werden. Da bildet einzig und allein der B Anschluss Pin den Chrominanz Anteil.
    Darum ist S-Video schlechter als ein Komponenten Kabel.

    Und YV12 ist kein reines RGB, sondern schon eine abgeschwächte Form des Farbraumes. Sprich das Bild ist nicht Klar und weist Farbunreinheiten auf, da ein YUV Signal immer mit Farnmatritzen arbeitet.


    Reines RGB ist an einer SNES aber dennoch möglich sofern man sie technisch intern modifiziert und beispielsweise ein HDMI Ausgang einbaut die auf die Ausgabe Leiter befestigt werden. Dann wäre das durchaus möglich auch reines Kristallklares RGB zu bekommen wie bei einem Emulator auch.

    Aber so... Never ;D


    Und da kannste mir glauben, ich hab so ein Ding bei mir Zuhause zu stehen wo ich das selbst angebracht habe.

    Ich befürchte schon länger, dass das Ganze einbricht, weil die Menschen nervös werden und es einfach nicht aushalten.

    Nein, nein, nein. Das ist einfach, weil der größte Teil der Menschen zu blöde ist und unter enormen Psychischen Krankheiten leiden die man nicht auf den ersten Blick sieht.


    Außerdem nervt es mich sehr, wie viele Leute das mit den Masken nicht kapieren. Oder ob sie das absichtlich machen? Ich seh die Dinger halt am Kinn hängen oder maximal über den Mund gezogen... :thumbdown: da kann man es auch gleich lassen :rolleyes:

    Stimme ich dir zu.

    Wir haben bei uns im Markt die Pflicht die Kunden die kein Mundschutz tragen:

    Stufe 1: ... sie zu beten es kontinuierlich zu tragen

    Stufe 2: ... sie des Hauses zu verweisen


    Stufe 3 (Bei unbelehrbaren Kunden)´: ... den jeweiligen Vorgesetzten ran zuziehen, der dann nicht nur ein Hausverbot erlässt, sondern auch die Polizei einschaltet.


    Und ein Supermarktmitarbeiter hat exakt ab dem Moment meinen Respekt verdient, wo er oder sie das Ding korrekt trägt - so wie die Kunden es sollen/müssen. Sieht man leider fast überall anders.

    Bei uns ist es nicht nur im Laden pflicht, sondern auch im Logistik Bereich. Kontinuierlich halt. Einzige Ausnahme ist der Raucherraum und Pausenraum. Und auch da dürfen nur bestimmte Anzahl an Leuten rein. Halt das der Mindestabstand eingehalten wird.

    Verletzen wir die Regel und nehmen den Mundschutz ab und werden dabei von einem anderen Kollegen erwischt oder auch Kunden der Petzt, dann kann das auch sehr schnell momentan bei uns zur Kündigung führen.


    Ja und MEINE Kollegen inkl. Vorgesetzter verhalten sich fast geschlossen ignorant gegenüber 1,50m & Co., "weil wir ja eh aufeinanderhocken". Mein Arbeitsplatz ist zu einem rechtsfreien Raum verkommen.

    Umso mehr solltest du Konsequent sein und die Regeln deinen Mitarbeitern beibringen.


    Beispiel:

    Will ein Mitarbeiter mit dir reden und trägt keinen Mundschutz oder Visier oder Wahtever, dann kläre das im Vorfeld das du ihn erst anhörst, wenn er dir gegenüber die momentanen Regeln einhält.

    Keine Weiterarbeit mit dem Kollegen, wenn er sich nicht an Bestimmungen hält.


    Bei uns dürfen wir nicht mal ein LKW abladen, wenn die Lieferanten kein Mundschutz haben. Nicht mal Kunden dürfen wir Ware aushändigen wenn sie ihr Zeug abholen kommen. Erst bei Maskenpflicht. Wie gesagt, halten wir bei uns nicht dran, ist das ne Abmahnung oder ganz und gar Kündigung.



    Hält sich keiner deiner Kollegen an die Regeln, kannst du auch das Gesundheitsamt kontaktieren und sie darauf hinweisen was bei euch abgeht. Eventuell schicken die dann einer unangekündigte Kontrolle durch euer Laden.

    Und dann kann das gut sein, das euer Chef wach wird, wenn dann die Schließung im Raum steht.


    Ich weiß das das eine Scheiß Idee ist sein eigenen Laden anzuschwärzen. Aber A) du willst sicher arbeiten und B) du willst den Scheiß Virus auch nicht unbedingt haben.

    So siehts halt aus.

    Intel Indeo Video 5.0 Wavelet

    Wie bist du auf die Idee gekommen diesen Codec zu nutzen? Der ist ja aus der Steinzeit ^^


    Wenn es ein Spiel sein sollte was über die DOSBox läuft, dann wäre der "Zip Motion Block Video" (ZMBV) den DOSBox von Haus aus drin hat geeigneter.


    Ansonsten wären Aufnahmen mit Drittprogrammen wie OBS, Afterburner und Co. folgende Codecs zu empfehlen:

    - MagicYUV

    - x264 (h264)

    - NVenc (h264) (Nur NVIDIA)

    - Lagarith

    - UTVideo

    - VCE (h264) (Nur AMD)

    - FFV1 (FFmpeg Video Codec v1.0 - v1.4)


    Die sind alle für Aufnahmen geeignet. Jedenfalls 1000 mal besser als dieser Indeo Codec von Anno Domino Schieß mich tot.


    Das letzte mir bekannte Game das diesen Codec genutzt hatte war bei mir SWAT3 von 1999.


    Zumal... du eine Aufnahme tätigst die eine Auflösung von 320x240 beträgt und mit einem Verlust Codec aufnimmst, wird das Ergebnis nicht gerade Prickelnd aussehen.



    Wenn du das Video aber dennoch decodieren willst, nimm dir FFmpeg und jage es dort mit folgendem Befehl durch:

    FFmpeg.exe -i "C:\Users\byte\Desktop\HypeConclusion.avi" -c:v utvideo -c:a copy "C:\Users\byte\Desktop\Video.avi"


    Du kannst es auch mit AVISynth machen, bräuchtest aber den Indeo5 Codec. Aber wozu Windows zusätzlich mit einem veralteten Codec belasten. Macht kein Sinn.


    FFVideoSource könnte es theoretisch auch, wenn man es richtig macht und er auch Zeit hat zu indexieren.


    Zumal ich auch nicht weiß was für ein Video Player er da nutzt um AVS Scripte abzuspielen. Weil manche Player sind recht Wiederspinstig.


    Bei denen das ganz gut klappt ist der MPC-HC.

    Und auch der im SSM mitgelieferte VideoDub kann AVS Scripte gut öffnen. Geht sogar von SSM selbst über die Vorschau Funktion.


    Deine Fehlermeldung lässt mich fast vermuten das keine Indexierung stattgefunden hat.


    Lade das Ganze wie folgt mal:

    Code
    LoadPlugin("C:\Program Files (x86)\SagaraS Scriptmaker\Plugins\FFMS2.dll")
    Video = "C:\Users\byte\Desktop\HypeConclusion.avi"
    FFIndex(Video)
    FFVideoSource(Video, threads=1)

    Lade diese AVS Datei dann mal in VirtualDub und warte ein Moment.


    Sollte das Video dann nicht zu sehen sein, schickste die Fehlermeldung mal.

    Ansonsten kannst du noch probieren ein neues FFMS2 zu nutzen ODER FFVideoSource aggressiver zu machen.

    FFVideoSource(Video, threads=1, seekmode=3)


    Du kannst auch mal seekmode=2 verwenden. 1 wäre standard. Mehr als 3 gibt es nicht.

    Linear wäre -1 und 0.


    Probiere es aus.

    Aber empfehlen kann ich nur ein anderen Codec zu verwenden als Indeo ;D

    encodiert wird hier gar nichts :C

    Kann SSM nicht und auch AVISynth können gar nix enkodieren. Nur Dekodieren und Transformieren.


    Fürs Enkodieren muss man die AVS Datei an ein Encoder schicken. z.B. an FFmpeg oder MeGUI. Halt irgendein Tool was AVS Dateien versteht und die Bilder an ein Encoder überreichen kann wie z.B. x264, UTVideo, usw.

    Der Text oben hinkt einfach an so vielen Stellen, dass ich gar keine Lust habe, ihn auseinander zu nehmen.

    Ist ja schon beeindruckend wenn man den Text bis zum Ende liest. ^^ Bestimmt ist er kein Verschwörungstheoretiker xD


    Würde mich eher interessieren von wo er seine Quellen bezieht oder ob er sich das selbst ausgerechnet hat. ^^


    Und wirkliche Panik bekomme ich kaum mit (außer den Hamstern).

    Das Hamstern ist eine Psychische Störung der Menschen.


    So am Rande: Man soll ja keine Gruppen bilden und min. 1,5 - 2,0 Metern Abstand halten. Und was machen die Leute? Richtig, sie gehen in Scharen einkaufen und kleben dicht an dicht vorm Kaufhaus.


    Die Medien als auch viele Paranoide Leute machen die Masse der Menschen total Wahnsinnig.

    Manchmal habe ich das Gefühl das Deutschland aus 90% Paranoiden Menschen besteht und 10% normale Menschen die ihrer Tätigkeit nachgehen und sich an die Maßnahmen halten.


    Haltet ihr Corona dann für gefährlich?

    Ich halte jeden Menschen für Potentiell gefährlich. Zumal recht viele nicht wissen was sie tun und Panisch umher irren.

    Mein Vater hatte mir gestern noch eine gute Möglichkeit genannt, Klopapier zu sparen. Immer nur ein Blatt nehmen und drunter dann Zeitung oder Papier packen zum Anfassen. So hält das dann auch länger...

    Oder wie die Römer, einfach mit nen feuchten Schwamm ;D

    Was ich an der Situation unfassbar Dumm finde von den meisten Leuten sind folgende Sachen:

    1. Diese Hamster Aktionen. Statt mal in Ruhe nachzudenken und Besonnen zu sein. Lieber drehen die meisten ab dank Medien und Panik-Getue. Da sieht man halt wieder wie viele Dumme Leute es gibt.


    2. Medien-Panik-Getue. Viele denken das Corona eine Art Pest ist. Nein, Gottverdammt. Es ist lediglich ein Virus der der Grippe ähnlich ist und halt explizit untersucht werden muss. Da der Menschliche Organismus ja auch Abwehrstoffe bildet dagegen wird halt Passiv ein Immunsystem gebildet dagegen.

    Ja, Corona bringt auch Opfer mit sich. Aber das beträgt gerade mal doppelt so viele wie bei einer normalen Grippe. Also ca. 3% Wenn überhaupt.

    Und gerade Ältere oder Menschen mit einer Lungenvorerkrankung sind mehr davon betroffen.

    Die meisten werden diesen Virus einfach wegstecken als wäre es eine normale Erkältung.


    Damit das aber nicht akut und abnormal jeden gleich betrifft, haben die Politiker halt eine Art Ausnahmezustand angeordnet.

    Denn Ziel ist es wie jeder schon mitbekommen hat, das der Virus über Langzeit sich verbreiten soll mit minimalen Betroffenen, sodass eine Gruppe von Menschen halt die Wirtschaft und den ganzen Kram weiter machen kann, während die andere Gruppe Krank ist.


    3. Aus eigener Erfahrung als Logistiker in einem Baumarkt... es gibt viele Kunden die Unfreundlich sind. Aber ich musste mich letztens mehrmals übels beleidigen lassen von Kunden und das nur weil die Herrschaften Schlange standen, ich als einziger in der Logistik war und jeder Kunde sich aufgeregt hat warum alles so lange dauert. Dann haben die auch noch angefangen die Ware intensiv zu begutachten usw.

    Es war Stress pur die letzten Tage. Und am liebsten würde ich solche Kunden zum Mond schießen. Sollten lieber den Personen Dankbar sein die noch während dieser Epidemie für solche Kunden arbeiten gehen.


    Echt... Dieses Gehamsterte und diese Unfreundlichkeit einiger Personen sind echt Asozial. Für sowas müsste man Geldstrafen verhängen. Als Reglung für Geschäfte.

    Ich erschieß die Leute bald. Die rennen wie die Tiere ohne Hirn in die Kaufhäuser und decken sich glatt für 1 Jahr ein.


    Alter... Was geht mit den Leuten ab? Ist grad Weltuntergang oder so? Ich dachte man solle Menschenmassen meiden?


    Ich war heute nur an Kundenkommissionen herrausgeben. Gefühlt 50 Leute. Als ob der der Baumarkt dicht machen wird demnächst.

    Aber auch beim Einkaufen...


    Wirklich... die Leute sind nicht ganz dicht. Die sind doch alle Krank im Schädel. Die sollen mal runter kommen von ihren Trip.

    Die erfinden gefühlt jedes 3te oder 4te Jahr eine neue Krankheit was die Medien ausschlachten können.

    Erst war es AIDS, dann BSE, dann Hühnergrippe, danach Schweinepest, jetzt Corona.

    Alter... es wird langweilig.


    Angst: Nö, warum auch? Entweder es passiert, oder es passiert nicht.
    Es ist einfach Unkontrollierbar, weil Menschen nun mal jeden Tag miteinander zu tun haben. Sei es durch Reisen oder Handel. Bleibt nun mal nicht aus.

    Und mal ehrlich... die Menschen sind doch selbst Schuld an den Kram. Die züchten ja die Viren bzw. lassen sie mutieren und hat man nicht gesehen.

    Früher hat man sich mit Giftgas beschmissen, heute machen wir das durch Menschenkontakt. Wo ist das Problem? ^^

    Eine GUI muss nicht unbedingt bunt sein. Wir sind aber in der Computerei nicht umsonst fortgeschritten, so daß auch Nicht-Nerds mit Computern arbeiten können. Als Softwareentwickler mit Schwerpunkt Nutzerergonomie muss ich mich schon fragen, warum bestimmte Menschen darauf bestehen, daß nur die Harten in den Garten kommen dürfen, die keine zig Kommandozeilenparameter im Schädel mit sich rumschleppen wollen.

    Mit AVISynth als auch FFmpeg kann man gezielter als auch qualitativ besser zum gewünschten Ergebnis kommen.


    AVISynth ist zum einen nicht schwer und zum anderen bietet es auch durch AVSPmod eine Benutzeroberfläche.
    FFmpeg ist Mittel zum Zweck. Man kann es in eine GUI stecken, aber man wird niemals ein Tool dafür schreiben das sämtliche Möglichkeiten abdecken wird das das Tool kann. Insofern werden Benutzer GUIs die mit FFmpeg arbeiten immer limitiert sein. Und bis jetzt habe ich nur extrem limitierte FFmpeg GUI Tools gesehen.


    Die Frage die man sich aber stellen sollte ist: Was möchte ich mit dem Tool tun?


    1. Ein Tool mit dem man aus einem bestehenden Video einen Teil extrahieren kann, ohne das Video neu rendern zu müssen. Der Grund ist, daß ich aus verlustbehaftet gerenderten Videos Sequenzen schneiden möchte. Würden diese dan erneut verlustbehaftet gerendert, würden sich logischerweise Kompressionsarte aufaddieren und der Matsch wäre unanschaubar. Meine Erfahrung

    Wirst du mit keinem Schnittprogramm machen können die ein tollen Namen haben wie Premiere, Vegas und Co. Das sind alles Tools die das Bild neu berechnen. Videos werden hier dekodiert und als RGB Material bzw. bei Premiere vllt. sogar als YUY2 behandelt. Bei der Ausgabe wird das Video neu berechnet (Rendern) und neu kodiert. Also schon mal nicht das was du suchst.


    Hier wäre FFmpeg eine kostenlose und gute Wahl um eine 1:1 Kopie zu machen bzw. Fragmente als 1:1 extrahieren zu können. Wichtig ist dabei das das Video eine intakte GOP hat. Sprich den doppelten Wert der FPS. Ansonsten kann es passieren das man es Zeitlich nicht exakt zerlegen kann.


    Alternativ kann man das auch mit VirtualDub machen.


    ODER man kauft sich Tools die nur das können was du hier brauchst. Sowas gibt es auch. Damit du auch der Wirschafts Ergonomie entsprichst xD So nach dem Motto: Mensch geht einkaufen -> Sieht gutes Produkt -> Kauft es -> Wirft es dann irgendwann weg, wenn Zweck erfüllt.
    Vorgang wiederholt sich, wenn Situation wieder eintritt. xD


    2. Ein Tool mittels dessen man die Audiospur des Videos ersetzen kann ohne das Video neu zu rendern. Also einfach Alternativaudio gleicher Länge im Video ersetzen.

    Nennt sich Muxen und Demuxen. Das sollten die Tools können die du suchst. Davon gibt es Massen von Tools.


    Mit FFmpeg geht das natürlich auch Problemlos, aber Alternativ dazu kann man MKVmerge + MKVextractor nutzen, falls MKV Datei, ODER MP4muxer, falls MP4 Datein. Oder VirtualDub falls AVI Datein.
    Man kann aber halt auch alles mit FFmpeg abdecken. Man kann aber auch alles Seperat haben mit einer tollen Benutzeroberfläche xD



    Willst du Exotische Sachen machen wie z.B. FLAC Datei in MP4, dann empfehle ich als FFmpeg Alternative MKVmerge.



    Und ja, FFmpeg wäre die einfachste Lösung von allem. Kostenlos, Runterladen, den jeweiligen Script eingeben und los gehts.
    Es ist zwars nicht das Benutzerfreundlichste was es gibt, aber das einfachste um ans Ziel zu kommen. Jedenfalls meine Meinung. Und ich arbeite viel mit Videos.




    Ansonsten für dich:


    Für deine Frage 1: https://www.videohelp.com/software/sections/video-encoders
    Hier musst du nur Ausschau halten nach Tools die A) Kostenlos und B) Videos extrahieren können. Da fallen sehr viele schon raus ;D
    Und wie gesagt: Viele dieser Tools wollen die Videos neu berechnen und nicht kopieren.
    XMediaRecode kann auch kopieren. Aber ich weiß da nicht ob er die angegebenen Zeiten die man gesetzt hat berücksichtigt.


    Für deine Frage 2: https://www.videohelp.com/soft…ons/video-de-multiplexers





    warum bestimmte Menschen darauf bestehen, daß nur die Harten in den Garten kommen dürfen, die keine zig Kommandozeilenparameter im Schädel mit sich rumschleppen wollen.

    Zu 1:
    ffmpeg -i "C:\Neuer Ordner\video.mp4" -ss 00:15:00 -t 00:02:00 -c:v copy -c:a copy "C:\Neuer Ordner\VideoCut.mp4"


    -i = Input
    -ss = Startposition
    -t = Länge
    -c:v copy = Codec Video kopieren
    -c:a copy = Codec Audio kopieren


    5 Parameter.... Wow.


    Zu 2:
    Mergen von Video und Audio:
    ffmpeg -i "C:\Neuer Ordner\video.mp4" -an -c:v copy -i "C:\Neuer Ordner\Audio.aac" -c:a copy "C:\Neuer Ordner\VideoAudio.mp4"


    -i = Input
    -an = Löschen des Audios von video.mp4
    -c:v copy = Codec Video kopieren
    -c:a copy = Codec Audio kopieren


    4 Parameter, von den nur 1 neuer hinzu gekommen ist.


    Also insgesamt 6 Parameter?

    ^^

    Wieviel hat FFmpeg noch mal insgesamt? xD
    Man kann sich das Leben schwer machen oder... man kann aber auch die Erfindung namens "Internet" nutzen und schnell fündig werden. xD

    RGBA / RGB32 = 32Bit (8Bit Rot, 8Bit Grün, 8Bit Blau, 8Bit Alpha Kanal)


    Diesen Farbraum braucht man nur in Programmen wie z.B. Blender, Aftereffekts, Photshop, Corel Draw, Maya, etc. pp)


    Für Aufnahmen von Spielen total unnötig, da es in diesem Moment genauso groß sein wird wie RGB.


    RGB / RGB24 = 24Bit Bit (8Bit Rot, 8Bit Grün, 8Bit Blau)


    Dieser Farbraum würde 1:1 deinem Spiel entsprechen.


    YUV444 = 24Bit (Wird unterteilt in einem 8Bit Leucht-, 8Bit Rotanteil und 8Bit Blauanteil Kanal)


    Von der Farbabtastung genauso hervorragend wie RGB / RGB24.


    YUY2 / YV16 = 16Bit (Unterteilt in 8Bit Leucht-, 4Bit Rotanteil und 4Bit Blauanteil)


    Horizontal gesehen ist nun jede zweite Zeile Farblos und wird durch Interpolation getuscht. Heißt das jede Farblose Zeile aus den angrenzenden Farblichen Zeilen rechnerisch ergänzt wird. Dadurch kann das Bild Horizontal gesehen etwas leicht verschwommen wirken.


    YV12 (Unterteilt in 8Bit Leucht, 2 Bit Rotanteil, 2Bit Blauanteil)


    Nun wird zusätzlich noch Vertikal jede zweite Zeile Farblos gestaltet. Ansonsten der gleiche Prozess wie bei YUY2 beschrieben.




    YUV Kanäle besitzen IMMER eine Farbmatrix und ein Farbbereich. In den meisten Fällen wird die Farbmatrix BT.601 für SD Filme genutzt, und BT.709 für HD Filme. Für UHD Filme gibt es noch BT.2020, habe ich aber bislang noch nicht in OBS oder MagicYUV gesehen.


    Farbbereiche werden unterteilt in PC Range (0 - 255) und TV Range (16 - 235)


    Zur Aufnahme eignet sich TV Range, da sowohl Youtube als auch alle anderen Videoprogramme in dieser Range arbeiten.


    RGB Farbräume nehmen immer in PC Range auf.




    Für Youtube Aufnahmen eignet sich in der Regel YV12, TV Range, BT.709 sofern du 720p+ Aufnahmen machst. BT.601 sofern du 720p- Aufnahmen tätigst.


    Höhere Farbräume wie YUY2 ODER RGB nur nutzen, wenn du das Video künstlich noch Hochskalieren möchtest.


    Beispiel wo RGB Aufnahmen Sinn machen würden:


    Aufnahme 320x200
    Skaliert auf 1920x1440 ohne Farbverlust:

    Ich spiele games immer auf easy und höchstens normal. Ich will einfach bisschen Inspiration für meine eigene Schriftstellerei und bisschen entspannen. Ich explodiere immer sofort, wenn ein Rätsel zu schwer ist oder ein Bossbattle dauert.

    Ja, kann ich gut verstehen. Sowas mache ich oft wenn ich irgendein RPG anfange. Erstmal Normal. Oder, wenn es wirklich in sich hat und ich mit der Handhabung noch Schwierigkeiten, dann auch mal auf Leicht um das Game kennen zu lernen. Weil ich möchte das Spiel beim ersten Lauf erst einmal genießen können so weit wie es geht ohne das es mich erschlägt. Wenn man dann aber einige Kniffe raus hat, und den Spielablauf so in etwa kennt, dann schalt ich meist hoch.


    Ich habe vorhin meinen YouTube Kanal endgültig gelöscht.

    Das ist Schade. Man kann ja andere Sachen machen die man gerne Präsentieren möchte.


    Was ganz gut läuft auf YT sind meist:
    - Tutorials zu verschiedenen Themen (Sollte dann aber auch Hand und Fuß haben)
    - Guides (z.B. für Trophäenjäger von Games)
    - Musik (Sollte aber Sicher sein das es GEMA Frei ist xD), denn Musik hört jeder

    ^^


    - Reviews zu irgendwas
    - Kreative Dinge (z.B. mit Blender, Photoshop, Gedichte etc. pp.)


    Da gibt es halt einige Dinge die man machen könnte und sie haben ein Mehrwert. Vor allem richtet sich deine Zielgruppe sich entsprechend.


    Wie man aber was am besten gestalten sollte oder dem Zuschauer begegnen sollte in einem Video muss halt durchdacht werden dann. Darüber könnte man schon Tutorials machen. Da gibt es viele Faktoren zu beachten dann. Kommt immer drauf an wie weit man das ausbauen möchte.


    Aber wenn es dir besser liegt da komplett keinen Gedanken dran verschwenden zu müssen, weil das normale Leben einen mehr im Griff hat, dann kann das auch jeder Nachvollziehen.

    ^^


    Internet ist ja nicht das Leben. Wir sind ja schließlich keine Smombies die irgendwie dauerhaft in der Cyberwelt sein müssen. Oftmals ist der nächste Freund/in direkt neben ein ohne das man es mitbekommt ;D

    Wofür macht man eigentlich Let's Plays?

    Um der Welt zu zeigen das man Spielen kann?

    ^^


    Es ist nicht wirklich was Produktives fürs Leben, so das man weiter kommt. Aber um sich von Gleichgesinnten Anerkennung und zu bekommen oder auch Aufmerksamkeit, ist das durchaus legitim sich durch sowas bekannt zu machen.

    ^^


    Um ehrlich zu sein... Let's Plays zu schauen ist für mich persönlich zu langweilig und selbst welche zu produzieren zu Mühselig. Mühselig deshalb, weil es A) am Ende eh kaum eine Sau schauen wird B) Der Bedarf auf YT mehr als Gedeckt ist und C) ich beim Zocken ständig drauf achten müsste ob Aufnahme, Festplatte etc... alles ok ist und und und... Da würde ich nie durch ein Game kommen.
    Ich zocke auch gerne Games, aber ich habe so Spaß daran und es ist sehr entspannend sich um nix anderes Gedanken machen zu müssen.


    Zumal der Gedanke mich plagen würde wenn ich Let's Plays mir anschauen würde, warum ich das entsprechende Spiel überhaupt noch kaufen sollte?


    Aber langsam habe ich Zweifel, ob eine Cam nicht zu "selbstdarstellerisch" wirkt und ab wann?

    Selbstdarstellerisch im welchem Sinne? Das jeder dich in deiner gewohnten oder gefakten Wohnung / Zimmer betrachten kann?
    Durchaus gibt es irgendwo Menschen die sich bei einem Video irgendwelche Sinnlosen Kommentare abliefern müssen oder nur weil sie ein Girl sehen, gleich unreife Kommentare absondern müssen die ins Vulgäre fallen.
    Entweder ist man da Eiskalt und ignoriert es oder man kommt damit nicht klar, dann sollte man es mit der Cam lassen.


    Und wieviel bleibt eigentlich noch von dem "eigenen content" übrig, wenn man im grunde nur das Spiel zockt und ohne Facecam kommentiert? Das klappt vielleicht bei Gronkh oder so. Aber so lustig bin ich zB. nicht und oft wurde mir gesagt, das meine stumme Gesichtskirmes in der Facecam das Spiel erst amüsant gemacht haben.

    Das klappt auch bei anderen. Gronkh und anderen ist das auch nicht in die Wiege gelegt worden. Das hat was mit Sozialen Umgang zu tun und wie man darin steht.
    z.B. Quatscht man mit Freunden auch mal Blödsinn oder total Sinnbefreites, so klappt das meist auch in anderen Situationen. Ist man aber ein eher Zurückgezogener Typ, so kommt das eher zur Geltung.


    Daran kann man aber immer arbeiten. Und sei dir gesagt: Dumm kann jeder reden. Das können so ziemlich alle hier im Forum. Aber nicht jeder sieht es gerne, wenn es so genannt wird xD Einige nennen es auch Studium. xD Das ist wie wenn einige sagen das Youtube ein Vollzeitjob ist. Vor allem mit Let's Plays xD


    Macht kein Sinn, aber so ist es halt.

    ^^


    Am Ende muss man es machen, wie man Bock hat. Es gibt mir ja keiner Geld dafür und ist ein Hobby. Aber wir reden hier vom Internet, wo man schon ein bisschen überlegen muss, was man so online stellt. Man muss schließlich dazu stehen.

    Genau. Hier sei gesagt: Ist der Ruf erst Ruiniert, lebt es sich ganz ungeniert.

    ^^


    Siehe TanzVerbot...... nein... schlechtes Beispiel.

    ^^


    Wo ist euer Antrieb

    Wie bereits erwähnt... Let's Plays mache ich nicht. Hatte damit zwars mal angefangen, aber keine Motivation gehabt. Hat im Endeffekt kein Mehrwert für mich gehabt.


    Dafür zocke ich Games aber bis zum bitteren Ende durch und wenn es wirklich Bock gemacht hat auch höhere Schwierigkeitsgrade. Mein Antrieb ist kein besonderer, es ist einfach der die Geschichte und das Gameplay zu genießen.


    Hatte erst vor einigen Tagen seit Jahren Resident Evil 4 wieder angetan. Da gab es Stellen die ich Abgrundtief hasse wie die Pest. Schlimmste ist aber das man es min. 2 mal durchspielen muss nur um dann OP Waffen freischalten zu können. Aber das Gefühl das man es geschafft hat ist der gleiche wie als wenn man bei Dark Souls ein Boss gelegt hat.


    Erst ärgere ich mich gefühlte Tausend male, aber dann wenn man es geschafft hat... gefühlte dreitausend Steine vom Herzen leichter xD Und dann will man natürlich wissen was dann kommt.


    Noch ein guter Antrieb sind Games mit Coop Modus bei mir. Ich würde z.B. glaube ich nie Stardew Valley zocken, weil das auf Dauer einfach zu langweilig wird. Aber im Coop macht das schon etwas Spaß. Genauso Minecraft oder Ark.
    Auch Diablo 3 wäre alleine zu langweilig. Aber hey... Wozu hat man denn Freunde?

    ^^

    Meist der Erststart. Der sollte mit ungeänderten Settings erfolgen über den im Setup neuen mitgelieferten Launcher.
    Sieht dem Original zum verwechseln ähnlich:
    Bild des neuen Launchers


    Und auch nur darüber das Spiel starten, da somit auch einige Patches aktiviert werden usw.
    - Erst ein Kaltstart mit ungeänderten Settings,
    - dann kannst du die Settings frei wählen.


    Ansonsten:


    Starte das Spiel bitte über den im Setup mitgeliefertem Launcher und prüfe nach ob folgendes so da steht wie auf diesem Bild:
    Launcher - Tab_General


    Wichtig ist das ganz oben dgVoodoo DirectX Wrapper ausgewählt ist.
    - Ist dies nicht der Fall, bitte über den Regulären Star Wars Launcher dies umstellen. (NICHT IM SPIEL)


    Ist nämlich dgVoodoo nicht ausgewählt, kann es auch ein Grund sein warum die Grafik nicht initialisiert werden kann.


    Sollte dgVoodoo falsch voreingestellt sein sein. so bitte an den Beitrag Nr. 13 halten in diesem Thread: https://letsplayforum.de/threa…ostID=2284659#post2284659


    Im Setup mitgelieferten Launcher dann auch folgendes beachten:
    - Auflösung von 640x480 für den Erst Start.


    Dies soll erst mal nur zum testen sein ob das Game anspringt.


    Springt das Spiel mit der Auflösung an, kannst du andere Auflösungen probieren.
    Es sei angemerkt das das Spiel nicht jede Auflösung erkennen kann bzw. akzeptiert. Dann kann die Grafik nicht initialisiert werden.



    Ebenfalls sollte das Spiel als Admin installiert werden + als Admin ausgeführt werden. Hier geht es um Schreibzugriffs Rechte des Spiels zwecks Einstellungen und das anlegen von Temporären Dateien wie z.B. Savegames / Einstellungen etc. pp.
    Wenn etwas nicht initialisiert werden kann, kann es auch an soetwas liegen

    Ich hab das Gefühl, dass eine Kopie der Streams nicht so sehr eine Kopie ist, wie ich das erwartet habe.

    Eine Kopie eines Streams erfordert den Codec + den passenden Container.


    Ein Beispiel:
    Kopierst du ein PCM Stream in ein MP3 Container, dann wird entweder FFmpeg dir sagen das es nicht geht ODER er macht es im Zusammenhang das er es Konvertiert. In diesem Falle ist es keine Kopie mehr.


    Wichtig ist halt wie du dein FFmpeg Befehl schreibst. Die Argumente die du nach ffmpeg schreibst, haben alle ihre Bedeutungen. Die darf man nicht wild durcheinander schreiben, sondern muss wirklich eine Reihenfolge beachten.


    Daher immer Wichtig, wenn du da kein Plan hast dein Skript vllt. hier im Forum zu posten. Dann kann der eine oder andere auch helfen was genau schief geht.


    und ihn weitergeführt für die entsprechende Anzahl an Streams. Da wird der Fehler "Stream map '0:2' matches no streams.
    To ignore this, add a trailing '?' to the map." angezeigt.

    Stream 0:2 bezieht sich auf die Datei "in.mp4". Das ist mit der 0 gekennzeichnet. Und da willst du den Stream 2 haben. Den gibt es aber nicht.
    Du zeigst praktisch auf etwas Leeres.


    Als Beispiel wie du Map verstehen musst:



    Deine InputsDeine Streams (Index)
    0 (in.MP4)0 (Video Stream)
    1 (Audio Stream 1)
    2 (Audio Stream 2)
    3 (Untertitel Stream 1)
    4 (Untertitel Stream 2)
    1 (Dummy.wav)0 (Audio Stream)
    2 (Untertitel.srt)0 (Untertitel Stream)



    usw.


    An sich selektierst du nur mit map aus solch einer Liste.


    Bei in.mp4 hast du die Audio Streams schon mit -an gekillt. Die sind also nicht mehr da. Daher kannst du sie nicht mit map 0:1 und map 0:2 ansprechen. Die sind einfach nicht mehr da.


    WICHTIGER HINWEIS: Du arbeitest mit einem MP4 Container. Dieser versteht kein PCM WAV Audio. Erzeuge entweder eine passende leere AAC oder MP3 Audio Datei indem du die Dummy WAV umwandelst.
    ODER du nutzt als Ausgabe ein MKV Container.


    An sich müsste es so aussehen:
    Dummy1 und Dummy2 sind identisch.


    Code
    ffmpeg -i "in.mp4" -an -c:v copy -i "dummy1.wav" -c:a copy -i "dummy2.wav" -c:a copy out.mkv


    ODER

    Code
    ffmpeg -i "in.mp4" -an -c:v copy -i "dummy1.aac" -c:a copy -i "dummy2.aac" -c:a copy out.mp4

    Hier wird jetzt folgendes gemacht:
    Vom Video "in.mp4" werden alle Audio Spuren gekillt. Der Videostream wird mit aktuellem Codec kopiert (das macht das -c:v copy).


    Dann wird eine Audiospur Dummy1 angehangen (Diese hat im File Out.mp4 die Position map 0:1)
    Dieser Stream wird mit aktuellem Codec kopiert.


    Dann wird zum Schluss die Audiospur Dummy2 angehangen (Diese hat im File Out.mp4 die Position map 0:2)
    Auch dieser Stream wird kopiert.


    Im Endeffekt sind alle Streams kopiert. Außer die die entfernt wurden.



    Hältst du die Reihenfolge nicht ein, muss -map genutzt werden.
    Auch hier ein Beispiel:


    Code
    ffmpeg -i "in.mp4" -i "dummy1.aac" -i "dummy2.aac" -map 0 -an -c:v copy -map 1:0 -c:a copy -map 2:0 -c:a copy out.mp4