Beiträge von A.F.K DaN

    Vorher NV, jetzt eine AMD im Rechner.

    Ja der NVEnc ist v.a. fürs Streaming in niedrigeren Bitraten (also speziell Twitch) schon um einiges besser.

    Kürzlich gab es für OBS einen "Fix", da wohl vorher auch B-Frames nicht so richtig funktioniert hatten, was die Effizenz etwas verbessern soll, aber auf Augenhöhe ist der alte h264 Encoder dadurch dennoch nicht. Fürs Twitchstreaming bleibt für ein gutes Bildergebnis eigentlich nur die CPU und x264.


    Für Aufnahmen auf Youtube macht das keinen wirklichen Unterschied. Das Endergebnis auf Youtube schaut meines Erachtens exakt gleich so aus wie vorher mit Nvidia. In beiden Fällen mit CQP aufgenommen, allerdings musste ich bei der AMD - v.a. wenn ich nebenher noch auf 3200x1800 upscale, schon mal von der Qualitätsstufe auf 19 herunter, da aonsnsten in sehr bunten Spielen im OBS der Encoder überlastet (Stichwort Effizienz wieder). Das hatte ich mit der Nvidia vorher nicht, lag vielleicht aber auch an der jeweiligen Spieleauswahl. Da ist ja jedes Spiel sehr unterschiedlich wie viel Platz pro Minute benötigt wird. Ob man das Quellmaterial jetzt aber mit CQP 16 oder 19 aufnimmt, macht, so meine Erfahrung, für das Endergebnis auf Youtube trotzdem keinen Unterschied. Da ist das Upscaling wichtiger damit Youtube entsprechend Bitrate ermöglicht.


    Jetzt hat AMD allerdings neben dem herkömmlichen h264 Encoder auch noch einen für h265. Dieser ist deutlich besser und effizienter, allerdings wird der fürs Streaming quasi nirgends unterstützt und auch beim Videoschnitt muss man erst einmal die passende Software haben, die damit umgehen kann. (mein Vegas 14 oder 16 kann das z.B. nicht).


    Man bekommt schon alles abgedeckt, was man machen möchte, aber es ist zum Teil mit etwas mehr Umwegen verbunden als das bei Nvidia der Fall ist.


    Zu den von dir sonst genannten / genutzten Features kann ich ansonsten leider wenig sagen, da fehlt mir jetzt Wissen dazu.


    Zum Thema AMD Treiber aber noch etwas:

    Ich hatte schon viele AMD Karten, dazwischen eben vor kurzem eine Nvidia (2070s). Ich hatte bei beiden Herstellern Probleme, die unterschiedlich gelagert waren, aber in beiden Fällen konnte ich immer eine Lösung finden.

    Bei Nvidia gabs zwischenzeitlich Probleme mit Freesync Nutzung (Einrichtung, teilweise blieben Spiele beim Start schwarz, usw.) sowie ab einer bestimmten Version gab es bei der Nutzung von VR immer wieder kleine Microfreezes was effektiv dazu geführt hat, dass man auf einen älteren Treiber festgepinnt war, wenn das wie z.B. für mich und mein Simracing Hobby ein K.O. Argument war.


    Bei AMD gabs jetzt allerdings auch kürzlich ein Problem durch neueste DirectX Optimierungen, die dazu geführt hat dass man entweder diverse "Treiberoptimierungen" in der Software deaktivieren musste oder auf einen Treiber von Ende Mai zurück musste.

    Gleichzeitig, gabs auch für meine Hauptsimulation ein Problem, dass ich die Taktraten für die Grafikkarte manuell für die Simulation "festlegen" musste, als ich über ein "Mod-Protokoll" die Sim nutzen wollte. Kann man jetzt als Treiberrpoblem sehen, muss man aber nicht, da es wie gesagt nichts offiziell unterstütztes ist seitens des Herstellers.


    Man sieht also, Probleme gibt es auf beiden Seiten. Darüber hinaus hatte ich sonst aber mit keinem der beiden Hersteller in den Spielen selbst Probleme. Da sind noch viele Märchen von ganz ganz früher im Umlauf, die sich hartnäckig halten, während bei Nvidia die "Killertreiber" gerne mal ganz schnell wieder vergessen werden.


    Für meine Nutzung macht es am Ende des Tages quasi keinen Unterschied ob NV oder AMD im Rechner steckt. Habe daher zuletzt auch auf das deutlich bessere P/L und die höhere Zukunftssicherheit dank mehr VRAM geschaut, da ich v.a. bei den Preisen diesmal nicht unbedingt in 2 Jahren schon wieder was Neues kaufen will.

    DLSS oder Raytracing sind für mich persönlich nicht so wichtig. Zumindest was DLSS angeht, legt aber AMD ja auch mit FSR 2 und 3 nach. Raytracing Leistung hinkt AMD eine Generation hinterher.

    Ich für mein Teil zieh die Games auch immer komplett durch und schau dass ich für die allermeiste Zeit bei ~30 Minuten pro Folge raus komme. Ausnahmen sind da im Regelfall nur Strategiespiele wo halt dann eine Mission am Stück rausgeballert wird, ziemlich unabhängig davon wie lang die Folge ist.

    Dazu muss ich aber sagen, ich LP grundsätzlich halt so ziemlich alle Spiele auf die ich gerade Lust habe ohne zu viel darüber nachzudenken ob die Spielewahl jetzt 100%ig perfekt für YT bzw. das Lets Play Format ist.


    Mein Kanalkollege spielt aber aus genau diesen Gründen primär nur eher kurze Games, da er auch lieber mehr Abwechslung auf dem Kanal haben möchte und lange Projekte quasi immer nach den ersten 5-10 Folgen deutlich einbrechen was die Aufrufzahlen angeht.

    Es steht jedem frei zu nutzen was einem besser passt - wenn Raytracing, DLSS und der Encoder ausschlaggebende Argumente sind, ist das absolut legitim. Bei einer 3090 ist ja auch die Menge des VRAMs kein Problem.


    Wollte hier nur mal eine Gegenmeinung einbringen, weil ich es immer wieder lese und es auch sachlich einfach nicht korrekt ist zu sagen "Nvidia Gott, AMD Teufel". Es gibt heute und gab auch in der Vergangenheit mehr als genug Gründe die auch gegen Nvidia sprechen - oder eben für AMD (gleiches gilt natürlich auch umgekehrt).

    Hatte erst jüngst in den letzten paar Jahren eben beides abwechselnd im Rechner und beide haben ihre Arbeit erledigt bekommen. Die Wechsel fanden irgendwann nur aufgrund von Mehrbedarf an Performance für den jeweiligen Einsatzzweck (Simracing in VR) statt.

    Ich bild mir ein, dass es "Indianapolis 500" von Papyrus Anfang der 90er bei meinem Onkel war. Der hatte einen PC, den ich später geerbt hatte und auf dem u.a. eben das erwähnte Spiel sowie irgendwas von Asterix drauf war.


    Indi 500


    Erschreckenderweise war das damals sogar ein ziemlich realistisches Game wenn man es in den Kontext der 80er / 90er Jahre setzt und deutlich "kompetenter" in einigen Punkten als das was an Rennspielen auf den 16- und z.T. auch 32-Bit Konsolen kam.

    Dass man den Encoder für streamen nicht so gut findet, geschenkt, da ist der von NV mit begrenzter Bandbreite in der Tat besser, aber bei CQP aufnahmen die dann erst später bei YT landen gibt es in der Qualität nicht viele Unterschiede. Bin auch Nutzer einer 6800XT, meine Aufnahmen für YT empfinde ich jetzt nicht als schlechter im Vergleich zur 2070s vorher?


    Die anderen NV Features erkauft man sich halt momentan meistens mit einem weniger an VRAM oder deutlich höherem Preis. Das VR Headsets nicht (alle?) auf AMD laufen ist mir auch neu, meine G2 funktioniert wunderbar. Frag mich was das dann für sonderbare Hardware sein muss?

    Bei den Treiber hab ich sowohl hier wie dort schon Gutes wie Schlechtes erlebt. Bei NV Probleme mit Freesync Nutzung, VR Miniruckler ab bestimmten Treiberversion (das war mega ärgerlich, weil das ewig nicht gefixt wurde obwohl bei NV bekannt) sowie starten von Games gehabt, bei AMD funktioniert die neue DX11 Optimierung leider auch noch nicht fehlerfrei und das OpenXR Protokoll im VR erfordert manuell festgelegte Taktraten im Treiber, damit es nicht runtertaktet und zu Rucklern kommt.


    Die einzigen Argumente die man stehen lassen kann sind NVEnc zum streamen auf Twitch, wenn man da nicht ohnehin die CPU lieber nutzt sowie Support bei älteren (DX9/DX10 und älter) Games. Rest liest sich leider nach ziemlichen NVidia Fanboy Bias um ehrlich zu sein.

    Erzählt das nicht weiter aber ich habe selbst bei Spielen die ich kenne teilweise eine Komplettlösung offen um zu planen wie weit ich gehen kann bis es zu "Grind" führt. Das schützt natürlich auch vor dem bösen Schnitt. Die Spoilern meist auch nichts wirklich.
    Bei neueren Spielen allerdings schwierig und mein Spielerlebnis schränke ich eh ein eben weil ich es aufnehme ansonsten würde ich mir Privat ja auch mit dem Game meine Zeit selbst einteilen können um ewig die Landschaft zu betrachten etc. xD


    Während der Aufnahme hat man ja (ich zumindest) immer den Gedanken, dass ich meinen Zuschauern mehr vom Spiel zeigen möchte. Deswegen bin ich in LPs auch zielstrebiger als Privat.

    Am Ende muss jeder für sich selber entscheiden was ihm/ihr mehr zusagt. Schneiden oder einfach so lassen.

    Das mit der Komplettlösung wundert mich ehrlich gesagt nicht bzw. da bist du sicher nicht alleine.

    Ich verfolge da aktuell auch einen LPer, der fleißig (klassische) Point & Clicks spielt. Teilweise zum allerersten Mal. Da merkt man beim zuschauen direkt schon, dass er "heimlich" nebenher eine Komplettlösung offen hat oder zumindest sich vorher schon schlau gemacht hat, was als nächstes zu tun ist, andernfalls käme er nicht so reibungslos durch die Rätsel ;-)

    Als Zuschauer der die entsprechenden Spiele selbst gespielt hat, hat das für mich dann immer ein kleines "Gschmäckle" weil der Spieler / LPer an der Stelle nicht ganz ehrlich mit dem Zuschauer ist, meiner Meinung nach, oder sich das zumindest für mich nicht authentisch anfühlt.


    Allerdings muss ich gestehen bin ich auch nicht 100% gefeit vor sowas. Zumindest wenn ich bei Spielen unerwartet feststelle, dass ich wirklich gar keine Ahnung hab wie es weiter geht - weil z.B. ein Rätsel für mich gar keinen Sinn ergibt oder ich bei einem Bosskampf ein Muster nicht durchschauen kann (oder ein Spiel an einer Stelle schlicht unfair ist), dann wird punktuell auch mal gespickt. Trotzdem versuche ich Spiele so gut es geht "blind" zu spielen oder mir auch sich stellende Herausforderungen zu erarbeiten.


    Das mit dem "zielstrebiger" sein kann ich nachvollziehen. Darauf zielte ja auch meine ursprüngliche Frage mit dem neben-klimmbimm ab. Off-screen störts niemand, wenn man mal orientierungslos durch die Gegend streift oder erkundet ohne dabei auf irgendwas relevantes zu stoßen. In einer Aufnahme wirkt das halt mitunter etwas komisch.

    Bei klassischen Lets Plays gibts bei mir auch nur Cuts in Ausnahmefällen, heißt wenn durch Bugs z.B. Stellen mehrfach gespielt werden müssen bis es endlich einmal klappt oder wirklich extrem viel Zeit für eine Stelle drauf geht.

    Andererseits hab ich aber auch wenig Probleme damit mein "Versagen" oder eine Lernkurve in LPs drin zu lassen. Das kann dann teilweise auch mal eine halbe Folge füllen. Ob das jetzt interessant zuzuschauen ist, weiß ich aber selbst nicht so recht :-)


    Podcasts erfahren bei uns meistens nochmal einen "Feinschnitt", heißt da werden nochmal unnötige Längen oder Füllwörter rausgenommen. Bei meinem Simracing Content schneid ich natürlich nur auf's Wesentliche herunter.


    An der Stelle, und auch weil ich letztens erst eine Diskussion mit meinem Kollegen hatte, würde mich eine andere Frage aber auch mal interessieren (falls das nicht gar ein Thema für einen eigenen Thread ist): Wie geht ihr mit Spielen um, die neben einer recht geradlinigen Geschichte noch jede Menge freischaltbares bzw. Sammelzeug haben, womit man auch tonnenweises Folgen befüllen könnte, das aber mitunter ja nun wirklich nicht zwingend interessant zum zuschauen sein muss? Konkret hatten wir da unser aktuellstes Projekt - ein Lego Spiel - diskutiert, bei der man über diverse Umwege noch Steinchen farmen und damit über Muster Gadgets bauen kann um ultimativ mehr optionale Charaktere freizuschalten (die für die Story aber quasi nicht relevat sind).

    Andererseits hatte ich auch kürzlich ein Spiel, welches immer wieder Backtracking für Nebenquests erfordert hat. Das hab ich dann tatsächlich offscreen gemacht, da ich es nicht sonderlich interessant fand die selben Ecken im LP 5x durchzuspielen und "zu zeigen". Insofern auch eine Art "Cut".

    gar nicht? :-D

    Wenn mir was vorgeschlagen wird auf der Startseite was mich interessiert und ich noch nicht gesehen hab, schau ichs mir an. Ansonsten hin und wieder mal die Kanäle durchswitchen die abonniert sind, insbesondere dann wenn dort Projekte laufen die ich mehr oder minder aktiv verfolge.


    Hoffe die Antwort zählt auch ^^

    Achso, kurze Ergänzung dazu noch:

    Je nachdem ob das Spiel im Vollbild oder im Borderless Window läuft ist es unter Umständen nötig im OBS via "Transformieren" die Ausgabe "links" um eine gewisse Pixelanzahl zu beschneiden damit du eben nicht linken Balken + Teil des Spiels aufnimmst.


    Heißt bei mir z.B. bei 2560x1080 im Transformieren Fenster "-320" eintippen (da 2560 quasi (1920 + (2x 320) ist und die 2x 320 die jeweiligen dann schwarzen Balken repräsentieren), damit der linke Balken gecuttet wird, der rechte Balken ist dann ohnehin außerhalb des Sichtbereiches und somit uninteressant. Sieht man aber ja in der OBS Vorschau schon wie das ganze beim aufnehmen aussehen würde.

    Du kannst doch einfach die Spielauflösung auf 16:9 ändern und DANN die entsprechende Spielausgabe mit 16:9 aufnehmen - mach ich auch meist bei Spielen als Nutzer eines 21:9 Monitors.

    Bedeutet aber natürlich, dass du beim spielen den Nachteil hast, dass eben links und rechts 2 schwarze Balken sind bzw. der Monitor eben nicht voll ausgefüllt wird mit "Spiel".


    21:9 aufnehmen und dann 16:9 vollwertig ohne Verzerrung oder Balken im Vollbild abspielen ist nicht möglich, wird auch nie möglich sein.


    Upscaling funktioniert via OBS übriges nicht nur per NVIDIA Karte, klappt auch mit meiner AMD ganz genauso gut ;-)


    Also - TL;DR

    Spiel auf 16:9 Auflösung umstellen, im OBS mit 16:9 aufnehmen und als Basisleinwand 1920x1080 wählen und Upscaling auf 3200x1800. Brauchst also kein neuen Monitor kaufen.


    Mach ich in letzter Zeit immer und bin der Meinung die Ergebnisse auf YT können sich dahingehend sehen lassen.


    Beispielvideo

    Grundsätzlich gilt bei Festplatten: kann man Glück haben, kann man Pech haben. Ziemlich unabhängig vom Hersteller.

    Intern werkelt bei mir z.B. eine Hybrid Seagate (SSHD 2TB), extern eine WD, beide halten zum Glück bisher ohne Probleme. Ob dir die Aussage jetzt aber weiter hilft, weiß ich nicht :-)

    Richtig, was Drexel sagt mit dem duplizieren / zusammenführen wäre auch mein Vorschlag gewesen. So kommt am Ende auf beiden Ohren quasi der selbe Ton an. Bei mir im Vegas sind das quasi 2-3 Klicks auf die entsprechende Tonspur.


    Hab auch mal kurz in 2-3 Videos reingeschnuppert, ja, ist in der Art enorm anstrengend mit Kopfhörer wenn da nur auf dem linken Ohr Sprache kommt. Der Gameplay Sound ist "normal", also Stereo. Mit Lautsprechern kann man sichs noch irgendwie anschauen, aber auch da hört man schon dass irgendwas nicht ganz passt.


    Finds grundsätzlich immer eine gute Idee mal mit mehreren Endgeräten den Sound gegenzuprüfen. Hatte auch schon den Fall das es auf Gerät A gut klingt, auf B dann aber irgendwie nicht mehr - oder man hört irgendwelche Anomalitäten raus auf einem Gerät.

    Hallöchen und herzlich willkommen :-)


    Viel Spaß und Erfolg mit deinem Kanal, bei einigen Spielen find ich das Konzept von dir durchaus interessant. Lass hier und da auch mal unkommentiertes Gameplay im Hintergrund laufen.


    Was sind für dich Simulationen?

    Via Nvidia Experience steuerst du quasi auch den Hardware Encoder der Grafikkarte an, exakt genau so wie man es über OBS auch tun kann. Das ist so der Quasi-Standard für die meisten Lets Player sofern man das nicht über die CPU macht oder auf das AMD / Intel Pendant setzt.


    1440p ist auf Youtube eine Ecke besser als 1080p, den besten Codec gibts meines Wissens nach ab 3200x1800 (auch eine 16:9 Auflösung), daher wird oftmals empfohlen via OBS die Aufnahmen auf diese Auflösung hochzuskalieren. Damit hat man, abgesehen von nativ 4K so ziemlich das Beste rausgeholt was mit Youtube möglich ist.

    Hi Yumakuru,


    leider lässt Youtube keinen verlustfreien Upload bzw. Bereitstellung zu. Das schwarze Teile im Video oft nicht sonderlich schön aussehen liegt in erster Linie an der verwendeten Bitrate und Codierungsverfahren. Bei Youtube hängt dies dann auch noch mit der Auflösung des Videomaterials zusammen das du hoch lädst.


    Komplett verlustfrei aufnehmen ist äußerst ressourcenintensiv weil du quasi X Bilder (entsprechend deiner FPS) pro Sekunde verlustfrei generierst. Da gabs z.B. früher mal das TGA Bildformat was meines Wissens verlustfrei gearbeitet hat und dementsprechend schon bei kleineren Auflösungen wie 4:3 1024x768 gerne Screenshots mit mehreren MBs erzeugt hat. Das ganze mal hochgerechnet, kannst du dir ausmalen wie heftig das zum einen auf der Platte Platz benötigt und ganz ohne CPU Ressourcen kam das definitiv auch nie aus.


    Mit modernen Coderiungsverfahren gibt's, grob gesagt, alle X Frames ein verlustfreies Bild und ab dann werden via der zur Verfügung stehenden Bitrate Änderungen seit dem Bild berechnet. Umso mehr sich ändert, umso mehr Bitrate braucht man also quasi. Dafür gibt es dann entweder die Möglichkeit das Ganze via Software (x264 / x265) oder via auf den Grafikkarten verbauten separaten Chips aufzunehmen (NVidia NVENC, quasi die Hardwarevariante von x264/x265). Das ist unterm Strich deutlich ressourcenschonender und man bekommt dennoch sehr gute Ergebnisse hin.


    Jetzt kommt obendrauf allerdings noch der Faktor Youtube:

    Abhängig von der Auflösung wird dort ebenfalls noch einmal mit einem bestimmten Codierungsverfahren und einer festgelegten Bitrate "drübergerendert".

    Lädst du z.B. Quellmaterial mit 1080p hoch, dann bekommt das eine relativ niedrige Bitrate von Youtube verpasst inklusive einen nicht ganz so effizienten Kodierer, weswegen die Ergebnisse v.a. bei schnellen Bewegungen oder schwarzen Bildern oft nicht schön aussehen.


    Dem entgegen wirken kann man dann nur, wenn man entweder mit höheren Auflösungen aufnimmt, 1440p oder besser gar 4K und das hochläd (zur Not auch hochskaliert). Dadurch gibt einem Youtube einen deutlich mehr Bitrate / besseres Kodierungsverfahren und das Ergebnis schaut besser aus.

    Trotz allem ist der Unterschied zwischen der lokalen Aufnahme auf dem PC und dem Ergebnis auf Youtube deutlichst sichtbar. Man hat auf Youtube noch einmal einen ziemlich heftigen Qualitätsrückgang, unabhängig was man macht. Die lokalen Aufnahmen weisen oft keine Probleme auf, speziell in den Problemzonen.


    Verlustfrei aufgenommen hat man seinerzeit mal mit Fraps, wird aber sicherlich auch über OBS noch mit den richtigen Einstellungen gehen. Wie gesagt, hochgeladen auf Youtube ändert sich trotzdem relativ wenig am Ergebnis.

    Hey Kadisto,


    zu allererst noch ein frohes Weihnachtsfest, auch wenn es schon langsam aufs Ende zu geht :-)

    Leider gibt's bei dir ja noch nicht so arg viele Videos, aber fand das was ich jetzt auf den ersten Blick gesehen habe, gar nicht so schlecht (v.a. für die ersten Versuche?).


    Was mir aufgefallen ist: Dein Mikro klingt ein wenig - ich würde sagen - dumpf. Vielleicht kannst du da an den Einstellungen noch etwas drehen. Ansonsten ist aber die Bildquali ja schon sehr gut, technisch passt also sonst alles.


    Spielauswahl sieht ein wenig eigenwillig aus, aber das ist ja am Ende des Tages Geschmackssache :-)

    Leider darf man wahrscheinlich nicht erwarten, dass man mit Klein(st)spielen direkt die Massen der Zuschauer abräumt, falls das dein Ziel sein sollte.


    Trotzdem auf dem ersten Blick wie gesagt einen positiven ersten Eindruck gewinnen können, weiter so!