Ich habe letztens auf YouTube einen Kommentar von einem "Schnitzel" bekommen
Spamkneipe 14 - Nachschlag
-
-
Ich habe nur leider keine Schnitzel eingekauft, nur Steak.
-
Und wie lautete der? - Don't call it Schnitzel?
Nun, Julien - das ist dann aber eigenes Verschulden..
-
Meine selbstgemachten Schnitzel sind aber eh nie ganz so gut wie aus dem Stamm-Schnitzelrestaurant. Insofern muss ich mich da gar nicht erst bemühen.
-
I see. Dann also los zum Stammlokal.
-
Die machen erst am Abend auf.
-
Skandalös.
-
Bis dahin muss ich mich mit anderen Sachen begnügen. Zum Glück habe ich noch extrem viel zu essen.
-
Alles andere hätte mich nun auch gewundert.
-
Gute Dinge ändern sich eben nie.
-
Das stimmt. Aber manche schlechten Dinge auch nicht.
-
Leider wahr, aber damit muss man einfach zurechtkommen.
-
Gute Dinge ändern sich eben nie.
Der eigene YouTube-Kanal.
-
Das gehört nicht zu den guten Dingen.
-
-
Momentan ist noch Freizeit angesagt, aber bald gibt's wieder Arbeit. Im Februar geht's erst mal für ein paar Tage nach Spanien.
-
pff Freizeit, Spanien, essen... du lebst ja ein Luxusleben XD
-
Dafür habe ich ja auch sehr viel YouTube-Money angespart!
-
wenngleich mein letzter Stand war, dass es halt in Echtzeit nicht sinnvoll einzusetzen war.
Also Blender hat zB seit geraumer Zeit einen Realtime Renderer, der quasi dafür sorgen soll, dass du beim modellieren, aber insbesondere Animieren und Previewen schon eine sehr gute Vorstellung davon haben kannst, wie der Final-Render aussehen könnte. Obwohl Cycles, also Blenders Offlinerenderengine, selbst Raytracing verwendet, macht der Realtime Renderer das nicht, weil wir einfach für gute Ergebnisse andere Tricks anwenden können, die weitaus weniger aufwendig sind.
Für GI nimmste LightProbes, für Reflection nimmste entweder Screenspace Reflections oder ReflectionProbes (also Cubemaps, die evtl. statisch oder dynamisch sind), für aufwendige, detaillierte Schatten, die von der Shadowcascade auf Dauer zerlegt werden nimmste baked lighting und für Refractions und Kaustiken nimmste einfach einen Shader. Niemand wird sehen, dass die Kaustiken nicht physikalisch korrekt sind und die Refractions sind ein Offset an der Oberflächennormale, die du entweder durch Deformation und/oder Normalmap verzerrst.
Das sind alles gängige Praktiken, die du in jedem modernen Spiel (und in generell allen RT Rendering Anwendungen) finden wirst, daher ist es irgendwie übertrieben, diese leichten Verbesserungen, die man noch haben könnte, mit RT Raytracing zu machen. Aber prinzipiell schonmal cool, dass das geht. Genauso wie VR, meine erste VR Brille (*hust* es heißt HMD) hatte ich 2013 auf, damals hab ich auch was kleines dafür entwickelt, einen Rundflug durch eine Stadt in einem Kunstflugzeug. Das war damals noch die Oculus DevKit 1, heute ist der Markt ganz anders aufgestellt, inzwischen haben sowohl Oculus, als auchVolvoValve und HTC mit der Vive und Steam VR die zweite Generation draußen und mit PS VR haben wir bereits AAA Titel, die das ordentlich nutzen.Klar ist der Preis noch hoch für die Hardware und es gibt - meiner Meinung nach - keine guten spielerischen Anwendungen für VR, die den Spieler nicht immens limitieren. Genauso seh ich das halt auch mit den Grafikkarten.
Ich erinner mich noch, als Hairworks neu war und in Tomb Raider mehr für Probleme gesorgt hat, als für Hilfe bei der Simulation, aber heute haste Hairworks sowohl als Tiel von PhysX, als auch die visuelle Simulation durch Micro-Parallax Rendering auf dem Fell von nahezu jedem Tier in AAA Titeln. Daher sag ich: Es werden Spiele kommen, die das unterstützen, die Frage ist halt, ab wann der "Durchbruch" kommt. -
Fazit: Lohnt also aktuell nicht umzusteigen, wenn die alte Grafikkarte noch flott genug ist.
Jetzt mitmachen!
Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!