Brauche neue Grafikkarte und RAM - Sind diese zu empfehlen?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Anzeige

    FawKes100 schrieb:

    Also wenn ich mich recht entsinne kann das menschliche Auge, diesen Unterschied nicht warnehmen. Man mag zwar vielleicht noch den Unterschied zwischen 60 und 30 feststellen können aber doch nicht von 144 zu 240...
    Wenn ich sowas lese kriege ich ein Hasskick. Genau wie bei UHD die Leute ständig 4H schreiben. UHD IST KEIN 4K! Genauso wie das menschliche Auge BIOLOGISCHER NATUR ist. FPS sind aber mechanischer Natur. Das Auge nimmt für uns unbegreiflich viele FPS wahr. Es fokussiert PERMANENT. Wie hoch genau ist noch nicht erforscht bzw herausgefunden.
    Was den Unterschied an den ganzen FPS Sachen macht ist das Motion Blur. Deswegen wirken REALE Filme so natürlich obwohl dir nur mit ~25FPS laufen. Es ist natürliches Motion Blur. Es wird von der Kamera so aufgenommen. Bei Animationsfilmen muss dieses nachträglich reingearbeitet werden. Wirkt unnatürlich und somit wirken Spiele oder Animationsfilme in niedrigen FPS Zahlen deutlich unnatürlicher.
    Früher war der Mythos
    Mehr als 25FPS nimmt das Auge nicht wahr
    Dann waren 30FPS Standard "Das AUge nimmt nciht mehr als 30FPS wahr"
    Dann kamen 60FPS "Das Auge nimmt nicht mehr als 60 FPS wahr"
    Das wird ewig so weitergehen.
    Nie wirklich nie Mechanisch mit biologisch vergleichen. Das geht immer in die Hose.
  • FawKes100 schrieb:

    Der normale Nutzer wird mit Sicherheit nicht selbst mit den Taktraten diverser Kerne rum spielen, da es oft auch nur nen paar Pünktchen mehr in nem Benchmark bringen, und hierfür das "Leben" der CPU gefährden.
    Du zeigst hier leider grad den Kern meines Problems mit Diskussionen wie dieser deutlich: Jeder hat seine Meinung und ein Recht, sich die Produkte auszuwählen, die er / sie haben will. Da muss man doch nicht mit dem Durchschnittsnutzer argumentieren, oder? Was hat der mit dem Kauf- und Nutzverhalten eines einzelnen Individuums zu tun?

    Macht solche Diskussionen einfach meistens unsinnig. Wenn es noch darum geht, in welcher Preisspanne gewisse Marken besonders gut oder schlecht sind, ist es das eine, aber hier sind wir schon bei persönlichen Ansprüchen, und die variieren eben einfach. Der eine hat gerne die hohe Auflösung bei hoher FPS und muss daher oft und viel investieren (und vielleicht mal noch mal etwas an der Leistung durch Übertaktung ändern), der nächste investiert einmal viel und dann für Jahre kaum etwas und wieder ein anderer kauft sich eben einen günstigen PC, weil der ausreicht. Keine dieser Personen macht etwas falsch.

    FawKes100 schrieb:

    Das ist mit Sicherheit falsch. Zum mindest für die Leute die nicht immer das neuste, aktuellste brauchen.
    Ich denke, ihr liegt beide nicht ganz richtig, denn wie so oft kommt es auf den individuellen Fall an. 500 Euro für die Grafikkarte eines Spielers, der nur kleine Indie-Spiele spielt, wäre z.B. komplette Verschwendung, da die selbst nach Jahren kaum ausgereizt wäre (sehr viele meiner liebsten Spiele laufen super auf meinem Laptop mit seinem Intel-HD-620-Chip, da braucht man keine aktuelle nVidia-Karte für 500€+ und auch keine teure Grafikkarte von vor einigen Jahren), anders kann man aber auch sagen, dass man auch nicht zu sehr sparen sollte an einer Karte, die man länger behalten will. Muss man sich eben selbst überlegen, was für einen selbst Sinn macht.

    FawKes100 schrieb:

    Also wenn ich mich recht entsinne kann das menschliche Auge, diesen Unterschied nicht warnehmen. Man mag zwar vielleicht noch den Unterschied zwischen 60 und 30 feststellen können aber doch nicht von 144 zu 240...
    Und das weißt du woher?

    Ich meine aber auch, dass sehr viele Spieler sagen, sie würden nur ungern wieder ohne ihren neuen Monitor spielen müssen, wenn sie sich einen mit 144Hz geholt haben. Bei 240 kenne ich mich dann leider nicht mehr aus, da ich nicht gerade der größte Fan von Spielen bin, die am meisten vom Wechsel profitieren.

    FawKes100 schrieb:

    Beschwertet ihr euch bei Kinofilmen eigentlich auch dass die nur mit 24 fps angesehen werden konnten?
    Der Unterschied könnte aber auch schon daran liegen, dass ich bei PC-Monitoren eben doch die Auswahl habe. Da spricht man dann auch drüber und entwickelt unterschiedliche Ansprüche für seine eigene Nutzung.
  • Rayxin schrieb:

    Wenn ich sowas lese kriege ich ein Hasskick. Genau wie bei UHD die Leute ständig 4H schreiben. UHD IST KEIN 4K! Genauso wie das menschliche Auge BIOLOGISCHER NATUR ist. FPS sind aber mechanischer Natur. Das Auge nimmt für uns unbegreiflich viele FPS wahr. Es fokussiert PERMANENT. Wie hoch genau ist noch nicht erforscht bzw herausgefunden.
    Wie wär's mal damit sachlich zu bleiben und nicht gleich in Caps-Schrift rumzubrüllen?
    Mir ist selbst klar dass FPS mechanischer Natur sind. Selbst wenn das Auge nun in FPS messbar wäre, wäre diese Leistung von Auge zu Auge auf Grund der Genetik verschieden.
    Und das ist irgendwo auch nen bisschen den Punkt den ich hier aufzeigen wollte. Für den einen ist jenes wichtig, für den nächsten wieder jenes.


    Maerlyns schrieb:

    Macht solche Diskussionen einfach meistens unsinnig. Wenn es noch darum geht, in welcher Preisspanne gewisse Marken besonders gut oder schlecht sind, ist es das eine, aber hier sind wir schon bei persönlichen Ansprüchen, und die variieren eben einfach. Der eine hat gerne die hohe Auflösung bei hoher FPS und muss daher oft und viel investieren (und vielleicht mal noch mal etwas an der Leistung durch Übertaktung ändern), der nächste investiert einmal viel und dann für Jahre kaum etwas und wieder ein anderer kauft sich eben einen günstigen PC, weil der ausreicht. Keine dieser Personen macht etwas falsch.
    Das ist eben das was ich aufzeigen wollte, für die einen reicht der kleine Laptop, wie du auch geschrieben hast, die nächsten nehmen gleich nen privates Rechenzentrum.
    Aber deswegen hab ich auch den Themenersteller verurteilt direkt mit Aussagen um die Ecke zu kommen, wie "AMD kommt mir nicht ins Haus" - Warum kann man sich nicht auch mal auf neue Marken einlassen, die möglicherweise auch neue Technologien mit sich bringen. Klar muss man sich nicht gleich ne Grafikkarte von AMD kaufen, aber ich finde man sollte zum Mindest nicht sagen kommt mir nicht ins Haus weil AMD drauf steht, sondern weil so und so. Man sollte silch also grundlegend erstmal über die diversen Produkte die in Frage kommen informieren und nicht gleich rum schreien, "kenn ich nicht, will ich nicht"

    Maerlyns schrieb:

    Und das weißt du woher?

    Ich meine aber auch, dass sehr viele Spieler sagen, sie würden nur ungern wieder ohne ihren neuen Monitor spielen müssen, wenn sie sich einen mit 144Hz geholt haben. Bei 240 kenne ich mich dann leider nicht mehr aus, da ich nicht gerade der größte Fan von Spielen bin, die am meisten vom Wechsel profitieren.
    Das ist meine These, meine Meinung zu dem Thema. Ich denke persönlich, dass es sich da stark um nen Placebo-Effekt handelt.
    Ich denke kaum, dass da irgendwer wirklich in der Lage ist nen Unterschied festzustellen, da wird entweder geraten oder aber man sagt man hätte einen Unterschied festgestellt, weil man weiß dass der Monitor mehr Hz z.B. hat. Und da sind wir eben beim Punkt: Dieses ist subjektives Empfinden. Zum Mindest ich kenne (ohne mich nun genauer darüber zu informieren) keine Möglichkeiten es physikalisch zu messen, dass das menschliche Auge wirklich einen Unterschied wahr nimmt. Ich z.B merke keinen Unterschied zwischen 40 oder 60 Fps wenn es mir nirgendwo angezeigt wird.
    Es muss also am Ende jeder selbst entscheiden, ob er bereit ist für einen Monitor der Feature X, Y hat Geld auszugeben, wenn ihm auch Feature 0,5X und 0,5Y ausreichend sind.
    Und das ist bei mir persönlich bei Monitoren mit 1920*1080 mit 60 Hz durchaus der Fall. Das reicht mir für meine Arbeit vollkommen aus und wird mir auch für alle Spiele ausreichen.
    mfg FawKes100




    Zu meinem Twitch-Kanal: twitch.tv/fawkes100tv
  • Anzeige

    FawKes100 schrieb:

    Aber deswegen hab ich auch den Themenersteller verurteilt direkt mit Aussagen um die Ecke zu kommen, wie "AMD kommt mir nicht ins Haus" - Warum kann man sich nicht auch mal auf neue Marken einlassen, die möglicherweise auch neue Technologien mit sich bringen. Klar muss man sich nicht gleich ne Grafikkarte von AMD kaufen, aber ich finde man sollte zum Mindest nicht sagen kommt mir nicht ins Haus weil AMD drauf steht, sondern weil so und so. Man sollte silch also grundlegend erstmal über die diversen Produkte die in Frage kommen informieren und nicht gleich rum schreien, "kenn ich nicht, will ich nicht"
    Also erstmal: Verurteilen sollte man Leute nicht für solche Lappalien.

    Ich habe mir jetzt aber auch noch mal die Beiträge des Themenerstellers durchgelesen. Da stand nur, dass er AMD nicht nutzen will, nicht warum. Und bevor du das Warum nicht weißt, finde ich es auch bedenklich, dass du direkt urteilst. Was wäre jetzt, wenn er schon einige schlechte Erfahrungen gemacht hätte und jetzt eben keine Lust mehr darauf hat? Oder wenn er AMD schon ausgeschlossen hätte, weil nVidia im höheren Preisbereich eben besser ist?

    FawKes100 schrieb:

    Das ist eben das was ich aufzeigen wollte, für die einen reicht der kleine Laptop, wie du auch geschrieben hast, die nächsten nehmen gleich nen privates Rechenzentrum.
    Ich kann jetzt nur sagen, wie es bei mir ankam, aber... mir kommt es so vor, als würdest du ziemlich heftig gegen Leute argumentieren, die bereit sind, mehr Geld in ihren PC zu stecken, als müssten für sie deine Ansprüche ebenfalls ausreichen.

    FawKes100 schrieb:

    Das ist meine These, meine Meinung zu dem Thema. Ich denke persönlich, dass es sich da stark um nen Placebo-Effekt handelt.
    Na ja, behaupten kann man leider viel. Optimal würde man das mit Argumenten unterlegen. "ich denke, da wird viel geraten" ist keins.
  • De-M-oN schrieb:

    AMD setzt mir zu sehr auf viele Kerne in der CPU aber schwache single core leistung.
    Lustig, ich habe das umgekehrte Problem mit Intel :D Wobei ich das Problem bei Ryzen eigentlich nicht mehr so problematisch finde und selber bei Ryzen 3 ordentlich zulangen werde, wenn der nicht wider erwarten vergeigt wird.

    De-M-oN schrieb:

    Ich kanns mir sehr, sehr gut vorstellen das der Sprung von 60 auf 144 enorm sein dürfte. Aber bisherig war das immer ein Kompromiss auf Bildqualität bei 1440p bzw 1600p. In rapha's Chat meinte aber jemand das es wohl im Sommer Panels geben soll, die halbwegs an der Qualität meines jetzigen NEC Geräts rankommen aber mehr hz als 60 liefern
    Hast du da ein paar Details, was da genau kommen soll? Soweit mir bekannt ist, gibt's seit 2015 schon sehr gute Monitore, die mit 144 Hz zurecht kommen und ein sehr ordentliches Bild bieten.
    Java is to JavaScript what Fun is to Funeral
  • Maerlyns schrieb:

    Da stand nur, dass er AMD nicht nutzen will, nicht warum. Und bevor du das Warum nicht weißt, finde ich es auch bedenklich, dass du direkt urteilst. Was wäre jetzt, wenn er schon einige schlechte Erfahrungen gemacht hätte und jetzt eben keine Lust mehr darauf hat? Oder wenn er AMD schon ausgeschlossen hätte, weil nVidia im höheren Preisbereich eben besser ist?
    Wenn jemand schreibt ich will keine AMD-Hardware, egal aus welchen Gründen, ist das erstmal Markenliebhaberei, denn er scherrt hier sämtliche Produkte der Marke über einen Kamm und sagt das alles scheiße ist.
    Wenn ich schlechte Erfahrungen mit der Marke gemacht habe, okay - ist nen Grund sie nicht zu nehmen - aber das war vl in der Vergangenheit so, in der Zukunft kann das anders aussehen. Generell ist es übrigens so, dass theoretisch auch ne Grafikkarte defekt sein kann, die von nvidia kommt, nur so am Rande.
    Wenn du sagst "Oder wenn er AMD schon ausgeschlossen hätte, weil Nvidia im höhren Preisbereich eben besser ist", geht das auch schon in die Richtung Markenliebhaberei, denn AMD entwickelt auch interessante Alternativen zu Nvidia im High End Bereich amd.com/de/products/graphics/amd-radeon-vii
    Ich will hier nicht abstreiten, dass Nvidia bisher beim Thema Grafikkarten die Nase vorn hatte, aber - und das ist was ich sagen will in der ganzen Diskussion - der Markt kann sich auch verändern über die Zeit.
    Es muss nicht immer Nvidia besser sein, es kann auch mal ne AMD-Grafikkarte besser sein.
    Und eben deswegen finde ich, sollte man ne Marke nicht direkt ausschließen, wenn man ne Beratung zum Kauf einer neuen Grafikkarte sucht.

    Maerlyns schrieb:

    Ich kann jetzt nur sagen, wie es bei mir ankam, aber... mir kommt es so vor, als würdest du ziemlich heftig gegen Leute argumentieren, die bereit sind, mehr Geld in ihren PC zu stecken, als müssten für sie deine Ansprüche ebenfalls ausreichen.
    Das ist nicht richtig - und stellt in meinen Augen eine Falschaussage dar - die Leute können gerne mehr Geld in ihren Pc stecken wenn sie denn unbedingt wollen. Ich halte keinen davon ab, sich ne Nvidia Titan RTX zu holen, kann gerne jeder machen. Nur wenn man fragt, welche Hardware man empfiehlt für nen Preisbereich von 300€ (so viel wars hier glaub ich) dann empfehle ich auch Hardware die vom Preis darunter liegt, aber genauso viel leisten kann wie was für 300€.

    Mal so ganz am Rande, an die Leute, die hier die ganze Zeit so gegen AMD am wettern sind: computerbase.de/thema/grafikkarte/rangliste/
    Zeigt auch mal wieder, dass AMD hier übrigens bei den meisten Spielen ausreichende Ergebnisse liefert. Und das ist das, was ich in der ganzen Diskussion versucht habe zu erklären.
    mfg FawKes100




    Zu meinem Twitch-Kanal: twitch.tv/fawkes100tv
  • FawKes100 schrieb:

    denn AMD entwickelt auch interessante Alternativen zu Nvidia im High End Bereich amd.com/de/products/graphics/amd-radeon-vii
    Nein, derzeit nicht. Die Karte ist das Gegenteil von Interessant für den 0815-Gamer. Ich sage nicht, dass AMD da nie was hatte oder nie was haben wird, aber derzeit ... schwer, bei AMD was überhalb der RX 580 für Gamer zu empfehlen.
    Java is to JavaScript what Fun is to Funeral
  • FawKes100 schrieb:

    Wenn jemand schreibt ich will keine AMD-Hardware, egal aus welchen Gründen, ist das erstmal Markenliebhaberei, denn er scherrt hier sämtliche Produkte der Marke über einen Kamm und sagt das alles scheiße ist.
    Eigentlich sagt er nur, dass er keine will und nicht das alles scheiße ist.


    FawKes100 schrieb:

    Wenn ich schlechte Erfahrungen mit der Marke gemacht habe, okay - ist nen Grund sie nicht zu nehmen - aber das war vl in der Vergangenheit so, in der Zukunft kann das anders aussehen. Generell ist es übrigens so, dass theoretisch auch ne Grafikkarte defekt sein kann, die von nvidia kommt, nur so am Rande.
    Alles richtig, aber wenn jemand AMD nicht will, dann will er nicht. Logische Gründe müssen dafür nicht vorgetragen werden. Ich will auch keinen BMW obwohl die Autos bestimmt toll sind.


    FawKes100 schrieb:

    Ich will hier nicht abstreiten, dass Nvidia bisher beim Thema Grafikkarten die Nase vorn hatte, aber - und das ist was ich sagen will in der ganzen Diskussion - der Markt kann sich auch verändern über die Zeit.
    Ja, aber im Moment will er keine AMD Karte und Nvidia ist nach wie vor vorne. Was hilfts also jetzt AMD zu kaufen obwohl man es nicht will und der Markt sich noch gar nicht so verändert hat das Nvidia irgendwo im Hintertreffen ist? Das ist doch eine völlig sinnbefreite Argumentationskette.


    FawKes100 schrieb:

    Es muss nicht immer Nvidia besser sein, es kann auch mal ne AMD-Grafikkarte besser sein.
    Und eben deswegen finde ich, sollte man ne Marke nicht direkt ausschließen, wenn man ne Beratung zum Kauf einer neuen Grafikkarte sucht.
    Warum nicht? Er will keine AMD. Punkt. Es ist müßig darüber zu diskutieren wenn er 10x gesagt hat er will nicht, dann muss man das akzeptieren und sagen okay, verstehe ich vielleicht nicht, aber hier sind Nvidia Karten. Um bei meinem Beispiel zu bleiben: Du kannst mich in 10 BMW Autohäuser schieben, mir tolle Autos zeigen und mir erklären warum sie vielleicht besser als, keine Ahnung, Mercedes sind. Trotzdem möchte ich keinen BMW.


    FawKes100 schrieb:

    Und das ist das, was ich in der ganzen Diskussion versucht habe zu erklären.
    Ja, es bestreitet auch niemand das AMD irgendwo sehr weit weg ist. Trotzdem: Er will keine AMD. Akzeptiere es doch einfach.
  • FawKes100 schrieb:

    Wenn jemand schreibt ich will keine AMD-Hardware, egal aus welchen Gründen, ist das erstmal Markenliebhaberei, denn er scherrt hier sämtliche Produkte der Marke über einen Kamm und sagt das alles scheiße ist.
    Blödsinn, hat er nie gesagt. Im Gegenteil, er hat doch selbst einen AMD-Prozessor.

    FawKes100 schrieb:

    Wenn ich schlechte Erfahrungen mit der Marke gemacht habe, okay - ist nen Grund sie nicht zu nehmen - aber das war vl in der Vergangenheit so, in der Zukunft kann das anders aussehen. Generell ist es übrigens so, dass theoretisch auch ne Grafikkarte defekt sein kann, die von nvidia kommt, nur so am Rande.
    Ist es jetzt ein Grund oder nicht? "ist okay, aber..." geht wieder in die Richtung, wo du jemandem eine Vorschrift machst, so zu handeln, wie du es gern hättest.

    FawKes100 schrieb:

    Ich will hier nicht abstreiten, dass Nvidia bisher beim Thema Grafikkarten die Nase vorn hatte, aber - und das ist was ich sagen will in der ganzen Diskussion - der Markt kann sich auch verändern über die Zeit.
    Es muss nicht immer Nvidia besser sein, es kann auch mal ne AMD-Grafikkarte besser sein.
    Er hat aber für jetzt gefragt, nicht für einen eventuellen zukünftigen Grafikkarten-Markt.

    FawKes100 schrieb:

    Das ist nicht richtig - und stellt in meinen Augen eine Falschaussage dar
    Jegliche Kritik mit "ist nicht richtig" von sich abprallen zu lassen, ist natürlich auch eine Möglichkeit.

    FawKes100 schrieb:

    Nur wenn man fragt, welche Hardware man empfiehlt für nen Preisbereich von 300€ (so viel wars hier glaub ich) dann empfehle ich auch Hardware die vom Preis darunter liegt, aber genauso viel leisten kann wie was für 300€.
    Guck dir mal noch mal den ersten Beitrag an. Budget für die Karte soll 400-500€ sein.

    FawKes100 schrieb:

    Mal so ganz am Rande, an die Leute, die hier die ganze Zeit so gegen AMD am wettern sind
    Keiner wettert gegen AMD. Nur "mal so ganz am Rande". Die Leute nutzen einfach nur Argumente und sind es vielleicht einfach irgendwann leid, dass man es nicht akzeptieren kann, dass jemand eben kein Produkt der Marke "AMD" kaufen möchte. Siehe:

    Game8 schrieb:

    Trotzdem: Er will keine AMD. Akzeptiere es doch einfach.
    Mehr kann man dazu auch nicht mehr sagen.
  • Mal zurück zum Thema:
    Ich würde an dieser Plattform nichts mehr upgraden, also keinen neuen RAM kaufen. Der FX8120 ist schon stark veraltet und wenn du eine stärkere Grafikkarte à la RTX 2070 hast, willst du auch eine stärkere CPU haben, glaub mir ;) Der FX8120 wird sich nämlich als riesiger Bremsklotz erweisen.
    Wenn du aber die CPU aufrüstest, lohnt sich ein Upgrade auf einen stärkeren FX nicht, du müsstest auf eine aktuelle Plattform, also Intel kaby Lake/Coffee Lake oder AMD Ryzen wechseln. Diese Plattformen unterstützen aber nur DDR4-RAM, während du für den alten FX nur DDR3-RAM verwenden kamnst.

    Sinnvoller ist es also, entweder mit dem RAM-Upgrade zu warten, bis du auf eine aktuelle Plattform umsteigst oder gleich auf eine aktuelle Plattform umzusteigen - also Mainboard, CPU auszutauschen und DDR4-RAM zu kaufen.

    Welches Netzteil ist eigentlich verbaut? Eventuell sollte das auch mal beim Grafikkartenupgrade ausgetauscht werden.