Angepinnt PC-Kaufberatung & Bewertung

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Anzeige

    RealLiVe schrieb:

    Die AMP Extreme kostet 510, die normale AMP gibt's zu dem von mir angegebenen Preis. Die Mini ist wieder eine andere Karte.
    Achso siehste mal 300 Version davon :D
    Sind halt 40 mhz weniger also schon bisschen, aber man kann es verkraften ^^
  • Karmaalp schrieb:

    Achso siehste mal 300 Version davon
    Nö, 67 :P Und davon sind vermutlich der Großteil nicht schlecht. Mir ist aber auch eine Kleinigkeit vorhin entgangen. Zum einen habe ich übersehen, dass die Variante von KFA2 mit 400 Euro verdammt günstig ist - da müsste ich recherchieren, ob das Kühlsystem auch taugt. Und zum anderen ist mir entfallen, dass Gainward auf die Phoenix - auch auf die Normale - 3 Jahre Garantie gewährt.

    Karmaalp schrieb:

    Sind halt 40 mhz weniger also schon bisschen, aber man kann es verkraften
    Die Taktraten beachte ich gar nicht. Zum einen spielen sich die Schwankungen i.d.R. in dem Rahmen ab, der mit eigener Übertaktung und dem Afterburner leicht zu überbrücken wäre, zum anderen sind spätestens seit dem neuen Turbo die Angaben ohnehin nichts mehr wert.
    Java is to JavaScript what Fun is to Funeral
  • RealLiVe schrieb:

    Die Taktraten beachte ich gar nicht. Zum einen spielen sich die Schwankungen i.d.R. in dem Rahmen ab, der mit eigener Übertaktung und dem Afterburner leicht zu überbrücken wäre, zum anderen sind spätestens seit dem neuen Turbo die Angaben ohnehin nichts mehr wert.

    Hmm ich beachte schon den Basis takt von dem ich auch rede, denn GPU´s haben die schöne Angewohnheit warm zu werden und runter zu takten :D
  • Karmaalp schrieb:

    Hmm ich beachte schon den Basis takt von dem ich auch rede, denn GPU´s haben die schöne Angewohnheit warm zu werden und runter zu takten
    GPUs werden unter normalen Umständen selbst unter voller Leistung nicht so heiß, dass sie thermal throttlen.
    Wenn der Hersteller nicht komplett mit dem Kühler schlampt, sollte der Basistakt überhaupt keinen Einfluss darauf haben.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von InsaneGames ()

  • Anzeige

    InsaneGames schrieb:

    Karmaalp schrieb:

    Hmm ich beachte schon den Basis takt von dem ich auch rede, denn GPU´s haben die schöne Angewohnheit warm zu werden und runter zu takten
    GPUs werden unter normalen Umständen selbst unter voller Leistung nicht so heiß, dass sie thermal throttlen.Wenn der Hersteller nicht komplett mit dem Kühler schlampt, sollte der Basistakt überhaupt keinen Einfluss darauf haben.

    Sicher werden die das, Das Temperaturlimit wo die maximale Booststufe reduziert wird beginnt teilweise bereits bei 40°C bei Pascal-Karten.#
    Es gibt 3 Booststufen und die werden je nach Temperatur geregelt.
  • Karmaalp schrieb:

    Ändert nix daran das man bei AMD meist von Kernen redet da sie kein hyperthreading können.

    Hmm dann scheinen wohl die benchmarks alle gelogen zu haben wenn deine Aussage stimmen würde, denn die "wahrenn Kerne" sind meist stärker als die theoretischen und deswegen waren ab und zu auch mal die AMD CPU's im rendern schneller da sie auch oft ein höheren Takt hatten was beim Rendern sehr ausschlaggebend ist
    Natürlich sind logische Kerne stärker als virutelle, aber das ist doch vollkommen irrelevant, wenn sich AMD Kerne Ressource teilen müssen und deswegen einfacher langsamer sind, als die Intel Kerne. Das hyperthreading spielt da erstmal keine Rolle, aber die meisten Intel 4 Kerner sind stärker, als ein FX 8350, mit 8 logischen Kernen, einfach da die Kerne von Intel mehr leisten.
    Schlicht und ergreifend schlechte Architektur, da spielen auch Taktraten keine Rolle...

    Die beiden Benches intepretierst du falsch. Denn 1.) sind das erstmal echt alte Benches und 2.) beides Benches wo es um Anwendungen geht, die auf Multithreading wert legen. Klar das da, wie zu sehen die CPUs mit vielen Kernen dominieren, Single Core Leistung ist da schon eher nebensächlich.
    Aber selbst hier liegen die AMD CPUs nur über relativ alten Intel CPUs.

    Ich verweise zwar immer ungerne auf diese Seiten, aber hier sieht man das ganze recht gut.

    klick!
    klick!

    klick!
    klick!

    Um aber jetzt nicht zuweit ins Offtopic abzuschweifen.


    Satoss schrieb:

    Na ja, ich denk mal trotzdem dass ich bei Intel bleiben würde auch wenn die neuen von AMD bald kommen, von daher ist warten für mich eigentlich eher uninteressant.
    Ich würde wirklich wärmstens empfehlen da noch ein bisschen zu warten, denn selbst wenn du keine AMD Prozessoren willst, hast du ne gute Chance auf niedrigere Preise, vll sogar bei Kaby Lake. Könnte sich also durchaus lohnen :)



    Karmaalp schrieb:

    Sicher werden die das, Das Temperaturlimit wo die maximale Booststufe reduziert wird beginnt teilweise bereits bei 40°C bei Pascal-Karten.#
    Es gibt 3 Booststufen und die werden je nach Temperatur geregelt.
    Dann würde ich beim GPU Kauf eben mal nicht nur auf die Taktraten gucken, sondern vll nachforschen, welcher Custom Anbieter gute Kühlsysteme bietet und welche nicht zu gebrauchen sind :P
    Playin two chords on Piano is kinda boring...u could probs get away with dat on Guitar tho...

    [Blockierte Grafik: http://fs5.directupload.net/images/170124/ygv7mtho.gif]

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von rainyvng.jpg ()

  • Karmaalp schrieb:

    Es gibt 3 Booststufen und die werden je nach Temperatur geregelt.
    GPU-Boost 3.0 arbeitet feingranularer.

    Karmaalp schrieb:

    Sicher werden die das, Das Temperaturlimit wo die maximale Booststufe reduziert wird beginnt teilweise bereits bei 40°C bei Pascal-Karten.
    Der maximal mögliche Boost-Takt, der nebenbei nicht auf dem Datenblatt steht, wird tatsächlich oft nur kurzfristig erreicht. Sobald sich das Teil etwas aufheizt, passt GPU Boost 3.0 den Takt an und senkt ihn mitsamt der Spannung etwas ab. Der ... "reelle" Takt wird in der Regel zwischen dem maximalen Boost-Takt und dem angegebenen "typischen" Boost-Takt liegen, abhängig von der Güte der GPU, dem Kühler und den sonstigen Einflüssen.

    Die Details werde ich jetzt nicht aufrollen, im Falle der GTX 1070 sind allerdings bei den meisten Modellen Boost-Werte von 1800 - 1900+ keine Seltenheit, selbst wenn der Hersteller lediglich 1680 oder so angibt.

    Oder kurz gesagt: Die Angaben sind für die Katz :P
    Java is to JavaScript what Fun is to Funeral
  • Karmaalp schrieb:

    InsaneGames schrieb:

    Karmaalp schrieb:

    Hmm ich beachte schon den Basis takt von dem ich auch rede, denn GPU´s haben die schöne Angewohnheit warm zu werden und runter zu takten
    GPUs werden unter normalen Umständen selbst unter voller Leistung nicht so heiß, dass sie thermal throttlen.Wenn der Hersteller nicht komplett mit dem Kühler schlampt, sollte der Basistakt überhaupt keinen Einfluss darauf haben.
    Sicher werden die das, Das Temperaturlimit wo die maximale Booststufe reduziert wird beginnt teilweise bereits bei 40°C bei Pascal-Karten.#
    Es gibt 3 Booststufen und die werden je nach Temperatur geregelt.
    Ich hab jetzt 10 Minuten gegoogelt und habe nichts zu 3 Temperaturstufen im Zusammenhang mit Pascal Karten gefunden. Könntest du zur Aufklärung bitte eine Quelle schicken?
    Außerdem ist die Grundaussage mit dem Basistakt für mich nicht schlüssig. Warum genau schaust du auf den Basistakt und was hat der in deinen Augen mit der Hitzeentwicklung und dem thermal throttling zu tun?

    //Edit: teilweise schon von RealLiVe beantwortet
  • rainyvng.jpg schrieb:

    wenn sich AMD Kerne Ressource teilen müssen und deswegen einfacher langsamer sind, als die Intel Kerne. Das hyperthreading spielt da erstmal keine Rolle, aber die meisten Intel 4 Kerner sind stärker, als ein FX 8350, mit 8 logischen Kernen, einfach da die Kerne von Intel mehr leisten.
    Schlicht und ergreifend schlechte Architektur, da spielen auch Taktraten keine Rolle...
    Stimmt nicht so ganz.
    Das Hauptproblem der Bulldozer Module ist das sie sich einfach nicht vernünftig an den Cache anbinden lassen und die Software Entwicklung sau lange bei 2 Kerner Support hängen geblieben ist.
    Mal als Beispiel der L3 Cache vom Bulli braucht mal eben 4 mal solange bis Daten gesendet werden können und sendet dann noch nur halb so schnell wie der L3 Cache der Core I Architektur (im Prinzip P3 auf Steroiden,Crack und einer Brilianten Fertigung).
    Es ist AMDs Glück das Intel sich zu lange auf ihrer P3 Architektur ausgeruht hat und 2 Architekturen komplett in den Sand gesetzt hat.
    Es ist ein Fehler einen Bulli 4 Moduler 8 Threather mit einem Intel 8 Kerner also 16 Threater zu vergleichen.
    CMT ist SMT sehr ähnlich.
    Wobei CMT eher stärker in Multi Threat Anwendungen ist und SMT eher in Single Threat Aufgaben.
  • RealLiVe schrieb:

    Der maximal mögliche Boost-Takt, der nebenbei nicht auf dem Datenblatt steht, wird tatsächlich oft nur kurzfristig erreicht. Sobald sich das Teil etwas aufheizt, passt GPU Boost 3.0 den Takt an und senkt ihn mitsamt der Spannung etwas ab. Der ... "reelle" Takt wird in der Regel zwischen dem maximalen Boost-Takt und dem angegebenen "typischen" Boost-Takt liegen, abhängig von der Güte der GPU, dem Kühler und den sonstigen Einflüssen.
    Ich weiß man beschränkt es aber für Erklärung auf 3, weil es 3 große Abweichungen gibt. Was sich im Hintergrund abspielt ist das er alle paar Millisekunden den Takt an und abhebt.
    Du kannst auch mal: Incredible Alk fragen im extreme.pcgameshardware Forum. Der kennt sich eigentlich sehr gut mit der Materie aus Link mini Thread

    InsaneGames schrieb:

    Ich hab jetzt 10 Minuten gegoogelt und habe nichts zu 3 Temperaturstufen im Zusammenhang mit Pascal Karten gefunden. Könntest du zur Aufklärung bitte eine Quelle schicken?
    Google mal NVidias Boost3.0.
    Warscheinlich Reddit oder sowas genau jetzt eine Quelle habe ich nicht da. (handy)
  • Karmaalp schrieb:

    Google mal NVidias Boost3.0.
    Warscheinlich Reddit oder sowas genau jetzt eine Quelle habe ich nicht da. (handy)
    "GPU Boost 3.0 ermöglicht drei Modi: Im Basic Mode kann der Takt weiterhin standardmäßig als Offset eingestellt werden. Für den Nutzer ändert sich dabei im Vergleich zu GPU Boost 2.0 wenig. Im Linear Mode werden die Anfangs- und Endpunkte der Kurve gesetzt. Zwischen diesen Werten wird nur interpoliert. Der 3. Modus ist der Manuell Mode. Bei diesem wird jeder einzelne Spannungs-Punkt manuell angepasst."
    Quelle: Hier

    So wie ich es verstehe kann man 3 verschiedene Modi einstellen, nach denen der Takt geregelt wird. Das entspricht laut Erklärung aber keinen 3 Stufen, die je nach Temperatur geschaltet werden.
  • So, ihr lieben ich hab jetzt mein Budget doch noch ein klein wenig erhöht, um mir die Capture Card, sowie zusätzlichen RAM und Festplatte dazuzuholen und lande bei insgesamt ~1150€.
    Wollte mich jetzt erkundigen, ob ihr bei der Zusammenstellung nochmal drüber schauen könnt und mir sagen könntet, ob das so passend aussieht, oder noch irgendwelcher Feinschliff betrieben werden sollte?
    (Das 400er Netzteil war nicht mehr lieferbar, daher bin ich auf das andere umgestiegen.)

    Fehlte außerdem noch das Betriebssystem. Habt ihr da Erfahrung mit der Vertrauenswürdigkeit von OEM-Versionen? Gibt's auf amazon für maximal 20€, das wäre natürlich eine schöne Ersparnis.
    Mein Kanal: Skully der Ralli
    MSI Afterburner - gegen Rosettenfrost!
    (bessere Signatur kommt irgendwann)
  • Mhm soweit ich das sehe ist das kein Z170 Motherboard, ich denke du kannst etwas Geld sparen, indem du den Prozessor auf den 6700 downgradest, denn das Motherboard unterstützt kein Übertakten. Das K am Ende des 6700K steht für den entsperrten Takt, somit eignet sich dieser besonders zum Übertakten, doch wenn du kein passendes Motherboard hast, ist der Prozessor das Geld nicht wirklich Wert. Die Wahl des Netzteils ist auch gut, da du nun etwas Luft nach oben hast, für eventuelle Upgrades, wobei die zukünftigen Komponenten immer leistungseffizienter werden.

    Und ich benutze auf jedem meiner Systeme eine OEM-Version von Windows und ich hatte bisher keine Probleme damit. Meine hab ich allerdings immer bei MMOGA gekauft.

    Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von InsaneGames ()

  • Karmaalp schrieb:

    Ne würde kein Sinn machen, denn der "K" hat 600 mhz mehr und kostet nur 20 Euro mehr
    Trotzdem würde man damit nicht den vollen Funktionsumfang ausnutzen und beim maximalen Turbo Boost unterscheidet sich der Takt nur noch um 200MHz, was für den Nutzer in fast keinem Fall merkbar ist, sollte man nicht gerade mit der Stoppuhr ein Video rendern. Im Endeffekt liegt es allerdings bei ihm ob er die 20-40€ mehr ausgeben will.
  • InsaneGames schrieb:

    Trotzdem würde man damit nicht den vollen Funktionsumfang ausnutzen und beim maximalen Turboclock unterscheidet sich der Takt nur noch um 200MHz, was für den Nutzer in fast keinem Fall merkbar ist, sollte man nicht gerade mit der Stoppuhr ein Video rendern. Im Endeffekt liegt es allerdings bei ihm ob er die 20-40€ mehr ausgeben will.

    Stimme ich dir zu, aber im Endeffekt hat er halt mehr luft nach oben und die 20 Euro werden es jetzt wohl nicht sein denke ich muss er halt wissen.

    Vom ganzen System her finde ich es aber gut abgerundet. Irgendwann muss halt eine neue GPU her aber die jetzige sollte schon für 1 Jahr reichen für normale Settings.
  • Das sollte sich aber eigentlich nur auf die Dauer der TDP-Überschreitungen (v.a. bei Notebook-Prozessoren) beziehen. Ivy Bridge und Nehalem boosten z.B. im Single Core-Betrieb durchgehend, soweit ich das an den Uni-Rechnern hier jetzt testen kann, und es würde mich doch wundern, wenn sich die aktuellen Desktop-CPUs da anders verhalten würden. Die Dinger laufen ja nicht permanent im TDP-Limit.