Gaming-PC für lange Zeit - Hilfe benötigt

Ich muss (leider) LSSJBroly voll zustimmen. Ich habe früher gerne AMD gekauft, schon alleine um den "kleinen" gegen den übermächtigen Großkonzern zu unterstützen. Jedoch will ich als Konsument immer auch das beste Preis / Leistungsverhältnis. Da war der Athlon bis Athlon 64 x2 hingegen vor vierzehn bis acht, neun Jahren eine sehr gute Wahl. Bis vor ca. sieben Jahren dann der Intel Core 2 Duo kam. Seither hängt AMD hoffnungslos hinterher.

Die von LSSJBroly gepostete PCGH Benchmarktabelle zeigt es ja deutlich, der FX8350 als schnellster FX ist noch ein klein wenig langsamer als der alte Core i5 2500k. Allerdings eben auch bei erheblich höherem Stromverbrauch, wobei die neueren Intels sogar noch weniger Saft schlucken.

Seit den steigenden Strompreisen war im vergangenen Jahr neben dem Anschaffungspreis, der Rechner soll ja auch seine fünf, sechs Jahre halten, auch ein niedriger Verbrauch ein wichtiges Kriterium für mich. Da bin ich bei Preis / Leistung automatisch beim Core i5 3570k gelandet.
 
Zuletzt bearbeitet:
Was ich noch einbringen möchte ist, dass manche Spiele auf AMD/ATI Grafikkarten unspielbar sind. Das Problem liegt dann (eigentlich) nie an der Leistung, sondern daran, dass AMD/ATI keine Fixes für inkompatible Spiele erstellt. Bei Nvidia hingegen sieht's da in der Regel anders aus.
 
Was ich noch einbringen möchte ist, dass manche Spiele auf AMD/ATI Grafikkarten unspielbar sind. Das Problem liegt dann (eigentlich) nie an der Leistung, sondern daran, dass AMD/ATI keine Fixes für inkompatible Spiele erstellt. Bei Nvidia hingegen sieht's da in der Regel anders aus.
Also "unspielbar" würde ich nicht sagen. GTA IV hatte damals seine Probleme. Aber das lag und liegt nicht an AMD / ATI sondern an den Spieleherstellern, weil die ein Spiel nur für eine bestimmte Grafikkarte angepasst haben, etwa weil Nvidia sie unterstützt hat. Man denke an das "The Way it's meant to be played" Logo. Aber das Thema ist eigentlich gegessen. Bei Batman Arkham City und Mafia 2 wurden irgendwelche Physics Effekte verwendet, die dann auf Rechnern mit ATI Karten nicht dargestellt wurden. Das war eigentlich alles.
Ein Spiel, dass bei mir am Desktop (dort verwende ich seit Jahren, eher zufällig, meist ATI) nicht gut läuft, das hatte ich jedenfalls noch nie.

Das Problem bei Nvidia Karten ist, dass sie teurer als ATI Karten sind und vor allem auch heißer werden.

In Zukunft kann dann eher die Umkehrung eintreten, dass Nvidia Karten nicht mehr so stark unterstützt werden, weil die kommenden Spielkonsolen auf AMD GPUs setzen. Und die meisten Multiplattformtitel werden nun mal für Konsole entwickelt. Entsprechend bezeichnend ist Nvidias verstärktes Engagement im Mobilbereich mit SOCs für Tablets und Smartphones und "Billigkonsolen" auf Android Basis.
 
und vor allem auch heißer werden.

Gerücht? Und weiter?
Wenn die 10°C heißere GPU dafür deutlich leiser ist, nehme ich das gerne in Kauf. GPU-temp merke ich nicht, die Lautstärke aber sicherlich. Insgesamt ist es etwas einfacher leise Karten bei Nvidia zu finden, da diese meistens etwas effizeinter als die AMDs und somit leiser zu kühlen sind. Dagegen bietet AMD aber ganz klar das bessere Preis-Leistungsverhältnis, aber auch erst ab einer HD 7870 und Aufwärts, darunter ist es recht ausgeglichen.
Zumindest Aktuell nimmt sich AMD einiges vor, was allein die unterstützung für etlicher Top-Titel zeigt. Im endeffekt ist aber auch das egal, und jeder muss selbst entscheiden, was er kaufen will. Noch nie war es bedeutungsloser als heute, für welchen Hersteller man sich entscheidet. Beide Hersteller bieten eine ausgereifter Produktpalette.
 
@SpiritogreDann hattest du ja bis jetzt ganz schön Glück. Ich kann beispielsweise "Herr der Ringe Krieg im Norden" einfach nicht spielen, da es nach fast 1,5 Jahren immer noch keinen Fix gibt. Eigentlich sollte ich das Spiel zurückgeben, da es trotz erfüllter Systemanforderungen nur mit ~10 FPS spielbar ist.
 
@LSSJBroly: Vielleicht solltest du keine Billig-Radeon mit NoName Lüfter kaufen ... meine Radeons waren und sind bisher alle sehr leise. Und bei den Temperaturen, da sind doch eher schon 20 Grad unterschied selbst bei den Einstiegsmodellen. Vor allem aber sind die Nvidia Karten dadurch(!?) deutlich kurzlebiger, wie man aus diversen Hardwareforen öfters mal entnehmen kann.

@Ethrilias: Ich habe natürlich lange nicht alle Spiele. Allerdings kann ich dein Problem nicht nachvollziehen. Vielleicht liegt dein 10FPS Problem bei diesem Spiel generell an einer unglücklichen Rechnerkonfiguration!?
 
LSSJB Mal eine Beispiel-config: [URL="http://preisvergleich.pcgameshardware.de/intel-core-i5-3470-bx80637i53470-a786395.html" schrieb:

Grundsätzlich finde ich die Konfiguration nicht schlecht, aber vielleicht würde ich drei Änderungen vornehmen, die jetzt nicht unbedingt die Performance stark anheben, aber durch Homogenität einen kleinen Vorteil bringen.
Zum einem würde ich beim Board einen Vertreter mit Z77-Chipsatz vorziehen und den 3470 durch einen 3570 ersetzen. Zudem würde ich auf eine Nvidia-Karte setzen, vll. die legendäre 660TI, nicht weil sie leiser und vll. auch schneller ist, sondern einfach weil sie mit dem Intel-Chip besser kooperiert. Preislich nehmen sich beide derzeit nicht viel.

Preislich kann mein Vorschlag zwar nicht mit dem Obigen mithalten, aber eine Überlegung sollte er dennoch wert sein. ;)

Btw.: Ich habe hier, unter anderem, auch ein älteres AMD-Gespann (AMD Athlon 7750 (Kuma) + AMD 870 + PowerColor Radeon HD 6950 auf einem GIGABYTE GA-MA770-DS3 mit 8 GB PC2-6400 DDR2-SDRAM UDIMM von Kingston [alles Angaben aus hwinfo64]) laufen. Dieses System befeuert Skyrim, bei maximalen Details, immer noch unter 1920x1200 mit durchnittlich 50 Fps.
Anscheinend macht es doch Sinn, ein wenig auf die Abstimmung der Komponenten zu achten, und nicht nur nach dem Preis zu gehen, auch wenn mit aktiviertem ENB dann doch der Boden zu sehen ist. ;)

noch nen netten Tag
Taktkonform
 
  • Like
Reaktionen: Ehemaliger Benutzer
Vielleicht solltest du keine Billig-Radeon mit NoName Lüfter kaufen
Was sind für dich Billig-Radeons? Vllt welche von Sapphire? XFX? ASUS? Gigabyte? MSI?

Und bei den Temperaturen, da sind doch eher schon 20 Grad unterschied selbst bei den Einstiegsmodellen. Vor allem aber sind die Nvidia Karten dadurch(!?) deutlich kurzlebiger, wie man aus diversen Hardwareforen öfters mal entnehmen kann.

Bitte? 20°C? Die meisten Karten erreichen Temperaturen von um die 60-80 °C (langsamere Karten um die 60-70°C, im High-End berreich natürlich eher richtung 80°C). Alles schlicht total unbedenklich.

Selbst bei einer max. spezifizierten Temperatur von 97°C! sinkt die Lebensdauer nicht merklich, gut, vllt von 15 Jahren auf 14,5... Temperatur ist heute fast egal. Entscheidend ist die Lautstärke, und die ist bei allen nvidia-modellen, sowohl beim Refernzkühler, als auch bei custom lösungen meistens geringer, da die nvidia-Karten im schnitt etwas weniger strom verbrauchen und daher auch weniger Abwärme erzeugen. Bestes Beispiel sind die Hersteller die beide Marken anbieten und annähernd die selben Kühler draufbauen, wie ASUS. Interessanter weise sind dann wieder bei vergleichbarer Lautheit die nVidia modelle kühler oder etwas wärmer, aber dafür leiser...

Zum einem würde ich beim Board einen Vertreter mit Z77-Chipsatz vorziehen und den 3470 durch einen 3570 ersetzen. Zudem würde ich auf eine Nvidia-Karte setzen, vll. die legendäre 660TI, nicht weil sie leiser und vll. auch schneller ist, sondern einfach weil sie mit dem Intel-Chip besser kooperiert. Preislich nehmen sich beide derzeit nicht viel.
Da der Threadersteller wohl schlicht nicht allzuviel Ahnung mit PC-Hardware hat, fällt wohl OC einfach weg. Und was bitte soll man mit einem 3570? Der 3470 bietet das bessere Preisleistungsverhältnis als der 3570 und ist dabei kaum langsamer (~5% langsamer). Und da eben OC flach fällt, braucht man auch kein Z77 und kann sich das Geld sparen und woanders investieren oder eben behalten.

Das Nvidia besser mit Intel harmonieren soll, ist ein dämliches Gerücht. Es ist heute fast egal, welche Karte das Bild berechnet. Die CPU muss einfach nur die Rohpower liefern, was der 3470 auf jeden fall tut, damit die GPU voll ausgelastet wird. Nicht mehr und Nicht weniger. Wenn ich eher etwas mehr Geld in eine Graka investieren würde, dann ganz klar in eine HD 7950- schneller als die 660 Ti und vor allem 3GiB Vram ->was in den kommenden Jahren schon vorteilhaft sein wird.
 
Zuletzt bearbeitet:
@LSSJBroly:

Na wenn du meinst. Fakt ist, mir selbst ist schon eine GeForce abgeraucht! Das war eine GF 8600 GTX. Und während meine derzeitige Radeon im Desktopbetrieb zwischen 32 und 36 Grad rumdödelt (Radeon 6770) liegt meine aktuelle GeForce 540 GT bei 56 - 65 Grad! Mein Vertrauen, dass die hohe Temperatur, die bei Spielen ja auch locker 80 und mehr erreicht nicht der Lebensleistung schadet ist da inzwischen extrem gering! Und wenn du dich mal in Foren umhörst, es kommt recht häufig vor, dass GeForces den frühen Hitzetod erleiden, nichts mit 14,5 Jahren ...

Ich habe meist Radeons von Sapphire. Vielleicht hatte ich Glück, aber bisher waren die alle nicht bis kaum zu hören, meine vorige 4870 mit Vapor X Kühlsystem war praktisch unhörbar und die aktuelle Standardkarte summt in Spielen auch maximal ein wenig. Von daher kann ich das angebliche Lautstärkeproblem nicht nachvollziehen. In aktuellen Tests von PC Games (Hardware) oder Gamestar ist da auch keine Rede von. Wenn, dann ist mal eine einzelne Karte etwas lauter. Dies trifft aber Radeon und GeForce gleichermaßen!
 
Du redest hier von Karten, die alle schon beinahe "uralt" sind. Eine GT 540 (warscheinlich sogar passiv gekühlt, dann eh kein Wunder) oder eine steinalte 8600 GTX als referenz zu nehmen... Das mal eine Karte abraucht, kann immer passieren, auch bei AMD, ob es an den Temperaturen gelegen haben soll, bezweifel ich jetzt erstmal. Wenn das Ding ständig über 110°C heiß würde, dann könnte das eine Ursache sein, ... könnte ... Wie gesagt, die Hersteller spezifizieren das MAXIMUM auf über 95°C -> alles, was zurzeit erreicht wird, ist da meilenweit von entfernt.


Anno 2013 sind eben GCN und Kepler aktuell, also Radeon HD 7000 und GTX 600. Und diese Karten haben keine solche vermeindlichen "probleme". Nur zur info, meine GTX 680 wird im Idle nichtmal 30°C warm, und das mit dem Referenz-kühler und ist dabei extrem leise.

Wenn man aktuell im Thema drin ist, weiß man, das beide Hersteller ähnliche Temperaturbereiche im High-End bereich (um die 75-80°C) erreichen, egal ob Referenzkühler oder custom-lösung.


Außerdem: Ich bin ständig in Hardwareforen unterwegs. Wenn mal eine Grafikkarte stirbt, hat es zu 99% nichts mit zu hohen GPU temperaturen zu tun. Die Karte schaltet sich automatisch ab, wenn diese zu heiß wird. Die Defekte werden meistens verursacht, wenn die Spannungswandler oder die Speicherchips hinüber sind ->was aber nichts mit der direkten GPU-temperatur zu tun hat.
 
  • Like
Reaktionen: Tomatenking
Seid ihr eigentlich sicher, dass ihr dem Threadersteller noch helft?
@ Pfirsichbaum:
AMD ist nach wie vor gut genug, für Graka und auch vom Prozessor her.

Ich hab inzwischen seit knapp 2 Jahren dasselbe System und das ist sicher hoffnungslos veraltet.
AMD II X3 455, im Bios dann den 4. Kern freigeschaltet, jetzt steht da Phenom II X4 B55 (3,3 GHz)
ASRock 760GM Mainboard, auch vor 2 Jahren schon alt
4 GB RAM, 1 Riegel, gut (Corsair), aber nix Besonderes
ABER:
Die Graka ist eine EAH6850 und war damit vor 2 Jahren durchaus State of the Art (zumindest, wenn man nicht über 150 Euro gehen wollte).
Damit war die das mit Abstand teuerste Teil des PCs.

Und mit der alten Gurke von PC spiele ich nach wie vor fast alles auf Maximum (Bioshock Infinite mit Ultra-Einstellungen, Farcry 3 ebenso, Skyrim neuerdings auch (das Spiel wurde offenbar noch etwas optimiert), Tomb Raider ebenfalls).
Damals hat mich das alles zusammen inklusive Win 7 64 Bit nicht mehr als 500 Euro gekostet.

Sprich, für gute PCs, mit denen man auf Jahre hinaus so ziemlich alle Spiele (ich hatte leichte Probleme bei Arma 2, liegt aber mMn eher an den Programmierkünsten von Bohemia Interactive) mit sehr guten Details spielen kann, braucht man keine 800 Euro, das geht auch billiger.
Die Hardwareanforderungen der Spiele sind in den letzten Jahren nämlich (sicher auch aufgrund der Konsolenports) nicht allzu sehr gestiegen.
Da demnächst die neue Konsolengeneration auf den Markt kommt, dürfte ein jetzt gekaufter PC, der mit deren Technik mithalten kann (kann man von der Rohleistung her aber nicht direkt vergleichen, Konsolen sind stärker als die verbaute Hardware, da auf Spiele optimiert, der PC sollte also schon deutlich stärker sein als die Konsolenhardware), bis zum Ende der kommenden Konsolengeneration mehr als ausreichen.
Und so etwas hat sicher auch AMD im Angebot.