Frage: Welche aufgerüstete Hardware bringt die meiste Performance?

*Lustig, seit heute gibt es HD4890 er. Kosten aber alle über 200 €:
http://www.alternate.de/html/summar...ption=ATI&tn=HARDWARE&l1=Grafik&baseId=301735

*Nvidea hat auch für Nachschub gesorgt, mit der GTX 275:
http://www.alternate.de/html/summar...on=NVIDIA&tn=HARDWARE&l1=Grafik&baseId=301176
@Master_DeluXXXe: Seit heute stellen sie neue her :D



Mir ist grade eine verrückte Idee gekommen:
Bringt es etwas, wenn man eine mit Wasser gefüllte Flasche in den PC legt?
Sie würde dann die Wärme aufnehmen und somit den PC kühlen.
Wenn er dann aus ist geben sie langsam die Wärme wieder ab.

Theoretisch müsste es funktionieren, ich schätze aber, dass sie die Wirkung nur minimal zeigt.
(Außer ich stelle sie jedes Mal in den Tiefkühler)
 
Also wollte ich fragen, was für was Zuständig ist:

Grafikkarte:
Prozessor:
Ram:
Grafikkarte = Berechnet aus Koordinaten der einzelnen Körper und aus Informationen wie welche Textur auf welche Seite wie hingeklatscht werden soll so ziemlich alles grafische was du auf dem Monitor siehst (in Spielen). Gerade bei großen Texturen, vielen Objekten, aufwendigen Effekten (Licht, Schatten, Schattierungen und sonstiges), großen Auflösungen ist das die wichtigste Komponente.

Prozessor = Während die Grafikkarte die 3D Welt berechnet und zeichnet ist der Prozessor dazu da diese Welt zu steuern, interaktiv zu machen und gleichzeitig der Grafikkarte die nötigen Ressourcen zukommen zu lassen. Gerade ersteres wird aber immer mehr von der Grafikkarte übernommen da diese in vielen Bereichen besser geeignet ist.

RAM = Ist dazu da alle benötigten Daten Zwischenzuspeicher so dass nicht ständig von der Festplatte nachgeladen werden muss und ausserdem kann dieser auch genutzt werden um z.B. Ergebnisse für Berechnungen zu speichern, so dass diese nicht ständig immer neu berechnet werden müssen.

Wie das nun effektiv bei der Performance zusammen hängt ist so: Es wird eine gewisse Menge RAM benötigt, dass ein Spiel flüssig läuft, hat man weniger dann kann der Rest der Hardware noch so schnell sein das Spiel wird stocken, denn dann muss von Festplatte nachgeladen werden und diese ist mit Abstand das langsamste in jedem Computer (Vergleich: Bobbycar mit Düsenjet) man kann da nur mit zwei Dingen entgegenwirken: 1. man verringer den Verbrauch (besonders die Texturgröße) oder 2. man kauft mehr. Wenn man aber mehr hat als benötigt wird so bekommt man keinen Performanceschub, wenn man 1GB Verbrauch hat macht es 0 Unterschied ob man nun 4GB oder 4000GB RAM im Rechner hat. Beim Prozessor und der Grafikkarte ist das schwieriger denn hier hängt es von den Algorithmen ab und zwar was auf der Graka berechnet wird und was auf dem Prozessor heutzutage könnte man FAST alles auf der Grafikkarte berechnen lassen so dass die Bedeutung der CPU für Spiele immer geringer wird, jedoch muss diese dabei eine gewisse Menge Daten hin und her schieben müssen aber dazu benötigt man nicht unbedingt eine Highend CPU jedoch mindestens eine gute Mittelklasse CPU sollte es schon sein, ausser man will jedes FPS ausquetschen. Für Spiele ist die wichtigste Hardwarekomponente sofer genug Speicher vorhanden ist und die CPU nicht unbedingt total lahm ist die Grafikkarte wenn aber eine der anderen Komponenten zu klein ist dann bringt aber auch die schnellste Grafikkarte nix mehr.

Bei deinem System würde ich auch sagen, dass ein Grafikkarten wechseln am meisten Sinn machen würde aber die CPU ist eben auch nicht mehr die stärkste, ggf. könntest du da ja irgendwann mal auch aufstocken.

Man sollte Spiele immer in der selben Auflösung spielen, wie die, die man auf seinem Desktop eingestellt hat. Wenn man eine andere verwendet, dann muss die Grafikkarte das ganze umrechnen und es kann sogar sein, dass man weniger Performance als vorher hat. Wie das genau technisch zusammenhängt kann ich net sagen. Da steck ich nicht drin.
Ist meiner Meinung nach totaler Blödsinn! Denn die Grafikkarte muss GARNIX umrechnen sie stellt einfach ne kleinere Auflösung ein und fertig, das mit dem umrechnen ist wenn überhaupt nur der Fall, falls du eine Anwendung im Fenster öffnest der eine Auflösung vorgibst, dieses Fenster vergrößerst/verkleinerst und die Spieleengine dann sich nicht auf die neue Auflösung umstellt sondern das generierte Bild verzerrt aber ehrlich gesagt sowas habe ich bei noch keinem einzigen Spiel gesehen einzig nur bei ein paar Multimediaanwendungen und selbst da war es nur durch das Verzerren nicht durch eine kleine Auflösung!

Ganz im Gegenteil ergibt kleinere Auflösung = mehr Geschwindigkeit aber NUR wenn die Grafikkarte der Flaschenhals ist und zwar benötigt die Grafikkarte so viel weniger Rechenleistung zur Berechnung des Bildes vor allem beim nutzen von Filtern wie AA, AF, HDR und co.

Beim RAM beachten, das nur die 64-bit-Betriebssysteme Speicher mit mehr als 4 GByte adressieren können. Da bei Vista oder XP 32-bit auch noch etwas für das Betriebssystem "übrigbleiben" muss, hat man so 3 bis 3,5 GByte RAM. Wer also kein 64-bit-BS hat, braucht auch nicht mehr Speicher.
Du hast in dem Punkt recht, dass man mit 32 Bit nur 4 Gigabyte addressieren kann, rest ist einfach falsch.
Erstmal nimmt das Betriebssystem gar nix weg.

Das ganze hängt damit zusammen das jedes Byte des Speichers (egal ob Arbeitsspeicher, Soundkartenspeicher, Grafikkartenspeicher oder sonst was) eine Addresse besitzt. Mit 32 Bit kann man aber maximal eine Zahl von etwa 4 Milliarden darstellen und das ist die allerletzte Addresse die genutzt werden kann. In diesem Addressraum hängt aber jeglicher Speicher des ganzen Computersystems, wenn man nun z.B. 500 GB Grafikkartenspeicher hat bleiben nur noch 3,5 GB für den RAM übrig und so wird erst mal der gesamte Speicher aufgeteilt der Rest bleibt dann für den RAM und alles was keine Addresse mehr bekommt (vom RAM) kann eben auch nicht angesteuert werden (zumindest nicht ohne spezielle Tricks).

Edit: Wäre es eigentlich egal bei meinem Passiv-System eine Grafikkarte mit Aktiv-Kühler reinzuschrauben?
Jaein im Normalfall geht es immer eine Passive Lösung durch eine Aktive auszutauschen. Aber eine Frage hätte ich da und zwar ist nur die Grafikkarte Passiv oder auch z.B. die CPU? Denn wenn die CPU z.B. auch passiv ist aber die Abwärme der Grafikkarte (egal ob aktiv oder passiv, aktiv wäre sogar besser!) zu groß wird, dann könnte die CPU weil sie nicht stark genug gekühlt wird überhitzen, dann müsstest du vielleicht auch bei der CPU einen aktiven Kühler draufsetzen damit diese noch ausreichend kühl bleibt. Ein andere Nachteil ist, dass du dann einem so ruhigen PC wie du ihn bisher kannst ade sagen kannst selbst die leisesten aktiven Kühlungen sind hörbar (auch wenn nicht immer störend)!

Einen Teil hat Method Man recht, aber nVidia haut da nicht einfach was rauf sondern sie können einfach damit um noch bei älteren Sachen zu bleiben heißt: Wenn nVidia jetzt auf GDDR5 oder 4 umsteigen würde, dann würden sie ATI in den Schatten stellen...
Das Speichermanagement hat nix mit der Speicherschnittstelle zu tun der immense Verbrauch der NVidia Karten würde identisch bleiben! Einzig die Speicherbandbreite würde sich ändern, dennoch müssten sie genauso viel Speicher verbauen!

Ausserdem kann ein 32Bit System 512MB GRAM schon garnicht mehr ganz füllen, wenn schon 4GB normaler RAM installiert ist, denn es gehen schon RAM weg für das BIOS, Shared GRAM und PCI steckplätze, sind nicht viel aber es häuft sich,
Doch so weit ich weis wird dann einfach nur der Arbeitsspeicher weiter beschränkt aber der VRAM kann dennoch genutzt werden

meine Grafikkarte hat 640MB GDDR3 bei 320Bit, wobei interessant ist wie viel Speicheranbindung die Grafikkarte hat, denn danach wird beurteilt wie schnell die Daten in und aus den GRAM geschaufelt werden...
Stimmt zwar jedoch wenn der VRAM zu klein ist und so sehr oft vom VRAM aus und eingelaggert werden muss oder gar der langsamere Arbeitsspeicher oder noch schlimmer die Festplatte herhalten muss dann bringt selbst der schnellste VRAM nicht mehr viel!

2 gleiche Grafikkarten, die nur halb so viel kosten reinzumachen wäre nicht sinnvoll, da die Leistung geringer ist, oder?
Du meinst Crossfire oder SLI? Meiner Ansicht nach so ziemlich der größte Bullshit der in der letzten Zeit entwickelt wurde! Zumindest solange es für Echtzeit Grafikberechnung wie in Spielen genutzt wird.
Denn erstens benötigst du mehr als 100% mehr VRAM, da die Daten zweimal für jede Grafikkarte vorliegen müssen + noch etwas für die Verwaltung.
Du hast doppelten Stromverbrauch.
Du hast doppelte Geräuschentwicklung.
Du hast doppelte Abwärme (die gekühlt werden will).
Das ganze funktioniert nicht immer reibungslos, wie das bei Oblivion aussieht weis ich nicht, aber das hat ja so schon manchmal Probleme, die Fehler oder Abstürze werden dadurch sicher nicht weniger.
Du hast rein theoretisch mehr FPS (nicht einmal doppelt so viele sondern deutlich weniger) aber diese FPS mehr bringen dir so gut wie gar nix, denn oft kommen die Bilder der Karten (besonders bei ATI) fast zeitgleich und dann ist erstmal eine Weile gar nix bis dann wieder beide fast zeitgleich kommen, so dass die gefühlten FPS deutlich niedriger sind (fast bei einer Einzelkarte) => Thema Mikroruckler, diese verschwinden erst wirklich wenn selbst eine Einzelkarte dazu fähig wäre diese Anwendung ruckelfrei darzustellen!
Zwar kommen die Bilder manchmal auch vernünftig genau abwechselnd an aber das ist eben nicht immer so und ausserdem machen dann die Karten wegen dem größeren Verwaltungsaufwand jede für sich weniger FPS so dass dieser Vorteil gleich wieder zu nichte gemacht wird.
Der Prozessor muss mehr als doppelt so viel arbeiten, denn die Daten müssen an JEDE Karte also doppelt geschickt werden + etwas Verwaltungsaufwand!

2 Karten haben allerhöchstens dann Sinn wenn diese z.b. unterschiedliche Aufgaben erledigen, eine berechnet z.B. Physik, KI und sonstiges und die andere das Bild. Aber sowas kann Oblivion nicht und gibt es auch noch nicht so richtig.

Bringt es etwas, wenn man eine mit Wasser gefüllte Flasche in den PC legt?
Sie würde dann die Wärme aufnehmen und somit den PC kühlen.
Wenn er dann aus ist geben sie langsam die Wärme wieder ab.
Bringt höchstens die ersten paar Minuten was dann ist aus. Denn der Vorteil von Wasser ist eben dass es sehr gut Wärme transportieren kann, ja genau transportieren nicht schlucken oder sonst was wäre ja physikalisch auch unmöglich denn man kann Energie nicht vernichten nur umwandeln. Doch wenn die Flasche einfach im Rechner liegt von wo nach wo soll das Wasser die Wärme transportieren? Vom Gehäuse ins Gehäuse? Naja das einzige wass es bringt ist dass es einen Luft und somit Wäremstau produziert falls du einen Gehäuselüfter hast und dein System nicht komplett passiv ist. Falls du auf die Idee wegen Wasserkühlungen gekommen bist, da wird zwar Wasser zum Wärmetransport genutzt aber hier verbleibt diese nicht im selben Kreislauf sondern wird über Wärmetauscher an die kühlere Raumluft abgegeben (Radiator).

512 VRam reichen eigentlich schon, zusätzlichen VRam brauchst du nur wenn du auf höheren Einstellungen spielst.
Ich meinte damit Bildschirmauflösung
Die Auflösung hat nahezu kaum einen Effekt auf den tatsächlichen VRAM Bedarf sie hat einen aber dieser ist verglichen zu anderen Dingen sehr sehr gering. Den Hauptverbrauch haben wohl die Texturen und an alle die meinen 500 reichen es ist mit leichtigkeit möglich diese Grenze zu sprengen. Es ist aber nicht so, dass dann alles total einbricht da eben dann der etwas langsamere Arbeitspeicher bemüht wird, jedoch hat es durchaus einen positiven Effekt wenn es dazu erst gar nicht kommt! Also wenn die Möglichkeit besteht würde ich schon auf 1GB VRAM setzen es ist aber nicht unbedingt zwingend notwendig, sollte aber besonders mit Blick auf zukünftige Spiele auf jedenfall in Erwägung gezogen werden!

Wenn ich mir die Powercolor holen würde, hätte sie aber dann als Nachteil eine geringere Taktrate und somit arbeitet der Video-Speicher langsamer.
Aber sie würde länger halten.
Ich würde eher sagen dass 1GB mehr bringt als ein paar Mhz. Denn lieber ein etwas langsamerer Video Speicher in den alles reinpasst als ein schnellerer wo dann ein Teil auf dem Arbeitsspeicher rumliegt welcher noch langsamer ist.

Hier mal ein netter Bericht über 512MB vs. 1024MB: http://www.computerbase.de/forum/showthread.php?t=499497

*Lustig, seit heute gibt es HD4890 er. Kosten aber alle über 200 €:
http://www.alternate.de/html/summary...&baseId=301735

*Nvidea hat auch für Nachschub gesorgt, mit der GTX 275:
http://www.alternate.de/html/summary...&baseId=301176
Hier habe ich einen Test der beiden gefunden den ich bisher nur kurz durchgeklickt habe: http://www.computerbase.de/artikel/...st_ati_radeon_hd_4890_nvidia_geforce_gtx_275/
Werden auch andere Karten getestet auch die 500 und 1000 MB Variante der 4870 aber laut dem Bericht weiter oben ist nicht nur die reine FPS Anzahl bei der 1GB Variante besser sondern auch der wahrgenommene Frameverlauf.
 
Ist meiner Meinung nach totaler Blödsinn! Denn die Grafikkarte muss GARNIX umrechnen sie stellt einfach ne kleinere Auflösung ein und fertig, das mit dem umrechnen ist wenn überhaupt nur der Fall, falls du eine Anwendung im Fenster öffnest der eine Auflösung vorgibst, dieses Fenster vergrößerst/verkleinerst und die Spieleengine dann sich nicht auf die neue Auflösung umstellt sondern das generierte Bild verzerrt aber ehrlich gesagt sowas habe ich bei noch keinem einzigen Spiel gesehen einzig nur bei ein paar Multimediaanwendungen und selbst da war es nur durch das Verzerren nicht durch eine kleine Auflösung!

Ganz im Gegenteil ergibt kleinere Auflösung = mehr Geschwindigkeit aber NUR wenn die Grafikkarte der Flaschenhals ist und zwar benötigt die Grafikkarte so viel weniger Rechenleistung zur Berechnung des Bildes vor allem beim nutzen von Filtern wie AA, AF, HDR und co.

Ich kann nicht bezeugen, ob es stimmt oder nicht - ich berichte nur aus meiner Ehrfahrung.

Ich bin bis jetzt immer am besten gefahren, wenn ich die selbe Auflösung, wie auf meinem Desktop verwendet habe.
Bei Oblivion zum Beispiel, macht es keinen Unterschied, ob ich in der Auflösung 1600x1200 oder 800x600 spiele. Ich habe kein Verlust, aber auch keinen Gewinn an Performance. Bei einigen Spielen hatte ich aber das Problem, dass ich bei einer anderen Auflösung, als die meines Desktops, eine schlechtere Performance hatte. Ist schon länger her, als ich das bei einem Spiel das letzte mal bemerkt habe, aber ich glaube ich hatte das Problem mal bei MOHAA.

Ich kann mir vorstellen, dass das auch stark von der Engine abhängig sein kann. MOHAA basiert glaube auf der Quake Engine. Könnte man eventuell mit anderen Spielen, die diese Engine verwenden, mal überprüfen.
 
Bei Oblivion zum Beispiel, macht es keinen Unterschied, ob ich in der Auflösung 1600x1200 oder 800x600 spiele.
Entweder dein Rechner ist stark genug, dass du z.B. mit VSync eh nicht über die 60 FPS kommst so dass es egal ist oder aber bei dir begrenzt etwas deine Grafikkarte sehr stark (z.B. die CPU), so dass die Grafikkarte bei kleineren Auflösungen gar nicht schneller kann.
Ich kann mir vorstellen, dass das auch stark von der Engine abhängig sein kann. MOHAA basiert glaube auf der Quake Engine. Könnte man eventuell mit anderen Spielen, die diese Engine verwenden, mal überprüfen.
Also die Quake Engine profitierte auf jedenfall von kleineren Auflösungen zumindest damals als meine Hardware nicht schnell genug war, so dass es überhaupt einen Unterschied ergibt bei meiner jetzigen hab ich bei älteren Spielen sowieso konstant 60 FPS (Vsync und TFT Bildschirm) oder sogar bei einigen neueren.

Am Besten du probierst nochmal ein paar Spiele und schaust genau hin ob die nicht doch schneller laufen.

Könnte aber auch ein Treiberproblem oder ähnliches gewesen sein.
 
Zuletzt bearbeitet von einem Moderator:
Entweder dein Rechner ist stark genug, dass du z.B. mit VSync eh nicht über die 60 FPS kommst so dass es egal ist oder aber bei dir begrenzt etwas deine Grafikkarte sehr stark (z.B. die CPU).

VSync verwende ich nie und ich habe recht viele Grafikmods drauf auf Obli zurzeit.

Das heißt, wir reden hier nicht von 60 Frames oder anderen Frameraten die die Möglichkeiten normaler TFT's sprengen, sondern von 27 um genau zu sein. Ich hatte mit 1600x1200 an ein und der selben Stelle 27 Frames und mit 800x600 ebenfalls 27 Frames.

Ich habs grad erst getestet in Obli. Ich könnt dir sogar Screens machen.

Ansonsten hab ich einen 6400+ X2 und zwei 8800GT zurzeit im Rechner. SLI ist derzeit deaktiviert, da ich 2 Monitore verwende, aber ich denke nicht, dass mein CPU die 8800GT so extrem ausbremst.

Also die Quake Engine profitierte auf jedenfall von kleineren Auflösungen zumindest damals als meine Hardware nicht schnell genug war...

Stimmt, daran kann ich mich errinnern. Die Quake Engine war eigentlich recht gnadenlos, was die Auflösung anging. Besondern bei hohen Auflösungen hat man schnell gemerkt, wie die Frames gesunken sind. Also mehr als bei anderen Engines, soviel ich weiß. Dann wars eventuell doch ein anderes Spiel.
 
Die Quake Engine war eigentlich recht gnadenlos, was die Auflösung anging. Besondern bei hohen Auflösungen hat man schnell gemerkt, wie die Frames gesunken sind.
Siehste und das ist das normalverhalten ausser es ist etwas anderes was bremst wie die CPU.

Ansonsten hab ich einen 6400+ X2 und zwei 8800GT zurzeit im Rechner. SLI ist derzeit deaktiviert, da ich 2 Monitore verwende, aber ich denke nicht, dass mein CPU die 8800GT so extrem ausbremst.
Würde es nicht vollständig auschliessen, Oblivion = CPU lastig, viele Mods = CPU lastig, KI = auch ziemlich CPU lastig, besonders kämpfende. Erinner mich da an Zeiten wo auf meinem Laptop 3 Goblins ausreichten um ne Dia Show zu fabrizieren, na gut das ist aber auch net so stark.

VSync verwende ich nie
Ist auch gut so in deinem Fall, da NVidia Karten das meines Wissens immer noch nicht drauf haben die begrenzen nur stupide die FPS synchronisieren sie aber nicht! => sinnlos
 
Würde es nicht vollständig auschliessen, Oblivion = CPU lastig, viele Mods = CPU lastig, KI = auch ziemlich CPU lastig, besonders kämpfende. Erinner mich da an Zeiten wo auf meinem Laptop 3 Goblins ausreichten um ne Dia Show zu fabrizieren, na gut das ist aber auch net so stark.

Oblivion ist nicht CPU lastiger als andere Spiele würde ich meinen. Zudem läuft mein CPU in Obli mit einer Auslastung von 75-80%, was wohl auch bedeuten müsste, dass er nicht ausgelastet ist und somit auch meine Grafikkarte nicht ausbremst. Ist auch bei vielen neueren Spielen der Fall. Besonders die Konsolen Titel. Auch Assassins Creed zum Beispiel. Dutzende NPC's die umherlaufen, aber er ist trotzdem nicht ausgelastet.
Was die Sache mit den Goblins angeht - Ich denke, dass liegt eher an einem hohen Polycount. Alle NPC's in Obli haben recht viele Poly's , dass es mich sogar schon wundert, dass Bethesda das Spiel wirklich auch für Konsolen entwickelt hat. Naja, aber ist nur sinnloses spekulieren, könnte auch an was anderem liegen.


Ist auch gut so in deinem Fall, da NVidia Karten das meines Wissens immer noch nicht drauf haben die begrenzen nur stupide die FPS synchronisieren sie aber nicht! => sinnlos

Ich hatte bis jetzt nie sogute Erfahrungen damit. Auch mit meinen früheren ATI Karten. Die Maus wurde dann teilweise auch so schwammig. Hängt aber auch vom jeweiligen Spiel ab, denke ich.
Nunja, das "flackern" hatte es wenigstens, wie versprochen, immer beseitigt.


Siehste und das ist das normalverhalten ausser es ist etwas anderes was bremst wie die CPU.

Um es abzuschließen, würde ich schon sagen, das wir beide irgendwo recht haben könnten. Ich würde schon meinen, dass das auch Engine abhängig ist. Bei der einen Engine so, bei der anderen so. Eventuell hat es auch etwas mit OpenGL oder Direct3D zutun.
Da hatte ich auch schon seltsame Erfahrungen.

Zum Beispiel bei Tactical Ops hab ich mit OpenGL im Internet einen Ping von 500-900, sobald ich mich bewegt habe. Mit Direct3D war der Ping durchgängig 80-100, was auch der Leistung meiner Leitung entspricht.
 
Danke, ihr habt jetzt wirklich viel geschrieben, vorallem BPhoenix (hast du dich extra deswegen hier angemeldet? Ich habe die ganze Zeit gesehen:
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 1, Gäste: 1 und nachher war der Gast weg und da wars da).

Wenn 1GB mehr bring, dann nehme ich vielleicht statt der 1GB Powercolor die 1GB Club 3D overclocked, die hat etwas bessere Werte als die Powercolor.
Die Gainward find ich aber auch nicht schlecht, das einzige was mir nicht passt, ist dass einem viertel die Grafikkarte abgeraucht ist.
 
Danke, ihr habt jetzt wirklich viel geschrieben, vorallem BPhoenix (hast du dich extra deswegen hier angemeldet? Ich habe die ganze Zeit gesehen:
Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 1, Gäste: 1 und nachher war der Gast weg und da wars da).

Wenn 1GB mehr bring, dann nehme ich vielleicht statt der 1GB Powercolor die 1GB Club 3D overclocked, die hat etwas bessere Werte als die Powercolor.
Die Gainward find ich aber auch nicht schlecht, das einzige was mir nicht passt, ist dass einem viertel die Grafikkarte abgeraucht ist.

Die schlechten Nachrichten bei der Gainward beziehen sich auf die erste Revision. Inzwischen ist die 2te raus mit verbesserten Kondensatoren.
Ich habs jetzt 3 mal gesagt und sags jetzt zum letzten mal.
Nimm die Gainward HD 4870 Golden Sample egal mit wie viel Ram.
Glaub mir damit fährst du besser als mit dem verkackten Powercolor/C3D Kühler.
 
Muss Method recht geben der Kühler sieht besser aus.

Dennoch ist die Ausfallwahrscheinlichkeit der GW bestimmt höher. Da der Speicher extremst übertaktet ist verglichen zu den anderen. Und je höher der Takt desto höher die Ausfallwahrscheinlichkeit, denn diesen macht eben nicht mehr jeder Chip mit.

Aber wenn sie gleich am Anfang nicht tut => zurückschicken (ist ja problemlos in den ersten beiden Wochen möglich).
Wenn sie innerhalb der Garantie verreckt => zurückschicken neue bekommen.
Wenn sie danach verreckt gibt es Karten die wahrscheinlich schneller sind für nur noch einen Bruchteil des Preises ggf. ist die bis dahin auch schon nicht mehr so flott.
 
Muss Method recht geben der Kühler sieht besser aus.

Dennoch ist die Ausfallwahrscheinlichkeit der GW bestimmt höher. Da der Speicher extremst übertaktet ist verglichen zu den anderen. Und je höher der Takt desto höher die Ausfallwahrscheinlichkeit, denn diesen macht eben nicht mehr jeder Chip mit.

Aber wenn sie gleich am Anfang nicht tut => zurückschicken (ist ja problemlos in den ersten beiden Wochen möglich).
Wenn sie innerhalb der Garantie verreckt => zurückschicken neue bekommen.
Wenn sie danach verreckt gibt es Karten die wahrscheinlich schneller sind für nur noch einen Bruchteil des Preises ggf. ist die bis dahin auch schon nicht mehr so flott.
Extrem übertaktet ? Was laberst du denn für einen Stuss.
GDDR 5 geht bis effektiven 4ghz.
 
So, am Montag werde ich das gute Stück bestellen.
Ich hoffe nur, dass mein Netzteil mitmacht, immerhin ist der Unterschied zu meiner alten Graka 100 Watt.

Wenn niemand noch ein Schlagfertiges Argument gegen die Gainward-Grafikkarte hat, dann kaufe ich mir die.
Wie es aussieht ist auch BPhoenix auch dafür.
 
Zuletzt bearbeitet:
Extrem übertaktet ? Was laberst du denn für einen Stuss.
GDDR 5 geht bis effektiven 4ghz.
Mag sein. Ok wenn sie Speicherchips nehmen die dafür ausgelegt sind ist das wieder ne andere Sache nicht aber wenn sie die Standardchips nehmen denn dann weichen sie doch einiges vom Referenztakt ab.
So, am Montag werde ich das gute Stück bestellen.
Welche denn nun?
Ich hoffe nur, dass mein Netzteil mitmacht, immerhin ist der Unterschied zu meiner alten Graka 100 Watt.
Was hast du denn für eines? Nicht dass dein Netzteil dann den Geist aufgibt und wenns blöd läuft gleich deinen gesamten Rechner mitnimmt.
 
Ich habe reineditiert, welche Karte ich nehme, nämlich die Gainward.
Du hast ja gesagt, dass der Lüfter besser aussieht.
Oder wärst du trotzdem für die Club 3D.

Wegen dem Netzteil:
Steht das irgendwoauf dem Netzteil drauf oder muss ich mich mehr anstrengen?
 
Normalerweise ja, da gibts meist so nen Aufkleber da müsste draufstehen welches es ist.

Ok, ich geh jetzt was mampfen und dann guck ich mal nach.

Edit: Mhhmmm, Wurstsakat!

Nein, ich habe nachgesehen und da stand:
DC Output: 350W

Ist glaube ich ein bisschen wenig.
Edit: Andererseit habe ich grade gelesen, dass sich einer eine GTX 260 gekauft hat und dachte, dass sein altes Netzteil mit 380W zu schwach wäre.
Hat anscheinend trotzdem funktioniert, obwohl die Nvidea-Karten deutlich mehr Strom brauchen als die ATI.

Edit 2: Ich habe ein bisschen gestöbert und gesehen, dass ein 350W-Netzteil auch reichen würde, wenn auch nur sehr knapp.
 
Zuletzt bearbeitet:
Ok, ich geh jetzt was mampfen und dann guck ich mal nach.

Edit: Mhhmmm, Wurstsakat!

Nein, ich habe nachgesehen und da stand:
DC Output: 350W

Ist glaube ich ein bisschen wenig.
Edit: Andererseit habe ich grade gelesen, dass sich einer eine GTX 260 gekauft hat und dachte, dass sein altes Netzteil mit 380W zu schwach wäre.
Hat anscheinend trotzdem funktioniert, obwohl die Nvidea-Karten deutlich mehr Strom brauchen als die ATI.

Edit 2: Ich habe ein bisschen gestöbert und gesehen, dass ein 350W-Netzteil auch reichen würde, wenn auch nur sehr knapp.
Oh. 350 Watt sind wirklich sehr sehr knapp.
Du solltest auf jeden Fall von Stesstests wie Prime 95 oder Furmark absehen denn die erzeugen knapp 100% Auslastung, die meisten Spiele schaffen das nicht. Also wenn du Glück hast läuft alles gut mit deinem 350 Watt NT.
Im Zweifelsfall würde ich aber auf Nummer sicher gehen ^^
 
Naja eigentlich wollte ich ja das Netzteil wissen und nicht nur die Watt Zahl, denn diese alleine ist nicht unbedingt aussagekräftig. Dennoch bezeweifel ich stark, dass das Netzteil mit der neuen Grafikkarte lange halten wird.

Und es gibt nichts schlimmeres als ein Netzteil das abraucht und das gesamte System zerstört nur weil man ein paar Euros sparen wollte (denn dann muss man deutlich tiefer in die Tasche greifen).

Ich empfehle mal diesen Beitrag hier durchzulesen, in dem klar wird wie das ganze zusammenhängt, da wird auch deutlich wieso 350 Watt viel zu wenig sind wenn das System an sich keine 350 Watt benötigt und je näher man an die Grenze kommt desto schlimmer das ganze wird: http://www.computerbase.de/forum/showthread.php?t=290348
 
Wenn ich mir noch ein Netzteil kaufen muss, dann wird das aber langsam ziehmlich teuer.
Ich habe noch 130€, da muss ich noch irgendwie zusehen, dass ich die restlichen 15€ bekomme, denn vom Konto will ich nichts runternehmen.
Wenn ich dann noch ein Netzteil kaufe, dann komme ich auf 200€

Würden mein Netzteil noch für eine 100 Watt Grafikkarte ausreichen?
 
Naja da wirds wahrscheinlich genauso eng, das Ding ist einfach viel zu klein.

Wie viel hat denn deine jetzige? Viel mehr wirst du da wahrscheinlich auch nicht unterkriegen. Wars nen ferig PC? Wenn ja sind die meist immer so dimensioniert, dass man leistungsstärkere Hardware nicht verbauen kann da sonst eben das Netzteil überfordert ist und das gesamte System mitnehmen könnte.