Über wie viel VRAM sollte deine neue Grafikkarte verfügen?

Ich möchte an dieser Stelle aber mal kurz einhaken: Richtig, bei DirectX 12 ist hardwareseitig das Zeitfenster älterer Chipsätze recht gering - Karten älter als 2 Jahre unterstützen die schlicht hardwareseitig nicht. Aaaaaaber: bis zu DirectX 12, welches sich wohl allein Aufgrund der XBOne langfristig durchsetzen wird, kam man durchaus theoretisch noch gut mit einer Karte aus, die die über 10 Jahre alte DirectX 9 Schnittstelle unterstützte, denn Direct X 10 und 11 sind eigentlich gänzlich gefloppt und die Titel, die diese beiden Schnittstellenrevisionen wirklich exklusiv unterstützen sind erschreckend rar. Insofern sollte man sich über diese Schnittstellen nicht zu viele Gedanken machen: du kannst zu jedem Zeitpunkt Pech haben, dass du in einem Zeitfenster landest, wo du dir eine neue Grafikkarte 3 Monate zu früh gekauft hast und bei einer neuen OpenGL/DirectX/Vulkan-Revision hardwareseitig die A*-Karte gezogen hast. Und da es dabei im Regelfall auf die zugrunde liegende Chiparchitektur ankommt, ist es ziemlich egal, ob du für diese Karte nun 200 EUR oder 800 EUR ausgegeben hast. Ein nahender richtiger Generationswechsel bei den Konsolen ist aber immer ein guter Indikator, von (teuren) Grafikkarten erstmal die Finger zu lassen.

Klar ist auch: rein auf die Leistungszahlen gerechnet, sind die jeweiligen absoluten Topmodelle (TitanX, 1080 im nVidia-Lager) des jeweiligen Herstellers zwar eindrucksvoll, aber den Aufpreis gegenüber dem dritt- oder viertplatzierten aus der gleichen Serie im Regelfall nie wert. Wer die von diesen Karten gebotene Mehrleistung nicht zwingend sofort braucht - oder Geld wie Heu hat - sollte sich da echt lieber mit einer Karte im oberen Mittelfeld zufrieden geben, denn spätestens mit der nächsten Generation bekommst du ähnliche Leistung dieser Top-Karte mit verbesserten technischen Feinheiten für die Hälfte des Preises.

Und damit zu meinem Fazit: doch, man kann mit eine Grafikkarte, sogar abseits des Topmodells, 5 Jahre lang hin kommen, wenn man clever kauft und ein wenig Glück hat. Natürlich darf man dann nicht das Teil für 110 EUR kaufen und erwarten, dass man dann auch in 5 Jahren noch alles auf Ultra spielen kann. Und natürlich ist das nichts für jemand, der beispielsweise imposante 3D-Shooter spielt, die ja regelmäßig die Messlatte für Hardwareanforderungen anheben. Aber es geht durchaus: Ich kam beispielsweise bis für einem Jahr noch super mit einer 550Ti aus. Nun haben wir den Start von DirectX 12 und Vulkan, deren Anforderungen man nun beim Kauf neuer Hardware natürlich erfüllen sollte - aber eh sich das komplett etabliert hat und dann sogar von einer neuen Revision abgelöst wurde, werden einige Jahre ins Land gehen, so dass ich mir über die Schnittstellen der Zukunft derzeit keine Gedanken machen würde. Die dürften nämlich bis sie eingeführt und etabliert wurden ebenfalls noch viele Jahre und somit Grafikchipgenerationen auf sich warten lassen. Wer jetzt ne 1060, 1070 oder ein gleichwertiges AMD-Produkt kauft, kann, sofern sich seine eigenen Anforderungen nicht groß ändern, danach durchaus ein paar Jahre Ruhe haben. Obs wirklich 5 werden hängt nicht zuletzt auch von den eigenen Gewohnheiten ab.
 
Und DirectX-12 ist auch nicht mehr einfach nur DirectX-12 , denn mittlerweile gibt es bereits DirectX-12.1 !
Und der Unterschied ist gewaltig.
Der Level 12.1 soll es Programmierern ermöglichen, einige Effekte schneller und schöner darzustellen, ...etwa plastischeren Rauch oder schönere Beleuchtung.
Ausserdem sollen die Ladezeiten der DirectX-12 Funktionen bei 12.1 weit schneller ablaufen, als es bei 12.0 der Fall ist, denn da gab es in der Vergangenheit teilweise ja massive Probleme.

Nicht alle aktuellen Grafikkarten unterstützen bereits 12.1 !
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html
http://www.chip.de/artikel/DirectX-12-Diese-Grafikkarten-sind-kompatibel_82406468.html

Hinzu kommt, dass NVidia-GraKas derzeit nur eingeschränktes DirectX-12 /12.1 unterstützt.
Denn NVidia unterstützt kein Hardware-Tier 3 siehe auch Resource Binding, bzw. Asynchronous Shaders.
Dies ist ein Hardware-Problem, und lässt sich auch nicht durch ein Treiber-Update lösen.
https://www.heise.de/newsticker/mel...karten-ein-vollkommenes-Desaster-2801497.html


Persönlich würde ich gerade jetzt, da es bereits Dezember ist, auf die nächste Grafikkarten-Generation warten, die für Anfang 2017 angekündigt ist.
Insbesondere auf die AMD-Grakas mit der größeren Speicheranbindung, die derzeit (bis auf Furry) ja immer noch das Nadelöhr der aktuellen Grafikkarten darstellt.
Eine Autobahn mit 4096 Spuren ist flotter als eine mit nur 256 oder weniger Spuren. ;)
Für die Grafikkarten also 4096Bit statt nur 384Bit, 256Bit oder noch weniger.
Dies in Verbindung mit möglichst viel VRAM (HBM2), einem schnellen Chip, und DirectX-12.1 , und die Welt ist in Ordnung. :);)
 
  • Like
Reaktionen: Jorgodan und doritis
Soweit ich weiß, entstand der Hardware-Feature-Level 12.1 schon, bevor 12.0 finalisiert wurde - sieht man ja auch daran, das Maxwell diesen unterstützt. Als als Maxwell in Entwicklung war, war DirectX 12 ebenfalls noch in Entwicklung - oder anders gesagt: für die Öffentlichkeit noch kein Ding. Man muss sich das so vorstellen: eine Karte, die den Feature-Level 12 hat, kann oder sollte zumindest alle DirectX 12 Titel spielen, muss aber bestimmte Dinge entweder per Software berechnen, was deutlich langsamer ist oder auf sie verzichten. Eine Karte mit Hardware-Featurelevel 12.1 hat dafür den "passenden Hardwarechip". Das Problem ist aber für die meisten wohl eher theoretischer Natur, denn ich fürchte, sobald die zweite Generation von DirectX 12 Games anrückt - im Moment ist ja nicht mal die erste voll da, die Direct X 12 nicht nur als "Experiment" nutzt, sondern deren Engine voll auf DX12 optimiert ist, sind die mit Hardware-Feature-Level 12 genannten Karten eh gänzlich zu langsam um volle Grafikdetails zu ermöglichen, die dann ggf. Hardwarelevel 12.1 brauchen würden. Und selbst die ersten beiden 12.1 Generationen - also Maxwell und Pascal im nVidia-Lager - dürften dann bei vollen Effekten ziemlich ins Straucheln geraten. Aber bis zu dieser "2. Generation" wird auch noch genug Zeit vergehen.

Und das mit der schnelleren Speicheranbindung wurde ja auch mal Zeit... irgendwie wurde der verbaute VRAM immer schneller und immer mehr, aber die Speicheranbindung blieb quasi auf einem Steinzeitstand. Selbst ehemalige HighEnd-Karten dümpeln da noch mit 256Bit vor sich hin. :D
 
Apropos, also Egoshooter mit Ausnahme vielleicht vom neusten Battlefield sind schon lange nicht mehr die Messlatte für anspruchsvolle Grafik. Die wurden schon vor Jahren von Action-Adventures (Tomb Raider Reboot, GTA) und Rollenspielen (Dragon Age: Inquisition, Witcher 2 und 3) abgelöst.

Auch werden DX 10 und 11 durchaus von fast allen großen Titeln unterstützt. Nur 2008 und noch 2009 bekamen halt viele Titel noch kein DX 10, weil sich das für die Hersteller aufgrund der großen Verbreitung von Win XP schlicht nicht lohnte. Erst mit Win 7 kam das nach und nach. Daher kommt immer noch die Meinung, das wird kaum verwendet. Tatsache ist, DX 10 wurde in viele ältere Spiele die noch gezockt wurden nachträglich reingepatcht und neuere, zwischen 2010 und 2015 bieten eigentlich praktisch alle DX 10 oder 11. Ich rede hier natürlich von Titeln der großen Publisher und Triple A, nicht von irgendwelchen Indie-Games mit Unity Engine.
 
Inqusition? Das nutzt die Frostbite-Engine in Revision 3... und wo wurde die zuerst eingesetzt? Richtig, in Battlefield 4 ;) Inquisition hatte, als es dann 2013 erschien, für sein Erscheinungsdatum eher moderate Hardwareanforderungen. Gleiches gilt für das Tomb Raider Reboot aus dem selben Jahr. Beide Spiele haben auch deutlich geringere Anforderungen als beispielsweise ein Battlefield 4. Also doch, sind sie nach wie vor, insbesondere, wenn die Engines wie im Falle von Frostbite ja in erster Linie für einen Shooter entwickelt und dann nur für andere Genres angepasst wurden ;) GTAV (2013) kannst du da ebenfalls auslassen, weil keiner weiß, welche Anforderungen die Old-Gen-Version für den PC gestellt hätte, da sie ja nie dafür erschienen ist. Das letztlich für PC erschienene GTA V Version (2015) hat natürlich auch die Anforderungen von einem Spiel im Jahr 2015, ähnlich wie beispielsweise auch Arkham Knight... aber auch da hat u.a. Call of Duty: Black Ops III höhere Hardware-Anforderungen gestellt. Also ja, Action-Adventures holen auf, was die Anforderungen angeht - sind aber nach wie vor nicht die Messlatte.

Eine Unterstützung von DX 10 und 11 ist aber etwas völlig anderes als darauf aufzubauen. Die meisten Titel, die DirectX 10/11 "unterstützen" haben einen DirectX 9 Fallback, meist in Form einer separaten Exe - und dieser steht dem DX 10/11 - Modus weder was Performance noch was Optik angeht, in irgendwas merklich nach. Hätte also nun wirklich niemand gebraucht. Mehr als 5 DirectX 10/11 only Titel fallen zumindest mir nicht ein - auch nach langer Überlegung nicht :)
 
Zuletzt bearbeitet:
Persönlich würde ich gerade jetzt, da es bereits Dezember ist, auf die nächste Grafikkarten-Generation warten, die für Anfang 2017 angekündigt ist.
Insbesondere auf die AMD-Grakas mit der größeren Speicheranbindung, die derzeit (bis auf Furry) ja immer noch das Nadelöhr der aktuellen Grafikkarten darstellt.
Eine Autobahn mit 4096 Spuren ist flotter als eine mit nur 256 oder weniger Spuren. ;)
Für die Grafikkarten also 4096Bit statt nur 384Bit, 256Bit oder noch weniger.
Dies in Verbindung mit möglichst viel VRAM (HBM2), einem schnellen Chip, und DirectX-12.1 , und die Welt ist in Ordnung. :);)

Hallo kleiner Prinz,
ist denn deiner Erfahrung nach damit zu rechnen dass auch die "obere Mittelklasse" mit einer breiteren Speicheranbindung ausgestattet wird? Die GTX1070 hat ja auch nur 256 bit zu bieten. Wenn das wahrscheinlich ist, würde ich sogar noch bis Jan/Feb. warten mit dem Kauf einer neuen Karte.
 
  • Like
Reaktionen: Kleiner Prinz
Hallo kleiner Prinz,
ist denn deiner Erfahrung nach damit zu rechnen dass auch die "obere Mittelklasse" mit einer breiteren Speicheranbindung ausgestattet wird? Die GTX1070 hat ja auch nur 256 bit zu bieten. Wenn das wahrscheinlich ist, würde ich sogar noch bis Jan/Feb. warten mit dem Kauf einer neuen Karte.

Bezüglich Grafikkarten von NVidia habe ich bisher nichts dazu lesen können.
Vermutlich aber ja.

Bisher sah es allerdings immer so aus, dass zunächst die „Schlachtschiffe“ auf den Markt kamen.
Und dies war immer so ca. Monat April/Mai.
Erst etwas später dann die Mittelklasse.
Ich weiß nicht, ob du solange warten möchtest.

Hinzu kommt, dass die NVidia-Karten bisher um einiges teurer waren, als AMD der gleichen Leistungsklasse.
Und wie es mit der bisher mangelnden DX12 Unterstützung bei NVidia dann aussehen wird, habe ich auch noch nicht lesen können.
Ich möchte deshalb die NVidia-GraKas nicht schlecht reden, denn schnell sind sie ja.

Zunächst sehe ich das Problem halt in Bezug auf den VRAM.
Denn dieser wird immer größer, und aktuelle Spiele werden zukünftig auch einen immer größeren Bedarf an VRAM anmelden, aber dieser muss dann immer noch durch dasselbe kleine Nadelöhr.
Und da kommt nun HBM ins Spiel, den bisher nur AMD auf einigen seiner Grafikkarten verbaut.
Auf der Furry & R9 Nano (Fiji) findet man HBM1 (4096Bit) schon, …leider bisher nur bis maximal 4 GB, was ja jetzt bereits für einige Spiele zu wenig ist.

Im kommenden Jahr sollen Grafikkarten zu haben sein, bis maximal 32 GB HBM2.
Genaueres ist mir aber leider noch nicht bekannt.
NVidia soll dann mit der Pascal (Tesla GP100 Chip), Einzug halten (4096Bit).
https://www.heise.de/newsticker/mel...Byte-HBM2-und-bis-zu-3840-Kernen-3163143.html
Diese Profi-Karten wird es dann auch als Consumer-Grafikkarten-Versionen geben.
http://www.software3d.de/blog/3d-hardware-profi-grafikkarten-sind-teure-consumer-karten.html#
AMD mit der Polaris und Vega, und später eine Navi für Profi-Anwendungen (Wobei hier dann die Vega mit 4096Bit interessant ist).
http://wccftech.com/amd-vega-gpu-navi-gpu-hbm2-2017-2018/

Wie gesagt, würde ich persönlich noch warten, was aber keine Empfehlung für alle anderen hier sein soll.
Denn ich gehöre halt auch zu den Spinnern, die bereit sind, für neue Hardware, Unsummen, auszugeben.
Und vermutlich, werden die neuen GraKas nicht gerade billig sein.
 
Zuletzt bearbeitet:
Welches nutzt du denn jetzt?
Das alte Skyrim oder die SE ?
Momentan weder noch. :D

Bin gerade mit FO4 mal wieder beschäfftigt, was auch der Grund für eine neue Grafikkarte für mich ist.
Meine gute treue R290 mit deren Leistung ich eigentlich sehr zufrieden bin, hat mit FO4 so ihre Probleme mit korrekter Texturdarstellung.
Vom ersten Tag an habe ich immer einige Texturen die nicht korrekt zu ende geladen werden, so das sie völlig matschig dargestellt werden.
Je länger ich spiele umso heftiger wird das Problem.
Ich habe alle möglichen Tipps dazu schon mehrfach ausprobiert und hatte keine Besserung, bis... ja bis ich mir die 1060 bestellt habe.
Seitdem arbeitet meine R290 in guten 9 Spielstunden völlig korrekt. Das soll einer verstehen. :confused:

Es wirkt beinahe so als sage die R290, hey schau ich kann das auch, das kannst du mir doch nicht antun und mich einfach so austauschen wollen.
Wetten, das wenn ich die 1060 retur gehen lassen würde, die matschigen Texturen dann wieder da sind.:D

Eigentlich kaufe ich mir etwa alle zwei Jahre eine neue Karte, das wäre in diesem Fall im April/Mai und hätte gut zum Erscheinen der Vegakarten gepasst,
aber mich nervt das mit FO4 so dermassen das ich gleich zwei meiner Prinzipien diesesmal über den Haufen werfe.
Zum einen die zwei Jahresfrist und zu anderen der Wechsel zu Nvidia. Seit mehr als 11 Jahren nutze ich nur ATI/AMD und mein einziger Wechselversuch vor ein paar Jahren
war so enttäuschend (ich glaube es war eine 560), das ich sie nach etwa drei Wochen gegen eine AMD ausgetauscht habe.
Mir froren ständig Programme ein, auch der Browser war davon betroffen. Entweder war damals die Karte deffekt oder es lag an den Treibern.

Leider ist die 1060 noch nicht eingetroffen, was ich für Mindfactory ungewöhnlich finde, aber es liegt wohl am Weihnachtsgeschäft das es einen Tag länger dauert.
Gespannt bin ich jedesfalls wie ein Pflitzebogen, denn die ganzen Tests die ich mir angeschaut habe, sind auch nicht wirklich für mich allzu aussagekräftig, da ich a)
bei weitem nicht solche teure CPU habe wie sie meist in den Tests Verwendung findet, b) auch die Testspiele gänzlich andere sind als die die ich spiele und c)
gemoddete und mit Texturen aufgebesserte Spiele eh nie in Tests vorkommen. Hinzu kommt das die von mir bestellte 1060 auch gute 7 bis 9 % schneller sein soll als eine Standard 1060.

Da wir hier eine Diskussion über Sinn und Unsinn einer 1070 im HD Bereich hatten, sprich 24 Zoll Monitor und 1920x 1080 Auflösung, wollte ich berichten wie sich die 1060 mit Skyrim in beiden Versionen macht. Ich werde aber sehr wahrscheinlich zumindest vorerst beim alten Skyrim bleiben, liebevoll ja jetzt Oldrim genannt. :p
 
  • Like
Reaktionen: Kleiner Prinz
Es wirkt beinahe so als sage die R290, hey schau ich kann das auch, das kannst du mir doch nicht antun und mich einfach so austauschen wollen.
Wetten, das wenn ich die 1060 retur gehen lassen würde, die matschigen Texturen dann wieder da sind.:D

Na ja, dann stell die GTX-1060 in Sichtweite zur R290, ...vielleicht übertaktet sie sich dann sogar ganz von allein, damit du sie nicht ausbaust. :D

Aber komisch ist das schon, dass du diese Textur-Probleme hast.
Es gibt übrigens seit heute einen völlig neuen Treiber, der weit besser sein soll, als alle bisherigen Treiber von AMD !
Der heißt AMD-ReLive-Edition 16.12.1
Hier der fünf-seitige Testbericht:
https://www.computerbase.de/2016-12...content-title&utm_campaign=newsletter-article
Vielleicht löst er dein Textur-Problem.

Ich werde mir den auch gleich mal installieren und testen.
 
  • Like
Reaktionen: Soldiersmurf

@Jorgodan

Da du dir ja eine GTX-1070 kaufen möchtest, achte darauf:
Derzeit gibt es bei Kauf einer GTX-1070 als kostenlose Beigabe das Spiel:

Watch Dogs 2



Edit:
Wer ein richtiges Monster an Grafikkarte sucht, sollte sich mal die neue
COLORFUL IGAME GTX 1080 KUDAN anschauen. :D;)
Die Grafikkarte belegt vier Slots und soll zum Jahreswechsel erscheinen. (Wahrscheinlich aber nicht in Deutschland, ...vieleicht dann aber über einen ebay-Händler, oder Amazon)




Quelle:
https://www.computerbase.de/2016-11/colorful-igame-gtx-1080-kudan-grafikkarte-4-slots/
 
Zuletzt bearbeitet:
  • Like
Reaktionen: NewRaven
Inqusition? Das nutzt die Frostbite-Engine in Revision 3... und wo wurde die zuerst eingesetzt? Richtig, in Battlefield 4 ;) Inquisition hatte, als es dann 2013 erschien, für sein Erscheinungsdatum eher moderate Hardwareanforderungen. Gleiches gilt für das Tomb Raider Reboot aus dem selben Jahr. Beide Spiele haben auch deutlich geringere Anforderungen als beispielsweise ein Battlefield 4. Also doch, sind sie nach wie vor, insbesondere, wenn die Engines wie im Falle von Frostbite ja in erster Linie für einen Shooter entwickelt und dann nur für andere Genres angepasst wurden ;) GTAV (2013) kannst du da ebenfalls auslassen, weil keiner weiß, welche Anforderungen die Old-Gen-Version für den PC gestellt hätte, da sie ja nie dafür erschienen ist. Das letztlich für PC erschienene GTA V Version (2015) hat natürlich auch die Anforderungen von einem Spiel im Jahr 2015, ähnlich wie beispielsweise auch Arkham Knight... aber auch da hat u.a. Call of Duty: Black Ops III höhere Hardware-Anforderungen gestellt. Also ja, Action-Adventures holen auf, was die Anforderungen angeht - sind aber nach wie vor nicht die Messlatte.

Eine Unterstützung von DX 10 und 11 ist aber etwas völlig anderes als darauf aufzubauen. Die meisten Titel, die DirectX 10/11 "unterstützen" haben einen DirectX 9 Fallback, meist in Form einer separaten Exe - und dieser steht dem DX 10/11 - Modus weder was Performance noch was Optik angeht, in irgendwas merklich nach. Hätte also nun wirklich niemand gebraucht. Mehr als 5 DirectX 10/11 only Titel fallen zumindest mir nicht ein - auch nach langer Überlegung nicht :)

Dragon Age Inquisition erschien im November 2014, also über ein Jahr nach Battlefield 4 und das sieht man grafisch zu 100 Prozent, den Inquisition sieht wesentlich besser aus und hat entsprechend auch weitaus höhere Anforderungen.
Auch die Anforderungen von GTA 5 oder den letzten beiden Assassin's Creed Teilen sind enorm. Schaue dir doch einfach mal die Benchmarkvergleiche auf Seiten wie Gamestar, PC Games Hardware oder Toms Hardware Guide an. Einige wenige Shooter wie besagte Battlefield Serie oder z.T. auch Far Cry und Call of Duty spielen da noch oben mit aber gerade Open World Titel aus dem RPG und Action-Adventure Bereich saugen ordentlich an der Performance.

Ein 2011 erschienenes Witcher 2 EE erreicht auf einer GeForce 580 nur 44 FPS, das fast gleichzeitig erschienene Battlefield 3 erzielt auf der gleichen Karte 55 FPS .

Assassin's Creed Unity von 2014 erreicht mit einer GF 980GTX nicht einmal 60 FPS mit einer GTX 770 kratzt es gerade die 40 FPS an. Bei Far Cry 4 schaffen die Karten 72 FPS respektive 48 FPS, beim 2014er Call of Duty sieht es noch extremer aus, da sind es 144 und 90 FPS. Und Wolfenstein New Order ist auf 60 FPS gelockt, das schaffen sowohl die 980 als auch die 770.

Oben genanntes DA:I erreicht auf der GF GTX 980 übrigens 48 FPS und auf der GTX 770 nur noch 38 FPS.
Das ein Jahr ältere Battlefield 4 schafft auf einer GTX 780 lockere 66 FPS und die 770 erreicht 55 FPS.

(alle Ergebnisse von PC Games Hardware, damit sie vergleichbar sind)

Also nein, Egoshooter sind nicht mehr die fordernsten Spiele.

Klar nutzen die meisten Titel ein DX9 Fallback, halt für die Nutzer älterer Rechner und Grafikkarten. Zu behaupten, dass sich das weder auf Optik noch auf Leistung auswirkt ist aber blödsinn, wie meine eigene Erfahrung zeigt. Alle von mir gespielten aktuelleren Titel sehen in DX9 entweder schlechter aus und laufen dann natürlich auch entsprechend schneller oder legen unter DX 10 / 11 zumindest einen (meist kleinen aber dennoch merkbaren) Leistungsschub hin. (Kann natürlich sein, dass das bei GeForce Karten geringen ausfällt als bei meiner Radeon ... )
 
Zuletzt bearbeitet:
Stimmt, 2014, das war ein Typo. :) Aber nein, dass mit den Anforderungen stimmt so halt einfach nicht:


DA:I
OS: Windows 7 oder 8.1 64-bit
CPU: AMD Vier-Kern-CPU @ 2,5 GHz, Intel Vier-Kern-CPU @ 2,0 GHz
RAM: 4 GB
Grafikkarte: Radeon HD 4870/Geforce 8800 GT, mind. 512 MB RAM
Festplattenspeicher: 26 GB
DirectX 10


BF4:
OS: Windows Vista SP2, 7, 8
CPU: AMD Athlon X2 2,8 Ghz oder Intel Core 2 Duo 2,4 Ghz oder besser
RAM: 4 GB
Grafikkarte: AMD Radeon HD 3870 oder Nvidia Geforce 8800 GT oder besser
Festplattenspeicher: 30 GB

Der Unterschied liegt einzig in der Minimalanforderung der AMD-Karte, wo Inquisition gern etwas mehr hätte, bei der CPU schießt BF4 sogar davon (erst recht, wenn man bedenkt, dass man Inquisition auch mit ein paar Tricks mit einer DualCore-CPU spielen konnte). Und wie du schon gesagt hast, lag da ein Jahr dazwischen - in dem quasi was die Anforderungen anging, gar nichts passiert ist. Zu schlucken hatten also hier wohl eher die, die an BF4 interessiert waren. Inquisition lag, auch wenn ich in meinem vorherigen Post dessen Minimal-Anforderungen etwas geringer im Kopf hatte, als sie tatsächlich waren, insgesamt trotzdem für seinen Erscheinungszeitraum irgendwo im Durchschnitt. Natürlich sah es gut aus, keine Frage - aber als Benchmark dient es nunmal nicht wirklich, wenn es die Hardware "nur" genauso fordert, wie dutzende andere Spiele zeitlich vor oder mit ihm.

Assassins Creed Unity ist als unglaublich schlecht optimiertes Spiel auch nicht unbedingt ein guter Punkt - da hätte man auch Arkham Knight aufführen können. Immerhin läuft mit Syndicate ja der eigene Nachfolger auf gleicher Hardware besser. :) Die Witcher-Serie geb ich dir mal als Ausnahme von der Regel, wobei selbst die in keinem Jahr die Spitze der Anforderungen erreichte (2011, mit TW2, lag zum Beispiel Dead Island da merklich höher und Crysis 2 konntest du, bei ähnlichen Mindestanforderungen, viel weiter nach oben skalieren). Und wenn ich mir Benchmarks auf diversen Seite ansehe, dann sehe ich, dass die dort Spiele wählen, die ein breites Spektrum abdecken: OpenWorld, Action-Adventure, Racing, Shooter und dazu noch ein paar Spiele einbinden, die breit skalieren - was ja auch Sinn macht. Das sind dann aber eben nicht zwangsläufig auch die 5 oder 10 fordernsten Spiele, die es gibt, sondern fordernde Spiele, die ein breites Spektrum an Engines- und Anwendungsszenarien abdecken. Niemandem wäre geholfen, wenn solche Tests nur aus 5 Shootern oder 5 Action-Adventures oder 5 Echtzeitstrategiespielen bestehen würden. ;) Also doch, sind sie - und werden sie vermutlich auch so lang bleiben, wie die meisten Engines in erster Linie für sie geschrieben werden - oder bis Star Citizen komplett fertig erscheint ;) Einigen wir uns drauf, dass wir uns nicht einig werden. Wie gesagt, dass da andere Genre mittlerweile weit mehr mitmischen als noch vor 10 Jahren, ist ja absolut unbestritten - aber die Messlatte für Hardware sind sie meiner Meinung nach noch nicht.

Nun, ich kann hier nur von Resident Evil 5, Bioshock, Dragon Age 2 und Arkham City sprechen, dass sind die einzigen, die mir dazu grad einfallen - aber keines davon lief wirklich besser im DX 10/11 Modus (manches sogar schlechter oder hatte mehr Bugs) und keines davon sah, von minimalsten subtilen Effekten besser aus als sein DirectX 9 Gegenstück. Gerade bei RE und Arkham City wurde sogar dazu geraten, lieber einfach die DreictX9 - Version zu nutzen, weil alles andere außer Bugs nun halt wirklich nichts bringt. Aber es mag sein, dass mir da ein paar Spiele gerade nicht einfallen. Allein die Tatsache, dass diese Fallbacks bei DirectX 10 und 11 so einfach möglich waren und so oft genutzt wurden, zeigt aber schon, dass da drunter eben DirectX 9 Technik steckte, die man nur um ein paar Kleinigkeiten erweitert hat. War ja auch logisch, die Konsole (XB360) wäre sonst damals nämlich außen vor geblieben. Das dürfte sich aber bei den strukturellen Änderungen bei DX 12 so ziemlich sicher nicht mehr wiederholen.
 
Zuletzt bearbeitet:
Da fallen mir aber noch ganz andere ältere Ego-Shooter ein, welche selbst heute noch (je nach PC-Ausstattung) die Hardware fordern können, wenn man alles auf maximale Einstellung stellt.
Zum Beispiel:
Metro2033 Redux (mit aktiviertem PhysX)
Metro Last Light Redux (mit aktiviertem PhysX)
Dying Light 1&2
CRYSIS 3

Und aktuell zum Beispiel Call of Duty Infinite Warfare & DOOM.
Das einzige Spiel, welches meine GraKas aber richtig ins Schwitzen bringt (mehr als alle anderen Spiele) ist mein gemoddetes 4K-Skyrim (egal ob in der 3.Person oder im Ego-Modus).

Aber ist doch eigentlich alles egal.
Auf einem uralten AT-Rechner von 1988 schwitzt auch dessen Hardware, beim Zocken von Tetris. :D:D:D
 
Zuletzt bearbeitet:
XP-Rechner von 1988 ????
Ein Rechner von 88 dürfte nicht mal die Festplatten Kapazität haben für XP

Dann lieber mit einen c64 oder Amiga500
Street Fighter zum Prügeln nehmen

Ach ja Tetris mit den Ersten Game Boys:D
 
Zuletzt bearbeitet:
XP-Rechner von 1988 ????
Ein Rechner von 88 dürfte nicht mal die Festplatten Kapazität haben für XP

Du hast natürlich recht.
War ein Tippfehler.
Wollte AT-Rechner schreiben.
So ein PC mit einer 4,77 MHz CPU ! :D

Gabs zu der Zeit eigentlich schon Windows v1.0?o_OBye, Bbm.

Kann man hier nachlesen:
https://de.wikipedia.org/wiki/Microsoft_Windows_1.0
Soweit ich informiert bin, war das erste richtige Windows, welches kommerziell in Umlauf gebracht wurde, Version 3.0
 
  • Like
Reaktionen: Jorgodan
Die 1.0 gabs wahrscheinlich nur als Experimentalversion. Das erste "vernünftige" Win war die 3.0 die etwa 1990 marktfähig war. Habe jetzt aber nicht extra bei Wiki gefragt. Aber das weis der kleine Prinz auch nur aus dem Lexikon. Da is er vielleicht noch mit der Blechtrommel um den Christbaum ... und so. Nur ne Vermutung.:D
@ Prinz , wenn ich dich jetzt jünger gemacht habe nimms als Kompliment und nicht als Beleidigung;)
Edit: deshalb bist'de ja auch immer schneller als Andere und ich lag gar nicht so falsch.:)
Habe übrigens immernoch mein Windows NT Workstation 3.5 Installationspaket 1995) mit ca 10 Floppydisks im Schrank stehen. Wenn ich Rentner bin versteigere ich das meistbietend :D.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Kleiner Prinz
Die 1.0 gabs wahrscheinlich nur als Experimentalversion. Das erste "vernünftige" Win war die 3.0 die etwa 1990 marktfähig war. Habe jetzt aber nicht extra bei Wiki gefragt. Aber das weis der kleine Prinz auch nur aus dem Lexikon. Da is er vielleicht noch mit der Blechtrommel um den Christbaum ... und so. Nur ne Vermutung.:D
@ Prinz , wenn ich dich jetzt jünger gemacht habe nimms als Kompliment und nicht als Beleidigung;)

Bölls Blechtrommel war es nicht, aber du liegst fast richtig. ;)
Hatte früh mit einem Junior Kinder Schlagzeug und Gitarre meine Eltern genervt.
Gefolgt vom Chemiebaukasten und vielem anderen, womit man seine Eltern zur Verzweiflung bringen kann. :D
Einen Computer hatte ich dann auch bald, der aber noch geliehen war.
Mittlerweile habe ich aber eine nette kleine Sammlung alter Computer und Monitore.
Entweder vom Sperrmüll, oder von eBay.
Darunter auch Betriebssysteme mit MS-DOS 3.3 und Windows 3.0, Win95, Win98, XP, NT, 2000, etc.
Sowie passende Programme und Spiele aus dieser Zeit.
 
  • Like
Reaktionen: Jorgodan
Ich weiss noch das ich damals mit Win 3.0, 3.1 schnell das Interesse verloren habe
Da hatte ich die alten spiele viel Lieber mit dem Norten Comander gestartet

Hexen, Doom, Wolfenstein usw
Ich müsste noch in irgendeiner Mappe noch CDs davon haben
War das damals eine Langwierige Arbeit die alten Disketten auf CD zu Brennen:rolleyes:


Und dann hatte Win95 seinen auftritt
Resident Evil, Tomb Rider, Indiana Jones, X-Wing usw