@NewRaven:
Noch zu Dragon Age: Inquisition, nein, das läuft nicht auf Mittelklassehardware mit maximalen Einstellungen flüssig, da braucht man schon ein wenig mehr Power. Und nein, Battlefield 4 hat wesentlich niedrigere Anforderungen, wie ich auch schon belegt hatte und sieht auch schlechter aus.
Und es geht ja gerade um die besten der besten Spiele im Grafikbereich, also klar, da gehören dann auch Titel wie Witcher 3 dazu. Oder Tomb Raider und Rise of the Tomb Raider - beide Titel gehören zu den fordernsten überhaupt, so niedrige Framerates schafft kein Shooter. RotTR schafft auf einer GTX 980 mal gerade 54 FPS, auf einer GTX 780 und einer 960 nur 30 (wieder Zahlen von PC Games Hardware).
Was DX angeht ist schwer zu sagen, weil mir aus dem Stehgreif kein (aktuelleres) Spiel einfällt, dass die Grafik unter DX 10 / 11 nicht (ordentlich) aufpoliert. Selbst das uralte Age of Conan (Unchained) bohrt beim Wechsel von DX9 auf 10 noch die Effekte auf.
Kleiner Stopp: natürlich sieht ein Spiel von 2014 meist besser aus als eines von 2013. Nur ging es - um diesen in sich völlig logischen Fakt - eben nicht. Es ging darum, welches Spiel zu seiner Zeit die meisten Hardwareanfordrungen schluckt - und zwar nicht wegen schlechter Optimierung, sondern weil es dafür grafisch etwas liefert. 2013 gabs aber noch kein Inqusition - dazu gleich noch etwas mehr - das kam erst 2014... ergo muss es sich in dieser Hinsicht auch mit Spielen aus 2014 messen - und der böse Shooter - BF4 - lag also dennoch 2013 vorn. Aber wenn dir das nicht gefällt, können wir auch Crysis 3 nehmen, dass sowohl optisch als auch was die Anforderungen angeht, da locker noch drei Schippen drauf legt. Im an sich eher Shooter-schwachem Jahr 2014 hatten wir dann blöderweise doch noch eben Titel wie FarCry 4 und Metro Redux mit ähnlichen Maximalanforderungen wie DA:I - und völlig egal, welches man davon nimmt, die sehen leider dann doch wieder beide optisch irgendwie etwas besser aus als DA:I (okay, dass ist natürlich etwas subjektiv). Mit hübscherer Grafik allein zu argumentieren, bringt es also auch nicht.
Und nochmal zum lästigen Inquisition: ich konnte das bei erscheinen mit einem Phenom II X4 945 (Erschienen: 2009) und einer GTX660TI in einem Mix aus mittleren und hohen Einstellungen flüssig spielen. Mein Prozessor war zu diesem Zeitpunkt quasi für Gamerdimensionen antik und meine - zu diesem Zeitpunkt immerhin auch schon 2 Jahre alte Grafikkarte war schon bei ihrem Erscheinen nur Mittelklasse. Nebenbei waren noch Dual-Channel-unfreundliche 6GB RAM verbaut. Wenn dieses System im Jahr 2014 nicht - hochoptimistisch - bestenfalls Mittelklasse war, wüsste ich zu gern, wie du Mittelklasse im Jahr 2014 definierst... wir reden hier ja immernoch von Gamern, nicht von Onkel Kevins Bürorechner und ich bin mit dem System bei vielen anderen Spielen aus diesem Zeitraum - logischerweise recht schnell an meine Grenzen gestoßen. Gehen wir jetzt mal von den "offiziellen Anforderungen" aus, lag mein System in dem Fall wohl ziemlich genau zwischen den Minimalanforderungen und den empfohlenen Anforderungen (die übrigens 2014 auch eher Mittelklasse waren) - und genauso, wenn nicht gar etwas drüber, konnte ich das Spiel auch konfigurieren. Mal zum Vergleich, was ich für einen "Durchschnitts-Gamer-PC" im Jahr 2014 halten würde: i5-4570 oder i5-4440, GTX 770 oder R9 280X und 8 GB RAM. Und dieses Mittelklasse-System hätte 2014 das Spiel locker bei hohen Details geschafft (sieh dir deine Benchmarks an, die bestätigen das auch). Für Ultra-Details bei konstanten 60 FPS hätte vermutlich noch ein wenig gefehlt, aber längst nicht so viel, dass es eine Hardware-Speerspitze in diesem Jahr gewesen wäre, zumal der Sprung von Hoch auf Ultra nur schwerlich wahrnehmbar ist - womit wir wieder bei Optimierungen wären. Das das Game nicht annähernd so fordernd ist, wie du glaubst, siehst du ja auch schon daran, dass es Leute gab, die das Ding - zugegeben mehr schlecht als recht - mit einem Dualcore-Prozessor zum Laufen bekommen haben - etwas, dass bei dem überschwenglichem "DA:I frisst eure Hardware und eure ganze Familie mit seinen horrenden, gigantischen Supermegahardwareanforderungen zum Frühstück" des PCGH-Hardware-Artikels ja mindestens einer Widerlegung der Relativitätstheorie gleichkommen müsste.
Um das Mal abzuschließen: es hat zu jeder Zeit auch Titel aus anderen Genres gegeben, die Hardware-Höhepunkte gesetzt haben - das ist nichts Neues, das ist so, seit es Games gibt. Ob das nun ein Wing Commander 3 war oder Descent oder Rebell Assault oder Forsaken oder Need For Speed oder Tomb Raider. Solange angefangen bei neuen Hardware-Techniken über Rendering-Methoden bis hin zu ganzen Engines (von glide über Unreal bis ambient occlusion sozusagen) in erster Linie für 3D-Shooter entwickelt werden, dort im Regelfall auch zuerst zu finden sind, sind und bleiben diese Spiele aber halt auch der Indikator, welche Anforderungen an ein aktuelles und ggf. auch zukünftiges Gamersystem gestellt werden. Niemand hat für ein Inquisition oder ein AC:Unity etwas wirklich Neues entwickelt, ein Tomb-Raider-Reboot hatte als "Neuentwicklung" eine neue Haarphysik, die aber allein von NVidia stammte und nur das Glück hatte, in TR 2013 das erste Mal eingesetzt zu werden. Sehen diese Spiele toll aus und laufen nicht mehr auf nem Toaster? Na sicher! Wäre schlimm, wenn diese Titel aus anderen Genres nur auf Technik setzen würden, die seit 3 Generationen überholt ist. Aber das entsteht einzig dadurch, vorhandene Technik besser auszunutzen - Technik, die halt in den meisten Fällen für einen Shooter entwickelt wurde. Das kann man nur schwerlich gleichsetzen mit dem, was sich technologisch mit neuen Major-Revisionen von einer CryEngine, einer Frostbite-Engine oder einer Unreal-Engine tut. Ein guter Benchmark kann viel aussagen... er kann dir sagen, wie gut ein Spiel auf aktueller und auch älterer Hardware ist, er kann dir sagen, wie gut ein Spiel optimiert ist, er kann dir sagen, wo Flaschenhälse in deinem System sind, er kann dir sagen, welche Hardware ein Spiel am meisten beansprucht - und manchmal sogar, warum das so ist. Aber er ist und bleibt eine Momentaufnahme, sowohl des Produkts als auch der jeweils aktuellen Hardware und somit kein wirklich guter Indikator, wo die Messlatte wirklich hängt, denn ein schlechtes Benchmark-Ergebnis kann natürlich dadurch zustande kommen, dass die Hardware überfordert ist, weil das Produkt alles bisher dagewesene sprengt... es kann aber auch durch schlechte Optimierungen auf spezifische Hardware oder auch ganz allgemein oder schlicht durch Bugs entstehen. Wenn man sich ein FarCry heutzutage ansieht, dann weiß man, wo damals die schlechten Benchmarkergebnisse her kamen - das Spiel war technisch seiner Zeit voraus und brachte in der Tat selbst die nachfolgende Hardware-Generation noch zum schwitzen. Als dann die Hardware soweit war, lief das Spiel wie Butter und sah, für seine Zeit, unglaublich aus. Sieht man sich hingegen ein Arkham Knight an, so hat das auch sehr ordentliche Hardware-Anforderungen, die sich aber nur zu einem kleinen Teil auch in der Optik niederschlagen. Hier kann man mit Memory-Leaks, fehlender Optimierung und nicht gut ausgenutzten Hardware-Techniken aber davon ausgehen, dass das Spiel auch in 5 Jahren mit dann aktueller Hardware nicht mehr besser laufen wird, als es das jetzt tut (was immerhin netterweise mittlerweile zumindest auf "ganz passabel" gepatcht wurde). Das erste Spiel - in diesem Beispiel FarCry - setzte also mit seinen hohen Anforderungen auch irgendwo Standards, das zweite Spiel - trotz ebenfalls zu seiner Zeit hohen Anforderungen - tut das eben nicht, weil das, was es letztlich am Ende präsentiert, auch mit deutlich schwächerer Hardware machbar gewesen wäre, wenn ein fähiges Studio und nicht ein kleiner externer Entwickler mit der Portierung beauftragt worden wäre. Ganz so einfach wie "ich lese einen Benchmark und weiß, wohin die Reise genreunabhängig geht" ist das Thema eben nicht.
Oh, und danke für Age of Conan. Nicht mein Genre, daher kenn ich den Titel nicht, aber dank der Videos kann ich dir da zustimmen. Das ist in der Tat ein Titel, der den Sprung der Schnittstelle gut sichtbar wirklich ausgenutzt hat. Und wenns davon noch mehr gibt, umso besser... revidiert leider nicht, dass es auch die von mir schon genannten Gegenbeispiele gab, aber immerhin meine Aussage, dass DX10 und 11 komplett nutzlos gewesen wären.