lol, samma, deine Sorgen möcht ich haben XD.
Wenn ich Eure HardwareSpecs lese, bekäme ich Penisneid, wenn ich nicht zu outgrown für sowas wäre
. Habe viel Spass mit meinem ... öhm PC und auch dem anderem.
Ich daddle mit nem AMD-A10-6700 (Quadcore 3,7 GHZ) und 8GB 1600 Mhz Shared Memory OnBoard Graphic mit SSD herum. Die CPU an sich ist gar nicht mal so schlecht, wenn der Intel-Compiler sie in gewissen (Spiele-relevanten) Bereichen nicht so sehr ausbremsen würde. In Videobearbeitung und beim Packen/Entpacken etc ist da kein so doller Unterschied, aber eben in allem, was irgendwie 'nen gewissen SSSE+++++++++ Berechnungs-Dingens benötigt, wovon halt oft relativ aktuelle Games Gebrauch machen -grummel-. Aber ich wollte und will es so. Möge der Mantel bald konkurrenzfähig werden, auch wenn ich so bald selbst nix davon hab.
Die Onboard GPU ist im Vergleich zu Intel schon ganz nett. Reicht mir, aber könnte auch mehr sein. So auf gefühlte 75m werden noch Sträucher gezeichnet. Danach ist halt plain terrain - manchmal nicht so schön, aber Tiere sind dann besser zu sehen - Bogen lässt grüßen *katsching*
. Schatten sind meist ziemlich grobkörnig in der Aussenwelt und in Shops. Selbige aktualisieren sich meist alle paar Sekunden in der Aussenwelt recht abrupt, was irgendwie unschön ist. Aber naja, muss ich mit leben. Zocke eh immer graphisch gesehen ca 'ne Dekade mit PC hinterher, unter anderem auch um Strom zu sparen, andererseits um mir Vielfalt (Emus + PC-Games) zu bewahren und den Kaufpreis der Spiele gering zu halten. Der Rechner muss noch 8 Jahre halten
. Skyrim scheint die Wartezeit für mich kurzweilig zu gestalten -yay.
In der Open World hatte ich meist Schwankungen zwischen 30 und 60 FPS und dieses Hin- und Her Geschwanke nervte mich sehr. Wenn ich schwanken will, brauche ich kein Spiel, das geht auch anders. Mikroruckler und gelegentlich abrupt langsamere Maus waren nicht mehr nett, daher hatte ich mir so eine DLL Datei/Mod installiert, welche die FPS auf fixe 30 FPS begrenzt und diese 30 FPS sind auch sehr stabil (99%). Flaschenhals ist da definitiv die Onboard-Graphic, bzw der Ram, den ich durch 1866Mhz Doppel-Kit austauschen und so die Grafikleistung noch um ca 5-10% steigern könnte, aber wozu noch 70€ für die Kiste wegen dieser minimalen Steigerung ausgeben? Dafür bekomme ich auch 'ne entsprechende Konsole - fast. Jedenfalls entsprechen die stabilen 30 FPS auch so Konsolen-Niveau, nur eben mit etwas höherer Auflösung. Maus ist daher immer minimal verzögert, aber eben stabil verzögert, hab mich dran gewöhnt, geht gut.
Tja, das Tearing bleibt bei 30 FPS nicht aus. Ist zwar nett, wenn man bei schnellen Schwenks bei 60 FPS noch Bewegungen der sich bewegenden lebendigen Umgebung sehen kann, aber ditt ist ja auch kein Ego-Shooter. Kann ich in kauf nehmen da druff zu verzichten. Das Tearing war für mich zu Beginn da schon nervig, aber irgendwie habe ich mich dran gewöhnt. Ich nehme das kaum noch wahr. Vielleicht blinzle ich bei abrupten Kameraschwenks auch mittlerweile automatisch öfter mal. Kann auch nur gesund für die Augen sein xD. Oder mein Hirn hat gelernt das zerfledderte Bild bei raschen Schwenks korrekt zusamenzusetzen xD. Wäre ja echt 'n Hit, wenn der alte Schädeldecken-Toaster das noch gebacken bekäme.
Nee, 60 FPS Stable (qausi Vsync) wäre schon nice, aber 30FPS sind auch dufte.
War selbst mal in der Phase, wo ich jeden HighEnd-Krempel (40' Plasma, fetten Rechner, fette HQ 6.1 Anlage mit 1/2qm Subwoofer und teurem Marken-Audio-Receiver) hatte und unbedingt haben wollte (und teils mittlerweile verschenkt habe oder verstauben lasse, zugunsten passiver Hello-Kitty Lautsprecher
) um zu posen, aber das kostet mich mittlerweile erstens in der Anschaffung und zweitens im Betrieb zu viel und Freunde aufgrund Gepose sind auch keine Freunde.
Büschen neidisch bin ich trotzdem. Magst mich adoptieren? Bin auch stubenrein und brauche nicht viel. Büschen essen, büschen trinken, büschen Weibchen/Kopulation
. Waschen ist Luxus.
Als TES-Schmied und Zweihänder (jaaa, so groß issa ... in meiner Vorstellung ^^) weiß ich: Es kommt nicht auf die Größe des Hammers an, sondern ... (Scary Movie Zitat, wer's kennt
).
(Sry falls das zu pöblig rüberkam, war nur spaßig und iwie wohl auch kastenbedingt kompensierend gemeint)
Achja, soweit ich informiert bin, basteln AMD und NVIDIA derzeit an technischen Vsync-Lösungen. Sprich es soll dann iwie zertifizierte Monitore geben (oder gibt es bereits?), welche mit zertifizierten Grafikkarten dem Vsync-Dilemma ein Ende machen sollen. Uff jedensten ein Schritt in die richtige Richtung. In 8 Jahren werd auch ich in diesen Genuss kommen xD. Ist halt sone Grenze bei mir. Nur ein Rechner alle 10 Jahre und auf den jährlichen Smartphone-Krempel lasse ich mich gar nicht erst ein
. ... es sei denn die kleinen Handhelds machen so weiter mit ihrem Leistungszuwachs. Dann kann ich in 8 Jahren auch den Pc durch 'n SM austauschen. SM nur aktiv, nicht passiv (ihr Schelme ^^) und auch nur wenn die Flatrate-Konditionen stimmen, was derzeit im Mobilebereich absolut nicht gegeben ist. Mal gucken was kommt und geht
. Hoffentlich werd ich dann nicht von 'nem Auto überfahren, weil ich total verstrahlt beim Spazierengehen aufs Smartphone glotzend 'ne rote Ampel ignoriere ^^ (... oder 'nen Nazi, oder Cop anrempel ... oder watt weiß ich =)).
Ach kiek mal, Claudius hat das Vsync Dingens bereits mit seinem Link erwähnt. Scheint ganz interessant und wie jeder weiß: Schilden badet nicht! (Schilden, nicht Sheldon
--- Sheldon duscht nur ... und zwar warm)
Sry ist grad spät/früh für mich. Habt mich lieb. Befohlenes Liebhaben!
(huch sehe grad, das das Thema bereits 2 Monate her ist. Ist mein Beitrag noch im Rahmen oder schon nekrophil?)
Bin grad in meiner Resozialisierungsphase, daher: Über etwaigen grenzüberschreitenden Humor bitte höflich aufmerksam machen. Ick editier dann och. Dankeschööön.
"Keine Ahnung was Tearing ist ..."
Als Tearing bezeichnet man einen unschönen Grafikeffekt/Glitch, der dann auftritt, wenn Grafikkarte und Monitor nich ganz synchron sind. Meist liegt es eher an der Grafikkarte, da diese oftmals Schwierigkeiten hat eine stabile Bildrate von 60 Bildern die Sekunde an den Monitor zu senden. Für die meisten Monitore sind 60 Bilder die Sekunde optimal. Manchmal ist die Bildrate der Grafikberechnung zu hoch und wird von der Grafikkarte dann selbst auf 60 Bilder die Sekunde runter gedrosselt (was meist gut ist). Diese Technik nennt man dann Vsync (vertikale Synchronisation) und kostet manchmal mehr, manchmal weniger zusätzlich Leistung. Sind Graka und Monitor Synchron ist alles chic. Oftmals ist es aber eher so, dass die Grafik während intensiver Spielszenenen Einbrüche hat und sie es gar nicht schafft mindestens 60 Bilder die Sekunde zu berechnen. Wenn man dann schnell den Blickwinkel im Spiel schwenkt, tritt ein grafischer Effekt auf, der aussieht als wäre die obere Bildschirmhälfte zur unteren versetzt, was einige Menschen sehen und als störend empfinden. Die Grafikkarte berechnet dann ein (Halb)Bild (das obere oder untere) nicht ganz zu Ende und schiebt gleich das nächste hinterher, bzw an den Monitor. Das Bild wirkt dann für den Bruchteil einer Sekunde mittig zerrissen/versetzt. Es muss auch nicht immer die Mitte des Bildes sein, in welchem der Versatz auftritt - glaube ich. Im PC Bereich ein altes wie nervtötendes Phänomen. Anständig programmierte First-Person-Shooter beispielsweise für sportliche Wettkämpfe mit Preisgeldern, haben keine derartigen Einbrüche und laufen auch auf etwas betagterer Hardware mit durchgehend stabilen 60 FPS (oder sogar 120 FPS, wenn der PC und Monitor das unterstützt), zumindest nach meiner Erfahrung. Sind dann aber grafisch auch nicht annähernd State of the Art (Quake Live / Counter Strike). Je mehr FPS, umso flüssiger wirkt der Spielablauf und die Bewegung und umso schneller werden Maus- und Tastatureingaben vom Spiel erkannt und umgesetzt. In manchen Spielen kann man dann sogar einen Touch weiter springen denn als mit geringerer Bildwiederholrate. Wie dieser Effekt nun aber genau technisch zu erklären ist, weiß ich selbst nicht so richtig
.
Nachtrag/Nachschlag:
Aso. Hier und da wird unter Gamern gemunkelt, dass auftretende Tearing Erscheinungen sich zumindest kosmetisch durch Motion-Blur Filter/Effekte kaschieren lassen. Motion Blur ist ein Weichzeichnungseffekt bei Bewegungen. Motion Blur war mir jetzt in Skyrim noch nicht so aufgefallen (vielleich auch nur zu dezent). Hätte ich aber ganz gern, vieleicht auch so als anpassbaren Wert in einer *.ini oder so. In Shootern und Rennspielen finde ich diesen Effekt ja eher belastend, aber in Skrim könnte er gut reinpassen. Leider konnte ich dazu keine Mod/Tutorial finden. Vielleicht gibt es das für Skyrim auch gar nicht. Zu viel Leistung sollte ein solcher Effekt bestenfalls nicht noch zusätzlich verbraten dürfen/sollen.