Neuer Monitor muss her!

Nessi

Reisender
Mein Freund und ich wollen zusammenlegen und einen neuen Monitor kaufen, nachdem nun ein neuer PC da ist.
Der neue PC hat eine GTX1080ti und wir wollen nun auch den passenden Monitor dazu.
Wir beide haben wenig Ahnung von Technik, und brauchen daher eure Hilfe.

Nun haben wir eine Vielzahl von Fragen, und hoffen, von euch gibt es jemand, der sich auskennt.

Unsere Fragen:

Wir dachten an einen 21:9 , 34 Zoll Monitor, und wollten mal wissen, ob man den Unterschied von 2560x1080 zu 3440x1440 wirklich wahrnimmt?
Oder wäre ein 3440x1440 rausgeworfenes Geld?
Immerhin kostet solch ein Monitor dann das Doppelte.

Dann gibt es diese Monitore mit 60 Hz und mit 100 und mehr Hz.
Lohnt sich das mit dem mehr Hz?
Bei unseren jetzigen normalen 27 Zoll 60 Hz Monitor merke ich nix das dies schlecht wäre.

Dann die Frage, wie das mit dem NVIDIA G-Sync und dem AMD Free-Sync ist?
Fast alle Monitore haben leider AMD Free-Sync.
Und die wenigen, mit NVIDIA G-Sync kosten fast das Dreifache.
Ist es wichtig, da den passenden Monitor zu haben, wenn man eine Nvidia Grafikkarte hat?
Was der Unterschied ist, und bewirkt, haben wir im Internet gelesen, auch das dies dann gut ist, das passende zu haben.
Aber ist es echt so wichtig?

Und zuletzt:
Die 4K Monitore gibt es ja bereits unter 300,-Euro, sind aber dann alle 27 und 28 Zoll.
Das 4K würde uns schon reizen, halt nur nicht diese 27 oder 28 Zoll.
Aber ein 21:9 Monitor noch viel mehr.
Nur gibt es diese 21:9 in dieser 4K Preisklasse nur mit 2560x1080 und nicht mit 3440x1440.
Also wenn es nun um den 21:9 geht, sollen wir bei 2560x1080 zugreifen, oder doch noch monatelang auf den 3440x1440 hin sparen?
Wie gesagt: Sieht man den Unterschied?

Wir suchen nun keine Bauchgefühl Antworten von euch, sondern falls möglich, echte Erfahrungen.
Welchen Monitor habt ihr, und wie sehr seid ihr zufrieden mit euren 4K 28 Zoll oder 21:9 34 Zoll?
 
Zuletzt bearbeitet:
In meiner Zweitwohnung haben wir uns diesen Monitor hingestellt. https://www.samsung.com/de/monitors/curved-c34j791/

Falls du G-Sync nutzen möchtest benötigst du die passende Grafikkarte. Meiner Meinung nach, ist es eher "Marketing" der Monitor wird weder schlechter noch wesentlich besser, wenn du eine andere Karte hast. Ich habe noch einen ganz normalen Monitor mit 120Hz und einen Fernseher, ich sehe zumindest keinen großen Unterschied, wenn ich Free-Sync oder G-Sync nicht nutze.
Ansonsten würde ich noch warten, es kommt nächstes Jahr bestimmt eine höhere Auflösung als 3440x1440 oder zumindest mehr Hz. LG bietet hier schon bessere Auflösungen an mit 3840x1600 oder höher.

Bei LG kenne ich mich nicht so aus, da ich von denen auch keine Produkte mehr kaufen werde. Die Monitore sollten aber besser sein. Kommt darauf an, wie viel Geld ihr ausgeben wollt. IPS finde ich schon äußerst interessanter als VA-Panels.

Den Unterschied von 2560x1080 und 3440x1440 siehst du, aber dieser ist jetzt nicht gewaltig. Eine richtige 4K-Auflösung sieht man eher. 21:9 macht schon etwas her und mit Philips Hue wirkt es noch stimmiger. Der Formfaktor macht da ein anderes Feeling, zudem hast du mehr Platz zum Arbeiten und alle neuen Spiele unterstützen es. Außerdem wirst du noch Ressourcen für deine Karte haben und trotzdem ein besseres Ergebnis erzielen.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Nessi
4k lohnt nicht, da bräuchtet ihr dann wohl zwei Grafikkarten im SLI.

Zunächst, GSync ist NVidia und Freesync ist AMD. Entsprechend, wenn ihr eine NVidia Grafikkarte habt, bleibt nur GSync, das kostet Aufpreis, weil es eben eine im Monitor verbaute Hardware ist, während Freesync einfach auch über die Software im Monitor funktioniert.

Ob ihr bei 120 / 140 FPS einen Mehrwert zu 60 FPS seht müsst ihr ausprobieren, generell ist das Bild ruhiger und das Spiel reagiert besser auf Eingaben. Mir persönlich reichen 60 PFS aus. Allerdings muss euch klar sein, wenn ihr 120FPS bei Full HD wollt, dann braucht ihr die GF 1080(ti) als absolutes Minimum, wollt ihr 120FPS bei höherer Auflösung werdet ihr bei 4k schon mit zwei GF 2080 arge Probleme bekommen.

Ich würde aktuell eher mal bei WQHD schaue und 4k noch ignorieren.
Der Monitor sollte auf jeden Fall ein IPS oder (A)(M)VA Panel haben, die meisten Gaming Monitore haben TN Panels, die einfach eine wirklich miese Farbdarstellung besitzen, da dann 700 Euro oder mehr auszugeben ist wie Perlen vor die Säue werfen.

21:9 ist immer so eine Sache, viele Spiele unterstützen es, aber eben nicht alle, und wenn nicht, ist es halt mehr als ärgerlich.


Ich persönlich bleibe auf absehbare Zeit bei 27 Zoll Full HD mit 60Hz / FPS. Ich kenne 4k aber sehe da keinen großen Mehrwert, müsste dann wohl mind. 32 Zoll sein und dann wird es irgendwann auch unübersichtlich auf dem Schreibtisch. Außerdem habe ich eine GF 1070ti und will Games auch mit 60FPS und vollen Details zocken.
Was nützen mir höhere Auflösung oder gar mehr Frames, wenn ich die Spieldetails auf "hässlich" runterschrauben muss?
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Nessi
Lohnt sich das mit dem mehr Hz?
Wenn man einmal einen 144 Hz Monitor hatte ist ein zurück auf 60 Hz fürchterlich. Das gar nicht mal nur in Spielen, auch die Mausbewegung im Desktop hat einen Unterschied wie Tag und Nacht.
Wenn man natürlich nie über 60 Hz hinaus war vermisst man da aber auch nichts. Ich spiele auch alte Spiele die mit mehr als 60 Hz nicht umgehen können und daher muß ich das dann immer umstellen, wie träge sich danach die Maus anfühlt kann man nicht beschreiben, es ist aber gruselig.

wenn ihr 120FPS bei Full HD wollt, dann braucht ihr die GF 1080(ti) als absolutes Minimum,
Du schreibst manchmal einen Quark.
Ich habe eine 1070Ti und je nach Spiel auch mal 200 oder mehr Frames und selbst wenn ich in einem Spiel "nur" 90 Frames habe fühlt es sich mit meinem 144 Hz flüssiger an als mit meinem 60Hz Monitor. Natürlich wäre der Idealfall bei 144 Hz auch 144 Frames zu haben, aber auch wenn die Frames darunter liegen spielt es sich flüssiger, sofern man über 60 FPS bleibt.

GSync und Freesync halte ich auch für ein Gimmick, kann da aber ehrlich gesagt kein Urteil fällen, da mein Monitor Freesync (AMD) hat und ich eine Nvidia Karte habe und daher es noch nie ausprobiert habe.

Bei der 21:9 Sache scheiden sich die Geister, denn es kommt darauf an was für Spiele man spielt. Ist man gerne in Pvp MP Shootern unterwegs bringt solch eine Auflösung tatsächlich Nachteile.
Auch wenn man in der Theorie mehr Sichtweite nach links und rechts hat, fällt sie in der Praxis flach da beim Spielen sich der Blick auf die Mitte fokusiert und man gerne in solchen Spielen in denen es um
Reaktionen in zehntelsekunden geht, oft den Gegner zu spät sieht. Ich habe zwei Kumpels die sich vor etwas einem Jahr auch einen 21:9 (einer 32 , der ander 34 zoll) gekauft haben, sie spielen viel PUBG uä. und haben damit ordentliche Probleme gehabt. Der Eine hat ihn gleich wieder zurück geschickt und der Andere stöbselt seinen alten 24 zöller in 16:9 immer an wenn er PvP zocken will. :p

...es kommt nächstes Jahr bestimmt eine höhere Auflösung als 3440x1440...
Für die ja jetzt schon eine 1080Ti kaum ausreicht. :D
 
  • Like
Reaktionen: Nessi
Du schreibst manchmal einen Quark.
Ich habe eine 1070Ti und je nach Spiel auch mal 200 oder mehr Frames und selbst wenn ich in einem Spiel "nur" 90 Frames habe fühlt es sich mit meinem 144 Hz flüssiger an als mit meinem 60Hz Monitor. Natürlich wäre der Idealfall bei 144 Hz auch 144 Frames zu haben, aber auch wenn die Frames darunter liegen spielt es sich flüssiger, sofern man über 60 FPS bleibt.

Ich habe eine der schnellsten CPUs am Markt, einen i7 8700k, 16GB DDR4 RAM und eine GF 1700ti und ich schaffe in Spielen wie Rise of the Tomb Raider mit absolutem Ach und Krach die 60FPS. Natürlich schaffe ich in einem Spiel wie F.E.A.R auch locker 2000(!) FPS, das ist aber nicht die Messlatte für aktuelle Titel. Und ein neuerer Titel wie Shadow of the Tomb Raider wird entsprechend eine GF 1080(ti) bei Full HD an ihre Grenzen treiben. Wer dann mit 140FPS oder alternativ höherer Auflösung zocken will muss dann die Grafik schon ordentlich runterschrauben was meiner Ansicht nach die Ganze Sache mit mehr FPS oder höherer Auflösung ad absurdum treibt.
 
IPS finde ich schon äußerst interessanter als VA-Panels.

Wir haben auch gesehen, dass es Monitore mit VA-IPS Panels gibt.
Ist das nun besser oder schlechter?

Was ich oben verfasst habe, hatte ich zusammen mit meinem Freund geschrieben, da ich noch weniger Ahnung von der Materie habe als er.

Also erst einmal vielen Dank für eure ausführlichen Informationen.
Was uns aufgefallen ist, dass es ja außer Free-Sync oder G-Sync nun auch noch dieses HDR gibt.

Bei dem neuen Tomb Raider Spiel, kann man in den Optionen HDR aktivieren.
Und wenn wir in die Beschreibungen von den Monitoren schauen, zum Beispiel bei Alternate oder Caseking, so ersetzt das HDR wohl auch Free-Sync oder G-Sync, denn beides zusammen findet man in den Beschreibungen anscheinend nicht.

Von Philips Hue haben wir bisher noch nie etwas gelesen, was das sein soll.
Aber dazu dann unten das Video!

Entsprechend, wenn ihr eine NVidia Grafikkarte habt, bleibt nur GSync

Der neue PC hat eine GTX1080ti !
Also GSync scheint schon etwas auszumachen.
Wir haben dazu dieses Video gefunden.
Ohne GSync hat man selbst bei hohen FPS so etwas wie Nachladeruckler.
Jedenfalls sieht es aus, als wären es Nachladeruckler, auch wenn es etwas anderes ist.
Das kann ja ganz schön stören.


Wenn man einmal einen 144 Hz Monitor hatte ist ein zurück auf 60 Hz fürchterlich.
Bei der 21:9 Sache scheiden sich die Geister

Wir hatten für drei Wochen den Monitor eines Freundes bei uns, der in der Zeit im Urlaub war.
Und das war ein 21:9 aber nur 29 Zoll.
Darauf spielten wie natürlich unser Skyrim, sowie das neue Tomb Raider.
Wir hatten damit mehr Spaß, als auf unserem 27 Zoll Monitor.

Darum denken wir nun über einen neuen Monitor nach.
Und da ein guter Monitor immer noch recht viel Geld kostet, wollen wir keinen Fehlkauf tätigen, und es soll dann schon ein gutes Gerät sein.

Aus eurer Aussage geht nun hervor, dass der Monitor schon über 100 Hz haben sollte.
Und uns wäre nach weiterer Überlegung nun auch wichtig, dass es 21:9 sein muss, und mit einer möglichst hohen Auflösung.
Sollte HDR das G-Sync ersetzen, dann halt HDR, und sollte beides möglich sein, dann halt beides.

Was es mit Philips Hue auf sich hat, verstehen wir noch nicht.
Hat wohl was mit Hue Sync zu nun, und gibt es nur von Philips.
Wir haben dazu dieses Video gefunden, aber fragen uns, ob dies mit den Lampen nicht doch mit der Zeit eher nervt, als dass man sich daran erfreut?
Optisch scheint es aber richtig viel Spass zu machen, aber wie gesagt, ob dies dann auch auf Dauer der Fall so ist, ? ich weiß nicht?

 
Zuletzt bearbeitet:
Philips Hue ist ein optisches Gimmick und gibt es seit Jahren vom selben Hersteller für normale TV-Geräte (nennt sich Ambi Light - deutsch Umgebungslicht). Mit beiden wird der Farb- und Helligkeitseindruck des gesamten Bildschirms ausgewertet und damit die Helligkeit und die Farbe der zu diesem System gehörenden Leuchten gesteuert.
Dadurch wird die Umgebung des Bildschirms an den eigentlichen Bildinhalt angepaßt und somit scheinbar das Gefühl eines direkteren Dabeiseins erzeugt.

Bei häufigen abrupten Farb- und/oder Helligkeitswechseln (z.B. Bühnenshows o.a.) kann das aber schnell zu Anfällen beim Zuschauer führen, vor allem bei Älteren.

Ansich hat das Ganze mit der eigentlichen Bildqualität nichts zu tun, es erweitert lediglich den Gesamteindruck.

Bye, Bbm.
 
  • Like
Reaktionen: Nessi
Bin auch auf der Suche nach einen neuen Partner für meine GTX 1080 :)

Es gibt verschiedene Panel Arten TN, IPS,.. Man kann nicht einfach sagen das eine ist schlechter/besser. Man kann sagen der eine Panel Typ passt besser zu EUREN Wünschen.

so ersetzt das HDR wohl auch Free-Sync oder G-Sync, denn beides zusammen findet man in den Beschreibungen anscheinend nicht.
Nein
zu Freesync und G-Sync G-Sync ist wegen der zusätzlichen Hardware und Lizenz teurer.
zu HDR
Es gibt noch keinen Monitor mit HDR und Freesync/G-Sync.

Philips Hue sind bunte Leuchtmittel die ihr mit den Smartphone ein/ausschalten könnt. Hat keine Verbindung zu Monitoren. Man kann sich solche Leuchtmittel hinter den Monitor legen und mit den PC steuer. Die Leuchtmittel Farbe wechselt dann passend zum Bildschirm.

Zu Eurer Suche:
was spielt ihr: aktuelle Spiele oder ältere? Ego Shooter oder RPG?
was ist euch wichtig: Gute Farbdarstellung oder Reaktionszeit?
wie viel Geld wollt ihr ausgeben?
 
  • Like
Reaktionen: Nessi
Freesync und G-Sync sind für die Anpassung (Synchronisierung) der Bildwiederholraten (FPS) zwischen Grafikkarte und Bildschirm zuständig. Damit soll ein Zereißen des Bildinhalts (und damit auch Ruckeln) verhindert werden, indem die Grafikkarte soweit gebremst wird, daß der Bildschirm die gelieferten Daten auch verarbeiten kann.

HDR hat damit nichts zu tun. HDR soll die darstellbare Anzahl an Farben und den Dynamik-Umfang (Helligkeitstufen) erhöhen und dadurch die Bildqualität verbessern.

Bye, Bbm.
 
Zuletzt bearbeitet:
@Blaubeerman
HDR und der jeweilige Sync.

Bei dem neuen Tomb Raider Spiel, kann man in den Optionen HDR aktivieren.
Und wenn wir in die Beschreibungen von den Monitoren schauen, zum Beispiel bei Alternate oder Caseking, so ersetzt das HDR wohl auch Free-Sync oder G-Sync, denn beides zusammen findet man in den Beschreibungen anscheinend nicht.
 
Möglich kann es gemacht werden, indem die beiden Techniken in die Monitore eingebaut werden. Das ist Sache der Hersteller. Es sind aber zwei voneinander unabhängige Dinge - bei HDR können mehr Farben und mehr Helligkeitsstufen dargestellt werden und bei den Sync-Versionen wird die Bildwiederholrate (FPS) der Grafikkarte an die des Bildschirms angepaßt.
Der technische Aufwand für HDR dürfte relativ hoch sein, da wesentlich mehr Daten vom Bildschirm verarbeitet werden müssen - statt 3x8 Bit sind das 3x10 bit (RGB).

Bye, Bbm.
 
  • Like
Reaktionen: Nessi
Wer dann mit 140FPS oder alternativ höherer Auflösung zocken will...
Was du immer mit deinen 140 Frames hast? Die sind doch gar nicht zwingend für ein flüssigeres spielen als mit einem 60Hz Monitor.

ich schaffe in Spielen wie Rise of the Tomb Raider mit absolutem Ach und Krach die 60FPS.
Dann läuft bei dir was falsch, ich habe ja sogar in Shadow of the Tomb Raider mehr Frames so um die 70 FPS (ohne 4K Texturen), in RotTB um die 90 höchste Einstellungen mit 4K Texturen und ich habe nur einen I5 4690, sonst fast identisch. Spielst du evtl. in DX 12, weiß gar nicht ob das RotTB schon hat? Das mag die Engine scheinbar nicht so wirklich, zumindest berichten das viele bei SotTR,
das sie mit DX11 meit höhere Frames haben.

Aus eurer Aussage geht nun hervor, dass der Monitor schon über 100 Hz haben sollte.
Meiner Meinung nach ja, aber wie gesagt, den Unterschied merkt man stärker wenn man von 100 Hz oder höher mal zurück auf 60 Hz geht.
 
  • Like
Reaktionen: Nessi
Was die FPS bei eurer Auseinandersetzung angeht, so sieht dies bei uns so aus:
Bei ausgeschaltetem VSync schafft unsere GTX1080ti mit aktiviertem DX12 48 bis 72 FPS wenn alle Grafikoptionen auf den maximalen Einstellungen stehen.

Bei deaktiviertem DX12 und aktiviertem DX11 sind es nur noch 28 bis 51 FPS.
Gemessen in offener Landschaft des Spieles Shadow of the Tomb Raider.
Das Aktivieren von DX12 bringt deutlich mehr FPS.

Wir haben uns nun mal ein paar Monitore angeschaut, die uns gefallen:

https://www.alternate.de/ASUS/ROG-Swift-PG348Q-LED-Monitor/html/product/1247380?

https://www.alternate.de/Acer/Predator-X34P-LED-Monitor/html/product/1396905?

https://www.alternate.de/html/product/1359125?

Wobei dann die Frage wäre, ob HDR-Ready etwas bringt, oder doch lieber echtes HDR10 ?
Bei der genannten Auswahl ist dies nun nur ein erster Versuch der Suche nach dem richtigen Gerät.
Für Vorschläge sind wir völlig offen.

Edit:
Der oben genannte Samsung C34J791 QLED-Monitor hört sich auch gut an.
Aber der scheint weder irgendein Sync zu haben, und auch kein HDR ?
Laut der Bewertung soll er AMD Freesync haben, was dann aber blöd wäre, wenn man eine Nvidia Karte hat.
https://www.alternate.de/Samsung/C34J791-LED-Monitor/html/product/1445325?

Der oben genannte LG 38WK95C-W hat eine schlechte Bewertung, weil es da wohl Probleme mit HDR gibt.
https://www.alternate.de/LG/38WK95C-W-LED-Monitor/html/productRatings/1438922?

Dann gebe es noch den DELL.
https://www.alternate.de/Alienware/AW3418DW-LED-Monitor/html/product/1394246?
Was für DELL spricht, ist der Direktaustausch, wenn etwas am Monitor defekt ist.
 
Zuletzt bearbeitet:
Ich würde den DELL nehmen.
Technisch sind die Geräte erste Sahne, und der Support ist 1A.
Ich hatte mir mal das Display durch Selbstverschulden zerdeppert, und DELL hat den Monitor trotzdem ohne Probleme ausgetauscht.
 
Möglich kann es gemacht werden, indem die beiden Techniken in die Monitore eingebaut werden.
Ich habe mir mal die beiden Techniken angeschaut und FreeSync 2 oder G-SYNC HDR sollten beide Techniken vereinen. Dann sollte Nessi auf den neusten Standard achten, wobei G-SYNC HDR ein Problem mit Lüftern im Monitor haben wird.:D

https://www.computerbase.de/2018-07/asus-pg27uq-g-sync-hdr-test/
http://extreme.pcgameshardware.de/monitore/511507-samsung-c32hg70-im-test-hdr-freesync-2-gaming.html
https://pcjetzt.com/freesync-2-vs-g-sync-hdr/
 
  • Like
Reaktionen: Nessi
Ich habe mir mal die beiden Techniken angeschaut und FreeSync 2 oder G-SYNC HDR sollten beide Techniken vereinen. Dann sollte Nessi auf den neusten Standard achten, wobei G-SYNC HDR ein Problem mit Lüftern im Monitor haben wird.:D

https://www.computerbase.de/2018-07/asus-pg27uq-g-sync-hdr-test/
http://extreme.pcgameshardware.de/monitore/511507-samsung-c32hg70-im-test-hdr-freesync-2-gaming.html
https://pcjetzt.com/freesync-2-vs-g-sync-hdr/

Also Lüfter im Monitor ist keine gute Idee.
Und die drei Links sind keine 21:9 Monitore.
Dies bedeutet wohl, dass solche Monitore noch auf sich warten lassen, und bestenfalls erst Ende 2019 zur Verfügung stehen werden.

Dann bleibt unter dem Strich, ein Monitor mit G-Sync oder mit HDR, aber nicht beides.
Dieser hier mit HDR gefällt uns auch:
https://www.amazon.de/dp/B074F2G8ZP...&pd_rd_r=f226c676-0b4f-11e9-b077-351724338b6e

Auch dieser DELL von oben aus dem Link, mit G-Sync macht einen guten Eindruck.

Wir haben mal diese Nvidia Demo installiert, und die Unschärfen sind deutlich erkennbar.
Wer es mal selbst testen möchte, hier der Link:
https://www.nvidia.de/coolstuff/demos#!/g-sync

Also bleibt nun als letzte Frage:
G-Sync oder HDR10 ?
Der Dell AW3418DW oder der Viewsonic VP3881 ?
 
"NVIDIA G-Sync HDR" ist ein von NVidia definierter Standard. Aktuell gibt es laut Geizhals nur drei Monitore die diese Auszeichnung tragen dürfen.
link
Alle drei in Format 16:9. Der billigste kostet 1300 € o_O

In Format 21:9 mit G-Sync werden 15 Modelle aufgelistet (kann auch sein das welsche doppelt sind :oops:). Einfach mal mit den Filter bei Geizhals rum spielen @Nessi

Alle diese Monitore haben eine Eigenschaft die noch nicht angesprochen wurde: gebogen (curved).

Was haltet ihr von diesen Modell: AOC AG271QG

@all
Wer kauft einen quadratischen Monitor für 800 €?
 
Wäre wohl interessant für Leute, die viel Bildbearbeitung machen (Hoch- und Querformat bei gleichem Zoom-Faktor ohne Display drehen zu müssen).
Oder als Anzeige technischer Schemata in Anlagensteuerungen.

Bye, Bbm.
 
  • Like
Reaktionen: RoterHase