Grafikkarte erscheint mir super billig, ich bin verwirrt!

Destero

Angehöriger
Gigabyte GeForce RTX 3060 Gaming OC 12GB V2 LHR Grafikkarte, GV-N3060GAMING OC-12GD V2

Diese Grafikkarte soll 326,87 Euro kosten, was mir sehr billig erscheint. Sehe ich den Haken nicht, oder was ist los? Ich bin verwirrt! Hier ist der LINK


Edit: Wobei ich gerade sehe, dass es noch mehr der RTX 3060 in diesem Preisrahmen gibt!




91g6nUHsCLL._AC_SL1500_.jpg
 

Anhänge

  • upload_2023-7-14_10-0-48.png
    upload_2023-7-14_10-0-48.png
    773,8 KB · Aufrufe: 62
Ein völlig normaler Preis !
Andere Händler verkaufen fast zum gleichen Preis...

https://geizhals.de/gigabyte-geforc...-rev-2-0-gv-n3060gaming-oc-12gd-a2528462.html

Aber ACHTUNG:

Für den gleichen Preis gibt es auch eine RTX 3060 ti !!!! ...und die ist auf der FPS-Höhe einer GTX 1080 ti !!!!
Hat dann allerdings nur 8 GB VRAM.

https://geizhals.de/?fs=rtx+3060+ti&hloc=de

RTX3060 vs. RTX3060ti


GTX1080ti vs. RTX3060ti


Da muss man nun abwägen, was einem Wichtiger ist, ...VRAM, oder Performance ! ;)
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Destero
Bei diesem Thema mal die Frage in den Raum geworfen: Lohnt es sich eine RTX 4090 zu kaufen? Ich spiele schon länger mit dem Gedanken um meine GTX 1080ti abzulösen, aber ich höre immer von verschiedenen Stellen das die RTX 4090 Preis-Leistung echt schlecht sein soll, sprich zu viel Geld für zu "wenig besser". Sollte man da liebver eine RTX 4080 oder eben die 4060ti kaufen? Hat man mehr davon?
 
Lohnt es sich eine RTX 4090 zu kaufen? Ich spiele schon länger mit dem Gedanken um meine GTX 1080ti abzulösen...
Also ich würde generell auf die 8GB Varianten...

Wer nicht viel Geld hat, dem bleibt ja leider wenig übrig, als zu GraKas, wie einer RTX-3060, 3060ti, oder 4060 zu greifen.
Wäre vom P/L interessant, weil bei Nvidia derzeit die Preise in den Keller gehen.

Ob es dann eine RTX-3060 mit 12GB VRAM oder eine schnellere RTX-3060ti bzw. 4060, dann aber mit nur 8GB zum gleichen Preis sein soll, muss man selbst abwägen.
Also ob es mehr VRAM, oder mehr Performance sein soll.

Ob man sich nun eine RTX-4080 oder 4090 kauft, ist abhängig von dem, was man an Spielen zocken möchte.
Also 16GB VRAM oder 24GB VRAM.

Klar ist die 4090 eine ganze Ecke schneller, aber mit der 4080 ist derzeit jedes Spiel flüssig zu zocken.

Ich habe mir die KFA2-RTX-4090 gekauft, weil ich es bei meiner GTX-1080ti einfach leid war, dass der VRAM bei meinem gemoddetem SkyrimSE ständig am Anschlag der 11GB stand.
Da half auch deren Performance nicht mehr, dass es manchmal zu Nachlade-Ruckler kam.

Und das Risiko, einer RTX-4080 mit "nur" 16GB wollte ich nicht eingehen, da 5GB an VRAM mehr, mein Problem womöglich nicht beseitigt hätte.
Da sind nun die 24GB VRAM meiner KFA2-RTX-4090 genau richtig.
https://www.notebooksbilliger.de/kfa2+geforce+rtx+4090+sg+1+click+oc+grafikkarte+796027

Die Preise gehen derzeit, wie gesagt nach unten.
So bekommt man eine RTX-4080 bereits für unter 1100,-Euro
https://www.idealo.de/preisvergleich/ProductCategory/16073F103891479.html

Eine RTX-4090 für unter 1640,-Euro
https://www.idealo.de/preisvergleich/ProductCategory/16073F103797340.html

Vom 12.07 bis 19.07 läuft bei NBB eine NVidia-Preis-Aktion.
Da würde ich mal reinschauen:
https://www.notebooksbilliger.de/nvidia+sales+week?nbbct=5003.12072023


Edit:

Was man vor dem Kauf einer neuen GraKa auch berücksichtigen sollte, ist das verbesserte DLSS der RTX-40xx GraKas, gegenüber der RTX-30xx !
Damit verdoppelt man fast seine FPS.

 
Zuletzt bearbeitet:
Also ich würde generell auf die 8GB Varianten bei den späteren 30xx und 40XX verzichten. Tests haben gezeigt, das mittlerweile bei einigen Spielen die 8 GB nicht mehr ausreichen.
und da dachte ich vor 3 Jahren, mein Kauf der GeForce RTX 2070 Super würde für 10 Jahre Neubeschaffung unnötig machen.
Anderseits: Ich spiele ja keine "anderen" Spiele, und für Skyrim ist die mit 8GB völlig ausreichend.
Aber bei eine Neuanschaffung wären sicherlich 12GB auch schon grenzwertig, 16GB wohl notwendig. Und natürlich: die Dinger gibts ja nicht umsonst, das nötige Geld muss vorhanden sein, und bei neuer, stärkerer GPU stellt sich sofort die Frage, ob dann nicht auch eine neue CPU notwendig wäre, und dann die Frage nach dem dazu passenden Motherboard. Porsche mit Trabbi-Chassis ist nicht unbedingt die schlaue Lösung, Nachrüsten kann sich schnell als Beginn einer insgesamt teureren Stufenlösung entpuppen. Also eine Überlegung, die direkt in Richtung "neuer PC" führt.
 
Die Konsolen haben 16GB Shared Memory, das ist dass woran Entwickler (Spiele werden primär für Konsole entwickelt! Ausgenommen natürlich PC exclusives) orientieren werden. 12GB sind die neuen 8GB - reicht für den Moment, aber für die Zukunft sieht es düster aus.
Ansonsten all ziemlich grün hier hinter den Ohren mal wieder - AMD und Intel werden mal wieder nicht erwähnt! Gerade RDNA 2 im Abverkauf - 6950XT, 6900XT - absolute Preis/Leistungskracher für 600-650€! Auch Intel mit seinen 16GB Karten sollte man als Konkurrenz für 3060/TI nicht unterschätzen.

Aber bei Nvidia gibts natürlich das exklusive DLSS, dass so proprietär ist dass man sich dann 2025 wieder eine neue Karte kaufen kann um die aktuelle DLSS Version nutzen zu können! ;)
 
Ansonsten... ziemlich grün hier... AMD und Intel werden mal wieder nicht erwähnt!

Dies hat wohl auch seinen Grund:
So brauchst du für die Intel Arc A770 & /750/380 eine aktuelle CPU Intel ab der 10th Gen, bzw. ab AMD Ryzen™ 3000 Serie.
Und das Mainboard muss zwingend BAR (Resizeable) unterstützen !
Die jetzigen Treiber unterstützen keine älteren Rechner.
https://www.intel.de/content/www/de/de/support/articles/000091128/graphics.html

Bezüglich AMD GraKas, tun sich diese noch etwas schwer, was Retracing und DLSS2/3 betrifft, bzw. seinem FSR2/3 !
https://www.pcgameshardware.de/Graf...-Technologien-im-optischen-Vergleich-1417201/
Und entgegen dem Bericht aus diesem LINK vom 09.04.2023 sind wir bereits bei DLSS Version 3 !



Aber wem dies egal ist, findet bei AMD natürlich sehr gute Grafikkarten.

Na ja, und was den ständigen Neukauf betrifft, so besteht das Problem seit es Computer gibt.
Und die Abstände werden immer kürzer.
Kaufe ich mir heute etwas, ist es morgen schon alt. ;)

Klar, ist eine ARC-770 hoch-interessant, aber hilft einem nicht, wenn man nicht den passenden Hardware-Unterbau hat.
Einen Porsche-Motor bekomme ich auch nicht in einen VW-Käfer hinein.

Und wenn ich nur 350,-Euro habe, kaufe ich mir davon lieber eine RTX-4060 8GB für meinen älteren PC.
Die Gründe wurden bereits beschrieben.
Aber grundsätzlich würde ich das Geld auf eine GraKa mit mind. 16GB VRAM ansparen, will man immer die neuesten Spiele zocken.
 
Zuletzt bearbeitet:
Jedes Mainboard mit PCIE 3.0 unterstützt rBar! Ist nämlich schlicht und einfach eine integrierte Funktion vom PCIE Protokoll die nur Ewigkeiten keiner der GPU Hersteller genutzt hat. Wenn Intel da sein eigenes Süppchen kocht sollte man denen vielleicht mal auf die Finger klopfen!
Schön dass die Treiber keine ältere Hardware unterstützen. Nach zehn Jahren kann man seine HW auch ruhig mal upgraden anstatt rumzujammern wie schlecht Spiele von 2023 doch auf der zehn Jahre alten Hardware laufen. Man muss ja auch nicht so deppert sein 1500€+ nur für eine GPU ausgeben. Aber mit der 4090 klappts diesmal auch ganz sicher mit den 60 FPS in Skyrim. ;)

Cyberpunk übrigens ganz schlechter Benchmark Titel, das Ding ist vollgepackt mit Nvidia Technologie (und ich rede nicht von dem offensichtlichen Zeug wie DLSS) und läuft dementsprechend auch wie Grütze auf Karten von Intel und AMD sobald man Raytracing anstellt (Was Retracing ist weiß ich nicht).

Als positives Gegenbeispiel das zeigt was auch mit AMD möglich ist, wenn ein Entwickler nicht nur für einen Hersteller optimiert, hier mal Fortnite - Settings stehen im Header:
image.png
 
Zuletzt bearbeitet:
Man muss ja auch nicht so deppert sein 1500€+ nur für eine GPU ausgeben

Na ja, muss halt jeder selber wissen, zu welchen Zwecken er/sie sich die GraKa kauft.
Ob die ARC,AMD,NVidia, dann ihre Leistung bringt, oder es zu einem entsetzten Aufwachen kommt, wird sich dann spätestens zeigen, wenn es ruckelt wie in einer Dia-Vorführung. ;)

Meine GTX1080ti brachte bis zuletzt ihre 60 FPS bei Skyrim.
Deren Problem waren ihre 11GB VRAM, welche am Anschlag lagen.

Ich war so "deppert" und hatte sogar über 1500€ für meine RTX4090 bezahlt, und ich wäre jederzeit wieder so deppert. :)
Denn ich bin mit der GraKa hochzufrieden.

Jetzt hoffe ich nur, dass deren Leistung bis nächstes Jahr reicht. :D
 
Zuletzt bearbeitet:
Als positives Gegenbeispiel das zeigt was auch mit AMD möglich ist, wenn ein Entwickler nicht nur für einen Hersteller optimiert, hier mal Fortnite - Settings stehen im Header:
Eher ein schlechtes Beispiel. Eine RX 7900 XT ist fast das Flaggschiff und kostet einiges mehr, als eine RXT 4070, welche sich im oberen Mittelfeld austobt. Wir sehen doch hier, dass selbst Nvidia mit kleineren Karten überlegen ist. AMD hat bei den Grafikkarten sehr abgenommen, mittlerweile sind dich auch nicht mehr so günstig und kleine Karten kommen mit merklicher Verzögerung. Gegen DLSS 3.0 hat AMD nichts einzusetzen, zwar waren diese immer beim VRAM großzügig, aber das wars auch wieder. Bei Raytracing sieht es momentan auch nicht besser aus und der Sprung mit der 4000er Serie von Nvidia ist einfach gigantisch.

Ich habe selbst noch eine AMD-Karte drin, aber werde auch auf Nvidia wechseln, größter Punkt für ESO gibt es DLSS 2.2 und DLAA, AMD bekam in ESO nur FSR 1.0. Aber auch andere Sachen stören mich. Allgemein muss ich aber sagen, dass alle Karten einfach zu teuer sind.
 
Eine 7900XT sollte locker mit einer 4080ti mithalten. Da stimmt entweder was mit dem Spiel nicht oder die haben beim Test gemurkst. Oder die Treiber sind einfach noch scheisse, das wird sich aber ändern, ist immer so.

Meine 6750xt ist gleichauf mit einer 3070 und manchmal sogar mit einer 3070ti. Das kommt ganz auf das Spiel an, manchmal liegt AMD vorn, dann wieder Nv, das AMD so schwer nachgelassen hätte ist natürlich Unsinn. Seit der 5000er Reihe sind sie im Aufwind u konnten ihre Architektur drastisch verbessern. Hier wird grad so getan als ob da 200 FPS Unterschied wären, ist natürlich Blödsinn.

Was Raytracing angeht ist AMD erst in zweiter Generation, da war Nv auch nicht wirklich zu gebrauchen. Außerdem ist der Treibersupport für ältere Karten bei AMD ungleich besser, die Performance legt zu und nicht umgekehrt wie bei den Grünen, die supporten nur die neuesten entscheidend. Meine letzte Nv war die GTX 1060, der konnte ich beim altern regelrecht zusehen. Von gut bis ungenügender Performance in wenigen Monaten. Niewiedia für mich
 
Zuletzt bearbeitet:
Einige von euch erinnern sich vielleicht noch an die Zeiten von Crysis-1.
Das Spiel, welches jeden PC alt und verstaubt aussehen ließ, weil die Hardware-Anforderungen extrem hoch waren.
Jeder, der es mit maximalen Einstellungen zocken wollte, benötigte die schnellste Grafikkarte, welche es zu kaufen gab.
Das war damals eine GTX-8800.

Jetzt gibt es ein Spiel, welches selbst eine RTX-4090 in den Keller schickt, spielt man es mit den nativen Einstellungen.
Das Spiel heißt: "Alan Wake 2" !
Nur mit DLSS, bzw. FSR2 ist das Spiel bei maximaler Einstellung spielbar.
Dann allerdings auch bereits mit einer RTX-4070.

Das Spiel startet erst gar nicht, wenn sich im PC eine GTX1080ti, bzw. RX5700XT, oder vergleichbare Grafikkarte befindet.
https://www.heise.de/news/Alan-Wake...TX-1080-Ti-und-Radeon-RX-5700-XT-9341389.html

Allerdings bietet das Spiel nun auch Funktionen, die AMD-Grafikkarten völlig fremd sind, aber unter einer RTX4070 aufwärts, fantastisch aussehen lassen.
DLSS/DLAA und Raytracing, kennt jeder, ...aber wer kennt RayReconstruction und PathTracing, etc., die nun im Spiel "Alan Wake 2" zur Verfügung stehen.

Hier mal ein Video dazu, und die neuen Funktionen erklärt:

Wenn andere Spiele-Entwickler nun auch auf diesen Zug aufspringen, kann sich AMD warm anziehen.
Womöglich wird auch The Elder Scrolls VI dann diese Funktionen beinhalten, wenn die Entwicklung des Spiels noch ein paar Jahre auf sich warten lassen.

Zur Spiele-Vorstellung:
https://www.elderscrollsportal.de/themen/alan-wake-2.56384/