Mich amüsiert es, wenn ein Modder die Texture für ein Gesicht mit 4096*4096 Pixel (4k) erstellt. Diese tolle Auflösung kann der Spieler ja nur dann zu Gesicht bekommen wenn sein Bildschirm eine Auflösung von 5400x4096 Pixel hat UND er bei dem Spiel "nur das Gesicht" als Vollbild angezeigt hat (Close Up). Und wie oft ist dieses denn der Fall?
Moderne Computermonitore und Grafikkarten unterstützen Bildgrößen bis zu 2560 × 1920 Pixeln. aber welcher Spieler spielt in solch einer Auflösung? Von 5400x
4096 Pixel ganz zu schweigen. So ein Monitor hat niemand von uns.
Das Bild muss nun 60 mal pro Sekunde aufgebaut werden ... also in "Echtzeit" (Real Time). Die Grafikkarte muss also sehr sehr schnell diese 4K Texture verkleinern um auf den Monitor zu passen (Falls keine Mip-Maps verwendet werden).
Schnell bedeutet natürlich eine schlechte Qualität. Für Qualität fehlt die Zeit. So oder so (Mip-Maps) der Spieler bekommt diese HQ Texture niemals zusehen.
Die "High Quality" (HQ) Texture erzeugt also ein "Low Quality" (LQ) Bild als Ergebnis. Eine 1024x1024 (1K) LQ Texture dagegen erzeugt ein besseres HQ Ergebnis.
Zum Speicherbedarf ist zu sagen dass jeder Pixel mit mindestens 4 Byte (RGBA) zu Buche schlägt. Auf der Grafikkarte sogar mit 16 Byte (unter DirectX 9c).
Eine 1K Texture belegt im Hauptspeicher also 4 MB Speicher und auf der Grafikkarte bereits 16 MB.
Eine einzige 4K Texture belegt im Hauptspeicher also 64 MB Speicher und auf der Grafikkarte bereits 256 MB.
Wenn ein Modelle also 4 Texturen hat, dann platzt bereits eine Grafikkarte mit 1 Giga Byte Speicher aus allen Nähten --> Bildfehler oder CTD