thesen bezüglich grafikkarten, monitiren und spielgefühl

Begonnen von Seth, 17. Dezember 2008, 13:24:02 Uhr

⏪ vorheriges - nächstes ⏩

0 Mitglieder und 1 Gast betrachten dieses Thema.

Seth

hallo

der nachfolgende text enthält thesen, die ich aus dem lesen diverser foren zusammengetragen und gebündelt habe. ein paar dieser sachen konnte ich schon selbst überprüfen, einige nicht, und deshalb würde mich interessieren, was ihr von diesen thesen haltet.
-----------------------------


das beste spielgefühl stellt sich ein, wenn man hardware hat, die das spiel durchgehend mit 120 fps darstellen kann und einen röhrenmonitor hat, der 120 hertz hat.
dann v-sync aktivieren, sofern es keinen mauslag verursacht.

das nächstbeste spielgefühl stellt sich ein, wenn man hardware hat, die das spiel durchgehend mit 85 fps darstellen kann und einen röhrenmonitor hat, der 85 hertz hat. dann v-sync aktivieren, sofern es keinen maus-lag verursacht.

falls v-sync mauslag verursacht, die fps manuell per config auf entweder 85 oder 120 fps festlegen, je nach hertz des monitors und leistungsfähigkeit der grafikkarte. Die fps müssen konstant festgelegt werden, so dass sie nicht schwanken, das macht das spiel flüssiger.
alternativ kann der fps-wert den hz wert des monitors übersteigen, dann muss man jedoch mit tearing leben.


erklärung:

erst ab 120 fps (konstant) werden spiele richtig smooth.
85 fps ist auch ausreichend, 120 ist jedoch spürbar besser.

tearing sind bildstörungen, die dann auftreten, wenn die fps, die die grafikkarte liefert, höher ist als die hertz zahl, die der monitor hat. das bedeutet, die grafikkarte sendet mehr fps, als der monitor darstellen kann. wie unangenehm das tearing ausfällt, ist je nach engine und spiel unterschiedlich, und wie sehr tearing stört, ist ebenfalls individuell verschieden. oft fällt (mir) tearing in schnellen muliplayer-shootern nicht sehr auf.

v-sync bedeutet, dass die grafikkarte sich automatisch mit dem monitor synchronisiert, das heisst, die grafikkarte sendet nur so viel fps an den monitor, wie dieser verarbeiten, also darstellen kann.
das ergebnis ist ein sauberes bild, ein smoothes spielgefühl und kein tearing.
die nachteile sind, dass aktiviertes v-sync mehr leistung benötigt und in manchen spielen maus-lag verursacht, was diese meist unspielbar macht, besonders multiplayer-spiele.


die monitorfrage

röhrenmonitore sind besser als flachbildschirme, weil flachbildschirme immer einen viel höheren inputlag als röhrenmonitore haben, der angegeben wird in ms (millisekunden).
hoher inputlag bedeutet, dass die eingaben der maus vom monitor nicht so schnell verarbeitet/dargestellt werden können wie bei röhrenmonitoren.
ausserdem verursachen flachbildschirme oft schlieren bei schnellen mausbewegungen.
dafür soll aber angeblich der tearing effekt nicht so sehr auffallen.
flachbildschirme haben ausserdem den nachteil, dass das bild nur in guter qualität dargestellt wird, wenn man die native auflösung des monitors einstellt, die abhängig ist von der größe des monitors. also großer monitor = höhere auflösung.
das ist insofern unpraktisch, als dass eine hohe auflösung meistens sehr viel leistung frisst.
hat der monitor beispielsweise eine native auflösung von 1200 x 1600 und die grafikkarte kann das spiel in dieser auflösung nicht ruckelfrei darstellen, muss eine niedrigere auflösung gewählt werden. in diesem fall muss der monitor "runterskalieren", was sich in einer schlechteren bildqualität äussert.

Tunefreak

Hi Seth

Die Thesen widersprechen sich teilweise etwas, bzw. überschneiden sich bei manchen Themen. Deshalb habe ich das Ganze mal überarbeitet:


Zuerst einmal: Spiele sind nicht erst mit 120 Frames flüssig, dafür reichen schon ~20 aus. Ab 30 FPS ist es für das Auge absolut flüssig.

V-Sync steht für Vertikale-Synchronisation, Funktionsweise und Sinn erkläre ich mal mit einem Beispiel:
Ein Monitor wird beispielweise mit 1024x768 Pixel und 60 Hz (Bilder pro Sekunde) betrieben. Die Grafikkarte liefert 120 PFS (=Frames per second) und ist somit doppelt so schnell.
Die fertig gerenderten Bilder werden von der Graka in den Frame-Buffer geschriebendenen (Davon gibt es zwei). Immer wenn das aktuelle Bild fertig ist, wird auf den jeweils anderen umgeschaltet.
Da der Monitor aber nur halb so schnell ist wie die Graka, stellt er zusammengesetzte Bilder dar, nämlich eine Hälfte vom "alten" und die andere Hälfte vom "Neuen"

Dieser Effekt heißt Tearing.
Wenn man bei einem Ego-Shooter schnell die Sicht ändert, der Unterschied zum vorherigen Bild also recht groß ist, bemerkt man diese Teilbilder ziemlich deutlich.

Der Sinn von V-Sync ist es, mit dem umschalten der Frame-Buffer immer so lange zu warten, bis der Monitor ein komplettes Bild dargestellt hat und wieder von vorne beginnt.
Somit hat man nur ganze Bilder auf dem Schirm, was besser aussieht.

Der Nachteil ist allerdings, das Bilder doppelt dargestellt werden, wenn die Grafikkarte zu langsam ist, da der Monitor ja schlecht warten kann.
Wenn die Graka also nur 50 Frames liefert und der Monitor mit 60 Hz läuft, werden nur 30 Frames angezeigt, da die Graka jedesmal nicht fertig ist wenn der Bildschirm von vorne beginnt:
Der Frame-Buffer kann (aufgrund von VSync) nicht umgeschaltet werden - der Monitor zeigt das "alte" Bild nochmal - das neue Bild wird erst dann dargestellt, wenn der Monitor mit dem alten Bild wieder fertig ist.

Ist also wie mit dem Bus: knapp verpasst heißt warten.


Zur Monitorfrage ein Zitat von Grafikkartenblog.de (http://www.grafikkartenblog.de/grundlagen/was-ist-die-native-aufloesung-eines-flachbildschirms.html)
ZitierenWie schon öfter beschrieben stellt ein Monitor das Bild in Form von einzelnen Pixeln, also Bildpunkten dar.
Im Idealfall entspricht jeder von der Grafikkarte ausgegebene Bildpunkt einem Bildpunkt auf dem Bildschirm.

Dies ist bei der nativen Auflösung gegeben und garantiert optimale Bildschärfe.
Wenn Sie eine niedrigere Auflösung einstellen entspricht ein Bildpunkt der Grafikkarte mehreren Punkten auf dem Monitor, was ein unscharfes Bild verursacht.

Den Vorgang des Hochrechnens nennt man interpolieren. Je stärker der Monitor interpolieren muss, umso unschärfer und verschwommener wird das Bild.
Deshalb empfiehlt sich bei einem Monitor mit hoher Auflösung eine starke Grafikkarte, da in Spielen hohe Auflösungen viel Leistung brauchen.

Der "input lag" ist die Zeit, die der Flachbildschirm braucht, um das Bild zu interpolieren. Wenn diese Zeit zu hoch ist, hängt z.b. die Maus hinterher. (http://en.wikipedia.org/wiki/Input_lag (http://en.wikipedia.org/wiki/Input_lag)
Ein Röhrenmonitor muss nicht interpolieren, daher ist er fürs Gamen eher geeignet.


Ich hoffe, das hilft dir weiter :)
Wie du willst, das man dich behandelt, so behandel die anderen auch

Mein kleines Sys

Seth

wenn ein shooter aber mit 30 fps läuft, ruckelt das bild beim bewegen der maus stark. erst ab ca 80 fps wird die mausbewegung weich. wie ist das zu erklären?

und mich würde interessieren, warum VSync bei manchen spielen maus-lag hervorruft