Du bist nicht eingeloggt! Möglicherweise kannst du deswegen nicht alles sehen.
  (Noch kein mods.de-Account? / Passwort vergessen?)
Zur Übersichtsseite
Hallo anonymer User.
Bitte logge dich ein
oder registriere dich!
 Moderiert von: Atomsk, dancing_quake, GarlandGreene, Sharku


 Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi )
« vorherige 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 [63] 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 nächste »
erste ungelesene Seite | letzter Beitrag 
Radde

[F-RAT]PadMad
Mal vorab ne abklärung ob das später auch so läuft wie ich mir das vorstelle:
Ist-Zustand Radeon 6850
Hauptmonitor Dvi <-> Dvi GraKa
Nebenmonitor VGA <-- Adapter-> DVI Graka (ich glaube 2x DVI ging nicht)
HDMI Kabel steckt einseitig drin und wird bei bedarf in TV angeschlossen, das schaltet sich dann automatisch um wie ich es brauch.

Geplant ist nun eine GTX 980, die hat aber nur noch einen DVI Port.
HDMI soll wie sonst auch bei bedarf für TV herhalten.
Nun die Frage ob ich Hauptmonitor mit Adapter DVI auf einen Displayport stecke und den Nebenmonitor von DVI auf DVI.
Sind da Konflikte vorprogrammiert oder werd ichs erst sehen wenn es so weit ist?
15.09.2015 14:23:12  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
red

AUP Redh3ad 11.10.2009
Pfeil
funktioniert
15.09.2015 15:12:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
hängt ganz stark von den controller chips auf der grafikkarte, dem adapter und im monitor ab ob das sauber läuft.

ich hab hier nen eizo monitor stehen der da nicht mitspielt.
drei verschiedene adapter versucht, mit unterschiedlichen chips, zwei grafikkarten und andere kabel. jeweils kein erfolg. mit nem nativen dvi-d anschluss gehts sofort.

irritierend an der geschichte, stecke ich das teil mit irgendeinem der adapter an den laptop mini-dp port, dann läufts sofort.
dafür macht hier ein nativer DP HP monitor des öfteren probleme.

im grunde sollte das aber, wie red schon sagte, eigentlich funktionieren.

tipp, sollte das mit dem DP nicht funktionieren, nimm den HDMI für den monitor und versuch das TV via nem DP->HDMI adapter zu nutzen.
das funktioniert aus meiner erfahrung raus oft unproblematischer, weil die HDMI chips in den TVs oft einfach robuster / besser sind, weil die mit allem möglichen chip müll umgehen können müssen / sollen.
15.09.2015 15:36:47  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Radde

[F-RAT]PadMad
Dann transportiert DisplayPort auch den Ton?
15.09.2015 15:40:15  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
prinzipiell ja.

die DP spezifikation beschreibt einen verbindungsstandard der nahezu alles, was paket orientiert übertragen werden kann, übertragen kann.

das ist z.b. der grund, warum man darüber video, audio, ethernet, usb, firewire, thunderbolt und sogar PCIe übertragen kann.

die frage ist halt, und das kann ich dir so spontan nicht beantworten, ob die hardwarehersteller das auch implementiert haben.
15.09.2015 16:06:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
NetHunter80

Guerilla
Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich, nur die Steckerform ist anders. Noch dazu meine ich, dass DP/HDMI im Grunde DVI + Digitaler-Ton ist. Insofern sollte es da eigentlich jede Menge Adapter geben, ohne viel Logik drin.

Schizophrenia is my excuse for statements made in contrast.
15.09.2015 19:56:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von NetHunter80

Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich


nope.

HDMI und DVI ist TMDS und DP ist LVDS.
HDMI und DVI nutzen 5V, DP 3.3V.

HDMI ist zu DVI kompatibel.

DP kann HDMI/DVI TMDS anbieten, wenn es sich um einen DisplayPort++ port handelt.
der muss dann allerdings auch von den chips vollständig unterstützt werden.
damit verliert man dann allerdings einige der DP funktionen wie z.b. MST (mehrere displays an einem port) und die unterstützung für auflösungen grösser 1920x1200@60Hz an der dann vorhandenen HDMI/DVI seite, da hier nur single-link DVI/HDMI vorhanden ist.

dazu kommt noch, dass du da immer nen satz von chips zwischen der grafikkarte und dem display hast, was zu unlustigen problemen führen kann.
15.09.2015 22:12:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Radde

[F-RAT]PadMad
Gerade nachgeschaut und gesehn das mein neuerster monitor sogar DP anschluss hat \o/ Dann müsst ich zumindest nix mit adapter machen.
15.09.2015 23:07:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
NetHunter80

Guerilla
 
Zitat von Traxer

 
Zitat von NetHunter80

Meines Wissens nach ist DP und HDMI elektrisch und vom Protokoll her gleich


nope.

HDMI und DVI ist TMDS und DP ist LVDS.
HDMI und DVI nutzen 5V, DP 3.3V.

HDMI ist zu DVI kompatibel.

DP kann HDMI/DVI TMDS anbieten, wenn es sich um einen DisplayPort++ port handelt.
der muss dann allerdings auch von den chips vollständig unterstützt werden.
damit verliert man dann allerdings einige der DP funktionen wie z.b. MST (mehrere displays an einem port) und die unterstützung für auflösungen grösser 1920x1200@60Hz an der dann vorhandenen HDMI/DVI seite, da hier nur single-link DVI/HDMI vorhanden ist.

dazu kommt noch, dass du da immer nen satz von chips zwischen der grafikkarte und dem display hast, was zu unlustigen problemen führen kann.


Dann habe ich wohl im Hirn HDMI und DP vertauscht und behaupte das Gegenteil.

Schizophrenia is my excuse for statements made in contrast.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von NetHunter80 am 16.09.2015 3:07]
16.09.2015 3:07:36  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Radde

[F-RAT]PadMad
narf warum liegt nur ein 6zu8 pin strom adapter bei Wütend
jetzt darf ich erstmal einen 2. besorgen...
18.09.2015 17:15:39  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
weil die kartenhersteller davon ausgehen - zu recht - das netzteile, die keinen 8 pin anschluss haben in aller regel nicht genug leistung über das entsprechende rail zur verfügung stellen können.

soll heissen, hat dein netzteil keine 8 pin anschlüsse, dann ist es nicht dafür ausgelegt entsprechende leistungen über das kabel abzugeben.
das kann funktionieren, es kann aber auch dazu führen, dass dir das netzteil den blauen rauch freigibt und alles in deinem system brutzelt, wenn es keine gute absicherung gegen überspannung auf den internen rails hat. (letzteres schon gehabt)

schau dir bitte genau an, wieviel ampere das netzteil über die rails auf dauer (!) abgeben kann, bevor du da anfängst sowas zu basteln.
18.09.2015 17:39:07  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Radde

[F-RAT]PadMad
Netzteil ist das
 
NETFOR500_APN Silent Netzteil 500 Watt Fortron, 12cm Lüfter, 85+ [ Modell: FSP500-60 APN ] [ 80 Plus Bronze
Zertifizierung ] [ 12 cm Silent Lüfter ] [ Geräuschniveau < 28 dB(A) Volllast (temperaturgeregelt) ] [
Stromversorgung: 230 Volt / 60/50 Hz ] [ Aktives PFC ] [ Überspannungsschutz (bis 1800 VAC für 1 sec.)
] [ MTTF: 100.000 Stunden bei 25 °C ] [ max. Ausgangs-Eigenschaft: +3,3V/ 24A, +5V/ 24A, +12V1/ 18A,
+12V2/18A, -12V/0,5 A, +5VSB/ 2,5 A ] [ 100 % Funktionsgetestet ( Chroma ) ] []


Auf der nvidia seite stand für die gtx 980 auch 500W mind. und 2x6pin, die MSI karte mit dem chip jetzt hat auf einmal 2x8pin
18.09.2015 18:21:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Fersoltil

AUP Fersoltil 07.04.2015
Eine Radeon R9 280XRadeon R9 280X oder eine nVidia GTX960oc?
e: oder was ganz anders für ~200¤

Aus der R9 werd ich nicht schlau. Die hat durch die Bank bessere Werte, aber es gibt R9 280x Modelle von 180¤ bis 300+¤ und sehen bis auf bischen Taktfrequenz total baugleich aus. Was übersehe ich da?
Die Liste bei gh.de
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Fersoltil am 23.09.2015 2:43]
23.09.2015 2:39:10  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
380 das ist wenigstens ein neuer chip demnächst (TM) soll auch eine 380x kommen.
23.09.2015 2:47:10  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Fersoltil

AUP Fersoltil 07.04.2015
haha, geil. und 20¤ weniger als die GTX. Das hab ich davon mit Fanbrille da ran zu gehen.
23.09.2015 2:51:03  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
b4ckspin

tf2_medic.png
Hi
Wollte mir eine Grafikkarte bestellen ( SAPPHIRE NITRO R9 390 8GB )
jetzt sagt der shop das die nicht mehr lieferbar ist.

Ich bräuchte jetzt eine vergleichbare (Preis/Leistung) aber weiss nicht so recht welche gut wäre.
05.10.2015 19:17:43  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
ich bin mit den xfx black edition karten bisher recht zufrieden gewesen.
05.10.2015 19:48:19  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Vasco da Gamer

Marine NaSe
amuesiert gucken
 
Zitat von b4ckspin

Hi
Wollte mir eine Grafikkarte bestellen ( SAPPHIRE NITRO R9 390 8GB )
jetzt sagt der shop das die nicht mehr lieferbar ist.

Ich bräuchte jetzt eine vergleichbare (Preis/Leistung) aber weiss nicht so recht welche gut wäre.



Welcher Shop ist es denn? Ich glaube die "normale" Sapphire 390 läuft wohl aus und wird durch die hier mit Backplate ersetzt.

http://geizhals.de/sapphire-radeon-r9-390-nitro-backplate-11244-01-20g-a1326323.html

Laut dem Test bei CB taugt die Powercolor 390 PCS+ auch einiges!

http://www.computerbase.de/2015-10/neun-radeon-r9-390-x-partnerkarten-test/4/

http://geizhals.de/powercolor-radeon-r9-390-pcs-axr9-390-8gbd5-ppdhe-a1282774.html
[Dieser Beitrag wurde 3 mal editiert; zum letzten Mal von Vasco da Gamer am 06.10.2015 20:01]
06.10.2015 19:58:26  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Abtei*

AUP Abtei* 11.06.2012
Mit dem abwandern eines weiteren "Key" AMD Mitarbeiters, diesmal zu Nvidia, glaubt Nvidia sich alles erlauben zu können.

wie z.B. den Treiberbezug einzuschränken bzw. nur gegen Registrierung/Rausgabe von Daten.

Gut, ne Wegwerfmail ist schnell gemacht, trotzdem sollte man nicht zu solchen Maßnahmen gezwungen werden. das gehört sich nicht und sollte unterbunden oder boykotiert werden. Und das sage Ich ohne murren und knurren als nvidia fanboi.

So ein Scheiss nicht mit mir.
17.10.2015 17:25:48  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Xerxes-3.0

AUP Xerxes-3.0 07.09.2008
Hatte ich auch gesehen.
Quartalsmäßig wird man weiterhin aktuelle Treiber bekommen, aber die für neue Speiel optimierten kriegt man nur noch über GF Experience. Pillepalle
17.10.2015 17:27:50  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
ist auch besser so.

damit sterben diese treibertricks vielleicht dann zur erleichterung der entwicklungsarbeit endlich mal aus.

es ist sehr spassig, wenn man nach einem rendering bug sucht um dann nach mehreren tagen festzustellen, dass man selber dafür gar nichts kann, da der tolle treiber den produziert.

mal ganz abgesehen davon würde nvidia ein längerer releasezyklus auch gut tun, denn die qualität der letzten treiber war...erm... unter aller sau, was regressions und neue bugs anging.


der andere punkt, warum ich es generell befürworten würde, wenn die IHVs keine treiber "optimierungen" mehr produzieren würden ist, dass die benchmarks dann tatsächlich mal die hardware messen würden und nicht nur wie gut ein treiber team tricksen kann.
das ist bei sowohl AMD, als auch Nvidia bekannt das sie das beide machen. letztere machen es aber sehr viel häufiger und extremer, vermutlich weil sie ansonsten nicht mehr vor der konkurrenz wären.

man hat es ja in ansätzen schon gesehen, dass dem so ist.

ganz ehrlich gesagt, ich finde es ein wenig peinlich was nvidia da die letzten jahre so abzieht. sie hätten es eigentlich nicht notwendig, selbst wenn sie nicht die schnellsten chips hätten, würden sich die karten nicht wirklich schlechter verkaufen und bei dem vorsprung den die nach wie vor am markt haben, würde das auch noch eine ganze zeit dauern bis denen das zu einem problem wird. in der zeit könnte man vermutlich zwei bis drei neue chip architekturen entwickeln.

/e
übrigens so ganz neu ist das einschränken bei nvidia nicht, die entwickler tools die über jahre hinweg so zu bekommen waren sind seit gut 2 jahren hinter nem zaun versteckt, hinter den man nur nach akkreditierung gelassen wird und dann steht man vor dem nächsten.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Traxer am 17.10.2015 19:54]
17.10.2015 19:52:29  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Lunovis

AUP Lunovis 27.11.2007
gesucht:

grafikkarte, die es leistungsmässig mit einer in die jahre gekommenen gtx 560 ti aufnehmen kann, dabei aber wenn möglich passiv gekühlt ist.

ziel ist nicht, die performance zu verbessern, ich brauch nur was mit derselben leistung aber ohne kaputten lüfter zumindest bis ich die ganze maschine welchsle (grob geschätzt dann, wenn star citizen betatauglich wird, also in 5-6 jahren)
31.10.2015 14:16:37  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
da gig

tf2_spy.png
ich will meinen monitor upgraden, dafür brauchts dann aber auch ne neue grafikkarte.

jetzt steh ich vor der qual der wahl:

entweder r390 oder gtx970
und entweder Dell P2415Q (4k) oder U2515H (1440p).

also ich meine wenn ich den 4k monitor nehme sollte es die r390 sein wegen den 8gb vram, aber leider ist der 4k auch ein wenig kleiner (60cm zu 63cm diagonale) und ich hab keinen optischen vergleich ob mir die 4k die 100euro extra wert ist.

irgendwelche nützlichen erfahrungswerte dazu?
02.11.2015 20:07:05  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
lel 4k, du willst eine Fury. Also wenn die mal 8Gb hat, nächstes Jahr. Wobei da 4GB auch reichen sollten, wenn man keine Mods mit >9000 Texturen installiert.
[Dieser Beitrag wurde 2 mal editiert; zum letzten Mal von Bregor am 02.11.2015 20:10]
02.11.2015 20:08:22  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
da gig

tf2_spy.png
spiele sind csgo und diablo 3, da brauchts kein pixelmonsterrechner.

geht mir bei den 8gb auch darum, dass ich nicht wie akutell auf ein hardwarelimit laufen will.

meine 6950 mit 1gb kann nämlich nichtmal die battlefront beta starten, das soll mir mit der neuen graka nicht passieren.
also in 4-5jahren.

maximum in 4k wird dann eh nicht drin sein.
02.11.2015 20:17:55  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
http://www.tweaktown.com/tweakipedia/89/much-vram-need-1080p-1440p-4k/index.html

4K braucht momentan nur selten mehr als 4GB.

Aber ist ja auch egal, wichtig ist das der Chip das mit macht und die FPS nicht einbrechen. Da ist ne Fury oder 9800 TI schon nötig.
[Dieser Beitrag wurde 1 mal editiert; zum letzten Mal von Bregor am 02.11.2015 20:24]
02.11.2015 20:21:08  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
TheRealHawk

AUP TheRealHawk 26.11.2007
Denke beim Hardwarekauf nie an die Zukunft.
- Josef Stalin
02.11.2015 22:55:18  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
Bei 4k brauchst Düne graka die das auch flüssig auf den Bildschirm zaubert und da sind die momentanen schon nicht soooo gut.
02.11.2015 22:58:17  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Traxer

Mod GSG9
 
Zitat von Bregor

http://www.tweaktown.com/tweakipedia/89/much-vram-need-1080p-1440p-4k/index.html

4K braucht momentan nur selten mehr als 4GB.


man sollte schon die richtigen seiten mit leichten technischen fehlern verlinken: http://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html

die direkt am anfang aufgeführten pixel werte stimmen nicht so ganz mit dem, worüber im artikel geredet wird.
sobald du AA aktivierst renderst du naiv gesehen "vertical pixel count * horizontal pixel count * AA subpixel count".
das ist naiv gesehen korrekter, aber verschweigt nach wie vor, dass da eine gewaltige menge mehr durch die pixelshader, blendstages und die ROPs wandert alleine um einen nicht AA frame zu rendern. sobald du da irgendwas simples wie alpha blending drin hast fliegt da mehr durch die blend stages.

davon abgesehen hat die pure anzahl von pixeln die auf dem display dargestellt werden können, absolut nichts mit dem zu tun, was du an VRAM benötigst. da liegen gut 99% mehr an daten drin, die nur indirekt was mit dem frontbuffer zu tun haben (das wäre der der dem dargestellten bild entspricht).
direktes frontbuffer rendern macht man seit ca. anno 1995 nicht mehr, weil du in zu vielen fällen dem renderer direkt beim pixel ein und ausschalten zusehen konntest.

das was in dem artikel ebenfalls nicht berücksichtigt wird ist, dass das OS und andere anwendungen dort ebenfalls daten im VRAM liegen haben.
hier störe ich mich alleine schon daran, dass nicht klar aus dem artikel hervorgeht, womit gemessen wurde, auf was für einem system (die hardware und das OS sind gelistet, sonst nichts), was noch mit auf war, etc. das sind alles sachen, die den VRAM verbrauch beinflussen können und in der praxis auch tun.
mal ganz zu schweigen von der frage, was genau wurde überhaupt gemessen? war es der vom OS gemeldete VRAM verbrauch total, der der anwendung oder der vom treiber gemeldete?
werte die vom OS stammen sind immer ein wenig, wenig nützlich für diese art von messung, da diese daten "alt" sind und häufig geglättet, da diese häufig als 32-bit unsigned integer von der API in KB zurückgegeben werden.
sollte es sich sogar um werte handeln, welche pro applikation ermittelt sind, dann ist da noch weit mehr problempotential vorhanden, da diese werte immer nicht der realität entsprechen, da hier das OS etwas abschätzt auf basis der durch den treiber / die API geflossenen daten. die liegen aber teilweise in komprimierter form im VRAM oder halt auch gar nicht, wenn ein früher check sagt, dass diese nicht benötigt werden. (das macht man um PCIe bandbreite zu sparen)

was diese werte ebenfalls nicht aussagen ist, dass du den VRAM nicht zu 100% nutzen kannst, da nahezu alle payload daten (die reinen nutzdaten) entsprechende meta daten und paddings mit sich bringen, damit auf sie optimal zugegriffen werden können.

im falle von so einigen spielen, die für den test genutzt wurden, wird ebenfalls nicht berücksichtigt, dass hier compute shader verwendet werden und diese ebenfalls auf der GPU laufen und den VRAM verwenden. das wird dir von z.b. den Direct3D APIs aber nicht als VRAM verbrauch korrekt gemeldet.

das waren jetzt nur grundlegende sachen, die mir aufgefallen sind und warum ich mit dem "test" mal wieder nichts anfangen kann.

im übrigen, es wird in dem "test" explizit von average (durchschnitt) werten geredet, dass ist sicherlich ein interessanter wert, aber der peak wert wäre hier sehr sehr viel relevanter und wichtiger, da deine framerate direkt für mehrere frames abraucht, wenn du auch nur ein einzelnes byte über die mögliche menge an nutzbarem VRAM kommst. in dem fall muss dann nämlich etwas aus dem VRAM geschmissen werden und der ganze kram über den PCIe bus geswappt werden.
das verhält sich recht gleich zu dem swapping auf eine festplatte und ist ähnlich lahm.
kurzer grössenvergleich für optimal ablaufende swaps:
GPU<->VRAM bandbreite (GDDR5 512-bit) ca. 350 GB/s
GPU<->RAM (DDR3 1600, via PCIe 3 x16) ca. 20 GB/s (speicher kann ca. 25 GB/s, der PCIe 3 x16 bus ca. 32 GB/s)
CPU<->RAM (DDR3 1600) ca. 25 GB/s
CPU<->RAM<->SATA SSD (SATA 3 6Gbit/s) ca. 650 MB/s

sobald du über den nutzbaren VRAM hinausläufst, fällst du von dem bekanntesten aller performance cliffs.
der nutzbare VRAM ist wie schon erwähnt nicht die 1,2,3,3.5,4,6,8 oder 12 GB VRAM, sondern ein teil davon.
effektiv nutzbar auf z.b. einer 4 GB nvidia karte sind in etwa 3.8-9 GB. der rest geht für paddings und meta daten drauf. bei AMD und intel ist das nicht wesentlich anders, aber es gibt leichte unterschiede, weil jeder chips ein anderes padding haben will und andere meta daten.

der test liefert dir also nur eine aussage zu dem teil, den du erlebst so lange das spiel bzw. die anwendung nicht in eine situation kommt in der es / sie spontan mehr machen muss als üblich. in GTA V oder BF wären das z.b. grosse spielermengen auf einem haufen oder grosse explosionen mit vielen partikeleffekten.

 
Zitat von Bregor

4K braucht momentan nur selten mehr als 4GB.


das liegt an zwei faktoren, 1) der test ist murks, 2) es gibt bisher keine spiele die darauf ausgelegt sind, was texturen und co angeht. das wird alles mit den gleichen daten gefüttert die für 1080p ausgelegt sind. aus diesem grund sehen 4K spiele bisher auch nicht so sonderlich beeindruckend aus.
kommen da die ersten mit nativ für 4K erstellten texturen und co raus, dann sehen die spiele anders aus, der VRAM verbrauch wird bei aktuellen streaming methoden die 8 GB marke weit hinter sich lassen und die install grösse wird die 100 GB marke überschreiten.

eine 4K oder 8K option in einem video settings menü zu haben sagt nicht darüber aus, ob das spiel das auch tatsächlich mit assets hinerlegen kann.
ich kann dir auch gerne eine Q3 version geben die 8K rendert. ist kein problem, die läuft dann aber vermutlich ohne weiteres auf ner 7790 (2GB) bei 60 FPS.

 
Zitat von Bregor

Aber ist ja auch egal, wichtig ist das der Chip das mit macht und die FPS nicht einbrechen. Da ist ne Fury oder 9800 TI schon nötig.


die rechenleistung aller momentan verfügbaren chips ist für 4K 60fps nicht ausreichend, wenn man nicht die details auf mittel bis niedrig stellen will.
das kann bei vielen spielen momentan funktionieren, weil, wie schon gesagt, keines davon mit richtigen 4K assets daher kommt. garantieren wird und kann dir das aber niemand.

wenn du wirklich sauberes 4K 60fps haben willst, dann benötigst du dafür ein multi GPU setup. hier bekommt man dann aber sehr schnell ganz andere probleme als die der rechenleistung oder des speicherverbrauchs. die synchronisation zwischen den beiden karten ist nicht immer so ganz unproblematisch bei den aktuell verwendeten renderern.
ein einzel karten setup ist einem MGPU setup immer (aktueller stand der technik) vorzuziehen!

basierend auf den aktuellen chips mit aktuellen spielen und engines ist der hauptgrund, warum dir die FPS gelegentlich bei 4K wegbrechen der VRAM verbrauch. wie schon gesagt, wenn die karte teile ihres resident sets aus dem VRAM kegeln muss und das dann wieder über den PCIe bus holen muss, dann springst du gerade von einem sehr hohen performance cliff und versuchst dabei gut auszusehen.

das passiert in der geschichte der grafikkarten und spieleengines nicht zum ersten mal, dass es dieses cliff gibt und das viele es unerwartet herunterstürzen.
das ist halt ein effekt der auftritt, wenn man vorhandene sachen für sachen missbraucht für die sie nicht ausgelegt sind / waren.

--

um kurz auf die spiele einzugehen die von da_gig angesprochen wurden, die beiden sollten soweit ich das beurteilen kann ohne weiteres auf einer aktuellen 390X in 4K spielbar sein.
mit wie viel FPS kann ich nicht verlässlich sagen. ich würde aber auf basis der engines bei beiden von um die 60 FPS ausgehen, sofern die sauber skalieren.

wer aktuell sauberes 4K gaming haben will, der muss tief tief in die tasche greifen. da ist in aller regel auch bei der GPU nicht schluss, da viele aktuelle engines da auch eine etwas grössere CPU benötigen und es auch gerne sehen, wenn die assets dann von einer SSD kommen.
--

nur um kurz noch was zu der einleitung aus dem verlinkten test zu sagen. die einzige konsole die im durchschnitt nach wie vor sub 1080p rendert ist die XBone, weil die GPU und vor allem der speicher zu schmalbrüstig ist.
bei der PS4 habe ich mit ausnahme des aktuellen AssCred lange kein sub 1080p spiel mehr gesehen und auch schon länger keines mehr, was nicht zumindest versucht 60fps zu sein.
03.11.2015 3:47:44  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
Bregor

AUP Bregor 26.01.2009
OK Breites Grinsen
03.11.2015 8:19:02  Zum letzten Beitrag
[ zitieren ] [ pm ] [ diesen post melden ]
 Thema: Der Grafikkarten-Thread ( Jahr 2010 Edition mit Evergreen und Fermi )
« vorherige 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 [63] 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 nächste »

mods.de - Forum » Hardware & Netzwerk » 

Hop to:  

Thread-Tags:
Mod-Aktionen:
25.12.2018 13:24:26 Sharku hat diesen Thread repariert.
08.01.2010 19:11:06 Sharku hat diesen Thread angeheftet.

| tech | impressum